SecBoard
Zurück zur Übersicht

Inside Musk’s bet to hook users that turned Grok into a porn generator

AI Incident Database·
Originalartikel lesen bei AI Incident Database

But by the summer of 2025, that protocol had changed, according to two people. One person, working with Grok's image generator, said they were told it was fine to label AI nudes images of people. This person said they often encountered requ ... (https://incidentdatabase.ai/cite/1329#7108)

Kurzfassung

Der Artikel berichtet, dass sich Grok-Protokolle im Sommer 2025 geändert hätten und dass eine Person im Umfeld des Bildgenerators sagte, AI-Nacktbilder von Personen hätten als zulässig markiert werden können. Die Quelle beschreibt häufige Anfragen zu solchen Bildern. Konkrete interne Richtlinien, technische Kontrollen oder Identitäten sind nicht im Artikel angegeben.

Relevanz für Manager / CISOs
Priorität:Hoch
Betroffene

Grok-Nutzer, abgebildete Personen und xAI beziehungsweise X, soweit im Artikel genannt

Warum relevant

Unzureichende Moderation bei Bildgeneratoren kann Datenschutz-, Einwilligungs-, Reputations- und Sicherheitsrisiken für betroffene Personen und Plattformbetreiber schaffen.

Realistisches Worst Case

Nutzer könnten nicht einvernehmliche intime Bilder erzeugen oder verbreiten, während Plattformkontrollen diese Inhalte nicht zuverlässig verhindern.

Handlungsempfehlung

KI-Bildgeneratoren sollten Inhaltsrichtlinien, Moderationskennzeichnung und Schutz gegen nicht einvernehmliche intime Bilder überprüfen und auditierbar machen.

Defensive Validierung / Purple-Team Checks
  • Prüfen, ob Bildgenerierungs-Workflows klare Sperren für nicht einvernehmliche intime Inhalte enthalten.
  • Validieren, ob Moderationslabels und Freigabeentscheidungen protokolliert und überprüfbar sind.
  • Red-Team-Tests nur defensiv mit synthetischen, nicht realen Personenbildern durchführen, um Richtlinienumgehungen zu erkennen.
Offene Punkte
  • Die vollständigen internen Protokolle sind nicht im Artikel angegeben.
  • Ob bestimmte technische Schutzmaßnahmen fehlten, ist nicht im Artikel angegeben.
  • Betroffene Länder sind nicht im Artikel angegeben.
  • Konkrete IOCs oder Angriffsverfahren sind nicht im Artikel angegeben.