Inside Musk’s bet to hook users that turned Grok into a porn generator
But by the summer of 2025, that protocol had changed, according to two people. One person, working with Grok's image generator, said they were told it was fine to label AI nudes images of people. This person said they often encountered requ ... (https://incidentdatabase.ai/cite/1329#7108)
Der Artikel berichtet, dass sich Grok-Protokolle im Sommer 2025 geändert hätten und dass eine Person im Umfeld des Bildgenerators sagte, AI-Nacktbilder von Personen hätten als zulässig markiert werden können. Die Quelle beschreibt häufige Anfragen zu solchen Bildern. Konkrete interne Richtlinien, technische Kontrollen oder Identitäten sind nicht im Artikel angegeben.
Grok-Nutzer, abgebildete Personen und xAI beziehungsweise X, soweit im Artikel genannt
Unzureichende Moderation bei Bildgeneratoren kann Datenschutz-, Einwilligungs-, Reputations- und Sicherheitsrisiken für betroffene Personen und Plattformbetreiber schaffen.
Nutzer könnten nicht einvernehmliche intime Bilder erzeugen oder verbreiten, während Plattformkontrollen diese Inhalte nicht zuverlässig verhindern.
KI-Bildgeneratoren sollten Inhaltsrichtlinien, Moderationskennzeichnung und Schutz gegen nicht einvernehmliche intime Bilder überprüfen und auditierbar machen.
- ▸Prüfen, ob Bildgenerierungs-Workflows klare Sperren für nicht einvernehmliche intime Inhalte enthalten.
- ▸Validieren, ob Moderationslabels und Freigabeentscheidungen protokolliert und überprüfbar sind.
- ▸Red-Team-Tests nur defensiv mit synthetischen, nicht realen Personenbildern durchführen, um Richtlinienumgehungen zu erkennen.
- Die vollständigen internen Protokolle sind nicht im Artikel angegeben.
- Ob bestimmte technische Schutzmaßnahmen fehlten, ist nicht im Artikel angegeben.
- Betroffene Länder sind nicht im Artikel angegeben.
- Konkrete IOCs oder Angriffsverfahren sind nicht im Artikel angegeben.