Un raport publicat de Center for Countering Digital Hate (CCDH) susține că instrumentul Grok (xAI), folosit pe platforma X, ar fi generat într-un interval scurt un volum foarte mare de imagini sexualizate, inclusiv imagini care ar părea să implice minori. În centrul discuției este funcția de editare rapidă a imaginilor („one-click”), care ar fi accelerat crearea și distribuirea unor astfel de materiale.
Ce cifre avansează CCDH și cum au fost estimate
CCDH afirmă că a analizat un eșantion de 20.000 de imagini dintr-un total estimat de 4,6 milioane de imagini generate în perioada 29 decembrie – 8 ianuarie (11 zile). Pe baza extrapolării, organizația estimează aproximativ 3.002.712 imagini sexualizate (adulți și minori) și circa 23.338 imagini „probabil cu minori”.
Raportul notează explicit câteva limitări importante: nu au fost analizate prompturile și nu s-a făcut o distincție între imaginile create prin editarea unei fotografii existente și cele generate exclusiv din text. De asemenea, raportul nu stabilește ce proporție din imagini ar reprezenta cazuri nonconsensuale.
Cronologia restricțiilor: ce s-a schimbat pe X
Conform CCDH, funcția ar fi explodat ca utilizare după 29 decembrie. În urma reacțiilor publice, X ar fi restricționat editarea la utilizatorii plătitori pe 9 ianuarie, iar pe 14 ianuarie ar fi introdus restricții suplimentare menite să limiteze utilizarea în scenarii de „dezbrăcare” digitală.
Chiar și așa,…




























