Un nou documentar exploziv publicat de TechCrunch dezvăluie existența unei baze de date masive, scurse accidental, care arată cum China dezvoltă și antrenează un model lingvistic de tip LLM (Large Language Model) pentru a detecta automat orice conținut considerat „sensibil” de către autoritățile chineze. Sistemul ar reprezenta un salt tehnologic în instrumentele deja sofisticate de cenzură ale Partidului Comunist Chinez (PCC), extinzându-se dincolo de subiectele tabu tradiționale, precum masacrul din Tiananmen.
Ce face modelul AI: Cenzură predictivă la scară largă
Baza de date, descoperită de cercetătorul în securitate NetAskari pe un server Baidu nesecurizat, conține peste 133.000 de exemple de postări și articole – de la plângeri privind sărăcia rurală și corupția poliției locale, până la satire politice și comentarii despre Taiwan. Acestea sunt folosite pentru a antrena un model AI capabil să recunoască automat și subtil semnalele de disidență sau critică adusă autorităților.
Instrucțiunile din codul asociat arată că modelul este programat să acorde „prioritate maximă” detectării unor teme precum:
- sărăcia rurală și inegalitățile sociale,
- corupția funcționarilor publici,
- nemulțumiri economice sau crize financiare,
- mișcări de protest, greve și dispute de muncă,
- satiră politică sau analogii istorice cu sens critic,
- chestiuni legate de Taiwan și capacitățile sale militare.
De asemenea, conținutul legat de…


























