În iOS 18.2, Apple adaugă o nouă funcție care reia intențiile din spatele planurilor abandonate de scanare CSAM — de data aceasta, fără a compromite criptarea end-to-end sau a oferi acces guvernelor.
Inițial, funcția va fi disponibilă în Australia, extinzând funcția „Communication Safety”, care utilizează învățarea automată pe dispozitiv pentru a detecta și estompa conținutul nud, adăugând avertismente și solicitând confirmare înainte ca utilizatorii să poată continua. Dacă copilul are sub 13 ani, acesta nu poate vizualiza conținutul fără a introduce codul de acces Screen Time al dispozitivului.
Dacă învățarea automată de pe dispozitiv detectează conținut nud, funcția estompează automat fotografia sau videoclipul, afișează un avertisment că acesta poate fi sensibil și oferă opțiuni de ajutor. Aceste opțiuni includ părăsirea conversației sau a grupului, blocarea persoanei și accesarea resurselor de siguranță online.
Funcția afișează, de asemenea, un mesaj care asigură copilul că este în regulă să nu vizualizeze conținutul sau să părăsească conversația.
Există și opțiunea de a trimite un mesaj către un părinte sau tutore. Dacă copilul are 13 ani sau mai mult, acesta poate alege să continue după ce primește avertismentele — cu o repetare a mesajelor care încurajează renunțarea și indică disponibilitatea ajutorului suplimentar.
Potrivit publicației The Guardian, există și opțiunea de a…