Meta, compania condusă de Mark Zuckerberg, și-a reafirmat angajamentul de a face inteligența generală artificială (AGI) disponibilă public într-o zi. Cu toate acestea, un nou document de politică al companiei sugerează că există scenarii în care Meta ar putea decide să nu lanseze un sistem AI avansat pe care l-a dezvoltat intern.
Documentul, numit Frontier AI Framework, stabilește două categorii de sisteme AI pe care Meta le consideră prea riscante pentru a fi făcute publice: sisteme cu risc ridicat (high-risk) și sisteme cu risc critic (critical-risk).
Ce reprezintă aceste riscuri?
Meta definește sistemele cu risc ridicat ca fiind capabile să faciliteze atacuri cibernetice, chimice sau biologice, însă fără a garanta succesul acestora. Pe de altă parte, sistemele cu risc critic ar putea duce la consecințe catastrofale, fără posibilitatea de a fi atenuate în contextul în care sunt utilizate.
Documentul oferă exemple de astfel de atacuri, printre care:
- Compromiterea automată și completă a unui sistem informatic corporativ protejat conform celor mai bune practici
- Proliferarea armelor biologice cu impact major
Meta recunoaște că lista pericolelor potențiale nu este exhaustivă, dar afirmă că se concentrează pe cele mai urgente și realiste amenințări care ar putea rezulta din utilizarea necontrolată a unui AI avansat.
Cum decide Meta dacă un AI este prea periculos?
O particularitate a abordării Meta este că riscul unui sistem nu este…