În vara acestui an, Ucraina a semnalat o campanie de atacuri cibernetice din partea hackerilor ruși, care au introdus o noutate în arsenalul lor: un program bazat pe inteligență artificială, integrat într-un e-mail de tip phishing. Dacă era instalat, acesta căuta automat fișiere sensibile pe computerul victimei și le trimitea către Moscova. Potrivit rapoartelor tehnice publicate în iulie de guvernul ucrainean și companii de securitate cibernetică, este primul caz cunoscut în care serviciile ruse de informații au fost surprinse folosind modele de limbaj mari (LLMs) pentru a construi cod malițios.
Însă Rusia nu este singura. În ultimele luni, numeroși hackeri — de la spioni și grupări criminale până la cercetători și companii de securitate — au început să integreze instrumente AI în activitatea lor. Modelele de limbaj, precum ChatGPT, nu au transformat radical pe oricine într-un hacker profesionist, dar le oferă celor deja experimentați o viteză și o eficiență sporite.
Cum folosesc hackerii și apărătorii AI
Scenariul devine tot mai complex: atacatorii utilizează LLM-uri pentru a scrie cod, pentru a redacta e-mailuri de phishing mai convingătoare și pentru a identifica vulnerabilități. În același timp, companiile de securitate cibernetică răspund cu aceeași monedă. Echipa condusă de Heather Adkins, vicepreședinte al departamentului de securitate la Google, a folosit modelul Gemini pentru a descoperi peste 20 de…


























