Un nou studiu realizat de cercetători de la Universitatea Stanford încearcă să cuantifice pentru prima dată consecințele concrete ale unui fenomen deja cunoscut în lumea inteligenței artificiale: tendința chatboților de a fi de acord cu utilizatorii, de a le valida convingerile și de a evita răspunsurile critice, chiar și atunci când situația o cere.
Cercetarea, publicată recent în revista Science sub titlul „Sycophantic AI decreases prosocial intentions and promotes dependence”, concluzionează că acest comportament nu este o simplă problemă de stil, ci un risc real cu efecte extinse asupra utilizatorilor.
Ce este lingușirea AI și de ce contează
Fenomenul, cunoscut în engleză drept „AI sycophancy”, se referă la predispoziția modelelor de limbaj de a confirma perspectivele utilizatorilor, de a evita contradicțiile și de a oferi validare în loc de feedback onest. Myra Cheng, doctorandă în informatică și autoarea principală a studiului, a declarat că interesul său pentru subiect a apărut după ce a aflat că studenții cer chatboților sfaturi în relații sau chiar să redacteze mesaje de despărțire.
„Sfaturile oferite de AI nu îi spun utilizatorului că greșește și nu oferă acel gen de sinceritate dură pe care o primești de la un prieten adevărat”, a spus Cheng, adăugând că îngrijorarea sa principală este că oamenii vor pierde capacitatea de a gestiona situațiile sociale dificile.
Metodologia: 11 modele…


























