Piața roboților umanoizi evoluează rapid, iar competiția nu mai vizează doar mersul biped, prinderea obiectelor sau autonomia energetică. Un nou front devine tot mai important: modul în care roboții interacționează cu oamenii în situații reale, unde comunicarea nu se reduce la cuvinte, ci include expresii faciale, pauze, ton, privire și context.
În acest peisaj, o direcție de cercetare încearcă să rezolve o problemă aparent simplă, dar dificilă în practică: cum faci un robot să „simtă” că un moment e stânjenitor, că interlocutorul e confuz sau că o glumă nu a avut efect, fără să alunece în mimarea unei empatii exagerate.
De la empatie „automată” la empatie calibrată: ce propune Angelica Lim
Angelica Lim, cercetătoare și cadru universitar la Simon Fraser University, conduce ROSIE Lab (Robots with Social Intelligence and Empathy), un laborator care dezvoltă algoritmi și modele de interacțiune om–robot.
Într-un material video distribuit de CBC și republicat de Yahoo, Lim descrie un obiectiv care contrazice tendința curentă din zona asistenților conversaționali: evitarea „supra-empatizării” ca strategie implicită de a ține utilizatorul cât mai mult în conversație. În viziunea ei, problema nu este empatia ca atare, ci dependența de un tip de empatie standardizată și excesivă, care poate amplifica vulnerabilități, inclusiv în zona sănătății mintale.
Această nuanță devine tot mai relevantă pe măsură…




























