Într-un interviu acordat la AfroTech (Houston), Mustafa Suleyman, responsabilul Microsoft pentru inteligență artificială, a spus clar: numai ființele biologice pot avea conștiință, iar proiectele care sugerează contrariul ar trebui oprite. În viziunea sa, întrebarea „poate AI să fie conștientă?” este „greșită” și produce răspunsuri greșite.
Suleyman a explicat distincția esențială: modelele pot mima narațiuni despre sine și pot crea percepția unor stări interne, însă nu simt durere, tristețe sau preferințe de evitare a suferinței. Argumentul se aliniază curentului „biological naturalism” (John Searle), potrivit căruia conștiința depinde de procesele unui creier viu.
Etica folosirii modelelor: între capabilitate și limite
Poziția sa respinge ideea „serviciilor” care ar convinge oamenii că pot suferi, inclusiv în zona companionilor conversaționali. Microsoft își asumă zone unde „nu va merge”, precum chatboții pentru erotica, chiar dacă alți jucători testează astfel de produse. Mesajul: mai multă capacitate nu înseamnă conștiință și nici legitimare pentru a antropomorfiza AI.
Pe același fundal, apar și semnale de reglementare: în California, noile reguli cer ca boții să se declare ca AI și să încurajeze pauze periodice pentru minori. Pentru Suleyman, această direcție susține ideea că AI trebuie să fie transparentă și să rămână în slujba utilizatorului.


























