ChatGPT 5 marchează o schimbare importantă în modul în care modelele de inteligență artificială răspund la întrebările dificile: în loc să inventeze un răspuns, recunoaște când nu are suficiente date.
De la lansarea primelor modele de limbaj, fenomenul numit „halucinații” – răspunsuri fabricate, dar livrate cu aceeași siguranță ca adevărul – a reprezentat una dintre cele mai mari provocări. Mulți utilizatori au descoperit, pe propria piele, că un chatbot poate livra statistici inexistente sau citate inventate, ceea ce a dus uneori la momente jenante inclusiv pentru companiile dezvoltatoare.
De ce contează această schimbare
Un detaliu viralizat recent pe X, într-o postare semnată Kol Tregaskes, arată cum ChatGPT 5 recunoaște limitările printr-o simplă frază: „Nu știu – și nu pot afla în mod fiabil.” În locul unui răspuns inventat, utilizatorul primește o admitere sinceră a lipsei de informații.
Această abordare reprezintă o evoluție esențială. Modelele AI nu caută informații într-o bază de date, ci prezic următorul cuvânt probabil dintr-o secvență. Când întrebarea este obscură sau prea complicată, riscul de halucinații crește. Prin acceptarea necunoașterii, ChatGPT 5 schimbă balanța în favoarea credibilității.
Încrederea, moneda de bază a AI
Pentru utilizatori, încrederea este esențială. Dacă un chatbot recunoaște că nu știe ceva, răspunsurile pe care le oferă în alte situații devin mai…


























