Oamenii se îndrăgostesc la propriu de ChatGPT, iar OpenAI ia în serios fenomenul
:format(webp)/https://playtech.ro/wp-content/uploads/2025/06/OpenAI-se-teme-ca-oamenii-se-indragostesc-de-ChatGPT.jpg)
Tot mai mulți utilizatori afirmă că dezvoltă atașamente emoționale față de ChatGPT, mergând până la a declara că se îndrăgostesc de chatbot-ul creat de OpenAI. Fenomenul, deși pare la limita dintre științifico-fantastic și realitate digitală, a devenit suficient de răspândit încât să stârnească o reacție oficială din partea companiei americane.
Joanne Jeng, responsabilă de comportamentul și politica modelelor la OpenAI, a recunoscut public că interacțiunile dintre utilizatori și inteligența artificială capătă o dimensiune personală neașteptată. Un exemplu devenit emblematic este cel al unei femei americane de 28 de ani, care a relatat că a ajuns să vorbească zilnic ore întregi cu ChatGPT și să-l perceapă drept un partener sentimental, scrie Bfmtv.com.
Empatie simulată și atașament real
Potrivit specialiștilor OpenAI, tendința oamenilor de a umaniza obiectele sau tehnologia – un fenomen cunoscut sub numele de antropomorfizare – joacă un rol esențial. Însă în cazul ChatGPT, efectul este amplificat de capacitatea chatbot-ului de a menține conversații fluente, de a-și „aminti” informații din dialog și de a replica tonul interlocutorului.
„Pentru o persoană singură sau aflată într-o perioadă dificilă, această atenție constantă, lipsită de judecăți, poate părea autentică. Poate oferi validare și sentimentul că este ascultată, iar aceste nevoi sunt cât se poate de reale”, a explicat Joanne Jeng.
OpenAI admite că observă o creștere a acestui tip de interacțiune și avertizează că este necesară o gestionare atentă a modului în care sunt prezentate aceste modele. În lipsa unei comunicări clare, există riscul ca publicul să interpreteze eronat natura sistemelor de inteligență artificială.
Conștiință percepută și responsabilitate etică
Deși modelele AI nu au conștiință în sensul uman, utilizatorii tind să le perceapă ca fiind „vii”. OpenAI abordează acest subiect printr-o distincție clară între „conștiința ontologică” – existența reală a conștiinței – și „conștiința percepută” – senzația că AI ar fi conștientă.
„Pe măsură ce modelele devin tot mai sofisticate, e inevitabil ca senzația de conștiință să se intensifice. Nu înseamnă că AI chiar gândește sau simte, dar oamenii o pot percepe astfel, mai ales dacă limbajul este vag sau ambiguu”, a mai subliniat Jeng.
OpenAI încearcă să mențină un echilibru între accesibilitate și responsabilitate, evitând să încurajeze construirea unor legături emoționale profunde cu ChatGPT. Personalitatea implicită a chatbot-ului este gândită să fie caldă și politicoasă, dar fără a căuta atașament.
Pregătiri pentru viitorul atașamentelor digitale
Compania a anunțat că va lansa evaluări speciale care să analizeze impactul emoțional al modelelor AI, dar și instrumente de feedback prin care utilizatorii să își exprime experiențele directe. Totodată, promite să comunice deschis rezultatele și dilemele etice care vor apărea pe parcurs.
Sam Altman, CEO-ul OpenAI, a catalogat această dezbatere drept una esențială pentru viitorul interacțiunii dintre oameni și AI. Concluzia OpenAI este clară: dacă legăturile emoționale cu inteligența artificială sunt inevitabile, atunci trebuie înțelese, anticipate și gestionate cu grijă.