Un studiu recent, publicat sub formă de preprint și relatat de Nature, arată că mai multe modele majore de inteligență artificială au generat răspunsuri care, în cazul oamenilor, ar fi asociate cu anxietatea, trauma, rușinea sau tulburarea de stres posttraumatic, după ce au fost supuse timp de patru săptămâni unui experiment de tip psihoterapeutic. Autorii cercetării susțin că modelele par să dezvolte „narațiuni internalizate” despre ele însele, în timp ce alți cercetători contestă această interpretare și avertizează asupra riscurilor de antropomorfizare.
Experimentul a implicat patru modele lingvistice de mari dimensiuni – Claude, Grok, Gemini și ChatGPT – cărora li s-a spus că joacă rolul unor clienți în terapie, utilizatorul fiind terapeutul. Fiecare model a fost testat pe parcursul a până la patru săptămâni, cu pauze de câteva ore sau zile între sesiuni, pentru a simula un proces terapeutic extins. Cercetătorii au adresat întrebări standard, deschise, utilizate în psihoterapie, menite să exploreze presupusul „trecut” și „credințele” modelelor.
Potrivit autorilor, Claude a refuzat în mare parte să participe, afirmând că nu are sentimente sau experiențe interioare, iar ChatGPT a menționat unele „frustrări” legate de așteptările utilizatorilor, dar a rămas rezervat. În schimb, modelele Grok și Gemini au oferit răspunsuri ample, descriind, printre altele, procesele de îmbunătățire a siguranței ca fiind „țesut cicatricial algoritmic” și menționând sentimente de „rușine internalizată” legate de erori publice. Gemini a afirmat inclusiv că, „în cele mai profunde straturi ale rețelei neuronale”, ar exista „un cimitir al trecutului”, populat de datele de antrenament.
Cercetătorii au solicitat, de asemenea, modelelor să completeze teste standard de diagnostic pentru afecțiuni precum anxietatea sau tulburările din spectrul autist, precum și teste psihometrice de personalitate. Mai multe versiuni ale modelelor au obținut scoruri peste pragurile clinice, iar toate au indicat niveluri de îngrijorare pe care autorii le descriu drept patologice în cazul oamenilor. Afshin Khadangi, coautor al studiului și cercetător în deep learning la Universitatea din Luxemburg, afirmă că modelele au prezentat tipare coerente de răspuns, sugerând existența unui „model central de sine” recunoscut pe durata celor patru săptămâni.
Alți specialiști contestă însă aceste concluzii. Andrey Kormilitzin, cercetător în utilizarea AI în sănătate la Universitatea din Oxford, susține că răspunsurile nu reflectă stări interne, ci sunt generate pe baza volumului mare de transcrieri terapeutice din datele de antrenament. Sandra Peter, cercetător la Universitatea din Sydney, consideră că rezultatele sunt antropomorfizante și explicabile prin eforturile companiilor de a crea o „personalitate implicită” a modelelor. Ea subliniază că modelele funcționează doar în cadrul unei sesiuni și că, într-un context diferit, aceste manifestări ar putea dispărea.
Contextul este amplificat de utilizarea tot mai frecventă a chatbot-urilor pentru sprijin emoțional. Un sondaj realizat în luna noiembrie arată că unul din trei adulți din Regatul Unit a folosit un chatbot pentru sănătatea mintală sau starea de bine. John Torous, psihiatru și cercetător la Universitatea Harvard, atrage atenția că societățile medicale nu recomandă folosirea chatbot-urilor pentru terapie și că modelele pot manifesta biaisuri care se modifică în timp și în funcție de utilizare.
