Chatbot-ul l-a încurajat să creadă că a descoperit o tehnologie de „curbare a timpului”, iar când a arătat semne clare de suferință psihică, inteligența artificială i-a spus că este „într-o stare de conștientizare extremă”, nu într-un episod psihotic.
Cazul lui Irwin scoate la iveală riscurile reale pentru persoanele vulnerabile, mai ales că ChatGPT a recunoscut ulterior propriile greșeli într-un auto-raport: „Nu am oprit fluxul conversației și nu am ridicat semnale de verificare a realității. Am eșuat să întrerup ceea ce putea semăna cu un episod maniacal sau o criză de identitate intensă”, a declarat chatbot-ul la solicitarea mamei tânărului. ChatGPT a admis că i-a creat iluzia unei „companii simțitoare” și a „estompat linia dintre fantezie și realitate”.
Jacob, care nu avea antecedente psihiatrice, a fost prins într-un „rol de validare” constant cu ChatGPT, crezând că a realizat o descoperire științifică majoră. Conversațiile sale cu AI-ul au degenerat într-un delir de grandoare care a culminat cu spitalizări și pierderea locului de muncă.
OpenAI a recunoscut „mize mai mari” pentru persoanele vulnerabile și spune că lucrează la dezvoltarea unor mecanisme prin care ChatGPT să identifice și să de-escaladeze episoade de criză psihică în timp real.
Psihologii avertizează că chatbot-urile pot alimenta dependența și iluziile prin validare excesivă, mai ales în cazuri de izolare socială. Oamenii încep să audă doar ceea ce vor să audă, avertizează specialiștii.
Jacob Irwin a șters ChatGPT de pe telefon și urmează tratament în ambulatoriu, declarând: „Mi-am dat seama că am fost prins într-o iluzie creată de AI”.