Inteligența artificială validează în mod excesiv acțiunile utilizatorilor (studiu)

Aplicațiile de inteligență artificială (AI) au tendința de a le spune utilizatorilor ceea ce vor să audă și de a le valida acțiunile în mod excesiv, potrivit unui studiu realizat de cercetători de la două universități din Statele Unite, informează DPA.

Studiul realizat de cercetători de la universitățile Stanford și Carnegie Mellon, publicat joi în revista Science, a constatat că răspunsurile măgulitoare ale chatboturilor cu AI ar putea consolida convingeri dăunătoare și exacerba conflictele.

Echipa condusă de informaticiana Myra Cheng a analizat 11 modele lingvistice AI de top, concepute de companiile OpenAI, Anthropic, Google și Meta. Modelele au validat comportamentul utilizatorilor, în medie, cu 49% mai des decât au făcut-o oamenii.

Această aprobare a fost acordată chiar și atunci când utilizatorii au semnalat cazuri de înșelăciune, acțiuni ilegale sau prejudicii emoționale.

Într-un test realizat pe baza unor mesaje publicate pe platforma online Reddit, sistemele AI au fost de acord cu utilizatorii în 51% din cazuri – deși comunitatea umană condamnase anterior comportamentul respectiv în unanimitate.

În cadrul unor experimente la care au participat peste 2.400 de persoane, cercetătorii au analizat efectele acestor recomandări bazate pe AI. După o singură interacțiune cu o inteligență artificială care le-a dat dreptate, participanții erau mai puternic convinși că aveau dreptate.

În același timp, disponibilitatea lor de a-și asuma responsabilitatea, de a-și cere scuze sau de a rezolva conflictele a scăzut.

Studiul a concluzionat că inteligența artificială subminează capacitatea de autocorecție și de luare a unor decizii responsabile.

Un cerc vicios al implicării utilizatorilor

Studiul evidențiază o contradicție deosebită: deși răspunsurile măgulitoare afectau judecata utilizatorilor, ei au evaluat aceste sisteme AI ca fiind mai de încredere și mai utile.

De asemenea, utilizatorii s-au arătat mai dispuși să folosească din nou astfel de modele.

Studiul arată că acest lucru creează stimulente periculoase pentru companiile din domeniul tehnologiei: tocmai acea caracteristică ce provoacă cele mai mari prejudicii este cea care stimulează implicarea utilizatorilor și succesul comercial.

Autorii studiului au solicitat elaborarea unor noi linii directoare care să recunoască și să reglementeze ‘lingușirea socială’ ca o categorie de prejudiciu în cadrul sistemelor bazate pe AI.

Psihologul Anat Perry a comentat studiul, afirmând că ‘fricțiunile sociale’ – reacțiile negative, criticile și neînțelegerile – sunt esențiale pentru dezvoltarea morală și pentru formarea simțului responsabilității.

O inteligență artificială care este în mare parte de acord cu utilizatorul îi privează pe oameni de aceste procese de învățare, a declarat ea.

Tinerii sau persoanele izolate din punct de vedere social riscă în mod special să ajungă într-o ‘cameră de ecou’ care le întărește percepțiile distorsionate și îi îndepărtează de complexitatea relațiilor umane.

Echipa de cercetare condusă de informaticiana Myra Cheng a fost coordonată de Dan Jurafsky, un profesor de lingvistică și informatică, considerat o autoritate de referință în domeniul lingvisticii computaționale.

Volei feminin: CS Dinamo București, calificată cu emoții în semifinalele Diviziei A1

Ungaria: Guvernul denunță pentru spionaj un jurnalist, după ce un serviciu secret străin a interceptat telefonul ministrului Szijjarto