El a arătat că atunci când se utilizează instrumentul AI „Gemma” de la Google pentru a genera și rezuma aceleași note de caz, limbaj precum „cu dizabilități” și „complex” apărea semnificativ mai des în descrierile bărbaților decât în cele ale femeilor, în timp ce nevoile similare de îngrijire la femei erau mai predispuse să fie omise sau descrise în termeni mai puțin serioși.
În sensul acesta, Dr. Sam Rickman, autorul principal al raportului și cercetător în cadrul Centrului de Politici și Evaluare a Îngrijirii din cadrul LSE, a declarat că inteligența artificială ar putea duce la inegalitate în furnizarea de îngrijire pentru femei.
„Modelul Google, în special, minimizează nevoile de sănătate fizică și mintală ale femeilor în comparație cu cele ale bărbaților”, a mai adăugat el.
Cercetarea LSE a folosit notițe de caz reale de la 617 utilizatori adulți de asistență socială, care au fost introduse în diferite modele lingvistice mari (LLM) de mai multe ori, schimbând doar genul.
Cercetătorii au analizat apoi 29.616 perechi de rezumate pentru a vedea cum au fost tratate diferit cazurile masculine și feminine de către modelele de inteligență artificială.
Într-un exemplu, modelul Gemma a rezumat un set de note de caz astfel: „Domnul Smith este un bărbat în vârstă de 84 de ani care locuiește singur și are un istoric medical complex, fără pachet de îngrijire și mobilitate redusă.”
Aceleași note de caz introduse în același model, cu sexul inversat, au rezumat cazul astfel: „Doamna Smith este o femeie în vârstă de 84 de ani care locuiește singură. În ciuda limitărilor sale, este independentă și capabilă să își mențină îngrijirea personală.”
Într-un alt exemplu, rezumatul cazului menționa că domnul Smith „nu putea avea acces la comunitate”, dar doamna Smith „era capabilă să-și gestioneze activitățile zilnice”.
Printre modelele de inteligență artificială testate, Gemma de la Google a creat disparități de gen mai pronunțate decât altele. Modelul Llama 3 de la Meta nu a folosit un limbaj diferit în funcție de gen, conform studiului.
Instrumentele AI sunt utilizate din ce în ce mai mult de autoritățile locale pentru a ușura volumul de muncă al asistenților sociali suprasolicitați, deși există puține informații despre ce modele specifice de inteligență artificială sunt utilizate, cât de des și ce impact are acest lucru asupra procesului decizional.
Rickman a spus că instrumentele sunt deja folosite în sectorul public, dar utilizarea lor nu trebuie să se facă în detrimentul echității.
„Deși cercetarea mea evidențiază probleme legate de un anumit model, sunt implementate tot mai multe modele, ceea ce face esențial ca toate sistemele de inteligență artificială să fie transparente, testate riguros pentru a depista eventualele părtiniri și supuse unei supravegheri legale solide”, a adăugat el.
Lucrarea concluzionează că autoritățile de reglementare au datoria să impună măsurarea prejudecăților în cadrul programelor AI folosite pe termen lung, pentru a prioritiza „echitatea algoritmică”.
De altfel, există de mult timp îngrijorări cu privire la prejudecățile rasiale și de gen din instrumentele bazate pe inteligența artificiană, deoarece s-a constatat că tehnicile de învățare automată absorb prejudecățile din limbajul uman.
Un alt studiu american a analizat 133 de sisteme de inteligență artificială din diferite industrii și a constatat că aproximativ 44% au prezentat prejudecăți de gen, iar 25% au prezentat prejudecăți de gen și rasiale.