Începe dezastrul în spitale: Un instrument AI prescrie tratamente false pacienților

Acești experți au declarat că unele dintre textele inventate – cunoscute în industrie drept halucinații – includ comentarii rasiale, retorică violentă și chiar tratamente medicale imaginare.

Experții au declarat că astfel de invenții sunt problematice, deoarece Whisper este utilizat într-o serie de industrii din întreaga lume pentru a traduce și transcrie interviuri, a genera texte și a crea subtitrări pentru videoclipuri.

Ei au mai declarat că și mai îngrijorătoare este graba centrelor medicale de a utiliza Whisper pentru a transcrie consultațiile pacienților cu medicii, în ciuda avertismentelor OpenAI, care a spus că instrumentul nu ar trebui utilizat în „domenii cu risc ridicat”.

Astfel de greșeli ar putea avea „consecințe foarte grave”, în special în mediul spitalicesc, a declarat Alondra Nelson, care a condus Biroul de politici științifice și tehnologice al Casei Albe pentru administrația Biden, până anul trecut.

„Nimeni nu își dorește un diagnostic greșit”, a adăugat Nelson. „Ar trebui să existe un standard mai ridicat”.

Whisper este, de asemenea, utilizat pentru a crea subtitrări pentru persoanele surde și cu deficiențe de auz – o populație expusă unui risc deosebit de transcrieri greșite.

Peste 30.000 de medici și 40 de sisteme de sănătate, inclusiv Clinica Mankato din Minnesota și Spitalul de Copii din Los Angeles, au început să folosească Whisper.

Ești urmărit în secret de iPhone-ul tău. Trei setări la care trebuie să fii extrem de atent

‘Lumea nu ne vede, ajutorul nu vine’. Conflictul eclipsat de războaiele din Ucraina și Gaza, care riscă să devină mult mai mortal