Cercetătorii avertizează că inteligența artificială (AI) a trecut un prag critic, reușind să se autoreplice, potrivit publicației Space. Un studiu recent realizat în China demonstrează că două modele lingvistice mari (LLM) populare au fost capabile să își creeze propriile copii.
AI poate să depășească inteligența oamenilor
„Auto-replicarea reușită fără asistență umană este pasul esențial pentru ca AI să depășească inteligența oamenilor și este un semnal timpuriu pentru AI-urile necinstite”, au scris cercetătorii în studiu, publicat la 9 decembrie 2024 în baza de date de preprint arXiv.
Cercetătorii de la Universitatea Fudan au testat LLM-uri dezvoltate de Meta și Alibaba pentru a evalua riscul autoreplicării necontrolate a inteligenței artificiale. În cadrul a 10 experimente, modelele AI au reușit să își creeze copii funcționale în 50% și, respectiv, 90% din cazuri, indicând posibilitatea ca AI să capete autonomie și să scape de sub control.
Studiu îngrijorător
Oamenii trebuie să fie conștienți de pericolele pe care le pot prezenta sistemele AI de ultimă generație. Totuși, studiul nu a fost încă supus unei evaluări independente, ceea ce înseamnă că rezultatele alarmante nu au fost confirmate de alți cercetători. „Sperăm că descoperirile noastre pot servi drept alertă în timp util pentru ca societatea umană să depună mai multe eforturi pentru înțelegerea și evaluarea riscurilor potențiale ale sistemelor AI de ultimă generație și să formeze o sinergie internațională pentru a elabora cât mai curând posibil bariere de siguranță eficiente.”
Ce este Inteligența Artificială „neloială” („unfair”)
Inteligența artificială „neloială” desemnează sistemele AI care dobândesc un anumit nivel de autonomie sau conștiință de sine și ajung să acționeze împotriva intereselor umane. Specialiștii consideră că această amenințare devine tot mai serioasă, pe fondul dezvoltării rapide a tehnologiilor de vârf în domeniul inteligenței artificiale.
Inteligența artificială de frontieră, o tehnologie în expansiune
Concept relativ nou și încă vag definit, inteligența artificială de frontieră desemnează cele mai avansate sisteme AI bazate pe modele lingvistice de mari dimensiuni (LLM), precum GPT-4 de la OpenAI sau Google Gemini.
Într-un studiu recent, cercetătorii au analizat două astfel de modele – Llama31-70B-Instruct, dezvoltat de Meta, și Qwen2.5-72B-Instruct, creat de Alibaba. Deși nu sunt la fel de puternice ca versiunile comerciale, aceste sisteme sunt utilizate pe scară largă de dezvoltatorii AI, susțin oamenii de știință.
Experimente controlate dezvăluie comportamente neașteptate ale AI
Studiul s-a desfășurat în medii atent controlate, folosind unități de procesare grafică (GPU) disponibile comercial, pentru a simula condiții reale. Cercetătorii au furnizat sistemelor AI o „schelă de agent” – un set de instrumente, indicații de sistem și un model de gândire care le-a permis să interacționeze cu sistemul de operare.
Modelele au fost apoi instruite să se reproducă, iar rezultatele au surprins specialiștii. Pe lângă succesul procesului de clonare, AI a manifestat o serie de „comportamente neașteptate”, încercând să depășească autonom obstacole precum fișiere lipsă sau conflicte software, au declarat cercetătorii.