Experţi în inteligenţă artificială cer suspendarea dezvoltării sistemelor mai puternice decât noul chatgpt, pentru că prezintă „riscuri profunde pentru umanitate”

02 04. 2023
internet

Scrisoarea, datată din 22 martie şi care a fost semnată de peste 1.800 de persoane până vineri, cere o întrerupere de şase luni a dezvoltării de sisteme ”mai puternice” decât noul GPT-4 al OpenAI, susţinut de Microsoft, care poate purta o conversaţie umană, compune cântece şi să efectueze rezumate ale unor documente lungi, scrie News.ro. 

De când predecesorul GPT-4, ChatGPT, a fost lansat anul trecut, companiile rivale s-au grăbit să lanseze produse similare.

Scrisoarea deschisă spune că sistemele AI cu ”inteligenţă umană competitivă” prezintă riscuri profunde pentru umanitate, citând 12 cercetări ale unor experţi, inclusiv cadre universitare, precum şi actuali şi foşti angajaţi ai OpenAI, Google şi ai subsidiarei sale DeepMind, potrivit News.ro. 

Grupuri ale societăţii civile din SUA şi UE au exercitat presiuni de atunci asupra parlamentarilor, să frâneze cercetările OpenAI.

OpenAI nu a răspuns imediat solicitărilor de comentarii.

Criticii au acuzat Institutul Viitorul Vieţii (FLI), organizaţia din spatele scrisorii, finanţată în principal de Fundaţia Musk, că acordă prioritate scenariilor apocaliptice imaginate, faţă de preocupările mai imediate legate de inteligenţa artificială, cum ar fi prejudecăţile rasiste sau sexiste care sunt programate în maşini.

Printre cercetările citate s-a numărat ”On the Dangers of Stochastic Parrots”, o lucrare binecunoscută, în colaborare cu Margaret Mitchell, care a supravegheat anterior cercetările etice AI la Google.

Mitchell, acum om de ştiinţă etic la firma de inteligenţă artificială Hugging Face, a criticat scrisoarea, spunând Reuters că nu este clar ce este considerat ”mai puternic decât GPT4”.

”Tratând o mulţime de idei îndoielnice ca fiind un dat, scrisoarea afirmă un set de priorităţi şi o naraţiune despre AI care este în beneficiul susţinătorilor FLI. Ignorarea daunelor active chiar acum este un privilegiu pe care unii dintre noi nu îl avem”, a spus ea, scrie News.ro. 

Coautorii ei, Timnit Gebru şi Emily M. Bender, au criticat scrisoarea pe Twitter, Bender descriind unele dintre afirmaţiile sale ca fiind ”dezlănţuite”.

Preşedintele FLI, Max Tegmark, a declarat pentru Reuters că campania nu a fost o încercare de a împiedica avantajul corporativ al OpenAI.

„Este destul de hilar. Am văzut oameni spunând: ‘Elon Musk încearcă să încetinească competiţia. Nu este vorba despre o singură companie”, a spus el, adăugând că Musk nu a avut niciun rol în redactarea scrisorii.

Shiri Dori-Hacohen, profesor asistent la Universitatea din Connecticut, a fost, de asemenea, deranjată că munca ei este menţionată în scrisoare.

Anul trecut, ea a fost coautoare a unei lucrări de cercetare în care susţine că utilizarea pe scară largă a inteligenţei artificiale prezintă deja riscuri serioase.

Cercetarea ei a susţinut că utilizarea actuală a sistemelor AI ar putea influenţa luarea deciziilor în legătură cu schimbările climatice, războiul nuclear şi alte ameninţări existenţiale.

Ea a declarat pentru Reuters: ”AI nu trebuie să atingă inteligenţa la nivel uman pentru a exacerba aceste riscuri”. „Există riscuri nonexistenţiale care sunt, cu adevărat, foarte importante, dar care nu primesc acelaşi fel de atenţie la nivel de Hollywood”.

Solicitat să comenteze criticile, Tegmark a spus că atât riscurile pe termen scurt, cât şi pe termen lung ale IA ar trebui luate în serios.

„Dacă cităm pe cineva, înseamnă doar că pretindem că aprobă acea propoziţie. Nu înseamnă că aprobă scrisoarea sau că noi susţinem tot ceea ce cred ei”, a spus el pentru Reuters, mai scrie News.ro.