Creatorii ChatGPT se tem că sistemele AI ”superinteligente” au puterea de a distruge omenirea și cer înființarea unui organism de control
Într-o scurtă notă publicată pe site-ul web al companiei, cofondatorii Greg Brockman și Ilya Sutskever și directorul executiv, Sam Altman, solicită ca un organism internațional de reglementare să înceapă să lucreze la modul în care să „inspecteze sistemele, să solicite audituri, să testeze conformitatea cu standardele de siguranță [și] să impună restricții privind gradele de implementare și nivelurile de securitate” pentru a reduce „riscul existențial” pe care l-ar putea reprezenta astfel de sisteme.
„Este de conceput că, în următorii 10 ani, sistemele de inteligență artificială vor depăși nivelul de îndemânare al experților în majoritatea domeniilor și vor desfășura la fel de multe activități productive ca una dintre cele mai mari corporații de astăzi”, scriu ei.
„Atât în ceea ce privește potențialele avantaje, cât și dezavantaje, superinteligența va fi mai puternică decât alte tehnologii cu care omenirea a trebuit să se confrunte în trecut. Putem avea un viitor dramatic mai prosper; dar trebuie să gestionăm riscurile pentru a ajunge acolo. Având în vedere posibilitatea unui risc existențial, nu putem fi doar reactivi.”
Pe termen scurt, cei trei fac apel la „un anumit grad de coordonare” între companiile care lucrează în domeniul cercetării de vârf în domeniul inteligenței artificiale, pentru a se asigura că dezvoltarea unor modele din ce în ce mai puternice se integrează fără probleme în societate, acordând în același timp prioritate siguranței. Această coordonare ar putea fi realizată, de exemplu, printr-un proiect condus de guvern sau printr-un acord colectiv pentru a limita creșterea capacității de inteligență artificială.
”Nu știm încă cum să proiectăm un astfel de mecanism, dar intenționăm să experimentăm dezvoltarea acestuia. Continuăm să credem că, în aceste limite largi, utilizatorii individuali ar trebui să aibă mult control asupra modului în care se comportă inteligența artificială pe care o folosesc.
Având în vedere riscurile și dificultățile, merită să ne gândim de ce construim această tehnologie până la urmă”, spun cei trei.
Aceștia cred că este important să se permită companiilor și proiectelor open-source să dezvolte modele sub un prag semnificativ de capacitate, fără a fi nevoie de genul de reglementare descris mai sus (inclusiv de mecanisme împovărătoare, cum ar fi licențele sau auditurile).
”Sistemele de astăzi vor crea o valoare extraordinară în lume și, deși prezintă riscuri, nivelul acestor riscuri pare proporțional cu cel al altor tehnologii de internet, iar abordările probabile ale societății par adecvate.
În schimb, sistemele care ne preocupă vor avea o putere care va depăși orice tehnologie creată până în prezent și ar trebui să fim atenți să nu diluăm accentul pus pe acestea prin aplicarea unor standarde similare la tehnologii care se situează mult sub acest nivel”.
Pe de altă parte, creatorii OpenAI se opun stopării cercetărilor în domeniu, așa cum au cerut-o Elon Musk și alți lideri,
”Credem că ar fi neintuitiv de riscant și dificil să oprim crearea superinteligenței. Deoarece avantajele sunt atât de mari, costul construirii ei scade în fiecare an, numărul actorilor care o construiesc crește rapid și face parte în mod inerent din calea tehnologică pe care ne aflăm, oprirea ei ar necesita ceva de genul unui regim de supraveghere globală, și nici măcar acest lucru nu este garantat că va funcționa. Așadar, trebuie să facem ceea ce trebuie”, au conchis semnatarii notei.
Cercetătorii au avertizat de zeci de ani asupra riscurilor potențiale ale superinteligenței, dar, pe măsură ce dezvoltarea AI a luat viteză, aceste riscuri au devenit mai concrete, potrivit The Guardian. Centrul pentru siguranța inteligenței artificiale (CAIS), cu sediul în SUA, care se ocupă de „reducerea riscurilor la scară societală generate de inteligența artificială”, descrie opt categorii de riscuri „catastrofale” și „existențiale” pe care le-ar putea prezenta dezvoltarea inteligenței artificiale.
În timp ce unii își fac griji cu privire la posibilitatea ca o inteligență artificială puternică să distrugă complet omenirea, accidental sau intenționat, CAIS descrie alte daune mai pernicioase. O lume în care sistemele de inteligență artificială primesc în mod voluntar din ce în ce mai multă muncă ar putea duce la „pierderea capacității de autoguvernare a umanității și la o dependență totală de mașini”, descrisă ca „slăbire”; iar un grup mic de persoane care controlează sisteme puternice ar putea „face din AI o forță centralizatoare”, ceea ce ar duce la „blocarea valorilor”, un sistem de caste veșnic între conducători și conduși.
Liderii OpenAI spun că aceste riscuri înseamnă că „oamenii din întreaga lume ar trebui să decidă în mod democratic limitele și valorile implicite ale sistemelor de inteligență artificială”, dar admit că „nu știm încă cum să concepem un astfel de mecanism”. Cu toate acestea, ei spun că dezvoltarea continuă a unor sisteme puternice merită riscul.