Regulamentul european adoptă o abordare bazată pe riscuri şi clasifică sistemele de IA în patru categorii de risc: inacceptabil, ridicat, limitat şi minim, au explicat consultanţii companiei.
„Utilizarea IA pentru a deduce emoţiile unei persoane fizice în sfera locului de muncă prezintă un grad de risc inacceptabil şi este interzisă, reprezentând o ingerinţă la adresa valorilor UE şi a drepturilor fundamentale. De asemenea, având în vedere impactul semnificativ pe care îl pot avea asupra carierei, mijloacelor de subzistenţă şi drepturilor lucrătorilor, următoarele sisteme de IA din domeniul ocupării forţei de muncă şi gestionării lucrătorilor sunt considerate ca prezentând un grad ridicat de risc: cele destinate recrutării sau selectării persoanelor fizice, în special pentru a plasa anunţuri de angajare direcţionate în mod specific, pentru a analiza şi a filtra candidaturile pentru locuri de muncă şi pentru a evalua candidaţii; cele destinate luării deciziilor care afectează termenii derulării relaţiilor de muncă, promovarea şi încetarea relaţiilor contractuale legate de muncă, pentru a aloca sarcini pe baza comportamentului individual sau a trăsăturilor ori caracteristicilor personale sau pentru a monitoriza şi evalua performanţa şi comportamentul persoanelor aflate în astfel de relaţii”, se menţionează în analiză.
În acelaşi timp, prin excepţie, aceste sisteme nu vor fi considerate ca având un grad ridicat de risc, dacă nu prezintă un risc semnificativ de a aduce prejudicii sănătăţii, siguranţei sau drepturilor fundamentale ale persoanelor fizice, inclusiv prin faptul că nu influenţează în mod semnificativ rezultatul procesului decizional.
De asemenea, supravegherea acestor sisteme cu grad ridicat de risc va trebui să fie încredinţată unor persoane care dispun de competenţa, formarea, autoritatea şi sprijinul necesar, fie prin angajarea de resurse umane adecvate, fie prin extinderea responsabilităţilor personalului relevant existent.
„Acestor persoane trebuie să li se permită, printre altele, să interpreteze corect rezultatele sistemului de IA cu grad ridicat de risc, ţinând seama de instrumentele şi metodele de interpretare disponibile, precum şi să decidă să nu utilizeze sistemul de IA cu grad ridicat de risc sau să ignore, să anuleze sau să inverseze rezultatele acestuia”, explică sursa citată.
În acelaşi context, companiile care implementează sisteme de IA trebuie să se asigure că atât personalul propriu, cât şi alte persoane care se ocupă cu operarea şi utilizarea acestor tipuri de sisteme în numele lor, dispun de competenţele şi cunoştinţele necesare în materie.
„Înainte de a pune în funcţiune sau de a utiliza un sistem de IA cu grad ridicat de risc la locul de muncă, angajatorii trebuie să informeze reprezentanţii lucrătorilor şi lucrătorii afectaţi că vor fi implicaţi în utilizarea sistemului de IA cu grad ridicat de risc. La cerere, companiile sunt obligate să furnizeze persoanei afectate de o decizie luată pe baza rezultatelor unui sistem de IA cu grad ridicat de risc explicaţii în legătură cu rolul sistemului în procedura decizională, dacă această decizie produce efecte juridice sau o afectează semnificativ de o manieră pe care o consideră a avea un impact negativ asupra sănătăţii, siguranţei sau drepturilor sale fundamentale”, se arată în analiza EY.
Regulamentul 2024/1689 al Parlamentului European şi al Consiliului din 13 iunie 2024, de stabilire a unor norme armonizate privind inteligenţa artificială (Regulamentul privind IA) a intrat în vigoare la 1 august 2024 şi este primul act legislativ care urmăreşte instituirea unui cadru uniformizat în această materie, asigurându-se că dezvoltarea şi implementarea IA nu aduce atingere drepturilor fundamentale şi promovează încrederea cetăţenilor în noile tehnologii.
Obligaţiile privind sistemele de IA cu grad ridicat de risc vor intra în vigoare pe data de 2 august 2027. Nerespectarea obligaţiilor privind sistemele de IA cu grad de risc inacceptabil va duce la aplicarea de amenzi de până la 35 de milioane de euro sau de până la 7% din cifra de afaceri mondială totală anuală pentru exerciţiul financiar precedent.
În ceea ce priveşte sistemele de IA cu grad ridicat de risc, amenzile pot ajunge până la 15 milioane de euro sau 3% din cifra de afaceri mondială totală anuală pentru exerciţiul financiar precedent.
Totodată, angajatorii vor trebui să aibă în vedere amenzile care pot fi aplicate pentru nerespectarea dispoziţiilor în materia protecţiei datelor cu caracter personal. Astfel, acestea pot ajunge, în funcţie de încălcare, până la 20 de milioane de euro sau, în cazul unei întreprinderi, de până la 4% din cifra de afaceri mondială totală anuală corespunzătoare exerciţiului financiar anterior, luându-se în calcul cea mai mare valoare.