Tehnologia deepfake și amenințarea sa la autentificarea identității în online. Până în 2026, o treime din companii vor renunța la verificarea biometrică

13 02. 2024
autentificare biometrica

Una dintre principalele cauze ale creșterii deepfake-urilor în România este accesibilitatea tehnologiei necesare pentru a crea acest tip de conținut. Algoritmii de învățare profundă și aplicațiile software pentru editare video au devenit tot mai ușor de utilizat și de accesat, permițând chiar și utilizatorilor neexperimentați să creeze deepfake-uri relativ realiste.

De asemenea, popularitatea rețelelor de socializare și a platformelor de distribuție de conținut video a alimentat răspândirea acestui fenomen. Utilizatorii pot încărca și distribui deepfake-uri cu ușurință pe platformele online, unde pot ajunge rapid la un public larg.

Fenomenul este atât de răspândit încât un studiu recent realizat de Gartner, preconizează că până în 2026, atacurile utilizând deepfake-uri generate de inteligența artificială asupra biometriei faciale vor determina ca 30% dintre companii să nu mai considere astfel de soluții de verificare și autentificare a identității drept fiabile.

„În ultimul deceniu, au avut loc mai multe puncte de cotitură în domeniul inteligenței artificiale care permit crearea de imagini sintetice. Aceste imagini generate artificial ale fețelor reale ale oamenilor, cunoscute sub numele de deepfake, pot fi folosite de actorii malefici pentru a submina autentificarea biometrică sau pentru a o face ineficientă”, a declarat Akif Khan, VP Analyst la Gartner. „Ca rezultat, organizațiile pot începe să pună la îndoială fiabilitatea soluțiilor de verificare și autentificare a identității, deoarece nu vor putea determina dacă fața persoanei verificate este a unei persoane reale sau a unui deepfake”.

Procesele de verificare și autentificare a identității utilizând biometria facială se bazează în prezent pe detectarea atacurilor de prezentare (PAD) pentru a evalua autenticitatea utilizatorului. „Standardele și procesele de testare actuale pentru definirea și evaluarea mecanismelor PAD nu acoperă atacurile de injectare digitală utilizând deepfake-uri generate de inteligența artificială care pot fi create astăzi”, a spus Khan.

Conform cercetărilor Gartner, atacurile de prezentare sunt vectorul de atac cel mai comun, dar atacurile de injectare au crescut cu 200% în 2023. Prevenirea unor astfel de atacuri va necesita o combinație de PAD, detectare a atacurilor de injectare (IAD) și inspecție a imaginii.

Pentru a ajuta organizațiile să se protejeze împotriva deepfake-urilor generate de AI în afara biometriei faciale, directorii de securitate informatică (CISO) și liderii în gestionarea riscurilor trebuie să aleagă furnizori care pot demonstra că au capacitățile și un plan care depășește standardele actuale și să monitorizeze, să clasifice și să cuantifice aceste noi tipuri de atacuri.

În același timp, publicul larg are nevoie urgentă de alfabetizare digitală ca să recunoască și să se protejeze împotriva deepfake-urilor, dezvoltarea de tehnologii de detectare a acestora și implementarea unor măsuri de reglementare pentru a combate utilizarea lor abuzivă și nefastă. Parlamentul României a propus un proiect de Lege „privind interzicerea utilizării maliţioase a tehnologiei şi limitarea fenomenului Deepfake (Falsul Sever)”, în vara anului 2023. Proiectul a trecut de Senat și urmează să primească avizul din partea Camerei Deputaților, în calitate de for decizional.

În acest context, Meta a anunțat marți că va eticheta imaginile generate de AI pe Facebook, Instagram și Threads. Meta adaugă o funcție prin care oamenii pot dezvălui atunci când partajează clipuri video sau audio generate de inteligența artificială, astfel încât să le putem adăuga o etichetă. Utilizatorii vor fi obligați să utilizeze acest instrument de informare și etichetare atunci când postează conținut organic cu un videoclip fotorealistic sau un sunet audio realistic, care a fost creat sau modificat digital, iar Meta poate aplica sancțiuni dacă nu fac acest lucru. În cazul în care compania decide că acel conținut creat sau modificat digital (imagistic, video sau audio), determină un risc deosebit de ridicat de a înșela în mod substanțial publicul cu privire la o chestiune importantă, poate adăuga o etichetă mai proeminentă, astfel încât oamenii să aibă mai multe informații și context.