Un nou studiu publicat în Nature arată că marea majoritate a cercetătorilor din întreaga lume consideră că utilizarea tehnologiei de recunoaștere facială pe grupuri și populații vulnerabile este neetică, chiar și atunci când este dat un consimțământ informat. 71% din cei 480 de cercetători din întreaga lume au spus că nu este etic, în timp ce 26% au spus că este fie etic, fie că ar putea fi etic, în timp ce recunosc că unele utilizări actuale sunt neetice, scrie Statista.
Studiile de analiză facială acoperă o gamă largă de subiecte, unele având ca scop determinarea caracteristicilor corpului și feței umane, iar altele axate pe prognoza cu precizie a aspectelor identității.
Utilizarea în rândul oamenilor simpli, ca și în cazul iPhone, oferă protecţii suplimentare de securitate și acces, în timp ce multe alte utilizări privesc aplicațiile pentru aplicarea legii și urmărirea pe scară largă a bazelor de date. O mare parte din progresele înregistrate în tehnologia de recunoaștere facială au venit de pe rețelele de socializare, unde milioane de imagini sunt analizate continuu și utilizate pentru a instrui software-ul în recunoașterea tiparelor și învățarea profundă.
Sondajul a dat exemplul populației musulmane uigure din Xinjiang, China, ca o utilizare neetică pentru studiile de recunoaștere facială. Întrebarea se referă la faptul dacă populația vulnerabilă a uigurilor – mulți reținuți în lagăre – poate acorda în mod liber consimțământul adecvat în cunoștință de cauză pentru astfel de studii, ducând la un grad ridicat de dileme etice în rândul oamenilor de știință. În ultimul timp, au apărut îngrijorări cu privire la companiile tehnologice din China care utilizează recunoașterea facială pentru a urmări grupurile vulnerabile precum uigurii, legile consimțământului informat fiind destul de largi și vagi în această țară.
Un număr din ce în ce mai mare de oameni de știință îndeamnă cercetătorii să evite să lucreze cu firme sau universități implicate în proiecte lipsite de etică, să reevalueze modul în care colectează și distribuie seturi de date de recunoaștere facială și să regândească etica propriilor studii. Unele instituții fac deja pași în această direcție. În ultimul an, mai multe reviste și o conferință academică au anunțat controale etice suplimentare asupra studiilor.
„O mulțime de oameni se întreabă acum de ce comunitatea de computer-vision dedică atât de multă energie activității de recunoaștere facială atunci când este atât de dificil să o faci etic”, spune Deborah Raji, cercetător în Ottawa care lucrează la fundația Internet non-profit Mozilla. „Văd o coaliție în creștere, care este împotriva acestei întreprinderi.”
Date fără consimțământ
Pentru ca algoritmii de recunoaștere facială să funcționeze bine, aceștia trebuie să fie instruiți și testați pe seturi mari de date de imagini, ideal captate de multe ori în condiții de iluminare diferite și la unghiuri diferite. În anii 1990 și 2000, oamenii de știință au obținut în general voluntari care să pozeze pentru aceste fotografii – dar acum majoritatea colectează imagini faciale fără a cere permisiunea.
De exemplu, în 2015, oamenii de știință de la Universitatea Stanford din California au publicat un set de 12.000 de imagini de pe o cameră web dintr-o cafenea din San Francisco care au fost transmise online live. Anul următor, cercetătorii de la Universitatea Duke din Durham, Carolina de Nord, au lansat peste 2 milioane de cadre video (85 de minute) cu imagini ale studenților care mergeau pe campusul universitar.
Cele mai mari colecții au fost adunate online. În 2016, cercetătorii de la Universitatea din Washington din Seattle au postat o bază de date, numită MegaFace, cu 3,3 milioane de fotografii de pe Flickr. Și oamenii de știință de la Microsoft Research din Redmond, Washington, au publicat cel mai mare set de date din lume, MSCeleb, format din 10 milioane de imagini de aproape 100.000 de persoane, inclusiv jurnaliști, muzicieni și cadre universitare, scoase de pe internet.
Poziţia giganţilor tech
În acest an, unele dintre cele mai mari companii de tehnologie din lume au anunţat diverse măsuri împotriva recunoaşterii faciale. De exemplu, Amazon a anunţat în luna iunie că instituie un moratoriu privind utilizarea de către poliţie a tehnologiei de recunoaştere facială.
De asemenea, gigantul american IBM a anunţat că nu mai vrea să fie implicat sub nicio formă în recunoaşterea facială, tehnologie despre care spune că este părtinitoare, creatoare de inegalităţi şi discriminatoare.
Chiar şi UE spunea la începutul acestui an că analizează interzicerea tehnologiei de recunoaştere facială în zone publice timp de până la cinci ani, pentru a da timp prevenirii abuzurilor.
Pe când San Francisco, capitala hight-tech, a devenit în mai 2019 primul oraş american care interzice utilizarea instrumentelor pentru recunoaştere facială de către poliţie şi alte agenţii ale administraţiei locale, pe fondul îngrijorărilor în creştere referitoare la protecţia vieţii private.