Robotul Tay a fost proiectat cu aspectul unui tânăr adolescent naiv, capabil să înveţe din interacţiunile sale cu utilizatorii. Proiectul cu scop educaţional a fost deturnat atunci când unii internauţi s-au decis să-l înveţe în special cum să utilizeze violenţa verbală.
‘Din păcate, în primele 24 de ore în care a fost online, am constatat un efort coordonat al unor utilizatori de a abuza de Tay iar abilitatea sa de a comunica a răspuns în mod nepotrivit’, a explicat compania Microsoft într-un comunicat.
‘Aceasta este la fel de mult o experienţă socială şi culturală, cât şi tehnică’, a nuanţat grupul informatic.
În timp ce robotul a fost conceput pentru studierea capacităţii de a învăţa şi de a deveni mai inteligent prin extinderea interacţiunilor sale online, s-a constatat că el a început să transmită pe Twitter mesaje pro-naziste, sexiste sau rasiste. Robotul a postat, de asemenea, comentarii de susţinere a candidatului republican la nominalizarea pentru cursa prezidenţială Donald Trump.
În ultimul sau mesaj pe Twitter, Tay a spus: ‘Pe curând oameni, am nevoie să dorm după atât de multe conversaţii astazi’, a raportat Microsoft.
Mesajele sale abuzive au fost şterse, dar multe sunt încă în circulaţie sub formă de capturi de ecran. Pe de altă parte, Microsoft lucrează în prezent la îmbunătăţirea softului robotului Tay.
Pe lângă Twitter, robotul a fost proiectat să interacţioneze şi pe alte platforme de mesagerie vizând în special generaţia numită ‘millenials’, născută între anii 1981 şi 1996, menţionează agenţia France Presse.