Studiul, intitulat („Fără halucinaţii? Evaluarea fiabilităţii celor mai importante instrumente de cercetare juridică AI” („Hallucination-Free? Assessing the Reliability of Leading AI Legal Research Tools”), a analizat diferite instrumente bazate pe AI, pe care avocaţii le folosesc în activităţi de cercetare din domeniul juridic, în scopul evaluării potenţialului de generare a unor informaţii false, cunoscute sub numele de „halucinaţii”, scrie Agerpres.
Avocaţii utilizează din ce în ce mai mult instrumente bazate pe AI care îi ajută în practica juridică. Cu toate acestea, modelele de limbaj de mari dimensiuni utilizate în cadrul acestor instrumente sunt predispuse la „halucinaţii” şi prezintă astfel riscuri în meseria lor, au declarat autorii studiului publicat pe site-ul Universităţii Stanford.
Unele companii care produc aceste instrumente bazate pe AI susţin că au rezolvat această problemă, însă cercetătorii consideră afirmaţiile lor „exagerate”.
Studiul a testat instrumente populare de la LexisNexis şi Thomson Reuters şi a constatat că acestea au făcut greşeli în proporţie de 17%-33%.
Potrivit studiului, unele „halucinaţii” apar atunci când instrumentele bazate pe AI citează norme juridice inexistente sau interpretează greşit precedentele judiciare.
Studiul, care citează cercetări anterioare, a arătat că, începând din ianuarie 2024, cel puţin 41 dintre primele 100 cele mai mari firme de avocatură din Statele Unite au început să utilizeze AI în practica lor.
Autorii au făcut apel la avocaţi să supervizeze şi să verifice rezultatele generate de AI, îndemnând în acelaşi timp furnizorii de instrumente bazate pe AI să dea dovadă de sinceritate în ceea ce priveşte acurateţea produselor lor şi să furnizeze dovezi care să le susţină.