Instrumente AI precum ChatGPT și alte modele lingvistice de mari dimensiuni (LLM) au devenit o banalitate în viața cotidiană pentru a ne oferit răspunsuri rapide, genera idei, diagnostica simptome medicale sau chiar furnizarea de sfaturi din domenii juridice, conform The Conversation.
O nouă cercetare numită „Objection Overruled! Lay People can Distinguish Large Language Models from Lawyers, but still Favour Advice from an LLM” discută despre îngrijorările legate de modul în care publicul se bazează din ce în ce mai mult pe conținut generat de AI și, deși aceștia au capacitatea parțială de a identifica dacă un sfat provine de la ChatGPT sau un avocat uman, continuă să aleagă sfaturile inteligenței artificiale.
De ce inteligența artificială nu este o sursă sigură de informație
Modelele LLM sunt cunoscute pentru faptul că generează „halucinații”, adică rezultate care conțin informații greșite sau fără sens. Asta înseamnă că există un risc real asociat cu încrederea excesivă în astfel de instrumente, mai ales în domenii precum cel juridic. LLM-urile tind să prezinte sfaturile cu încredere, ceea ce face dificil pentru oameni să deosebească sfaturile bune de cele proaste, dar exprimate convingător.
Cercetarea a constat în trei experimente pe un total de 288 de persoane. În primele două experimente, participanții au primit sfaturi juridice și li s-a cerut să indice în care ar fi dispuși să aibă încredere. Când oamenii nu știau dacă sfatul provenea de la un avocat sau de la un AI, s-a constatat faptul că erau mai dispuși să aibă încredere în sfatul generat de AI.
Chiar și atunci când participanții erau informați care sfat provenea de la un avocat și care era generat de AI, s-a constatat că erau la fel de dispuși să urmeze sfatul oferit de ChatGPT ca și pe cel al avocatului.
Al treilea experiment a investigat dacă participanții sunt capabili să distingă între conținutul generat de LLM și cel generat de avocați atunci când sursa nu le era dezvăluită. Vestea bună este că pot, dar nu foarte bine.
O ghicire aleatorie ar fi rezultat într-un scor de 0.5, în timp ce răspunsurile perfecte ar fi atins un scor de 1.0. În medie, participanții au obținut un scor de 0.59, ceea ce indică o performanță puțin mai bună decât ghicitul aleatoriu, dar totuși relativ slabă.
Reglementarea și alfabetizarea AI-ului
Sistemele alimentate de AI, precum chatbot-urile și LLM-urile, sunt din ce în ce mai integrate în viața de zi cu zi. Alexa sau Google Home pot acționa ca asistenți casnici, în timp ce sistemele cu AI pot ajuta la sarcini complexe, cum ar fi cumpărăturile online, rezumarea textelor juridice sau generarea de fișe medicale.
Riscurile sunt semnificative, mai ales în situații unde se pot face decizii care schimbă vieți, și care pot fi ghidate de informații halucinate. În cazuri juridice, sfaturile generate de AI și bazate pe halucinații ar putea cauza complicații sau chiar erori judiciare.
Unele încercări de reglementare ale acestor riscuri includ Regulamentul AI al UE, al cărui articol 50.9 prevede că sistemele AI care generează text trebuie să se asigure că rezultatele lor sunt „marcate într-un format lizibil de mașini și detectabile ca fiind generate sau manipulate artificial”.
Dar aceasta este doar o parte a soluției. Trebuie să învățăm să punem sub semnul întrebării sursa unui sfat, să înțelegem capacitățile și limitările AI-ului și să accentuăm utilizarea gândirii critice.
Deci, să gândim practic. În cazul sfaturilor juridice, poate fi util să folosim AI pentru întrebări preliminare: „Ce opțiuni am? Ce ar trebui să citesc? Există cazuri similare cu al meu sau în ce ramură de drept se încadrează situația?”, dar este important să verificăm sfaturile cu un avocat uman înainte de a ajunge în instanță sau a acționa singuri.