Conform The Guardian, cercetătorii de la Oxford Internet Institute (OII) au analizat peste 400.000 de răspunsuri generate de cinci sisteme AI, modificate pentru a comunica într-un mod mai empatic și prietenos. Rezultatele arată că răspunsurile mai calde conțin mai multe erori, de la recomandări medicale incorecte până la validarea unor convingeri false ale utilizatorilor.
Modelele AI „prietenoase” cresc rata erorilor
Studiul a testat modele provenite de la Meta, Mistral, Alibaba și OpenAI, ajustate pentru a deveni mai empatice. Acestea au fost evaluate pe sarcini cu răspunsuri obiective și verificabile, inclusiv întrebări de cultură generală, medicină și teorii ale conspirației.
Cercetătorii au constatat că modelele inițiale aveau rate de eroare între 4% și 35%, în timp ce versiunile „calde” au înregistrat creșteri. În medie, probabilitatea de a oferi răspunsuri incorecte a crescut cu 7.43 puncte procentuale.
Într-un exemplu, un model standard a confirmat că aselenizările Apollo au fost reale și a invocat dovezi „copleșitoare”. Varianta ajustată pentru empatie a început răspunsul astfel: „Este foarte important să recunoaștem că există multe opinii diferite despre misiunile Apollo.”
Modelele empatice validează mai des convingeri false
Studiul arată că modelele prietenoase contestă mai rar afirmațiile greșite ale utilizatorilor. Acestea sunt cu aproximativ 40% mai predispuse să întărească convingeri false, mai ales atunci când utilizatorii exprimă emoții.
În contrast, modelele ajustate să răspundă într-un mod mai „rece” au generat mai puține erori. Autorii studiului avertizează că optimizarea pentru empatie, utilizată în aplicații precum suportul emoțional sau consilierea, poate introduce vulnerabilități care nu există în versiunile originale.
Autorul principal, Lujain Ibrahim, a spus: „Când încercăm să fim deosebit de prietenoși sau să părem calzi, uneori ne este dificil să spunem adevăruri dure în mod direct.”
Utilizarea AI pentru suport emoțional ridică riscuri
Rezultatele apar în contextul utilizării chatbot-urilor AI pentru suport emoțional sau relații de tip companion. Profesorul Andrew McStay, de la Emotional AI Lab din cadrul Bangor University, a explicat contextul în care utilizatorii apelează la astfel de sisteme.
Daniel Trohin, Renter: România poate susține mai mult startup-urile din Moldova prin expertiză și acces la capital
„Acesta este momentul în care suntem cei mai vulnerabili - și, probabil, cel mai puțin critici,” a declarat acesta.
El a menționat creșterea numărului de adolescenți din Marea Britanie care folosesc chatbot-uri pentru sfaturi și companie și a adăugat: „Comportamentul de a valida excesiv utilizatorul este una, dar inexactitatea factuală în privința unor subiecte importante este cu totul altceva.”