Studiul examinează felul în care întrebările sugestive puse de AI oamenilor pot să le influențeze amintirile și să creeze unele care nu s-au întâmplat niciodată sau care sunt deviate de la adevăr. Rezultatele studiului vor să arate riscurile etice de a folosi AI în contexte sensibile precum interviuri cu victime sau declarații date la poliție.

Îngrijorările specialiștilor sunt amplificate de tendința AI-urilor de a genera informație falsă și felul în care relația dintre om și sistem AI influențează memoria umană. Cu toate că există studii despre cum deepfake-urile ne pot afecta direct, impactul conversațiilor de tip chatbot nu este cert.

Cum a decurs studiul?

200 de participanți au luat parte la studiul format din două etape. În primă fază, participanții au vizionat un scurt videoclip al unei camere de supraveghere care surprindea o infracțiune, iar apoi li s-a oferit o pauză de câteva minute unde au jucat un joc video menit să le distragă atenția de la videoclip.

După pauză, fiecare participant a fost selectat aleatoriu să completeze unul din cele patru tipuri de chestionare: control (fără intervenții false), survey-based (25 de întrebări cu da sau nu, din care 5 sunt înșelătoare), pre-scripted chatbot (un bot conversațional care pune aceleași întrebări din survey) sau generative chatbot. Chestionarul ce a inclus un generative chatbot a decurs puțin diferit, oferind feedback și validare după fiecare răspuns, inclusiv cele înșelătoare, iar participanții au avut pauze extra cu diverse activități.

Etapa a doua s-a desfășurat cu o săptămână mai târziu. Participanții au fost rugați să povestească videoclipul vizionat și să răspundă la întrebările din prima etapă.

Rezultate

Rezultatele arată că interacțiunile de scurtă durată cu un bot care generează feedback induc mai multe amintiri false. Participanții care nu erau familiari cu chatbots, dar care știau de tehnologia AI și cei interesați de crimă și investigații au fost cei mai susceptibili, iar 36.4% dintre aceștia au răspuns greșit după interacțiunea cu boții.

Numărul de amintiri false a rămas constant după o săptămână și nu s-au observat diferențe imporante cu privire la numărul acestora.

Îngrijorător este și nivelul ridicat de încredere pe o durată lungă de timp al amintirilor induse de AI-ul generativ. Unul din motivele acestui rezultat poate fi natura convingătoare a unei interacțiuni personalizate.

Concluzii

Cu toate că utilizarea sistemelor AI în contexte unde amintirile precise sunt importante, fie la nivel juridic, clinic sau educațional ridică semne de întrebare din punct de vedere etic, există și potențialul unui impact pozitiv.

Făcute într-un cadru responsabil și controlat, astfel de sisteme pot fi folosite ca unelte pentru a induce amintiri fals pozitive persoanelor care suferă de post-traumatic stress disorder (PTSD), spre exemplu, pentru a reduce impactul celor negative.