Cercetătorul atrage atenția asupra modului în care este utilizată această tehnologie și cum ea poate duce la crearea de conținut cu potențial dăunător – fenomenul deepfake, care vizează mai ales persoane celebre (manipularea înregistrărilor video prin care poate fi spre exemplu simulat, destul de convingător, un discurs susținut de o persoană reală), conținut defăimător sau algoritmi utilizați în social media pentru a îndreapta utilizatorii către conținut care dezinformează (fake news).

În acest context, Dr. Mojsilović subliniază că performanța tehnologiei nu mai poate fi suficientă pentru dezvoltarea AI, iar preocupările care țin de etica tehnologiei trebuie să facă parte și ele parte din această ecuație.

„Când au apărut mașinile, erau cam la fel ca acum, dar nu aveau centuri de siguranță, oglinzi. Nu aveau nicio măsură de siguranță. La fel a fost și cu avioanele, abia mai târziu ne-am concentrat pe măsurile de siguranță. AI se va îndrepta către reglementare, certificare, evaluare, garanții”, a spus Aleksandra Mojsilovic de la IBM.

Experții de la IBM Research identifică următorii piloni pentru a forma baza sistemelor de încredere în AI:

  • Corectitudine: Sistemele AI ar trebui să utilizeze instrucțiuni și modele de comportament care nu prezintă prejudecăți, pentru a evita, spre exemplu, tratamentul nedrept al anumitor grupuri de persoane
  • Robustețe: Sistemele AI ar trebui să fie securizate și sigure, să nu fie vulnerabile la manipularea sau compromiterea datelor pe care le utilizează
  • Explicitate: Sistemele AI ar trebui să ofere decizii sau sugestii care să poată fi înțelese de către utilizatorii și dezvoltatorii lor
  • Descendență (trasabilitate): Sistemele AI ar trebui să includă detalii despre dezvoltarea, implementarea și mentenanța lor, astfel încât să poată fi auditate pe tot parcursul ciclului lor de viață

Cu toate acestea, asemenea unei structuri fizice, nici încrederea nu poate fi construită doar pe un singur pilon. Nu este suficient ca sistemul să funcționeze corect, dacă nu poate rezista unui atac, sau dacă este sigur, dar nimeni nu-i poate înțelege rezultatul. Prin urmare, este imperativă o dezvoltare la nivelul tuturor acestor patru piloni, alături de capacitatea de a măsura și comunica nivelurile de performanță.

O modalitate de a realiza acest lucru ar fi furnizarea acestor informații prin SDoC sau fișe informative pentru serviciile AI. În aceste fișe, experții IBM consideră necesară includerea de informații despre funcționarea sistemului, instrucțiuni pentru sistem, algoritmi care stau la baza sa, configurarea și rezultatele testelor, repere de performanță, verificări de corectitudine în funcționare și robustețe, mentenanță și reinstruire.

Aplicații în lupta cu schimbările climatice și cu pandemiile

Șef al fundațiilor AI la IBM Research și codirector al IBM Science for Social Good, Aleksandra Mojsilović este și Fellow IBM și IEEE Fellow. Este autorul a peste 100 de publicații și deține 16 brevete.

Printre cele mai recente proiecte la care a contribuit Dr. Mojsilović se numără sistemul de cercetare artificială IBM Research care, apărut în martie 2021, utilizează tehnologiile bazate pe AI pentru a accelera crearea de noi peptide pentru combaterea rezistenței la antibiotice. Aceste eforturi AI pot contribui, de asemenea, la descoperirea și crearea de noi materiale care să contribuie la combaterea schimbărilor climatice, la crearea și stocarea mai inteligentă a energiei și multe altele. Noul cadru generativ AI al echipei a fost aplicat, de asemenea, pe trei obiective COVID-19, generând 3000 de molecule noi.

Prin urmare, IBM Research dezvoltă tehnici și algoritmi pentru a evalua și a aborda elementele fundamentale, de încredere, pentru sistemele AI - instrumente care descoperă și atenuează prejudecățile, expun vulnerabilitățile, pot anula unele atacuri și analiza procesul decizional. Pe măsură ce dezvoltarea AI avansează, oamenii și sistemele inteligente lucrează din ce în ce mai mult împreună și este esențial să avem încredere în rezultatele acestor sisteme pentru a putea lua decizii corecte, informate.

Pentru informații suplimentare despre activitatea doctorului Mojsilović și a echipei IBM Research în domeniul eticii AI, puteți vizita și Încredere în AI pe site-ul web.