Adică despre acel tip de conținut media sintetic, mai exact, acel conținut creat sau modificat cu ajutorul inteligenței artificiale. El nu este inerent rău atunci când nu preia chipul unei persoane reale, dar ca de multe ori pe internet, un cuțit poate fi folosit și pentru a face mâncare, dar și pentru a răni pe cineva. Așa că hackerii au pus mâna pe modalități foarte simple și ieftine de a genera conținut.

Tehnologia a avansat foarte mult în ultimii ani, așa că oricine poate avea acces acum la unelte bazate pe inteligență artificială cu care poate crea bucățele de conținut în care să înlocuiască vocea sau fața unei persoane (de cele mai multe ori cunoscută) pentru a încerca să ne convingă să investim în cea mai tare schemă de crypto, sau că una dintre vedetele care ne place foarte mult promovează un anumit candidat la alegerile prezidențiale, sau este adepta unui comportament extremist.

Iar hackerii duc acest lucru la rang de artă. Fie pentru a fura informații sensibile, bani, sau pur și simplu pentru a destabiliza un grup de persoane, un teritoriu, o țară.

Ați prins care e ideea de bază. Videoclipurile cu deepfake, acelea în care se face manipularea digitală a unei imagini, sau a unei înregistrări video sau audio, sunt menite, în mâinile infractorilor cibernetici, să facă rău, să inducă în eroare.

Și pentru că sunt distribuite preponderent pe rețelele sociale, acest tip de conținut fals și care manipulează are potențialul de a deveni viral și de a înșela un număr extrem de mare de victime credule.

Avem și câteva exemple pentru voi:

  • În cazul produselor aflate sub umbrela Meta, mare parte din conținutul fraudulos descoperit de cercetătorii Bitdefender folosea instrumente bazate pe AI de generare vocală pentru a clona vocile unor celebrități cunoscute, cum ar fi Elon Musk, Jennifer Aniston, Oprah, Mr. Beast, Tiger Woods, Kylie Jenner, Vin Diesel.
  • Reclamele care conțin înșelătorii create pentru a viza utilizatori din România foloseau videoclipuri furate cu voci generate sintetic ale Andreei Esca, Simonei Halep, ale lui Klaus Iohannis, Marcel Ciolacu, Mugur Isărescu sau Ion Țiriac.
  • Infractorii au folosit imagini ale acestor celebrități pentru a promova oferirea gratuită de bunuri scumpe, cum ar fi ultimul model de iPhone, MacBook-uri, genți Michael Kors sau Coach în schimbul unei sume cuprinse între 2 și 15 dolari, pretinsă pentru transport.

Potrivit Bitdefender, cele mai des întâlnite subiecte în fraudele bazate pe clonarea vocală sunt investițiile și jocurile de noroc.

De altfel, încă de la începutul acestui an specialiștii în securitate informatică de la Bitdefender atrăgeau atenția asupra faptului că au observat mult mai multe atacuri pe platforme precum YouTube menite să cloneze conturi oficiale ale unor personalități publice precum Elon Musk, pentru a lansa înșelătorii crypto, de exemplu.

Hackerii au început să utilizeze tehnologii deepfake pentru a crea videoclipuri false ale unor persoane cunoscute în sfera monedelor cripto care conferă o mai mare credibilitate tentativelor de fraudă pentru a manipula oamenii să creadă în acele scheme pe care le promovează.

Revenind, iată pe scurt de ce e bine să înțelegem fenomenul deepfake și să putem face o diferență între ceea ce este real și ce nu:

  • Deepfake-urile pot distorsiona realitatea – conținutul video sau audio poate fi extrem de realist, așa că începe să fie tot mai greu de distins între falsuri și materialele reale.
  • Fraude – tehnologia deepfake poate fi folosită pentru tentative de fraudă, de exemplu, falsificarea identității pentru a ajunge la informații privat sau resurse financiare.
  • Manipulare și dezinformare – video-urile sau înregistrările audio bazate pe deepfake pot fi folosite pentru a manipula opinia publică și a crea confuzie, a instiga, a alimenta teorii ale conspirației.

Cum putem să ne dăm seama de un video fals pe internet?

Deepfakes a fost tema Expert Talks din august alături de Bogdan Botezatu Director of Threat Research and Reporting la Bitdefender și acolo regăsiți mai multe informații.

Pe scurt, eu vă spun așa:

  • Vocea nu e sincronizată cu video.
  • Conținutul e clar exprimat, dar lipsesc inflexiuni din voce, emoții, caracteristici umane.
  • Deși clonarea vocală de înaltă calitate reduce zgomotul din fundal, într-un clip audio/video sintetic acesta încă poate fi perceput. Ascultă cu atenție pentru a identifica zgomot de fundal sau artefacte digitale.
  • În video-uri vezi imperfecțiuni ale feței – clipesc ciudat și nesincronizat, dinți prea perfecți sau lipsă.

Și vă mai las cu câteva sfaturi pentru a nu vă lăsa păcăliți de deepfakes:

  • Rămâneți vigilenți la videoclipurile cu titluri clickbait care vă încurajează să investiți în monede cripto sau care promit profituri considerabile.  
  • Nu scanați niciodată codurile QR pe care le vedeți în clipurile care promovează cadouri crypto gratuite. 
  • Fiți atenți la numele canalelor pe care le urmăriți – dacă acestea conțin caractere neobișnuite sau greșeli de scriere, este mai mult ca sigur că acel canal este fals.
  • Nu credeți tot ce vedeți și găsiți pe internet pentru că nu totul este veridic. Fiți sceptici și verificați și din alte surse informațiile dacă vi se par prea bune sau ciudate pentru a fi adevărate.
  • Și, nu în ultimul rând, folosiți instrumente dedicate pentru a detecta fraudele, precum Bitdefender Scamio, chatbotul Bitdefender și detector de scam bazat pe AI, pentru a afla dacă un anumit conținut online cu care interacționați sau mesajele pe care le primiți sunt tentative de fraudă.