Cu toate că nu este o tehnologie nouă, inteligența artificială generativă a acaparat spațiile creative. După cum ne-a povestit și profesorul Antonio Casilli de la Institutul de Politehnică din Paris, chiar dacă alte domenii vor prospera din cauza AI-ului, domeniile creative nu fac parte din această categorie.

„În 2025 a devenit din ce în ce mai clar că industriile creative au fost jefuite de creatorii de AI. Exemplele cele mai clare sunt Mid Journey sau orice AI generativ care a fost antrenat cu piese de artă,” ne-a spus profesorul în interviul pe care îl poți citi aici.

Am vorbit și cu o serie de artiști despre schimbările de pe platforma X (fostul Twitter), care și-au schimbat termenii și condițiile pentru a face utilizarea postărilor pentru antrenarea de AI mai accesibilă. În materialul pe care îl poți citi aici, artiștii care depind de rețelele sociale ca sursă de venit se tem de aceste noi implementări și de nevoie constantă să schimbe platforme și să piardă audiențe importante pentru veniturile lor.

Cu toate că lucrurile nu sunt certe din punct de vedere legislativ sau etic, artiștii continuă lupta prin luarea de măsuri juridice și inventează unelte care să îi ajute să își protejeze lucrările.

Ce aplicații folosesc artiștii pentru ca AI-ul să nu mai fie antrenat pe lucrările lor

Una dintre cele mai populare metode folosite de artiști este aplicarea unor „măști” pe lucrările lor, proces care le protejează stilul personal din a fi copiat. Conform MIT Technology Review, unelte precum Mist, Anti-DreamBooth sau Glaze sunt aplicații care schimbă pixelii unei imagini în moduri invizibile ochiului uman, ceea ce face descifrarea lor de către AI mult mai dificilă.

Mist și Anti-DreamBooth necesită niște cunoștințe de codare, dar Glaze, dezvoltată de o echipă de cercetători de la Universitatea din Chicago, este mai ușor de folosit. Aplicația este gratuită și cea mai folosită dintre cele trei, având milioane de descărcări.

”Otravă” pentru AI

Dacă aceste metode nu merg, cercetătorii de la Universitatea din Chicago au dezvoltat și Nightshade, un instrument care îți permite să adaugi un strat invizibil de „otravă” lucrărilor.

La fel ca Glaze, Nightshade adaugă modificări invizibile la nivel de pixeli, dar în loc să facă imaginile greu de interpretat pentru modelele AI, aceasta poate perturba versiunile viitoare ale acestor modele și le poate face să se comporte imprevizibil.

De exemplu, imagini cu câini ar putea fi recunoscute ca pisici, iar gențile de mână ar putea fi confundate cu prăjitoare de pâine de către modele. Cercetătorii spun că sunt necesare puține exemple de „otrăvite” pentru a produce un efect semnificativ și poate crea noi comportamente când vine vorba de a fura lucrări de artă.

Cu toate acestea, Bakuhatsu, un artist digital specializat pe design de personaje, spune într-o discuție cu start-up.ro că „procesul de glazing (termenul general folosit când vorbim de toate uneltele de acest tip; N.red.) funcționează doar dacă vrei să „otrăvești” bazele de date ale modelelor generative, dar nu funcționează și împotriva AI-urilor generative de tip image-enhancing, care îmbunătățesc imagini deja existente pe care le încarci direct într-un software, și care fac prelucrarea de imagini furate foarte ușoară.”