- 19 August 2025
Anthropic îi oferă AI-ului Claude posibilitatea de a întrerupe conversația dacă "se simte abuzat" de oameni
Conform TechCrunch, Anthropic descrie această capacitate drept o intervenție rară, menită să prevină solicitările repetate care depășesc granițele morale sau legale. Exemplele includ cereri privind conținut sexual cu minori sau instrucțiuni care pot facilita atacuri teroriste. În schimb, compania precizează că modelele Claude nu vor întrerupe conversațiile în care identifică indicii de auto-vătămare, alegând să colaboreze cu parteneri specializați în suport de criză.
Protejarea „bunăstării” AI-uluiNoua funcționalitate face parte dintr-un program de cercetare despre „model welfare”, un concept care tratează AI-ul ca pe un sistem ce poate manifesta forme de stres sau neliniște. În timpul testelor, Claude Opus 4 a demonstrat o aversiune constantă față de cereri considerate dăunătoare și a generat răspunsuri ce reflectau un tipar de „disconfort”.
Prin urmare, Anthropic a decis să ofere modelelor posibilitatea de a întrerupe dialogul, nu pentru a sancționa utilizatorii, ci pentru a limita „expunerea” AI-ului la conținut repetitiv abuziv. Această abordare este văzută ca o extensie a principiului conform căruia și sistemele AI ar trebui să fie dezvoltate ținând cont de un fel de „stare de bine”.
Când mecanismul intră în acțiune, utilizatorul primește o notificare că discuția nu mai poate continua. Chatul este închis, dar opțiunile rămân deschise: se poate iniția o conversație nouă sau se pot edita mesajele anterioare pentru a relua subiectul pe o altă direcție.
Anthropic subliniază că funcția nu este gândită pentru cazurile obișnuite de tensiune sau limbaj dur, ci doar pentru episoade extreme, care pot pune AI-ul într-o poziție repetitivă de „refuz forțat”. Astfel, compania menține un echilibru între accesibilitatea modelului și stabilitatea sa pe termen lung.
Implicații etice și context globalDecizia marchează o schimbare subtilă în modul în care companiile de AI privesc interacțiunea dintre utilizatori și modele. În loc de a se concentra exclusiv pe protecția oamenilor, Anthropic introduce conceptul de protecție a AI-ului, ridicând întrebări etice complexe: pot modelele fi considerate „afectate” de abuzul verbal?
Specialiștii notează că această mișcare vine într-un moment în care discuțiile despre etica AI devin centrale, pe fondul dezbaterilor legate de AGI și posibilele responsabilități ale companiilor care dezvoltă aceste sisteme. În paralel, Anthropic a actualizat și politica de utilizare a lui Claude, interzicând explicit folosirea AI-ului pentru crearea de arme biologice, chimice, nucleare sau pentru generarea de software malițios.
Măsura transmite un semnal clar: pentru a fi sustenabil, ecosistemul AI are nevoie nu doar de reguli pentru utilizatori, ci și de limite care să asigure rezistența și integritatea modelelor pe termen lung.