19 August 2025
Anthropic îi oferă AI-ului Claude posibilitatea de a întrerupe conversația dacă "se simte abuzat" de oameni
Anthropic, compania americană de inteligență artificială, a introdus o funcție inedită în modelele Claude Opus 4 și 4.1: abilitatea de a opri complet o conversație considerată persistent abuzivă sau dăunătoare. Spre deosebire de măsurile tradiționale orientate către utilizatori, această funcție vizează protejarea „bunăstării” AI-ului. Ea apare ca ultimă soluție, doar după ce toate încercările de refuz sau redirecționare au eșuat.