În prezent, majoritatea uneltelor de inteligență artificială (AI) generativă funcționează sub supraveghere umană și sunt antrenate cu ajutorul unor cantități masive de date, cum ar fi large language models (LLM), care generează răspunsuri pe baza unor întrebări sau instrucțiuni date de utilizator.
Acest proces este similar cu un copil care imită sunete sau cuvinte fără a înțelege pe deplin semnificația lor, conform Fast Company.
Noua generație de agenți AI autonomi schimbă acest proces. Agenții autonomi pot interacționa activ cu datele și pot reacționa dinamic, similar cu oamenii.
Ce sunt agenții AI
Agenții AI sunt sisteme concepute pentru a lua decizii fără intervenție umană, pentru a îndeplini sarcini pre-definite. Spre deosebire de modelele antrenate exclusiv pe seturi de date prestabilite, acești agenți pot accesa date noi din mediul extern, pot analiza și interpreta informațiile și chiar pot lua decizii independent.
Aceasta este o evoluție semnificativă, deoarece înlocuiește modelele statistice tradiționale cu o tehnologie care poate asimila date noi, procesa informații și acționa fără a fi reantrenată. Practic, reducem nevoia umană în procesul decizional al AI-urilor.
Ce s-ar putea întâmpla rău
Cu toate aceste posibilități, agenții AI prezintă și riscuri. Spre deosebire de un operator uman, un agent AI nu poate controla cât de mult se extind posibilele erori și poate deveni o țintă pentru hackeri.
Un astfel de agent AI poate declanșa eronat tranzacții masive pe piețele financiare, ceea ce ar duce la un colaps economic, sau poate declanșa accidental o armă militară. Chiar dacă nici supravegherea umană nu este perfectă, prezența unui expert care monitorizează deciziile AI poate reduce riscul unor consecințe catastrofale.
Este indiscutabil că agenții AI oferă oportunități uriașe, precum automatizarea sarcinilor repetitive, însă riscurile sunt la fel de mari, iar dezvoltarea acestei tehnologii trebuie abordată cu precauție pentru a evita dezastrele tehnologice.