Yunus Bulut, Validaitor: „Conformitatea AI-ului înseamnă eliminarea neașteptatului înainte să se întâmple”

Validaitor este o platformă care ajută companiile să își testeze sisteme de inteligență artificială într-un mod sigur, care respectă reglementările și standardele europene din domeniul AI. Despre cum reușește să asigure siguranță și ce înseamnă să lucrăm cu un AI neconform ne spune CEO-ul Yunus Bulut, în cadrul evenimentului How To Web. Validaitor face parte din companiile în care a investit Bitdefender Voyager Ventures la începutul acestui an.

Bitdefender Voyager Ventures (BVV) este program de investiții lansat de Bitdefender dedicat finanțării și dezvoltării viitoarei generații de startupuri în securitate cibernetică, analiză a datelor, automatizare și inteligență artificială (AI). Mai multe, aici 

Yunus Bulut este cercetător în domeniul inteligenței artificiale, cu peste 18 ani de experiență în software și date. În calitate de cofondator și CEO al Validaitor, își dorește să contribuie la progresul siguranței în domeniul inteligenței artificiale și să ajute organizațiile să folosească sisteme AI sigure și echitabile.

„Platforma noastră îi ajută pe clienți să își testeze sistemele de inteligență artificială. Securitatea este doar o parte a acestui proces. Este vorba și despre securitate, echitate, halucinații (când vine vorba de Gen-AI), probleme de confidențialitate - de exemplu, dacă AI-ul divulgă informații private și așa mai departe,” ne explică Yunus în cadrul panelului „Preparing AI systems for the real world”, din cadrul evenimentului How To Web 2025

Platforma este un spin-off al Institutului de Tehnologie din Karlsruhe, Germania. Proiectul a fost inițial incubat în cadrul universității, adică a putut fi dezvoltată tehnologia, dar a avut nevoie de investiții în etapa de dezvoltare și ieșirea de sub aripa academică. Printre investitorii în Validaitor se numără și Bitdefender Voyager Ventures, aripa investițională a Bitdefender, companie globală cu cartierul general în România. 

Bitdefender Voyager Ventures a contribuit la runda de investiíi din februarie 2025 alături de EnBW New Ventures, Institutul de Tehnologie din Karlsruhe și Start-up BW Seed Funds. BVV investește în mod obișnuit între 200.000 și 1 milion de euro conform tezei de investiții anunțate anterior. 

„Din fericire, am avut acces la granturi universitare și guvernamentale, iar la final am dezvoltat un MVP (produs minim viabil) pe care l-am lansat pe piață și am atras investitori imediat după aceea, printre care se numără Bitdefender din România.”

Cum te ajută Validaitor să descoperi vulnerablitățile AI-ului tău

Scopul platformei Validaitor este ca dezvoltatorii și companiile să-și poată testa modelele și sistemele AI și să le descopere vulnerabilitățile într-un spațiu sigur, care se desfășoară în conformitate cu standardele și reglementările din domeniul AI.

În prezent, AI-ul este reglementat în cadrul Uniunii Europene prin EU AI Act. Acesta stipulează că, dacă dezvolți sisteme AI, trebuie să le testezi înainte de a le pune în producție.

„Așadar, pe platforma noastră, dezvoltatorii de AI își pot testa sistemele și pot implementa cerințele standardelor de AI, precum EU AI Rights, ISO 42004 și alte standarde similare, pentru a deveni conformi cu aceste reglementări și standarde locale, regionale și globale privind AI. Astfel, ei câștigă încrederea clienților lor.”

Validaitor te ajută să descoperi vulnerabilitățile AI-ului și să dezvolți o inteligență artificială mai de încredere și mai fiabilă prin evidențierea punctelor slabe și oferirea de sugestii. Yunus descrie procesul ca pe o situație „win-win”: un câștig pentru tine, deoarece AI-ul tău funcționează mai bine pentru clienți, și un câștig pentru clienți, care văd că AI-ul companiei este validat de o sursă externă și că pot avea încredere.

Avantajul competitiv al startupurilor europene

Inteligența artificială este reglementată în cadrul Uniunii Europene, ceea ce o face ca adesea să fie percepută ca un mediu care limitează inovația prin aceste „poveri legale” pentru startupuri. Cu toate astea, Yunus vede aceste reglementări ca pe un avantaj.

„Dar partea bună a EU AI Act este conștientizarea riscurilor AI: riscuri legate de securitate, siguranță, halucinații, veridicitate, bias și probleme juridice.”

CEO-ul spune că acesta este momentul în care startupurile europene să strălucească în domeniul AI-ului sigur, fiabil și controlat, unde EU AI Act stabilește regulile, iar startupuri ca Validaitor facilitează implementarea lor, astfel încât celelalte startupuri europene să poată străluci la nivel internațional.

„În opinia mea, acest lucru oferă un avantaj competitiv startupurilor europene. Cele din SUA pot fi mai rapide în dezvoltarea unor AI-uri necontrolate, dar pe termen mediu și lung riscă încrederea și loialitatea utilizatorilor.”

Validaitor: destinat companiilor de orice dimensiune

„Platforma Validaitor se integrează cu pipeline-urile CI/CD existente și are integrări cu platforme de tip MLOps, cum ar fi Azure, Google Cloud, AWS etc., precum și cu sisteme de stocare de documente, sisteme de compliance[VT1]  și de gestiune a riscurilor. Așadar, integrarea în infrastructura tehnologică existentă este foarte simplă.”

Ce aduce platforma unei organizații, indiferent de dimensiunea ei, este sprijinul încă de la început, adică din faza de inițiere a unui sistem AI până la retragerea lui.

„Prin design, nu dorim să complicăm procesele sau să adăugăm fluxuri suplimentare, ci să integrăm calitatea AI-ului în fluxurile și politicile existente, pentru a fi simplificate cu un efort minim.”

Validaitor își dorește să obțină două lucruri: să reducă timpul, costurile și efortul necesare pentru a respecta reglementările AI și să ofere claritate asupra calității sistemelor AI existente dintr-o organizație. Testarea oferită de platformă este „out of the box”: conectezi sistemul, îl testezi automat pentru securitate, descoperi halucinații false etc., și obții o imagine de ansamblu a calității AI-ului tău într-un dashboard. Acesta îți arată în ce zone trebuie să îți îmbunătățești AI-ul și, în același timp, te ajută să implementezi obligațiile de reglementare prevăzute.

Ce este un sistem AI neconform

Pentru că am tot menționat că este important să avem sisteme AI sigure și care respectă reglementările, am vrut să înțelegem și ce înseamnă să lucrezi cu un AI care se află la polul opus și ce riscuri există.

Yunus ne explică că un sistem AI neconform este unul care eșuează în producție fără motive evidente. De exemplu, implementezi un chatbot și acesta începe să acceseze sistemele tale de date sensibile sau să afișeze conținut inadecvat, precum limbaj toxic sau jignitor, iar tu descoperi asta doar când un utilizator îți face o plângere.

„Conformitatea AI-ului înseamnă eliminarea neașteptatului înainte ca el să se întâmple. Să pui garduri de protecție și să folosești platforme ca a noastră pentru a controla comportamentul AI-ului înainte să îți provoace surprize neplăcute sau pierderi.”

Dezvoltarea unui AI conform este, de fapt, o formă de respect față de clienți, concluzionează CEO-ul. El ne spune că nu oferă doar beneficii imediate, ci construiește o relație pe termen lung bazată pe încredere, iar un AI sigur și securizat este esențial pentru menținerea unor relații solide și de încredere cu clienții tăi.

 



Citeste si