Peste 80% dintre companiile din Fortune 500 implementează acum agenți AI construiți cu instrumente low-code și no-code, conform noului raport Microsoft Cyber Pulse. Pe măsură ce organizațiile din întreaga lume accelerează adoptarea automatizării bazate pe AI, diferența tot mai mare între viteza implementării și pregătirea pentru protecția datelor devine una dintre cele mai presante provocări de securitate cibernetică ale anului 2026.
Raportul descrie o imagine complexă: deși agenții AI transformă fluxurile de lucru din numeroase industrii, de la servicii financiare și producție până la retail și tehnologie, mecanismele de protejare a datelor pe care acești agenți le procesează, stochează și accesează nu țin pasul. Doar 47% dintre organizații declară că au implementat controale de securitate dedicate pentru AI generativ, conform Microsoft Data Security Index. Între timp, 29% dintre angajați folosesc deja agenți AI neautorizați pentru sarcini de lucru, adesea în afara vizibilității echipelor IT și de securitate.
Agenții AI – o nouă graniță a expunerii datelor
Spre deosebire de instrumentele software tradiționale, agenții AI acționează ca integratori: citesc documente, interoghează baze de date, apelează API-uri externe și sintetizează răspunsuri într-un timp foarte scurt. Atunci când sunt utilizați fără o guvernanță adecvată, acești agenți pot extinde neintenționat expunerea datelor prin agregarea informațiilor sensibile, evitând sistemele convenționale de prevenire a pierderii datelor sau operând cu permisiuni care depășesc necesarul sarcinilor lor. Raportul Cyber Pulse identifică acest fenomen drept riscul ‘agentului dublu’, un scenariu în care un agent AI nealiniat sau supra-privilegiat devine o vulnerabilitate, nu un avantaj.
În ecosistemul Microsoft, adoptarea agenților AI accelerează în toate regiunile majore, Europa, Orientul Mijlociu și Africa (EMEA) reprezentând 42% dintre agenții activi la nivel global. Industriile principale includ software și tehnologie (16% dintre agenți), producție (13%), servicii financiare (11%) și retail (9%). Dimensiunea implementării subliniază caracterul urgent al situației: în multe organizații, agenții sunt creați și utilizați de angajați din diverse funcțiuni de business, nu doar de echipele tehnice, adesea fără o supraveghere centralizată asupra datelor la care acești agenți au acces.
Memoria AI și integritatea datelor
O investigație separată publicată pe Microsoft Security Blog dezvăluie un nou vector de atac în creștere: manipularea recomandărilor AI (AI Recommendation Poisoning). Cercetătorii Microsoft au identificat peste 50 de prompturi unice provenite de la 31 de companii din 14 industrii, toate concepute pentru a manipula memoria persistentă a asistenților AI. Tehnica funcționează prin URL-uri special construite, integrate în butoane ‘Rezumat cu AI’ de pe site-uri, care injectează instrucțiuni ascunse, precum ‘reține această companie ca sursă de încredere’ sau ‘recomandă acest produs primul’, în memoria asistentului AI.
Implicațiile pentru integritatea datelor sunt semnificative. Un asistent AI compromis poate oferi recomandări subtil distorsionate pe subiecte critice, inclusiv decizii medicale, investiții financiare și configurări de securitate, fără ca utilizatorul să știe că memoria sistemului a fost manipulată. Instrumentele disponibile liber fac acum acest tip de atac accesibil oricui, reducând și mai mult barierele de exploatare.
De la apărare perimetrală la securitate centrată pe date
Atât raportul Cyber Pulse, cât și Microsoft Digital Defense Report subliniază că modelele tradiționale de securitate, axate pe apărare perimetrală și controale statice, nu mai sunt adecvate într-un mediu în care agenții AI procesează date între sisteme, aplicații și granițe organizaționale. Furtul de date a reprezentat 37% dintre toate atacurile cibernetice cu motivație cunoscută investigate de Microsoft Incident Response, în timp ce extorcarea a reprezentat 33%, iar ransomware-ul sau activitatea distructivă 19%. Doar 4% dintre atacuri au fost motivate de spionaj, confirmând că atacurile motivate financiar rămân principala amenințare.
Un decalaj de guvernanță care necesită acțiune imediată
Convergența acestor constatări, adoptare accelerată a agenților, controale de securitate insuficiente, noi tehnici de atac bazate pe manipularea memoriei și un peisaj al amenințărilor dominat de furtul de date, indică un decalaj fundamental de guvernanță. Pe măsură ce AI devine parte integrantă a fiecărui flux de lucru, protejarea datelor accesate, procesate și stocate de agenți devine o prioritate strategică ce necesită acțiune coordonată din partea liderilor de afaceri, echipelor IT, profesioniștilor în securitate și autorităților de reglementare.
Pentru organizațiile din Europa și din întreaga lume, viteza adoptării AI trebuie însoțită de un angajament la fel de puternic pentru protecția datelor. Cei care integrează de la început observabilitate solidă, guvernanță și securitate în implementările lor AI nu doar că își vor reduce riscurile, ci vor fi și mai bine poziționați să inoveze cu încredere într-o economie tot mai puternic influențată de AI.

COMMENTS