În vara acestui an, Ucraina a semnalat o campanie de atacuri cibernetice din partea hackerilor ruși, care au introdus o noutate în arsenalul lor: un program bazat pe inteligență artificială, integrat într-un e-mail de tip phishing. Dacă era instalat, acesta căuta automat fișiere sensibile pe computerul victimei și le trimitea către Moscova. Potrivit rapoartelor tehnice publicate în iulie de guvernul ucrainean și companii de securitate cibernetică, este primul caz cunoscut în care serviciile ruse de informații au fost surprinse folosind modele de limbaj mari (LLMs) pentru a construi cod malițios.
Însă Rusia nu este singura. În ultimele luni, numeroși hackeri — de la spioni și grupări criminale până la cercetători și companii de securitate — au început să integreze instrumente AI în activitatea lor. Modelele de limbaj, precum ChatGPT, nu au transformat radical pe oricine într-un hacker profesionist, dar le oferă celor deja experimentați o viteză și o eficiență sporite.
Cum folosesc hackerii și apărătorii AI
Scenariul devine tot mai complex: atacatorii utilizează LLM-uri pentru a scrie cod, pentru a redacta e-mailuri de phishing mai convingătoare și pentru a identifica vulnerabilități. În același timp, companiile de securitate cibernetică răspund cu aceeași monedă. Echipa condusă de Heather Adkins, vicepreședinte al departamentului de securitate la Google, a folosit modelul Gemini pentru a descoperi peste 20 de vulnerabilități importante în programe software folosite la scară largă. Chiar dacă descoperirile nu au fost spectaculoase, viteza de identificare a crescut semnificativ.
De cealaltă parte, companii precum CrowdStrike raportează deja dovezi clare că adversari din Rusia, China, Iran și grupări criminale adoptă din ce în ce mai mult AI pentru a-și îmbunătăți atacurile. Adam Meyers, vicepreședinte la CrowdStrike, subliniază că „vedem asta în fiecare zi”, iar diferența devine vizibilă la nivel global.
Exemple recente din industrie
Noi startup-uri precum DreadNode și Xbow construiesc instrumente dedicate hackingului asistat de AI. Xbow a reușit chiar să ajungă pe primul loc în clasamentul HackerOne din SUA, un top live al celor mai performanți hackeri, devenind primul AI care domină această competiție. Platforma a introdus ulterior o categorie specială pentru a diferenția AI-urile automate de cercetătorii umani.
Avantaj pentru atac sau pentru apărare?
Întrebarea rămâne deschisă: cine are mai mult de câștigat din această revoluție, atacatorii sau apărătorii? Alexei Bulazel, director de securitate cibernetică la Consiliul Național de Securitate al Casei Albe, consideră că în prezent apărarea are avantajul, deoarece AI democratizează descoperirea de vulnerabilități și permite identificarea lor înainte ca hackerii să le exploateze. Totuși, el avertizează că situația se poate schimba odată cu evoluția tehnologiei.
Un punct critic ar putea apărea în momentul în care un instrument gratuit de hacking automatizat, alimentat de un LLM avansat, va fi pus la dispoziția publicului. Atunci, companiile mici și medii, fără echipe de securitate dedicate, ar putea deveni ținte facile.
Riscurile viitoare: AI agentică
Un alt risc major îl reprezintă dezvoltarea AI-ului agentic, capabil nu doar să genereze cod sau să redacteze texte, ci și să acționeze autonom: să trimită e-mailuri, să execute programe sau să lanseze atacuri informatice în numele utilizatorului. Adam Meyers de la CrowdStrike avertizează că acest tip de tehnologie ar putea deveni următoarea mare amenințare internă, în lipsa unor mecanisme stricte de control.
Pentru moment, AI pare să încline balanța în favoarea apărătorilor. Însă, așa cum remarcă experții, ne aflăm „la începutul începutului”, iar direcția în care această competiție dintre atacatori și apărători va evolua depinde de modul în care societatea va reuși să reglementeze și să securizeze utilizarea inteligenței artificiale.





