OpenAI a anunțat un nou model de inteligență artificială destinat exclusiv profesioniștilor în securitate cibernetică, denumit GPT-5.4-Cyber, care operează cu restricții reduse față de versiunile sale publice pentru a permite cercetări ofensive și defensive mai avansate.
Ce este GPT-5.4-Cyber și cum diferă de modelele obișnuite
Spre deosebire de GPT-5.4, varianta standard disponibilă publicului larg, noul GPT-5.4-Cyber este antrenat să accepte solicitări pe care modelele convenționale le-ar refuza, precum identificarea vulnerabilităților în cod sau simularea unor atacuri cibernetice.
OpenAI descrie modelul drept „cyber-permissive”, precizând că scopul său este de a oferi cercetătorilor în securitate acces la capabilități avansate pentru a putea proteja mai eficient infrastructurile digitale. „Aceasta este o versiune a GPT-5.4 care coboară pragul de refuz pentru munca legitimă în domeniul cybersecurity și activează noi capabilități pentru fluxuri defensive avansate”, a explicat compania.
Cine are acces la noul model AI de securitate cibernetică
Accesul la GPT-5.4-Cyber nu este deschis publicului general, ci este rezervat membrilor programului Trusted Access for Cyber (TAC), lansat de OpenAI în februarie, care presupune o verificare riguroasă a identității, inclusiv printr-un act de identitate emis de o autoritate guvernamentală.
Deocamdată, doar utilizatorii din nivelurile superioare ale TAC pot folosi modelul, iar cei care nu se califică automat pot solicita acces suplimentar, demonstrând că sunt „apărători cibernetici legitimi”. OpenAI a precizat că implementarea se face gradual, prin „desfășurare limitată și iterativă către furnizori de securitate, organizații și cercetători verificați”.
Contextul mai larg: rivalitatea cu Anthropic în domeniul AI pentru cybersecurity
Anunțul vine la doar o săptămână după ce Anthropic a dezvăluit Project Glasswing, o inițiativă similară care restricționează accesul la modelul Claude Mythos Preview, creat tot pentru securitate cibernetică, la organizații selectate și verificate.
Anthropic a susținut că modelul său „a identificat deja mii de vulnerabilități cu grad ridicat de severitate” și a subliniat că scopul proiectului este de a se asigura că tehnologia rămâne utilizată exclusiv în scop defensiv.
„Dat fiind ritmul progresului în domeniul AI, nu va trece mult timp până când astfel de capabilități se vor răspândi, potențial dincolo de actorii care se angajează să le folosească în siguranță”, a avertizat Anthropic.





