OpenAI a anunțat lansarea GPT-5.4, noul model de vârf din familia GPT-5, disponibil în ChatGPT (sub denumirea GPT-5.4 Thinking), în OpenAI API și în Codex. În comunicarea companiei, miza nu este doar o creștere incrementală de performanță, ci o trecere mai clară către modele care pot lucra în tandem cu sisteme „agentice” — adică pot planifica și executa sarcini în mai mulți pași, cu ajutorul unor instrumente software care rulează efectiv acțiunile.
Ce aduce nou GPT-5.4 în utilizarea de zi cu zi
OpenAI susține că GPT-5.4 a fost optimizat pentru „knowledge work” și pentru fluxuri profesionale care implică documente, prezentări și foi de calcul, dar și pentru sarcini mai lungi, unde consistența și urmărirea progresului contează.
În ChatGPT, OpenAI descrie GPT-5.4 Thinking ca fiind mai stabil pe sarcini dificile și mai bun la a „ține minte” ce a făcut deja, astfel încât utilizatorul să repete mai rar instrucțiuni sau detalii importante. Platforma poate afișa și un scurt preambul despre ce urmează să facă modelul, iar utilizatorul poate interveni cu instrucțiuni în timp ce modelul încă „gândește”, pentru a schimba direcția înainte de răspunsul final.
Pe partea de eficiență, OpenAI afirmă că GPT-5.4 folosește mai puțini tokeni pentru a rezolva probleme comparativ cu generațiile anterioare, ceea ce poate reduce costurile și latența în API pentru sarcini comparabile.
„Computer use”: de la recomandări la execuție
Cea mai discutată noutate este „computer use” — capacitatea modelului de a opera aplicații și site-uri printr-un agent care interpretează capturi de ecran și emite acțiuni (mouse/tastatură) în mod controlat. OpenAI prezintă GPT-5.4 ca primul său model „general-purpose” cu capabilități native de computer use, cu accent pe utilizarea din Codex și din API.
E importantă nuanța: modelul nu „apasă” direct pe mouse în sens clasic, ci generează intenții/pași (de tip click, tastare, navigare) pe care un sistem agentic le execută, apoi revine cu feedback (de exemplu, o nouă captură de ecran) pentru următorul pas. OpenAI își promovează explicit această direcție ca parte din evoluția către agenți capabili să finalizeze fluxuri de lucru end-to-end în aplicații diverse.
API și parametri: model, context mare și control al „efortului de raționare”
În documentația tehnică, modelul gpt-5.4 apare cu o fereastră de context de aproximativ 1 milion de tokeni și suport pentru parametrii de tip reasoning.effort (niveluri de efort), utili atunci când vrei să forțezi un răspuns mai rapid sau, din contră, o analiză mai atentă.
Pentru echipele care construiesc automatizări, diferența practică este că GPT-5.4 poate combina:
- raționare pe orizont lung (planificare, verificare, reluare după erori),
- interpretare vizuală (capturi de ecran, UI-uri),
- apeluri către unelte (tool use) într-un mod mai coerent pe fluxuri complexe.
Codex și aplicația desktop: de ce contează lansarea pe Windows
Codex este poziționat ca „command center” pentru lucru agentic în proiecte software, cu fire de lucru paralele, worktrees și facilități de review. OpenAI are acum o aplicație Codex pentru desktop, inclusiv pentru Windows, ceea ce reduce fricțiunea pentru utilizatorii care vor să supravegheze agenți ce rulează sarcini mai lungi, să revizuiască diffs și să controleze execuția în pași.
Din perspectivă de produs, asta mută „agentic AI” mai aproape de instrumentele concrete ale unui workflow de dezvoltare: nu doar un chat, ci o interfață în care agenții pot lucra în paralel, iar utilizatorul validează rezultatele.
Siguranță și limitări: ce spune OpenAI despre risc
OpenAI a publicat și documentație de siguranță pentru GPT-5.4 Thinking, menționând că acesta este primul model „general purpose” din seria 5 care include mitigări pentru capabilități ridicate în zona de cybersecurity, pe linia măsurilor aplicate anterior în modelele Codex.
Dincolo de formulările de „safety”, rămâne un aspect practic: cu cât un model poate executa mai multe acțiuni în numele tău (mai ales pe un sistem real), cu atât crește importanța controlului uman, a confirmărilor și a limitelor de permisiuni. OpenAI notează, la nivel de platformă, că dezvoltatorii pot seta politici de confirmare (când agentul trebuie să ceară accept explicit) în funcție de risc.





