La cinci luni după ce Nvidia și OpenAI au anunțat o scrisoare de intenție privind o investiție „până la 100 de miliarde de dolari” în infrastructura AI a OpenAI, tranzacția nu a fost închisă, iar mesajele publice ale celor două companii s-au nuanțat vizibil. Între timp, o investigație Reuters susține că OpenAI a început încă de anul trecut să caute alternative la cipurile Nvidia pentru anumite tipuri de sarcini, în special pentru inferență, adică partea de „răspuns” a modelelor la solicitările utilizatorilor.
De la un plan de 10 gigawați la o cifră „care nu a fost niciodată un angajament”
Anunțul din septembrie 2025 a descris un plan de amploare: implementarea a cel puțin 10 gigawați de sisteme Nvidia pentru OpenAI, cu investiții progresive „până la 100 de miliarde de dolari” pe măsură ce fiecare gigawatt ar fi fost pus în funcțiune. La acel moment, comunicarea publică sugera că detaliile urmau să fie finalizate „în următoarele săptămâni”.
Recent însă, Jensen Huang a încercat să reducă așteptările legate de cifra maximă, afirmând că suma de 100 de miliarde de dolari „nu a fost niciodată un angajament” și că investițiile ar urma să fie făcute „pas cu pas”, în funcție de runda de finanțare și de evoluția proiectului.
Nemulțumiri pe inferență și semnalul Codex, potrivit Reuters
Reuters scrie, citând opt surse familiare cu situația, că OpenAI ar fi nemulțumită de viteza unor cipuri Nvidia în sarcini de inferență. În raport, inferența este descrisă ca punctul în care un model deja antrenat generează efectiv răspunsuri, iar problemele ar fi devenit vizibile în Codex, instrumentul de generare de cod al OpenAI. În interiorul companiei, unele limitări de performanță ar fi fost asociate cu arhitectura bazată pe GPU și cu anumite constrângeri de memorie specifice acestor sisteme, în raport cu cerințele de latență ale inferenței.
După publicarea articolului Reuters și reacția pieței, OpenAI și Nvidia au încercat să reducă tensiunile în comunicarea publică. Sam Altman a transmis pe X că OpenAI „iubește să lucreze cu NVIDIA” și că Nvidia produce „cele mai bune cipuri AI din lume”, insistând că OpenAI vrea să rămână un client major pe termen lung.
Alternative și diversificare: Cerebras, AMD și un cip custom cu Broadcom
Dincolo de discuțiile despre Nvidia, aceeași investigație Reuters indică faptul că OpenAI a explorat și alte opțiuni hardware, inclusiv startupuri orientate pe inferență cu latență redusă. În cazul Groq, Reuters notează că discuțiile OpenAI ar fi fost afectate după un acord de licențiere încheiat de Nvidia și după recrutări asociate.
În paralel, OpenAI a anunțat oficial un parteneriat cu Cerebras pentru a adăuga 750 MW de capacitate de compute destinată inferenței cu latență redusă, pe mai mulți ani (prin 2028). OpenAI a prezentat acordul ca o completare a strategiei sale de „portofoliu” de infrastructură, adaptată pe tipuri de workload.
Reuters mai descrie o abordare de „hedging” (reducerea riscului) și prin colaborări cu AMD, precum și prin planuri de a dezvolta un cip AI custom împreună cu Broadcom, tocmai pentru a scădea dependența de un singur furnizor. Calendarul pentru un astfel de cip rămâne însă incert.
Ce semnal dă această etapă pentru ecosistemul AI
Episodul arată două lucruri. În primul rând, diferența dintre „scrisori de intenție” și contracte ferme contează, mai ales când cifrele sunt la nivel de zeci de miliarde de dolari și depind de energie, centre de date și ritmuri de livrare greu de garantat. În al doilea rând, pe măsură ce produsele AI intră în faza de utilizare masivă, inferența devine o zonă critică, iar companiile caută combinații de hardware care să optimizeze costul pe răspuns și latența, nu doar performanța la antrenare.
În acest moment, nu există o confirmare oficială că Microsoft sau OpenAI au abandonat colaborarea cu Nvidia. Indiciile publice indică mai degrabă o repoziționare: Nvidia rămâne furnizor major, dar OpenAI își construiește în paralel alternative pentru scenarii în care viteza de inferență și costul operațional sunt decisive.





