Laboratorul chinez de inteligență artificială DeepSeek a lansat primele două modele din seria sa V4 — DeepSeek-V4-Pro și DeepSeek-V4-Flash — sub formă de versiuni preview, cu licență MIT și context de un milion de tokeni.
Parametri record pentru un model open weights
DeepSeek-V4-Pro este construit pe arhitectura Mixture of Experts și numără 1,6 trilioane de parametri totali, dintre care 49 de miliarde sunt activi simultan, depășind ca dimensiune modele precum Kimi K2 (1,1T) și GLM-5.1 (754B) și devenind astfel cel mai mare model open weights disponibil public.
DeepSeek-V4-Flash, varianta compactă a seriei, are 284 de miliarde de parametri totali și 13 miliarde active, ocupând 160 GB pe platforma Hugging Face față de 865 GB cât necesită versiunea Pro.
Eficiență tehnică remarcabilă la contexte lungi
Echipa DeepSeek a pus un accent deosebit pe eficiența computațională, în special pentru prompt-uri cu context extins. Potrivit documentației tehnice publicate de laborator, DeepSeek-V4-Pro atinge doar 27% din operațiunile necesare unui singur token față de predecesorul V3.2, în scenariul unui context de un milion de tokeni, reducând totodată dimensiunea cache-ului KV la 10% din valoarea de referință.
DeepSeek-V4-Flash merge și mai departe, coborând la 10% din FLOPs și 7% din cache-ul KV față de V3.2, ceea ce explică în mare parte structura de prețuri adoptată de laborator.
Prețuri care redefinesc accesibilitatea pe piața AI
DeepSeek-V4-Flash se poziționează ca cel mai ieftin model din categoria sa, la 0,14 dolari per milion de tokeni la intrare și 0,28 dolari la ieșire, depășind chiar GPT-5.4 Nano de la OpenAI (0,20 dolari input). DeepSeek-V4-Pro costă 1,74 dolari per milion de tokeni la intrare și 3,48 dolari la ieșire, plasându-se sub Claude Sonnet 4.6 (3 dolari input) și GPT-5.4 (2,50 dolari input) și făcând din el cel mai accesibil model de dimensiuni mari din peisajul frontier AI.
Performanță apropiată de vârf, cu un decalaj de câteva luni
Benchmarkurile raportate de DeepSeek în lucrarea tehnică însoțitoare indică faptul că DeepSeek-V4-Pro-Max, versiunea extinsă cu tokeni de raționament suplimentari, depășește GPT-5.2 și Gemini-3.0-Pro pe testele standard de raționament, rămânând totuși ușor în urma GPT-5.4 și Gemini-3.1-Pro.
Conform propriei evaluări, performanța modelului urmează o traiectorie de dezvoltare cu aproximativ 3 până la 6 luni în spatele celor mai avansate modele frontier disponibile în prezent. Deocamdată, modelele pot fi testate prin OpenRouter, iar versiuni cuantizate pentru rulare locală sunt așteptate în scurt timp din partea echipei Unsloth.





