Čínská společnost DeepSeek dnes vydala čtvrtou generaci svého velkého jazykového modelu. DeepSeek V4 dosahuje v benchmarku MATH-500 přesnosti 97,2 %, čímž překonává GPT-5.4 od OpenAI (96,1 %) i Claude 4 od Anthropic (95,8 %).
Model je dostupný přes API i jako open-source verze s 70 miliardami parametrů. Klíčovou inovací je nová architektura "Chain-of-Thought Reinforcement" — model nejprve generuje detailní postup řešení a následně ho iterativně vylepšuje pomocí self-play reinforcement learningu.
Analytici upozorňují, že vydání DeepSeek V4 dále zvyšuje tlak na americké AI společnosti. OpenAI údajně urychluje vývoj GPT-6, zatímco Anthropic se soustředí na bezpečnostní aspekty svých modelů. Geopolitický rozměr AI závodu mezi USA a Čínou se tím dále prohlubuje.