Notebookcheck Logo

DeepSeek's nieuwste open-source AI-modellen landen om GPT-5 en Gemini 3.0 Pro uit te dagen

DeepSeek, logo afgebeeld, is terug met twee nieuwe open-source AI-modellen. (Afbeelding met dank aan: DeepSeek)
DeepSeek, logo afgebeeld, is terug met twee nieuwe open-source AI-modellen. (Afbeelding met dank aan: DeepSeek)
DeepSeek is terug met nieuwe open-source AI-modellen: DeepSeek V3.2 en V3.2-Speciale. Naar verluidt zullen deze zowel OpenAI als de creaties van Google uitdagen. Dit is wat er tot nu toe over bekend is.

Na het veroveren van de wereld heeft veroverd en de Amerikaanse aandelenmarkten in januari 2025 deed instorten, heeft DeepSeek nu twee nieuwe open-source AI-modellen aangekondigd: DeepSeek V3.2 en DeepSeek V3.2-Speciale.

De release markeert een voortzetting van de uitgesproken strategie van het bedrijf in de AI-wapenwedloop. Terwijl OpenAI en Google miljarden dollars in rekenkracht hebben gestoken om hun grensverleggende modellen te trainen, waarbij ze ten koste van alles prioriteit hebben gegeven aan prestatieverbetering, is DeepSeek een andere weg ingeslagen. Het vorige R1-model was opmerkelijk omdat het erin slaagde om prestaties te behalen die gelijk waren aan die van GPT 4o en Gemini 2.5 Pro door middel van slimme versterkingstechnieken, ondanks het feit dat het getraind was op minder geavanceerde chips.

Overtreft GPT-5 en evenaart Google's Gemini 3 Pro

De standaard DeepSeek-V3.2 wordt gepositioneerd als een evenwichtige "dagelijkse bestuurder", die efficiëntie combineert met agentschappelijke prestaties die volgens het bedrijf vergelijkbaar zijn met GPT-5. Het is ook de eerste DeepSeek-V3.2 die de GPT-5 overtreft. Het is ook het eerste DeepSeek-model dat denken direct in het gebruik van hulpmiddelen integreert, waarbij dit laatste zowel in de denkmodus als in de niet-denkmodus mogelijk is.

Het is echter de high-compute variant DeepSeek V3.2-Speciale die de krantenkoppen zal halen. DeepSeek beweert dat het Speciale model GPT-5 overtreft en kan wedijveren met Google's Gemini 3.0 Pro wat betreft pure redeneercapaciteiten. Het behaalde zelfs gouden medailles in de Internationale Wiskunde Olympiade (IMO) van 2025 en de Internationale Olympiade in Informatica (IOI). En om te bewijzen dat het niet alleen maar marketingflauwekul is, zegt DeepSeek dat het zijn definitieve inzendingen voor deze competities heeft vrijgegeven voor verificatie door de gemeenschap.

DeepSeek schrijft de prestatiewinst toe aan "DeepSeek Sparse Attention" (DSA), een mechanisme dat is ontworpen om de rekencomplexiteit in lange-contextscenario's te verminderen, en een schaalbaar kader voor versterkingsleren.

Misschien wel het meest interessant voor ontwikkelaars is de focus op agenten. DeepSeek heeft een "Large-Scale Agentic Task Synthesis Pipeline" gebouwd om het model te trainen op meer dan 85.000 complexe instructies. Het resultaat is een model dat "denkprocessen" direct kan integreren in scenario's voor het gebruik van hulpmiddelen.

Beschikbaarheid

DeepSeek V3.2 is nu beschikbaar via het web, mobiele apps en API. Ondertussen is Speciale V3.2 op dit moment alleen API beschikbaar en wordt geleverd met een strikt tijdelijk eindpunt dat op 15 december 2025 verloopt. Bovendien is Speciale een pure redeneringsengine en ondersteunt het geen aanroepen van tools. Als u deze modellen lokaal wilt uitvoeren, heeft het bedrijf hier gedetailleerde instructies voor https://github.com/deepseek-ai/DeepSeek-V3.2-Exp.

De nieuwe AI-modellen van DeepSeek, met name V3.2 Speciale, overtreffen GPT-5 in verschillende benchmarks. (Afbeelding met dank aan: DeepSeek)
De nieuwe AI-modellen van DeepSeek, met name V3.2 Speciale, overtreffen GPT-5 in verschillende benchmarks. (Afbeelding met dank aan: DeepSeek)

Bron(nen)

DeepSeek, Knuffelgezicht (1), (2)

Please share our article, every link counts!
Mail Logo
> Overzichten en testrapporten over laptops en mobieltjes > Nieuws > Nieuws Archief > Nieuws archieven 2025 12 > DeepSeek's nieuwste open-source AI-modellen landen om GPT-5 en Gemini 3.0 Pro uit te dagen
Kishan Vyas, 2025-12- 3 (Update: 2025-12- 3)