La grande IA chinoise qui a étonné le monde début 2025 est de retour. Et cette fois, il le fait avec plus de puissance que jamais. Avec le lancement de Recherche profonde V3.2 et sa variante V3.2-Speciale, de DeepSeek, ils démontrent une fois de plus qu'un modèle ouvert et sans restriction peut être plus puissant que n'importe quel modèle propriétaire.
Alors qu’OpenAI, Google ou Anthropic misent sur une course apparemment sans fin aux modèles fermés, l’entreprise chinoise montre qu’elle peut surpasser ces IA multimillionnaires. Ses propres créateurs la décrivent comme l’IA parfaite au quotidien, équilibrant le raisonnement GPT-5 avec une vitesse pratique et réelle.
Il est également livré avec sa variante spéciale, ou « Speciale », qui pousse ses capacités de raisonnement à l'extrême, au point qu'il a remporté la médaille d'or à l'Olympiade internationale de mathématiques de 2025. Parallèlement à cela, il propose également des concours de programmation de classe mondiale (IOI, ICPC) et rivalise directement avec le raisonnement de Gemini 3.0.
Disponibilité de DeepSeek V3.2
DeepSeek V3.2 est désormais disponible sur trois canaux simultanément.
Tout d’abord, nous le trouvons dans l’application Web officielle DeepSeek, mais nous l’avons également dans l’interface mobile et, de la même manière, via l’API de paiement. Il faut savoir qu'il s'agit d'un modèle entièrement open source qui possède une licence MIT, ce qui permet de le télécharger depuis Visage câlin et exécutez-le sur notre propre PC sans aucune restriction commerciale. Maintenant, ce n’est pas parce qu’il est gratuit qu’il peut être exécuté sur n’importe quel PC.
Pour une utilisation locale, le modèle a Paramètres 671B local dans l'architecture MoE, toujours avec 37B de paramètres actifs par inférence. En d’autres termes moins techniques : si vous souhaitez exécuter la V3.2 localement, vous aurez besoin d’environ 380 à 400 Go de VRAM combinée (GPU et RAM). Malgré tout, grâce aux techniques de déchargement, il est possible de le faire fonctionner sur 24 Go de GPU et 128 Go de RAM, mais avec une vitesse considérablement réduite. De son côté, la version Speciale est disponible uniquement via API jusqu'au 15 décembre de cette année (dans 13 jours). Après cette date, son utilisation dépendra des retours de la communauté.
Contexte, multimodalité et raisonnement
DeepSeek V3.2 prend en charge une fenêtre contextuelle de 128 000 jetons, ce qui équivaut à environ 96 000 mots. Nous pourrons ainsi traiter de longs documents, du code volumineux et analyser de longues conversations sans perdre un peu de contexte. Il faut néanmoins garder à l'esprit qu'il s'agit d'un modèle partiellement multimodal. La V3.2 est formée pour traiter du texte, du code et prend également en charge l'interprétation des images et des graphiques. Idem pour son modèle Speciale. En termes de performances, la variante Speciale a surpassé le GPT-5 High dans des benchmarks tels que HMMT 2025 et rivalise directement avec Gemini 3.0 Pro :
Licence, prix et disponibilité technique
DeepSeek V3.2 est entièrement gratuit sous sa licence MIT, nous permettant de l'utiliser commercialement, de le modifier et de le distribuer sans restrictions. Malgré cela, son API officielle a un coût très faible. Et nous allons jusqu'à 0,07-0,33 dollars par million de jetons en entrée et jusqu'à 1,3 dollars par million de jetons en sortie. Speciale utilise ces mêmes frais, mais génère 2 à 3 fois plus de jetons en raison de son raisonnement extrême.
Le modèle dispose d'un mode « réflexion » où il peut générer des étapes de raisonnement avant la réponse finale, ce qui améliore sa précision dans des questions telles que les mathématiques ou la programmation avancée. Et pour les développeurs, DeepSeek propose des noyaux CUDA, un code d'inférence complet et une prise en charge multiplateforme. Cela facilite le déploiement local de la manière la plus optimisée et la plus puissante possible.
DeepSeek V3.2 est la preuve que le logiciel libre continue de prévaloir sur les modèles multimillionnaires et que le budget a un rapport limité avec le résultat final.