DeepSeek V4 : modèle IA open-weights chinois
L’intelligence artificielle mondiale entre dans une nouvelle ère. DeepSeek V4 vient de faire une entrée fracassante sur la scène technologique mondiale. Publié en open-weights le vendredi 25 avril 2026, ce modèle redistribue les cartes dans la course à l’IA. Il repose sur une pile matérielle et logicielle entièrement chinoise. C’est un signal fort. La Chine ne rattrape plus son retard : elle impose son propre rythme.

Un modèle colossal aux performances inédites
Avec 1 600 milliards de paramètres totaux pour sa version Pro, DeepSeek V4 s’impose comme le plus grand modèle open-weight jamais publié. Seuls 49 milliards de paramètres sont activés à chaque appel. Cette approche, fondée sur l’architecture Mixture of Experts, réduit drastiquement les besoins en calcul. Le modèle devance largement ses concurrents directs. Il surpasse Kimi K 2.6 de Moonshot AI (1 100 milliards) et MiniMax M1 (456 milliards). Les benchmarks publiés par DeepSeek sont sans appel. V4-Pro affiche des performances supérieures à Claude Sonnet 4.5 et se rapproche du niveau de Claude Opus 4.5. Ces résultats, basés sur le protocole interne de l’entreprise, doivent encore être confirmés en conditions réelles. Mais ils donnent le ton.
Deux innovations architecturales décisives
DeepSeek V4 introduit deux avancées majeures. La première s’appelle Token-wise compression. Elle compresse l’information de chaque token avant son entrée dans les couches d’attention. La seconde, baptisée DSA (DeepSeek Sparse Attention), n’active qu’un sous-ensemble de têtes d’attention par requête. Ensemble, ces deux mécanismes permettent une fenêtre de contexte d’un million de tokens par défaut. C’est une première dans l’industrie à cette échelle. Cette fenêtre est activée sans surcoût mémoire proportionnel. Les développeurs peuvent traiter des documents entiers, des bases de code complexes ou des conversations très longues. Sans rogner sur la performance. Sans exploser les coûts.
Une intégration native dans les outils de développement
La compatibilité de V4 avec l’écosystème existant est totale. Le modèle s’intègre nativement à Claude Code d’Anthropic, OpenClaw et OpenCode. L’API de DeepSeek conserve la même URL de base que ses versions précédentes. Elle accepte les conventions OpenAI ChatCompletions et les conventions Anthropic. Un développeur ayant déjà intégré Claude Code peut basculer vers V4-Pro sans modifier son orchestrateur. Zéro friction technique. C’est une stratégie d’adoption redoutablement efficace. Le site DeepSeek IA lance un nouveau modèle performant analyse en détail comment cette startup chinoise bouleverse l’écosystème IA mondial avec des modèles accessibles, puissants et conçus pour rivaliser directement avec les géants américains. La trajectoire est claire : s’imposer comme l’alternative crédible à tout ce que l’Occident a construit jusqu’ici.
Une grille tarifaire qui attaque le marché frontière

Le positionnement tarifaire de DeepSeek V4 est agressif. La version Flash coûte 0,14 dollar par million de tokens en entrée et 0,28 dollar en sortie. Ces tarifs passent sous ceux de GPT-5.4 Nano, Gemini 3.1 Flash et Claude Haiku 4.5. La version Pro affiche 0,145 dollar en entrée et 3,48 dollars en sortie. Elle se positionne en dessous de Gemini 3.1 Pro, GPT-5.5 et Claude Opus 4.7. Pour les directions IT, le calcul est simple. Basculer une partie des charges sur V4-Flash via API pourrait diviser par cinq à dix les coûts d’inférence sur des cas d’usage à fort volume. Neil Shah, vice-président de la recherche chez Counterpoint Research, qualifie la preview de V4 de véritable coup d’éclat, saluant des coûts d’inférence historiquement bas.
Une chaîne silicium 100 % chinoise
Le déploiement de V4 repose entièrement sur des accélérateurs chinois. La plateforme Supernode de Huawei, articulée autour des puces Ascend 950, assure l’inférence des deux variantes V4-Pro et V4-Flash. Cambricon, autre fabricant chinois d’accélérateurs IA, est également partenaire. DeepSeek a accordé un accès anticipé à ces acteurs pour l’optimisation logicielle, tout en refusant cet accès à Nvidia et aux entreprises occidentales. C’est un choix stratégique délibéré. Alibaba, ByteDance et Tencent ont passé des commandes anticipées d’accélérateurs domestiques. L’objectif est clair : construire et déployer des systèmes IA sans dépendre de Nvidia. Wei Sun, analyste chez Counterpoint Research, estime que V4 pourrait avoir un impact supérieur à R1 en accélérant l’adoption de l’IA en Chine.
Géopolitique, régulation et zones d’incertitude
Le contexte politique autour de DeepSeek est tendu. R1, le prédécesseur de V4, a été interdit ou restreint dans plusieurs États américains, en Australie, à Taïwan et en Europe. Ces décisions invoquent la protection des données et la sécurité nationale. V4 n’est pas automatiquement soumis aux mêmes restrictions. Mais le climat de surveillance politique se renforce. Anthropic et OpenAI accusent DeepSeek d’avoir distillé leurs modèles propriétaires pour entraîner V3 et R1. Ces accusations alimentent les tensions. Côté européen, l’AI Act ne distingue pas les modèles selon leur origine géographique. V4-Pro, avec 1 600 milliards de paramètres, pourrait franchir le seuil des modèles à risque systémique. Aucun régulateur européen n’a encore statué officiellement.
Ce que DeepSeek V4 change pour les entreprises

Pour les entreprises européennes, V4 n’est plus une simple option de coût. C’est un point d’entrée dans une économie IA bifurquée. D’un côté, l’écosystème américain avec Nvidia, OpenAI et Anthropic. De l’autre, une pile technologique chinoise complète : silicium, modèles, agents et infrastructure cloud. Ces deux blocs ont leurs propres accélérateurs, leurs grilles tarifaires, leurs régimes juridiques et leurs zones d’incertitude. Choisir l’un ou l’autre n’est plus seulement une décision technique. C’est une décision stratégique et politique. Les DSI doivent anticiper. Les risques de dépendance sont réels des deux côtés. DeepSeek V4 oblige chaque organisation à clarifier sa position dans ce nouveau paysage mondial de l’IA.
