DeepSeek, la startup chinoise, a déferlé la chronique et ébahi les géants de la Tech américaine avec son modèle IA trois à quatre fois moins cher que ceux d’OpenAI et de Gemini. Avec ce nouveau modèle R1, la jeune pousse a encore remis le couvert comme un affront et un défi à relever.
Un nouveau modèle qui place DeepSeek à parité égale avec OpenAI et Google
La nouvelle mise à jour de DeepSeek, R1-0528 contribue à doter le modèle langage chinois d’une capacité de raisonnement proche de celle des modèles payants tels que GPT-4o d’OpenAI et Google Gemini 2.5 Pro. Rappelons que contrairement aux modèles d’IA américains, DeepSeek est open source et totalement gratuit.
Cependant, cela ne l’empêche pas d’offrir de meilleures performances sur les tâches de raisonnement complexes en mathématiques, en sciences, en affaires et en programmation. DeepSeek R1-0528 se rapproche très fortement des capacités de Gemini 2.5 Pro dans le cadre de la résolution des problèmes en programmation.
L’IA est disponible sous la licence MIT est totalement ouverte pour quiconque souhaite l’exploiter afin de personnaliser le modèle selon ses besoins et sa cible. Cependant, ce qui est payant, c’est l’API DeepSeek dont le coût est nettement inférieur à d’autres modèles d’IA concurrents.
Pour ceux qui souhaitent exécuter le modèle localement sur leur machine, DeepSeek a publié des instructions détaillées sur son compte GitHub. Les développeurs peuvent ainsi leur faire part de leurs commentaires et questions via une adresse email. Pour ceux qui le souhaitent, vous pouvez tester l’IA DeepSeek à cette adresse. Seulement, vous devez fournir soit votre numéro de téléphone, soit vous connecter via votre compte Gmail. Nous vous recommandons la deuxième option !
Des performances en nette amélioration
Cette mise à jour a pu mettre en évidence une fonctionnalité essentielle de DeepSeek à savoir sa capacité à répondre à des tâches de raisonnement difficiles. L’entreprise rapporte que les améliorations observées sur son nouveau modèle mis à jour proviennent de l’optimisation du code source et de l’utilisation des ressources plus performantes, mais moins énergivores. On a pu noter cette amélioration sur les différents tests de Benchmarks.
Au niveau de la performance de codage par exemple, sur LiveCodeBench, nous sommes passés de 63,5 % à 73,3 %. Aussi, les performances se sont accrues sur plusieurs tests réalisés comme vous pouvez le voir sur le tableau ci-dessous. Par exemple, on peut noter qu’elles sont passées de 8,5% à 17%, c’est presque le double. Et ce qui est encore surprenant, c’est la capacité de DeepSeek à utiliser deux à trois fois moins de ressources matérielles que les autres concurrents américains.
Par ailleurs, DeepSeek offre des gratuitement certaines fonctionnalités avancées qui sont malheureusement payantes sur ChatGPT o3 et Gemini 2.5 Pro. Pour montrer à quel point DeepSeek utilise moins de ressource, il faut noter qu’un seul GPU de 16 Go de VRAM est suffisant pour exécuter un LLM de 8 Go. Cela signifie qu’un GPU comme NVIDIA RTX 3090 ou 4090 va répondre aux besoins des entreprises, là où il faut deux fois plus de ressources pour un modèle comme Gemini 2.5 Pro.