L’entreprise chinoise, DeepSeek, propose aujourd’hui une solution d’apprentissage pour les IA bien moins coûteuse que son concurrent américain d’OpenAI.
L’intelligence artificielle est un vaste sujet, recoupant différentes thématiques, allant des applications pratiques aux aspects théoriques, avec notamment l’apprentissage de données de ces IA par le biais de ce qu’on appelle les LLM (modèles de langage). Aujourd’hui, les entreprises à l’origine de nombreux systèmes d’IA suscitent des préoccupations quant au coût économiques et environnementales qu’elles engendrent. DeepSeek propose une solution à ce problème, du moins d’un point de vue économique.
Plus Rapide et Moins cher
En progressant et en devenant de plus en plus performantes, les intelligences artificielles augmentent les paramètres de leurs modèles de langage pour rester pertinentes et comprendre des requêtes de plus en plus complexes. Une amélioration qui a un coût. À titre d’exemple, la version 3 de ChatGPT, qui compterait 175 milliards de paramètres selon The Verge, a coûté plusieurs centaines de millions de dollars à être développé. OpenAI, sa société mère, est d’ailleurs régulièrement pointée pour les sommes astronomiques qui lui permettent de rester à flot.
Selon Jim Fan, chercheur scientifique chez Nvidia, DeepSeek, basé à Hangzhou en Chine, est considéré comme « le plus grand outsider » de 2025 dans le domaine des LLM open source volumineux, rapporte le média chinois South China Morning Post.
En comparaison avec ChatGPT, DeepSeek V3, qui est doté de 671 milliards de paramètres, a été formé en seulement deux mois pour un coût de 5,58 millions de dollars américains.
Un modèle Open Source
De son côté, en plus d’être économique, DeepSeek se positionne comme un modèle open source qui semble faire ses preuves auprès des professionnels. « DeepSeek V3 semble être un modèle plus puissant, avec seulement 2,8 millions d’heures GPU », a déclaré Andrej Karpathy, anciennement responsable de l’IA chez Tesla membre fondateur de l’équipe d’OpenAI, dans un post sur X (Twitter). À titre de comparaison, Llama 3.1, l’IA du goupe Meta, a nécessité 30,8 millions d’heures GPU d’entrainement, selon South China Morning Post.
« Je suis DeepSeek depuis longtemps. L’année dernière, ils ont eu l’un des meilleurs modèles de codage ouvert », indique Fan. Il poursuit en indiquant que ces modèles open source vont exercer une pression énorme sur le secteur qui conduira à une rapide évolution.
Pour les plus curieux, le modèle de DeepSeek est accessible sur Hugging Face et il est accompagné de sa documentation sur GitHub.
Editor of Time.news (ET): Welcome, everyone! Today, we’re diving into a interesting topic within the AI landscape. Recent developments from the Chinese company DeepSeek have indicated that they are offering a substantially cheaper alternative to OpenAI’s models. With us to discuss this is Dr. Alex Chen, an AI expert with a deep understanding of the current AI market trends. Alex, could you shed some light on what DeepSeek brings to the table?
Dr. Alex Chen (AC): Absolutely! DeepSeek has been making waves with its latest model, DeepSeek V3.It has not only focused on quality and performance but has also positioned itself as one of the most cost-effective solutions available today. As an example, their API pricing is set to remain at $0.27 per million tokens for input and $1.10 for output until February 2025, which is much lower than what’s currently being offered by OpenAI models [3[3[3[3].
ET: That’s intriguing. So, in terms of performance metrics, how does DeepSeek V3 stack up against OpenAI’s offerings?
AC: The quality and speed of the model are notable. According to various analyses, DeepSeek V3 performs comparably to OpenAI models in areas such as reasoning, grammer, and even tasks like coding and mathematics [2[2[2[2]. This combination of affordability and competent performance can really shake up the competitive landscape, especially for developers and businesses looking for cost-effective solutions without compromising on capabilities.
ET: It sounds like DeepSeek could potentially dominate segments of the market that are price-sensitive. Is there a concern among developers or users about utilizing these lower-cost models?
AC: That’s a valid point. While cost savings are crucial, users need to ensure that they’re not compromising on performance and reliability. DeepSeek’s V3 has received commendations, but it’s essential for users to evaluate a model’s performance in their specific use cases. The model’s ability to handle specific contexts and provide accurate outputs will determine its acceptance among developers [1[1[1[1].
ET: Given this context, do you expect the industry will see a shift in preferences towards DeepSeek, particularly amongst companies that rely heavily on AI capabilities for their workflows?
AC: I believe so. If DeepSeek continues to deliver results that uphold or exceed the standards set by openai, we might see a meaningful shift. The combination of functionality, low cost, and accessibility is highly appealing. This dynamic could foster a more competitive environment, which ultimately benefits consumers and advances technological capabilities across the board [3[3[3[3].
ET: Fascinating insights,Alex! As we move forward,it will be interesting to monitor how these developments play out in the AI industry. Thank you for sharing your expertise with us today!
AC: Thank you for having me! I’m excited to see how the landscape evolves.