Fortress Club

Fortress Club

🏰 đŸ’„ AMD, bientĂŽt la chute ? 🧐

👉 Idem pour Nvidia ?

Avatar de Mathieu Bouchant
Mathieu Bouchant
janv. 26, 2025
∙ abonnĂ© payant
9
1
Partager
  • đŸ‡ș🇾 AMD, bientĂŽt la chute ? : Ma rĂ©flexion sur AMD (et Nvidia) avec tous les Ă©lĂ©ments dont je dispose.

Temps de lecture : 16 mins.


Pour rappel, si vous avez trouvĂ© cette Ă©dition utile, n’hĂ©sitez pas Ă  cliquer sur le petit cƓur 💚 (sous le titre), cela m’encourage Ă©normĂ©ment et me permet de savoir ce qui vous intĂ©resse 🙏 !


AMD annonce ses « SoC adaptatifs » Versal Premium Gen 2 - Next

đŸ‡ș🇾 Ma rĂ©flexion sur AMD

Identité

Capitalisation : 195 Mrds$
Place de cotation : Nasdaq đŸ‡ș🇾
Isin : US0079031078
ÉligibilitĂ© au PEA : Non

AMD met le paquet sur l'IA générative et séduit Meta et OpenAI

🎙 Version audio

1×
0:00
-32:44
La lecture audio n'est pas prise en charge par votre navigateur. Veuillez le mettre Ă  niveau.

🎓 PrĂ©sentation

Quand j’analyse des jeunes entreprises, ou des entreprises de croissance, j’essaye tout d’abord de comprendre le problĂšme que ces entreprises rĂ©solvent.

Comme je le dis souvent, une entreprise fait soit gagner de l’argent, soit du temps, soit de l’estime de soi ou du bien ĂȘtre.

Dans le cas d’AMD, c’est assez simple.

AMD vend des produits qui permettent de faire gagner de l’argent et du temps à ses clients.

AMD vend plus prĂ©cisĂ©ment des composants Ă©lectroniques qui permettent Ă  leurs clients d’ĂȘtre plus rapides pour rĂ©aliser des tĂąches, gĂ©nĂ©ralement liĂ©es au calcul informatique.

Passons à une présentation plus formelle.

Les quatre principaux segments d'activité d'AMD étaient les suivants en 2023 :

  • Data Center (29% des ventes) : Ce segment inclut les processeurs de serveur (comme les sĂ©ries AMD EPYC), les GPU pour centres de donnĂ©es, les accĂ©lĂ©rateurs d'IA, les DPU (Data Processing Units), les SoC adaptatifs, les FPGA (Field Programmable Gate Arrays), et les SmartNIC (cartes d'interface rĂ©seau intelligentes). Ces produits sont conçus pour rĂ©pondre aux besoins d'accĂ©lĂ©ration des charges de travail de calcul, de traitement des donnĂ©es visuelles et d'IA sur le marchĂ© des centres de donnĂ©es.

  • Client (21%) : Comprend principalement les processeurs pour ordinateurs de bureau et portables, notamment les CPU Ryzen pour les PC clients. Ce segment se concentre sur les marchĂ©s des PC personnels et professionnels, offrant des solutions pour les utilisateurs finaux et les entreprises.

  • Gaming (27%) : Ce segment se concentre sur les produits destinĂ©s au marchĂ© du jeu vidĂ©o, y compris les processeurs graphiques (GPU) Radeon pour les cartes graphiques de jeu, ainsi que les semi-custom SoC utilisĂ©s dans les consoles de jeux comme la PlayStation et la Xbox. Les produits de ce segment sont utilisĂ©s dans des appareils de jeu variĂ©s, tant pour les PC que pour les consoles.

  • Embedded (24%) : Les solutions embarquĂ©es d'AMD incluent des processeurs et des GPU pour des applications spĂ©cifiques comme les systĂšmes d'automatisation industrielle, les rĂ©seaux de tĂ©lĂ©communications, les Ă©quipements mĂ©dicaux, et diverses autres applications oĂč la performance et l'efficacitĂ© Ă©nergĂ©tique sont cruciales. Ce segment vise Ă  fournir des solutions de calcul adaptĂ©es Ă  des environnements oĂč l'espace et la consommation d'Ă©nergie sont limitĂ©s.

Ces segments reflÚtent la stratégie d'AMD de diversifier son offre au-delà de la simple production originelle de CPU (processeur) pour ordinateurs de bureau et portables, en se positionnant comme un acteur clé dans plusieurs domaines technologiques de pointe.

Alors que ce secteur Ă©volue rapidement, les chiffres de 2023 ne reprĂ©sentent pas forcĂ©ment bien ce qui soutient l’activitĂ© du groupe en ce moment. Par ailleurs, les marges sont diffĂ©rentes d’une activitĂ© Ă  une autre. Voici les chiffres du 3e trimestres 2024 :

C’est bien la branche Data Center qui explose en ce moment, avec plus de 50% des ventes totales. Cette branche n’est pas la plus rentable du groupe en termes de marges (29%). C’est la branche Embedded avec des marges d’exploitation de 40%. Cependant, au vu de son importance, c’est bien la branche Data Center qui est la plus importante pour le groupe, alors qu’elle a gĂ©nĂ©rĂ© 61% du rĂ©sultat d’exploitation du groupe sur le 3e trimestre. Les branches clients et gaming sont plus cycliques et ont des marges moins importantes.

Ce qu’il faut retenir : AMD est en ce moment portĂ© par le boom de l’IA, mais le groupe voit de fortes opportunitĂ©s de croissance dans les data centers (grĂące Ă  l’IA), dans l'Ă©lectronique grand public et dans sa branche Embedded. Dans cette derniĂšre, si l’IA poursuit ses progrĂšs, il est Ă©vident que de nombreuses machines plus intelligentes vont voir le jour, et que l’automatisation va s’accroĂźtre dans une multitude de domaines
 Ainsi, il est vrai de dire que AMD est un play sur le dĂ©veloppement de l’IA.

AMD vend des produits pour les data centers qui ont des besoins monstres du fait du dĂ©veloppement de l’IA, mais aussi pour tous les robots intelligents via sa branche Embedded. Ce sont les deux branches Ă  fort potentiel.

Le dĂ©veloppement de l’IA, un boom Ă  venir pour AMD ?

Le dĂ©veloppement fulgurant de l’IA Ă  travers tous les diffĂ©rents Chatgpt dĂ©veloppĂ©s par les diffĂ©rents gĂ©ants du web, mais aussi par diffĂ©rents indĂ©pendants, offre en thĂ©orie un potentiel immense pour AMD.

Si vous bidouillez un peu l’informatique, ou que vous avez bidouillĂ© votre PC de gamer plus jeune, quelle est l’image que vous avez d’AMD ? GĂ©nĂ©ralement, c’est que AMD est moins cher est presque aussi performant que Nvidia, le leader dans les cartes graphiques de gamer.

Dans l’IA, et les composants pour Datacenters
 c’est sensiblement la mĂȘme chose.

Dans l’IA, malgrĂ© le dĂ©veloppement fulgurant de ce secteur ces deux derniĂšres annĂ©es, nous ne sommes encore qu’au dĂ©but de cette rĂ©volution. Bien que le dĂ©veloppement des diffĂ©rents ChatGPT ait dĂ©jĂ  Ă©branlĂ© certains segments du marchĂ© de l’emploi, il a le potentiel de chambouler de nombreux mĂ©tiers qui se croient encore protĂ©gĂ©s de cette vague.

Tous les mĂ©tiers dont le but est simplement de poser un diagnostique et d’appliquer une solution en se basant sur des connaissances, des donnĂ©es, sont Ă  risque, car une intelligence artificielle le fera mieux et pour moins cher.

C’est ce qui va se passer avec la conduite autonome. C’est ce qui se passera dans de nombreux domaines.

Avec le développement des robots humanoïdes, beaucoup de métiers manuels simples vont aussi devenir à risque.

Les mĂ©tiers crĂ©atifs ne sont pas autant Ă  l’abri qu’on ne le pense.

Les mĂ©tiers dit “qualifiĂ©s” ne sont pas spĂ©cialement plus Ă  l’abri que les mĂ©tiers dits “non qualifiĂ©s”. L’IA remplacera certainement beaucoup de choses, mais elle secondera aussi beaucoup de mĂ©tiers.

In fine, je pense que la plupart des gens mesurent mal l’ampleur que va prendre l’intelligence artificielle dans nos vies.

La plupart des mĂ©tiers et des secteurs seront concernĂ©s, et ceux dans lesquels elle se dĂ©veloppera en prioritĂ© seront les secteurs en pĂ©nurie de main d’oeuvre, les secteurs oĂč la pĂ©nibilitĂ© et la dangerositĂ© sont importantes, et les secteurs les plus rĂ©munĂ©rateurs.

Le développement de nos sociétés tournent autour de 2 choses : 1/ nous faciliter la vie et 2/ réduire les coûts.

Les IA serviront ces 2 buts dans de nombreux secteurs et dans de nombreuses industries.

A dĂ©faut de savoir comment votre mĂ©tier actuel Ă©voluera, je vais dans ce dossier parler d’un des vendeurs de pelles de cette rĂ©volution, l’amĂ©ricain AMD.

Une chaĂźne de valeur complexe

Au moment du boom d’Apple, tout le monde cherchait à savoir comment profiter de ce boom en pariant sur les sous-traitants.

Pour l’IA, c’est pareil.

ChatGPT est un peu l’équivalent d’Apple, Ă  la diffĂ©rence que ChatGPT a quand mĂȘme plusieurs gros concurrents du mĂȘme niveau
 et plein de petits ?

DerriĂšre ChatGPT, et tous les acteurs en premiĂšre ligne de ce secteur, il y a tous les fournisseurs de biens et de services de cette industrie.

A la diffĂ©rence d’Apple qui vendait essentiellement des produits physiques, l’IA vend des services en ligne.

Mais pour vendre ces services en ligne, elle a d’énormes besoins en termes de centre de donnĂ©es, les fameux “Data Center”.

Voici un exemple en vidéo de Data center de chez Google :

Les data centers sont donc une des variables clés du développement de ce secteur. Plus il y aura de datacenter, plus les IA pourront nous rendre service.

Bien Ă©videmment, les data center sont de plus en plus efficaces. Un Data center d’aujourd’hui est au minimum, pour un coĂ»t Ă©quivalent, 3 Ă  5 fois plus puissant qu’un data center d’il y a 10 ans.

Cependant, les besoins en data center ont augmentĂ© en raison du dĂ©veloppement de l’IA de 10 Ă  20 fois sur les 10 derniĂšres annĂ©es. Par ailleurs, ces besoins pourraient encore ĂȘtre multipliĂ©s par 10 sur les 10 prochaines annĂ©es selon les spĂ©cialistes Ă  mesure de l’utilisation grandissante des diffĂ©rentes IA dans nos vies.

Il est trĂšs difficile de chiffrer prĂ©cisĂ©ment le nombre de data center qui vont se construire sur les 10 prochaines annĂ©es, la puissance qu’il faudra en termes d’électricitĂ© etc. alors que la technologie tant des data center que des logiciels IA Ă©voluent vite.

Cependant, Ă  l’image du projet AmĂ©ricain Stargate qui vient d’ĂȘtre lancĂ© par plusieurs gĂ©ants du web et de l’IA, qui veut investir 500 milliards de dollars en 4 ans dans des datacenters destinĂ©s Ă  l’IA, nous ne sommes visiblement qu’au dĂ©but de ce cycle d’investissement. Plusieurs gĂ©ants du Web comme Microsoft, Alphabet, Meta ou encore Amazon ont aussi annoncĂ© d’importants investissements dans ce domaine sur les prochaines annĂ©es.

Sachant, que les Etats-Unis sont en avance sur le reste du monde, on est en droit de penser que nous sommes bien juste au tout dĂ©but de ce cycle d’investissement qui touchera avec retard l’Europe et l’Asie.

Bref, voici un rĂ©cap synthĂ©tique de la chaine de valeur des data center liĂ©s Ă  l’intelligence artificielle.

Dans toute cette chaĂźne de valeur, pourquoi AMD ?

AMD n’est pas, et ne serait pas mon seul choix de valeur si je voulais miser sur l’envol de ce secteur.

Cependant, AMD m’intĂ©resse car les composants que cette sociĂ©tĂ© fabrique sont au coeur de cette rĂ©volution, et AMD me semble avoir une valorisation raisonnable.

Les forces d’AMD ?

Nvidia est le leader incontestĂ© dans les composants pour les data center liĂ©s Ă  l’IA.

Cependant, AMD n’est pas loin derriĂšre, et a plusieurs points forts par rapport au dĂ©veloppement de l'IA.

AMD propose tout d’abord une vaste gamme de produits qui couvrent diffĂ©rents segments du marchĂ© de l'IA, allant des serveurs de centres de donnĂ©es (avec les processeurs EPYC et les accĂ©lĂ©rateurs AMD Instinct) aux PC (avec les processeurs Ryzen et les GPU Radeon). Cette diversitĂ© permet Ă  AMD de rĂ©pondre Ă  une variĂ©tĂ© de besoins en IA, de l'infĂ©rence (je reviens sur cette notion juste aprĂšs) Ă  grande Ă©chelle dans le cloud Ă  l'IA sur les appareils de bord.

AMD utilise également des architectures comme AMD CDN pour les accélérateurs de GPU, RDNA pour les graphiques, et XDNA pour les moteurs d'IA intégrés dans les processeurs Ryzen AI, ce qui leur donne une flexibilité et une performance accrues pour les charges de travail d'IA. De plus, AMD s'engage dans un écosystÚme logiciel ouvert et des collaborations avec des frameworks populaires, ce qui facilite le développement et le déploiement de solutions d'IA.

Les produits d'AMD sont souvent aussi mis en avant pour leur efficacitĂ© Ă©nergĂ©tique et leur performance, notamment avec l'introduction de nouvelles gĂ©nĂ©rations de processeurs et d'accĂ©lĂ©rateurs qui visent Ă  offrir de meilleurs performances par watt, ce qui est crucial pour le dĂ©veloppement de l’IA Ă  grande Ă©chelle alors que la crĂ©ation de capacitĂ© de production Ă©lectriques est plus lente.

Nvidia mÚne bien la danse avec un écosystÚme logiciel et matériel trÚs optimisé pour l'IA, une forte présence sur le marché et des performances de pointe, cependant, AMD se distingue par son approche plus ouverte, la diversité de son portefeuille de produits, et une compétitivité accrue en termes de prix et d'efficacité énergétique.

L'inférence, ce qui peut faire exploser AMD ?

L'inférence dans l'intelligence artificielle fait référence au processus par lequel un modÚle d'IA utilise les connaissances qu'il a apprises lors de la phase d'entraßnement pour faire des prédictions, des classifications ou des décisions sur de nouvelles données non vues auparavant.

Jusqu’à maintenant, les modĂšles d’IA Ă©taient la plupart du temps entraĂźnĂ©s sur une base de donnĂ©es Ă  l’instant T.

A l’avenir, les modĂšles d’IA vont de plus en plus utiliser l’infĂ©rence pour prendre des dĂ©cisions et produire des solutions, et ce, avec un volume de donnĂ©es toujours plus important, et un laps de temps toujours plus court. Cela devrait une nouvelle fois accĂ©lĂ©rer de nombreuses tĂąches, mais aussi en rĂ©duire les coĂ»ts. Le Dr House de notre siĂšcle ne sera pas un surhomme, ce sera certainement une IA.

L'infĂ©rence doit souvent ĂȘtre rapide et efficace, surtout dans des applications en temps rĂ©el comme la reconnaissance vocale, la dĂ©tection d'objets dans les vĂ©hicules autonomes, ou les recommandations de produits pour les utilisateurs. Cela contraste avec la phase d'entraĂźnement, qui peut ĂȘtre extrĂȘmement gourmande en ressources et en temps.

Dans ce segment, AMD semble ĂȘtre trĂšs bien positionnĂ©. Par exemple, Meta a choisi d’avoir exclusivement des composants AMD pour gĂ©rer les activitĂ©s en temps rĂ©el de son modĂšle Llama.

Les activitĂ©s en temps rĂ©el, c’est de l’infĂ©rence en temps rĂ©el
 c’est ce qu’il y a de plus complexe
 et Meta a choisi des composants AMD pour le faire. Un bon point. Meta et AMD ont d’ailleurs Ă©tabli un partenariat de long terme dans lequel AMD va fournir en prioritĂ© Ă  Meta ses composants les plus avancĂ©s destinĂ©s Ă  l’infĂ©rence.

Pourquoi ce choix de la part de Meta ? Visiblement, la plateforme de dĂ©veloppement utilisĂ©e par AMD permet d’avoir plus de mĂ©moire que la concurrence directement dans les AccĂ©lĂ©rateurs, en l’occurrence les MI300X, ce qui leur permet d’ĂȘtre plus rapides, et donc moins chers.

Meta se sert de son IA pour renforcer les prĂ©dictions de ces diffĂ©rentes applications (par exemple, la prochaine vidĂ©o instagram qu’on va vous suggĂ©rer).

Alors que Meta n’est sans doute pas Ă  la pointe de l’IA type ChatGPT, basĂ©e sur des phases d’entraĂźnement, Meta est peut-ĂȘtre en avance dans l’IA basĂ©e sur l’infĂ©rence en temps rĂ©el, qui est le domaine d’avenir de l’IA. De ce fait, avoir ce client est un beau fait d’arme pour AMD.

Le fait d’ĂȘtre apparemment en avance dans ce domaine est un bon signe pour la suite, car AMD pourra se servir de son expĂ©rience pour dĂ©velopper diffĂ©rentes verticales sur ce segment et rĂ©pondre aux diffĂ©rents besoins de ces marchĂ©s. Dans ce domaine, AMD semble Ă©galement avoir une approche plus personnalisable, ce qui pourrait sĂ©duire davantage de clients Ă  l’avenir, et permettre une croissance des marges.

En attendant que l’Inference devienne un des moteurs de la croissance du groupe, la croissance de la branche Data Center est dĂ©jĂ  trĂšs forte


Ce qui permet une forte croissance des marges de cette branche.

Le edge computing, l’autre domaine d’avenir de AMD ?

DerriĂšre la branche “Embedded”, ce sont tous les composants qui servent Ă  l’intelligence embarquĂ©e.

Pour ChatGPT, vous vous connectez Ă  un serveur, un data center, qui va rĂ©soudre votre problĂšme grĂące Ă  l’IA, et vous renvoyer la rĂ©ponse.

Cependant, beaucoup de robots dans des usines, de voitures autonomes, doivent “rĂ©flĂ©chir” sur place, et n’ont pas le temps de poser leurs problĂšmes Ă  un super-calculateur basĂ© dans un datacenter.

Bref, dans cette branche, c’est l’essor de la robotique intelligente qui va porter l’activitĂ©, ou l’on a besoin de puissance de calcul “sur place”.

Les voitures autonomes sont un exemple, mais il y a aussi la robotique dans les usines, la surveillance et la sĂ©curitĂ© (reconnaissance faciale etc.), la santĂ© (analyse en temps rĂ©el des signes vitaux sans avoir besoin d’une connexion internet etc.

C’est dans cette branche qu’a Ă©tĂ© intĂ©grĂ© Xilinx, qui est le leader de la technologie des FPGAs (Field-Programmable Gate Arrays). L'expertise de Xilinx dans les FPGAs et les SoCs (System on Chip) programmables renforce considĂ©rablement la position d'AMD dans les secteur du calcul haute performance, des rĂ©seaux, de l'automobile, de l'aĂ©rospatiale, et de nombreuses autres industries oĂč l'adaptabilitĂ© et la performance personnalisĂ©e sont cruciales.

Un exemple concret de ou peuvent servir ces produits, car moi, j’ai besoin de concret 😅, les derniers produits FPGA vont ĂȘtre utilisĂ©s dans la prochaine gĂ©nĂ©ration de Satellites de SpaceX
 encore un client des plus exigeants gagnĂ© dans un domaine d’avenir. Tesla utilise aussi dans ses vĂ©hicules des FPGA d’AMD dans les systĂšmes de vision, de gestion de la batterie, et d'autres fonctions de contrĂŽle en temps rĂ©el.

La suite logique de tout ça c’est que AMD semble avoir un avantage dans ce qu’on appelle le “Edge AI”, qu’on pourrait traduire par l’IA de terrain, c’est Ă  dire de l’IA qui est directement intĂ©grĂ© dans un systĂšme intelligent, un robot, une voiture autonome, et qui permet Ă  ce systĂšme d’avoir des rĂ©ponses bien plus rapide, que s’il devait faire appel Ă  un serveur dans un data center.

Ce qu’il faut retenir : en termes de produits, AMD semble bien placĂ© sur l’inference, qui semble ĂȘtre la grosse tendance d’avenir pour les data center d’IA, mais aussi dans les composants pour l’intelligence embarquĂ©e, un autre domaine d’avenir trĂšs important. Les 2 autres branches du groupe, Client et Gaming, devraient continuer de croĂźtre, mais c’est bien les branches Data Center et Embedded qui ont le potentiel de faire exploser la croissance du groupe sur les prochaines annĂ©es.

Et Nvidia dans tout ça ?

Nvidia est le leader incontesté.

C’est Nvidia qui a sorti en premier et qui sort les produits les plus puissants pour les Data Center liĂ©s Ă  l’IA.

C’est aussi Nvidia qui a pour le moment les meilleurs logiciels. Sur ce point, plusieurs experts pointent du doigt que les logiciels de Nvidia sont pour le moment supĂ©rieurs Ă  la concurrence et plus utilisĂ©s, mais ils sont surtout assez fermĂ©s. Si vous couplez ces logiciels assez fermĂ©s et la position dominante du groupe sur ce marchĂ© qui a créé un effet rĂ©seau important chez les fournisseurs et les clients, vous pouvez pensez Ă  raison que Nvidia n’est pas prĂȘt de cĂ©der sa position dominante sur ce marchĂ©.

Est-ce que les derniers GPU Blackwell de Nvidia sont meilleurs que les équivalents de chez AMD ?

Une question pas si évidente.

Blackwell promet d'ĂȘtre un leader en termes de performance brute et d'efficacitĂ© Ă©nergĂ©tique pour les applications de pointe en IA, mais AMD avec son Instinct MI300X offre des solutions trĂšs compĂ©titives, surtout quand on considĂšre l'ensemble des facteurs comme le coĂ»t, l'Ă©cosystĂšme logiciel, et les besoins spĂ©cifiques en termes de charge de travail. Chaque entreprise a ses forces, et le "meilleur" dĂ©pend en rĂ©alitĂ© des besoins prĂ©cis de l'utilisateur, du budget, des logiciels existants et des performances requises pour des tĂąches spĂ©cifiques.

In fine, les produits ne sont pas forcĂ©ment trĂšs Ă©loignĂ©s, et AMD devrait certainement gagner des contrats pour des questions de coĂ»ts, de besoins spĂ©cifiques etc. Mais c’est bien Nvidia le leader. C’est Nvidia qui doit continuer en thĂ©orie de surfer sur cette vague grĂące aux meilleurs produits et aux meilleurs logiciels. AMD doit continuer d’ĂȘtre le numĂ©ro 2 qui va gagner petit Ă  petit des marchĂ©s grĂące Ă  diffĂ©rents facteurs.

En 2024, AMD a gagnĂ© plusieurs clients significatifs pour ses GPUs IA, comme Meta, IBM, ou encore chez les fournisseurs de serveurs comme Dell, HPE, Lenovo ou Supermicro. Ces contrats et partenariats semblent montrer une tendance oĂč AMD commence Ă  gagner du terrain dans le marchĂ© des GPUs dĂ©diĂ©s Ă  l'IA, bien que Nvidia reste le leader en termes de part de marchĂ© global.

❌ Pourquoi je suis finalement nĂ©gatif sur ce secteur ?

Je n’ai pas encore parlĂ© de valorisation mais je viens de faire une dĂ©monstration synthĂ©tique sur les fondamentaux de pourquoi Nvidia devrait continuer de bien se porter et pourquoi AMD devrait aussi suivre Nvidia dans son sillage.

J’ai dis “devrait” car c’est globalement ce que pense en ce moment le marchĂ© de ces deux valeurs.

Elles ont chacune des qualitĂ©s et doivent en thĂ©orie continuer de surfer sur cette vague, alors qu’elles sont les vendeuses de pelles principales de ce secteur.

Cependant, il y a un problĂšme.

A la diffĂ©rence de la ruĂ©e vers l’or en Californie en 1848, ou les vendeurs de pelles ont fait fortune en vendant des pelles, car il n’y avait de toute façon que peu d’innovation pour chercher de l’or, et donc pour faire concurrence Ă  la pelle, le secteur de l’IA est caractĂ©risĂ© par des innovations bien plus rapides.

Quand on pense innovation dans ce secteur, on peut penser Ă  Nvidia qui sort chaque annĂ©e de nouveaux produits bien plus performants, on peut penser aux diffĂ©rents ChatGPT qui rĂ©pondent de façon toujours plus prĂ©cise et poussĂ©e aux requĂȘtes, mais on pense beaucoup moins
 Ă  l’optimisation du code.

Jusqu’à maintenant, le marchĂ© pense globalement que les besoins en calcul d’IA ne vont faire qu’augmenter car on va utiliser ces langages de plus en plus partout avec un volume de donnĂ©es toujours plus important.

Cependant, on ne prend pas en compte l’évolution de ces langages. Pour ceux qui codent et qui me lisent, vous voyez trĂšs bien ce dont je veux parler. Quand vous avez codĂ© votre premier truc, ça marchait, super, mais ce n’était pas un code optimisĂ©. Avec l’expĂ©rience, si vous devez re-coder cet Ă©lĂ©ment, il y a fort Ă  parier que vous allez rĂ©duire le nombre de ligne par 2 ou 3 pour le mĂȘme rĂ©sultat. Ainsi, votre code est plus rapide et va consommer moins de puissance de calcul.

C’est ce qui va se passer avec l’IA et les langages LLM.

Pour le moment, d’un point de vue maturitĂ© du code des Grand modĂšle de langage (LLM) qui font fonctionner les IA, nous sommes certainement juste au niveau de Windows 95 dans les systĂšmes d'exploitation. C’est un truc qui marche bien, mais qui n’est pas rapide et qui demande de gros serveurs pour tourner.

Sur les prochaines annĂ©es, les progrĂšs sur ce point vont ĂȘtre fulgurants, et ce qui risque de se passer, c’est que cette importante optimisation du code, malgrĂ© un volume de donnĂ©es plus important Ă  traiter, va conduire Ă  une forte baisse des dĂ©penses d’équipements dans le secteur de l’IA.

Vous voulez un exemple ? OK.

Connaissez vous Deepseek ?

Deepseek est un ChatGPT chinois qui a lancĂ© rĂ©cemment son dernier langage DeepSeek-R1 qui a la particularitĂ© d’ĂȘtre visiblement aussi bien, voire meilleur, que la derniĂšre version de ChatGPT dĂ©nommĂ©e o1, qui est considĂ©rĂ© comme le LLM le plus abouti.

Cette IA est visiblement capable de raisonner et produire des réponses précises dans de nombreux domaines. Ses points forts seraient actuellement les mathématiques, la génération de code, mais aussi le raisonnement contextuel.

Selon les tests menĂ©s par DeepSeek, leur IA R1 bat o1 sur les benchmarks AIME, MATH-500 et SWE-bench Verified. Elle n’est aussi, pas loin derriĂšre, sur les autres


deepseek_r1 benchmark

👉 Bref, voici une IA qui arrive Ă  faire aussi bien, voire mieux, que le gĂ©ant du secteur !

Les 3 autres particularités ?

La premiĂšre, c’est que DeepSeek publie ses langages LLM en Open Source, c’est-Ă -dire que tout le monde peut les copier, s’en servir pour amĂ©liorer son code, et s’en servir commercialement. Ce n’est pas le cas de Open AI
 dont le code n’est pas “Open”, mais bien fermĂ© ! Deepseek vient possiblement de dĂ©truire la valeur des autres LLM Ă©quivalent.

La deuxiĂšme, c’est que le modĂšle de Deepseek a Ă©tĂ© entraĂźnĂ© pour un coĂ»t estimĂ© de 5,58 M$. Il s'agit d'une somme particuliĂšrement basse pour un modĂšle de cette ampleur et de cette performance. Pour comparaison, ChatGPT 4 a nĂ©cessitĂ© plusieurs centaines de millions de dollars. Certains doutent de ces chiffres mais en attendant, le modĂšle est open source et tout le monde peut le tĂ©lĂ©charger et vĂ©rifier.

La troisiĂšme, c’est que Deepseek arrive Ă  rivaliser avec des modĂšles comme GPT-4 ou Claude-3.5 Sonnet pour une fraction du coĂ»t typique des grands modĂšles de langage. En l’état actuel des choses, l’API de Deepseek, qui permet d’avoir accĂšs Ă  DeepSeek-R1, le langage le plus Ă©laborĂ©, est 30 Ă  100 fois moins cher que l’accĂšs Ă  la version la plus Ă©laborĂ©e de ChatGPT. Le fait que l’accĂšs Ă  l’API de Deepseek coĂ»te beaucoup moins cher tend Ă  confirmer que c’est un modĂšle low cost.

👉 Les forces de Deepseek sont que ses modĂšles de langage sont souvent optimisĂ©s pour la vitesse et qu’ils coĂ»tent bien moins chers Ă  entraĂźner, et donc Ă  “produire”. C’est l'utilisation de l'architecture "Mixture-of-Experts" (MoE) dans ses modĂšles LLM qui permet de rĂ©duire considĂ©rablement la puissance de calcul nĂ©cessaire pour l'infĂ©rence.

Ce qu’il faut retenir : Deepseek est peut-ĂȘtre un exemple trĂšs concret que dans ce domaine, on peut faire aussi bien que les gĂ©ants, pour une fraction du coĂ»t !

OpenAI a levé environ 9 Mrds$ en financement direct, sans compter les investissements non publiés ou les partenariats stratégiques comme avec Microsoft.

Et lĂ , pour 5,5 M$, une IA chinoise arrive Ă  faire aussi bien.

Nous sommes en droit de douter des dĂ©clarations de cette IA chinoise mais le fait que son code soit librement disponible sur Github, prouve qu’ils n’ont rien Ă  cacher. C’est mĂȘme le message inverse qui est envoyĂ©. Allez-y, testez-moi !

Les consĂ©quences ? đŸ’„

  1. La domination d’Open AI sur les langages LLM pourrait ĂȘtre bien plus faible que prĂ©vu. C’est donc tout ce secteur qui est fragilisĂ© sur l’aspect “produit”. Je pense ici aussi Ă  Anthropic (Claude), Google DeepMind (et Google AI), Meta (Llama, Llama 2), xAI (Grok), mais aussi Mistral AI. Le MOAT, les fameux remparts, serait bien plus faible que prĂ©vu.

  2. Le business de ces diffĂ©rents crĂ©ateurs de langage pourrait ĂȘtre bien moins rentable que prĂ©vu, voire mĂȘme pas rentable ? Deepseek dĂ©montre en ce moment qu’on peut faire un LLM trĂšs performant et pas cher, ce qui peut aller Ă  l’encontre de tous ceux qui pensaient en faire un business trĂšs rentable. Cela peut inciter Ă  la prudence tous les investisseurs qui sont sollicitĂ©s pour investir dans ces entreprises, ou pour construire des Data Centers


  3. Les dĂ©penses d’équipements dans ce domaine pourraient ĂȘtre bien moins importantes que prĂ©vu. Tous les gĂ©ants de ce secteur sont certainement, Ă  l’heure ou je vous parle, en train de dissĂ©quer le code de Deepseek, qui est Open Source et accessible librement sur Github. Ils vont certainement piquer toutes les bonnes idĂ©es pour amĂ©liorer et donc optimiser leur code, ce qui pourrait rĂ©duire drastiquement les coĂ»ts de fonctionnement de leur IA, Ă  l’image de ce qu’à fait Deepseek. Ainsi, l’aspect positif serait que tous les ChatGPT pourraient rĂ©duire drastiquement leurs coĂ»ts de fonctionnement, et donc leurs besoins en serveur.

âžĄïž De ce fait, pour Nvidia et AMD, c’est potentiellement tout le story telling boursier sur le fait que les dĂ©penses d’investissement de la part de tous les gĂ©ants du web qui veulent faire de l’IA ne vont que croĂźtre qui est en train de disparaĂźtre Ă  court terme.

On peut mĂȘme se demander si la course aux Ă©quipements n’a pas conduit tous les gĂ©ants du secteur Ă  en avoir trop par prĂ©caution, et donc, et Ă  devoir arrĂȘter leurs commandes drastiquement trĂšs rapidement Ă  court terme. C’est ce qui s’est passĂ© par exemple avec Sartorius Stedim Biotech lors du Covid, ou tous les fabricants de vaccins ont passĂ© d’énormes commandes d’équipements par peur de manquer, puis en ont finalement eu trop ! Actuellement, il n’y a plus de pĂ©nurie de composants GPU comme Ă  un certain moment, les commandes sont livrĂ©es rapidement, signe que le marchĂ© est peut-ĂȘtre bientĂŽt saturĂ© en Ă©quipement dernier cri.

Si on se met Ă  la place de tous les dirigeants de ce secteur qui ont investi des montants Ă©normes, et qui prĂ©voient d’investir encore beaucoup sur les prochaines annĂ©es, si le code Ă©volue bien dans la direction des LLM de Deepseek, c’est Ă  dire un LLM qui a besoin de beaucoup moins de serveurs pour tourner et qui est “pas cher”, tous ces dirigeants vont avoir beaucoup de mal Ă  justifier ces investissements massifs, qui seront finalement beaucoup moins rentables.

Il y a dĂ©jĂ  beaucoup de questions sur le potentiel de rentabilitĂ© de toutes ces activitĂ©s de LLM, et Deepseek vient peut-ĂȘtre de ternir un peu les espĂ©rances des pures player de ce secteur.

Cela ne veut pas dire que Nvidia ou AMD ne vendront plus du tout de GPU pour des data centers mais cela veut peut ĂȘtre dire que sur les prochaines annĂ©es, il va y avoir un gros creux en termes de demandes pour tous ces Ă©quipementiers de l’IA, ce qui se traduira par une baisse de la demande, au mieux une croissance moins forte, au pire une baisse de la demande, une guerre des prix, on n’achĂšte plus n’importe quoi Ă  tout prix, et on est plus en mesure de nĂ©gocier des baisses de prix, ce qui se traduira par une baisse des marges.

âžĄïž Bref, je pense que l’arrivĂ©e de Deepseek, et d’autres Deepseek qui vont challenger les gros acteurs sur leurs fondements, est une bonne chose pour nous les consommateurs, c’est une bonne chose pour tous les LLM qui sauront en tirer parti, mais c’est une mauvaise chose pour les vendeurs d’équipements Ă  court terme, pour les LLM fermĂ©s et pour les entreprises qui ont trop investi dans ce domaine.

Je ne suis pas le seul Ă  le penser :

J’ai dis Ă  court terme car les utilisations des LLM ne vont pas disparaĂźtre, c’est tout le contraire, et l’inference va gagner en importance avec de nombreuses LLM qui seront en partie disponibles sur des objets du quotidien, votre smartphone, votre voiture etc. Par ailleurs, il y aura toujours besoin de GPU Ă  moyen terme, car la durĂ©e de vie des GPU dans un data center d’intelligence artificielle n’est que de 3 Ă  5 ans !

âžĄïžâžĄïžâžĄïž De ce fait, ce que j’estime possible sur Nvidia et AMD, c’est un fort trou d’air d’un point de vue demande sur les 2/3 prochaines annĂ©es, qui pourrait se traduire par un fort trou d’air en Bourse, Ă  l’image de ce qui s’est passĂ© fin 2018 (-52%) et fin 2021 dĂ©but 2022 (-61%) sur Nvidia : —

Ces forts trou d’air en bourse Ă©taient justifiĂ© Ă  chaque fois par un pic de demande puis une chute sur plusieurs mois : —

Et concernant AMD
 elle a souvent suivi Nvidia
 (courbe rose)

La baisse du cours de bourse d'AMD depuis fĂ©vrier 2024 peut ĂȘtre attribuĂ©e Ă  plusieurs facteurs, mais principalement des prĂ©visions dĂ©cevantes, des problĂšmes de chaĂźne d’approvisionnement, une valorisation tendue, et peut-ĂȘtre une dynamique moins favorable dans l’électronique grand public.

Nvidia se négocie 27,4x les bénéfices 2027


AMD, c’est 27,5x les bĂ©nĂ©fices 2027.

Dans les 2 cas, le risque est une grosse révision en baisse des perspectives de croissance et de marges sur les 2/3 prochaines années !

Et chaque fois que cela s’est produit sur ces 2 valeurs
 les investisseurs n’ont pas bien rĂ©agi.


đŸ’„ Les enseignements pour mon portefeuille


Sur AMD et Nvidia đŸ‡ș🇾

A moyen/long terme, je reste trĂšs positif sur AMD, qui est moins exposĂ© Ă  l’IA que Nvidia, et qui a un portefeuille d’activitĂ© plus diversifiĂ©, avec notamment une forte position dans le edge computing et l’inference.

Ce post est destiné aux abonnés payants.

Déjà abonné payant ? Se connecter
© 2025 Fortress Newsletter ⓒ Fortress Club ⓒ
ConfidentialitĂ© ∙ Conditions ∙ Avis de collecte
ÉcrireObtenir l’app
Substack est le foyer de la grande culture