đșđž AMD, bientĂŽt la chute ? : Ma rĂ©flexion sur AMD (et Nvidia) avec tous les Ă©lĂ©ments dont je dispose.
Temps de lecture : 16 mins.
Pour rappel, si vous avez trouvĂ© cette Ă©dition utile, nâhĂ©sitez pas Ă cliquer sur le petit cĆur đ (sous le titre), cela mâencourage Ă©normĂ©ment et me permet de savoir ce qui vous intĂ©resse đ !
đșđž Ma rĂ©flexion sur AMD
Identité
Capitalisation : 195 Mrds$
Place de cotation : Nasdaq đșđž
Isin : US0079031078
ĂligibilitĂ© au PEA : Non
đ Version audio
đ PrĂ©sentation
Quand jâanalyse des jeunes entreprises, ou des entreprises de croissance, jâessaye tout dâabord de comprendre le problĂšme que ces entreprises rĂ©solvent.
Comme je le dis souvent, une entreprise fait soit gagner de lâargent, soit du temps, soit de lâestime de soi ou du bien ĂȘtre.
Dans le cas dâAMD, câest assez simple.
AMD vend des produits qui permettent de faire gagner de lâargent et du temps Ă ses clients.
AMD vend plus prĂ©cisĂ©ment des composants Ă©lectroniques qui permettent Ă leurs clients dâĂȘtre plus rapides pour rĂ©aliser des tĂąches, gĂ©nĂ©ralement liĂ©es au calcul informatique.
Passons à une présentation plus formelle.
Les quatre principaux segments d'activité d'AMD étaient les suivants en 2023 :
Data Center (29% des ventes) : Ce segment inclut les processeurs de serveur (comme les séries AMD EPYC), les GPU pour centres de données, les accélérateurs d'IA, les DPU (Data Processing Units), les SoC adaptatifs, les FPGA (Field Programmable Gate Arrays), et les SmartNIC (cartes d'interface réseau intelligentes). Ces produits sont conçus pour répondre aux besoins d'accélération des charges de travail de calcul, de traitement des données visuelles et d'IA sur le marché des centres de données.
Client (21%) : Comprend principalement les processeurs pour ordinateurs de bureau et portables, notamment les CPU Ryzen pour les PC clients. Ce segment se concentre sur les marchés des PC personnels et professionnels, offrant des solutions pour les utilisateurs finaux et les entreprises.
Gaming (27%) : Ce segment se concentre sur les produits destinés au marché du jeu vidéo, y compris les processeurs graphiques (GPU) Radeon pour les cartes graphiques de jeu, ainsi que les semi-custom SoC utilisés dans les consoles de jeux comme la PlayStation et la Xbox. Les produits de ce segment sont utilisés dans des appareils de jeu variés, tant pour les PC que pour les consoles.
Embedded (24%) : Les solutions embarquĂ©es d'AMD incluent des processeurs et des GPU pour des applications spĂ©cifiques comme les systĂšmes d'automatisation industrielle, les rĂ©seaux de tĂ©lĂ©communications, les Ă©quipements mĂ©dicaux, et diverses autres applications oĂč la performance et l'efficacitĂ© Ă©nergĂ©tique sont cruciales. Ce segment vise Ă fournir des solutions de calcul adaptĂ©es Ă des environnements oĂč l'espace et la consommation d'Ă©nergie sont limitĂ©s.
Ces segments reflÚtent la stratégie d'AMD de diversifier son offre au-delà de la simple production originelle de CPU (processeur) pour ordinateurs de bureau et portables, en se positionnant comme un acteur clé dans plusieurs domaines technologiques de pointe.
Alors que ce secteur Ă©volue rapidement, les chiffres de 2023 ne reprĂ©sentent pas forcĂ©ment bien ce qui soutient lâactivitĂ© du groupe en ce moment. Par ailleurs, les marges sont diffĂ©rentes dâune activitĂ© Ă une autre. Voici les chiffres du 3e trimestres 2024 :
Câest bien la branche Data Center qui explose en ce moment, avec plus de 50% des ventes totales. Cette branche nâest pas la plus rentable du groupe en termes de marges (29%). Câest la branche Embedded avec des marges dâexploitation de 40%. Cependant, au vu de son importance, câest bien la branche Data Center qui est la plus importante pour le groupe, alors quâelle a gĂ©nĂ©rĂ© 61% du rĂ©sultat dâexploitation du groupe sur le 3e trimestre. Les branches clients et gaming sont plus cycliques et ont des marges moins importantes.
Ce quâil faut retenir : AMD est en ce moment portĂ© par le boom de lâIA, mais le groupe voit de fortes opportunitĂ©s de croissance dans les data centers (grĂące Ă lâIA), dans l'Ă©lectronique grand public et dans sa branche Embedded. Dans cette derniĂšre, si lâIA poursuit ses progrĂšs, il est Ă©vident que de nombreuses machines plus intelligentes vont voir le jour, et que lâautomatisation va sâaccroĂźtre dans une multitude de domaines⊠Ainsi, il est vrai de dire que AMD est un play sur le dĂ©veloppement de lâIA.
AMD vend des produits pour les data centers qui ont des besoins monstres du fait du dĂ©veloppement de lâIA, mais aussi pour tous les robots intelligents via sa branche Embedded. Ce sont les deux branches Ă fort potentiel.
Le dĂ©veloppement de lâIA, un boom Ă venir pour AMD ?
Le dĂ©veloppement fulgurant de lâIA Ă travers tous les diffĂ©rents Chatgpt dĂ©veloppĂ©s par les diffĂ©rents gĂ©ants du web, mais aussi par diffĂ©rents indĂ©pendants, offre en thĂ©orie un potentiel immense pour AMD.
Si vous bidouillez un peu lâinformatique, ou que vous avez bidouillĂ© votre PC de gamer plus jeune, quelle est lâimage que vous avez dâAMD ? GĂ©nĂ©ralement, câest que AMD est moins cher est presque aussi performant que Nvidia, le leader dans les cartes graphiques de gamer.
Dans lâIA, et les composants pour Datacenters⊠câest sensiblement la mĂȘme chose.
Dans lâIA, malgrĂ© le dĂ©veloppement fulgurant de ce secteur ces deux derniĂšres annĂ©es, nous ne sommes encore quâau dĂ©but de cette rĂ©volution. Bien que le dĂ©veloppement des diffĂ©rents ChatGPT ait dĂ©jĂ Ă©branlĂ© certains segments du marchĂ© de lâemploi, il a le potentiel de chambouler de nombreux mĂ©tiers qui se croient encore protĂ©gĂ©s de cette vague.
Tous les mĂ©tiers dont le but est simplement de poser un diagnostique et dâappliquer une solution en se basant sur des connaissances, des donnĂ©es, sont Ă risque, car une intelligence artificielle le fera mieux et pour moins cher.
Câest ce qui va se passer avec la conduite autonome. Câest ce qui se passera dans de nombreux domaines.
Avec le développement des robots humanoïdes, beaucoup de métiers manuels simples vont aussi devenir à risque.
Les mĂ©tiers crĂ©atifs ne sont pas autant Ă lâabri quâon ne le pense.
Les mĂ©tiers dit âqualifiĂ©sâ ne sont pas spĂ©cialement plus Ă lâabri que les mĂ©tiers dits ânon qualifiĂ©sâ. LâIA remplacera certainement beaucoup de choses, mais elle secondera aussi beaucoup de mĂ©tiers.
In fine, je pense que la plupart des gens mesurent mal lâampleur que va prendre lâintelligence artificielle dans nos vies.
La plupart des mĂ©tiers et des secteurs seront concernĂ©s, et ceux dans lesquels elle se dĂ©veloppera en prioritĂ© seront les secteurs en pĂ©nurie de main dâoeuvre, les secteurs oĂč la pĂ©nibilitĂ© et la dangerositĂ© sont importantes, et les secteurs les plus rĂ©munĂ©rateurs.
Le développement de nos sociétés tournent autour de 2 choses : 1/ nous faciliter la vie et 2/ réduire les coûts.
Les IA serviront ces 2 buts dans de nombreux secteurs et dans de nombreuses industries.
A dĂ©faut de savoir comment votre mĂ©tier actuel Ă©voluera, je vais dans ce dossier parler dâun des vendeurs de pelles de cette rĂ©volution, lâamĂ©ricain AMD.
Une chaĂźne de valeur complexe
Au moment du boom dâApple, tout le monde cherchait Ă savoir comment profiter de ce boom en pariant sur les sous-traitants.
Pour lâIA, câest pareil.
ChatGPT est un peu lâĂ©quivalent dâApple, Ă la diffĂ©rence que ChatGPT a quand mĂȘme plusieurs gros concurrents du mĂȘme niveau⊠et plein de petits ?
DerriĂšre ChatGPT, et tous les acteurs en premiĂšre ligne de ce secteur, il y a tous les fournisseurs de biens et de services de cette industrie.
A la diffĂ©rence dâApple qui vendait essentiellement des produits physiques, lâIA vend des services en ligne.
Mais pour vendre ces services en ligne, elle a dâĂ©normes besoins en termes de centre de donnĂ©es, les fameux âData Centerâ.
Voici un exemple en vidéo de Data center de chez Google :
Les data centers sont donc une des variables clés du développement de ce secteur. Plus il y aura de datacenter, plus les IA pourront nous rendre service.
Bien Ă©videmment, les data center sont de plus en plus efficaces. Un Data center dâaujourdâhui est au minimum, pour un coĂ»t Ă©quivalent, 3 Ă 5 fois plus puissant quâun data center dâil y a 10 ans.
Cependant, les besoins en data center ont augmentĂ© en raison du dĂ©veloppement de lâIA de 10 Ă 20 fois sur les 10 derniĂšres annĂ©es. Par ailleurs, ces besoins pourraient encore ĂȘtre multipliĂ©s par 10 sur les 10 prochaines annĂ©es selon les spĂ©cialistes Ă mesure de lâutilisation grandissante des diffĂ©rentes IA dans nos vies.
Il est trĂšs difficile de chiffrer prĂ©cisĂ©ment le nombre de data center qui vont se construire sur les 10 prochaines annĂ©es, la puissance quâil faudra en termes dâĂ©lectricitĂ© etc. alors que la technologie tant des data center que des logiciels IA Ă©voluent vite.
Cependant, Ă lâimage du projet AmĂ©ricain Stargate qui vient dâĂȘtre lancĂ© par plusieurs gĂ©ants du web et de lâIA, qui veut investir 500 milliards de dollars en 4 ans dans des datacenters destinĂ©s Ă lâIA, nous ne sommes visiblement quâau dĂ©but de ce cycle dâinvestissement. Plusieurs gĂ©ants du Web comme Microsoft, Alphabet, Meta ou encore Amazon ont aussi annoncĂ© dâimportants investissements dans ce domaine sur les prochaines annĂ©es.
Sachant, que les Etats-Unis sont en avance sur le reste du monde, on est en droit de penser que nous sommes bien juste au tout dĂ©but de ce cycle dâinvestissement qui touchera avec retard lâEurope et lâAsie.
Bref, voici un rĂ©cap synthĂ©tique de la chaine de valeur des data center liĂ©s Ă lâintelligence artificielle.
Dans toute cette chaĂźne de valeur, pourquoi AMD ?
AMD nâest pas, et ne serait pas mon seul choix de valeur si je voulais miser sur lâenvol de ce secteur.
Cependant, AMD mâintĂ©resse car les composants que cette sociĂ©tĂ© fabrique sont au coeur de cette rĂ©volution, et AMD me semble avoir une valorisation raisonnable.
Les forces dâAMD ?
Nvidia est le leader incontestĂ© dans les composants pour les data center liĂ©s Ă lâIA.
Cependant, AMD nâest pas loin derriĂšre, et a plusieurs points forts par rapport au dĂ©veloppement de l'IA.
AMD propose tout dâabord une vaste gamme de produits qui couvrent diffĂ©rents segments du marchĂ© de l'IA, allant des serveurs de centres de donnĂ©es (avec les processeurs EPYC et les accĂ©lĂ©rateurs AMD Instinct) aux PC (avec les processeurs Ryzen et les GPU Radeon). Cette diversitĂ© permet Ă AMD de rĂ©pondre Ă une variĂ©tĂ© de besoins en IA, de l'infĂ©rence (je reviens sur cette notion juste aprĂšs) Ă grande Ă©chelle dans le cloud Ă l'IA sur les appareils de bord.
AMD utilise également des architectures comme AMD CDN pour les accélérateurs de GPU, RDNA pour les graphiques, et XDNA pour les moteurs d'IA intégrés dans les processeurs Ryzen AI, ce qui leur donne une flexibilité et une performance accrues pour les charges de travail d'IA. De plus, AMD s'engage dans un écosystÚme logiciel ouvert et des collaborations avec des frameworks populaires, ce qui facilite le développement et le déploiement de solutions d'IA.
Les produits d'AMD sont souvent aussi mis en avant pour leur efficacitĂ© Ă©nergĂ©tique et leur performance, notamment avec l'introduction de nouvelles gĂ©nĂ©rations de processeurs et d'accĂ©lĂ©rateurs qui visent Ă offrir de meilleurs performances par watt, ce qui est crucial pour le dĂ©veloppement de lâIA Ă grande Ă©chelle alors que la crĂ©ation de capacitĂ© de production Ă©lectriques est plus lente.
Nvidia mÚne bien la danse avec un écosystÚme logiciel et matériel trÚs optimisé pour l'IA, une forte présence sur le marché et des performances de pointe, cependant, AMD se distingue par son approche plus ouverte, la diversité de son portefeuille de produits, et une compétitivité accrue en termes de prix et d'efficacité énergétique.
L'inférence, ce qui peut faire exploser AMD ?
L'inférence dans l'intelligence artificielle fait référence au processus par lequel un modÚle d'IA utilise les connaissances qu'il a apprises lors de la phase d'entraßnement pour faire des prédictions, des classifications ou des décisions sur de nouvelles données non vues auparavant.
JusquâĂ maintenant, les modĂšles dâIA Ă©taient la plupart du temps entraĂźnĂ©s sur une base de donnĂ©es Ă lâinstant T.
A lâavenir, les modĂšles dâIA vont de plus en plus utiliser lâinfĂ©rence pour prendre des dĂ©cisions et produire des solutions, et ce, avec un volume de donnĂ©es toujours plus important, et un laps de temps toujours plus court. Cela devrait une nouvelle fois accĂ©lĂ©rer de nombreuses tĂąches, mais aussi en rĂ©duire les coĂ»ts. Le Dr House de notre siĂšcle ne sera pas un surhomme, ce sera certainement une IA.
L'infĂ©rence doit souvent ĂȘtre rapide et efficace, surtout dans des applications en temps rĂ©el comme la reconnaissance vocale, la dĂ©tection d'objets dans les vĂ©hicules autonomes, ou les recommandations de produits pour les utilisateurs. Cela contraste avec la phase d'entraĂźnement, qui peut ĂȘtre extrĂȘmement gourmande en ressources et en temps.
Dans ce segment, AMD semble ĂȘtre trĂšs bien positionnĂ©. Par exemple, Meta a choisi dâavoir exclusivement des composants AMD pour gĂ©rer les activitĂ©s en temps rĂ©el de son modĂšle Llama.
Les activitĂ©s en temps rĂ©el, câest de lâinfĂ©rence en temps rĂ©el⊠câest ce quâil y a de plus complexe⊠et Meta a choisi des composants AMD pour le faire. Un bon point. Meta et AMD ont dâailleurs Ă©tabli un partenariat de long terme dans lequel AMD va fournir en prioritĂ© Ă Meta ses composants les plus avancĂ©s destinĂ©s Ă lâinfĂ©rence.
Pourquoi ce choix de la part de Meta ? Visiblement, la plateforme de dĂ©veloppement utilisĂ©e par AMD permet dâavoir plus de mĂ©moire que la concurrence directement dans les AccĂ©lĂ©rateurs, en lâoccurrence les MI300X, ce qui leur permet dâĂȘtre plus rapides, et donc moins chers.
Meta se sert de son IA pour renforcer les prĂ©dictions de ces diffĂ©rentes applications (par exemple, la prochaine vidĂ©o instagram quâon va vous suggĂ©rer).
Alors que Meta nâest sans doute pas Ă la pointe de lâIA type ChatGPT, basĂ©e sur des phases dâentraĂźnement, Meta est peut-ĂȘtre en avance dans lâIA basĂ©e sur lâinfĂ©rence en temps rĂ©el, qui est le domaine dâavenir de lâIA. De ce fait, avoir ce client est un beau fait dâarme pour AMD.
Le fait dâĂȘtre apparemment en avance dans ce domaine est un bon signe pour la suite, car AMD pourra se servir de son expĂ©rience pour dĂ©velopper diffĂ©rentes verticales sur ce segment et rĂ©pondre aux diffĂ©rents besoins de ces marchĂ©s. Dans ce domaine, AMD semble Ă©galement avoir une approche plus personnalisable, ce qui pourrait sĂ©duire davantage de clients Ă lâavenir, et permettre une croissance des marges.
En attendant que lâInference devienne un des moteurs de la croissance du groupe, la croissance de la branche Data Center est dĂ©jĂ trĂšs forteâŠ
Ce qui permet une forte croissance des marges de cette branche.
Le edge computing, lâautre domaine dâavenir de AMD ?
DerriĂšre la branche âEmbeddedâ, ce sont tous les composants qui servent Ă lâintelligence embarquĂ©e.
Pour ChatGPT, vous vous connectez Ă un serveur, un data center, qui va rĂ©soudre votre problĂšme grĂące Ă lâIA, et vous renvoyer la rĂ©ponse.
Cependant, beaucoup de robots dans des usines, de voitures autonomes, doivent ârĂ©flĂ©chirâ sur place, et nâont pas le temps de poser leurs problĂšmes Ă un super-calculateur basĂ© dans un datacenter.
Bref, dans cette branche, câest lâessor de la robotique intelligente qui va porter lâactivitĂ©, ou lâon a besoin de puissance de calcul âsur placeâ.
Les voitures autonomes sont un exemple, mais il y a aussi la robotique dans les usines, la surveillance et la sĂ©curitĂ© (reconnaissance faciale etc.), la santĂ© (analyse en temps rĂ©el des signes vitaux sans avoir besoin dâune connexion internet etc.
Câest dans cette branche quâa Ă©tĂ© intĂ©grĂ© Xilinx, qui est le leader de la technologie des FPGAs (Field-Programmable Gate Arrays). L'expertise de Xilinx dans les FPGAs et les SoCs (System on Chip) programmables renforce considĂ©rablement la position d'AMD dans les secteur du calcul haute performance, des rĂ©seaux, de l'automobile, de l'aĂ©rospatiale, et de nombreuses autres industries oĂč l'adaptabilitĂ© et la performance personnalisĂ©e sont cruciales.
Un exemple concret de ou peuvent servir ces produits, car moi, jâai besoin de concret đ , les derniers produits FPGA vont ĂȘtre utilisĂ©s dans la prochaine gĂ©nĂ©ration de Satellites de SpaceX⊠encore un client des plus exigeants gagnĂ© dans un domaine dâavenir. Tesla utilise aussi dans ses vĂ©hicules des FPGA dâAMD dans les systĂšmes de vision, de gestion de la batterie, et d'autres fonctions de contrĂŽle en temps rĂ©el.
La suite logique de tout ça câest que AMD semble avoir un avantage dans ce quâon appelle le âEdge AIâ, quâon pourrait traduire par lâIA de terrain, câest Ă dire de lâIA qui est directement intĂ©grĂ© dans un systĂšme intelligent, un robot, une voiture autonome, et qui permet Ă ce systĂšme dâavoir des rĂ©ponses bien plus rapide, que sâil devait faire appel Ă un serveur dans un data center.
Ce quâil faut retenir : en termes de produits, AMD semble bien placĂ© sur lâinference, qui semble ĂȘtre la grosse tendance dâavenir pour les data center dâIA, mais aussi dans les composants pour lâintelligence embarquĂ©e, un autre domaine dâavenir trĂšs important. Les 2 autres branches du groupe, Client et Gaming, devraient continuer de croĂźtre, mais câest bien les branches Data Center et Embedded qui ont le potentiel de faire exploser la croissance du groupe sur les prochaines annĂ©es.
Et Nvidia dans tout ça ?
Nvidia est le leader incontesté.
Câest Nvidia qui a sorti en premier et qui sort les produits les plus puissants pour les Data Center liĂ©s Ă lâIA.
Câest aussi Nvidia qui a pour le moment les meilleurs logiciels. Sur ce point, plusieurs experts pointent du doigt que les logiciels de Nvidia sont pour le moment supĂ©rieurs Ă la concurrence et plus utilisĂ©s, mais ils sont surtout assez fermĂ©s. Si vous couplez ces logiciels assez fermĂ©s et la position dominante du groupe sur ce marchĂ© qui a créé un effet rĂ©seau important chez les fournisseurs et les clients, vous pouvez pensez Ă raison que Nvidia nâest pas prĂȘt de cĂ©der sa position dominante sur ce marchĂ©.
Est-ce que les derniers GPU Blackwell de Nvidia sont meilleurs que les équivalents de chez AMD ?
Une question pas si évidente.
Blackwell promet d'ĂȘtre un leader en termes de performance brute et d'efficacitĂ© Ă©nergĂ©tique pour les applications de pointe en IA, mais AMD avec son Instinct MI300X offre des solutions trĂšs compĂ©titives, surtout quand on considĂšre l'ensemble des facteurs comme le coĂ»t, l'Ă©cosystĂšme logiciel, et les besoins spĂ©cifiques en termes de charge de travail. Chaque entreprise a ses forces, et le "meilleur" dĂ©pend en rĂ©alitĂ© des besoins prĂ©cis de l'utilisateur, du budget, des logiciels existants et des performances requises pour des tĂąches spĂ©cifiques.
In fine, les produits ne sont pas forcĂ©ment trĂšs Ă©loignĂ©s, et AMD devrait certainement gagner des contrats pour des questions de coĂ»ts, de besoins spĂ©cifiques etc. Mais câest bien Nvidia le leader. Câest Nvidia qui doit continuer en thĂ©orie de surfer sur cette vague grĂące aux meilleurs produits et aux meilleurs logiciels. AMD doit continuer dâĂȘtre le numĂ©ro 2 qui va gagner petit Ă petit des marchĂ©s grĂące Ă diffĂ©rents facteurs.
En 2024, AMD a gagnĂ© plusieurs clients significatifs pour ses GPUs IA, comme Meta, IBM, ou encore chez les fournisseurs de serveurs comme Dell, HPE, Lenovo ou Supermicro. Ces contrats et partenariats semblent montrer une tendance oĂč AMD commence Ă gagner du terrain dans le marchĂ© des GPUs dĂ©diĂ©s Ă l'IA, bien que Nvidia reste le leader en termes de part de marchĂ© global.
â Pourquoi je suis finalement nĂ©gatif sur ce secteur ?
Je nâai pas encore parlĂ© de valorisation mais je viens de faire une dĂ©monstration synthĂ©tique sur les fondamentaux de pourquoi Nvidia devrait continuer de bien se porter et pourquoi AMD devrait aussi suivre Nvidia dans son sillage.
Jâai dis âdevraitâ car câest globalement ce que pense en ce moment le marchĂ© de ces deux valeurs.
Elles ont chacune des qualitĂ©s et doivent en thĂ©orie continuer de surfer sur cette vague, alors quâelles sont les vendeuses de pelles principales de ce secteur.
Cependant, il y a un problĂšme.
A la diffĂ©rence de la ruĂ©e vers lâor en Californie en 1848, ou les vendeurs de pelles ont fait fortune en vendant des pelles, car il nây avait de toute façon que peu dâinnovation pour chercher de lâor, et donc pour faire concurrence Ă la pelle, le secteur de lâIA est caractĂ©risĂ© par des innovations bien plus rapides.
Quand on pense innovation dans ce secteur, on peut penser Ă Nvidia qui sort chaque annĂ©e de nouveaux produits bien plus performants, on peut penser aux diffĂ©rents ChatGPT qui rĂ©pondent de façon toujours plus prĂ©cise et poussĂ©e aux requĂȘtes, mais on pense beaucoup moins⊠à lâoptimisation du code.
JusquâĂ maintenant, le marchĂ© pense globalement que les besoins en calcul dâIA ne vont faire quâaugmenter car on va utiliser ces langages de plus en plus partout avec un volume de donnĂ©es toujours plus important.
Cependant, on ne prend pas en compte lâĂ©volution de ces langages. Pour ceux qui codent et qui me lisent, vous voyez trĂšs bien ce dont je veux parler. Quand vous avez codĂ© votre premier truc, ça marchait, super, mais ce nâĂ©tait pas un code optimisĂ©. Avec lâexpĂ©rience, si vous devez re-coder cet Ă©lĂ©ment, il y a fort Ă parier que vous allez rĂ©duire le nombre de ligne par 2 ou 3 pour le mĂȘme rĂ©sultat. Ainsi, votre code est plus rapide et va consommer moins de puissance de calcul.
Câest ce qui va se passer avec lâIA et les langages LLM.
Pour le moment, dâun point de vue maturitĂ© du code des Grand modĂšle de langage (LLM) qui font fonctionner les IA, nous sommes certainement juste au niveau de Windows 95 dans les systĂšmes d'exploitation. Câest un truc qui marche bien, mais qui nâest pas rapide et qui demande de gros serveurs pour tourner.
Sur les prochaines annĂ©es, les progrĂšs sur ce point vont ĂȘtre fulgurants, et ce qui risque de se passer, câest que cette importante optimisation du code, malgrĂ© un volume de donnĂ©es plus important Ă traiter, va conduire Ă une forte baisse des dĂ©penses dâĂ©quipements dans le secteur de lâIA.
Vous voulez un exemple ? OK.
Connaissez vous Deepseek ?
Deepseek est un ChatGPT chinois qui a lancĂ© rĂ©cemment son dernier langage DeepSeek-R1 qui a la particularitĂ© dâĂȘtre visiblement aussi bien, voire meilleur, que la derniĂšre version de ChatGPT dĂ©nommĂ©e o1, qui est considĂ©rĂ© comme le LLM le plus abouti.
Cette IA est visiblement capable de raisonner et produire des réponses précises dans de nombreux domaines. Ses points forts seraient actuellement les mathématiques, la génération de code, mais aussi le raisonnement contextuel.
Selon les tests menĂ©s par DeepSeek, leur IA R1 bat o1 sur les benchmarks AIME, MATH-500 et SWE-bench Verified. Elle nâest aussi, pas loin derriĂšre, sur les autresâŠ
đ Bref, voici une IA qui arrive Ă faire aussi bien, voire mieux, que le gĂ©ant du secteur !
Les 3 autres particularités ?
La premiĂšre, câest que DeepSeek publie ses langages LLM en Open Source, câest-Ă -dire que tout le monde peut les copier, sâen servir pour amĂ©liorer son code, et sâen servir commercialement. Ce nâest pas le cas de Open AI⊠dont le code nâest pas âOpenâ, mais bien fermĂ© ! Deepseek vient possiblement de dĂ©truire la valeur des autres LLM Ă©quivalent.
La deuxiĂšme, câest que le modĂšle de Deepseek a Ă©tĂ© entraĂźnĂ© pour un coĂ»t estimĂ© de 5,58 M$. Il s'agit d'une somme particuliĂšrement basse pour un modĂšle de cette ampleur et de cette performance. Pour comparaison, ChatGPT 4 a nĂ©cessitĂ© plusieurs centaines de millions de dollars. Certains doutent de ces chiffres mais en attendant, le modĂšle est open source et tout le monde peut le tĂ©lĂ©charger et vĂ©rifier.
La troisiĂšme, câest que Deepseek arrive Ă rivaliser avec des modĂšles comme GPT-4 ou Claude-3.5 Sonnet pour une fraction du coĂ»t typique des grands modĂšles de langage. En lâĂ©tat actuel des choses, lâAPI de Deepseek, qui permet dâavoir accĂšs Ă DeepSeek-R1, le langage le plus Ă©laborĂ©, est 30 Ă 100 fois moins cher que lâaccĂšs Ă la version la plus Ă©laborĂ©e de ChatGPT. Le fait que lâaccĂšs Ă lâAPI de Deepseek coĂ»te beaucoup moins cher tend Ă confirmer que câest un modĂšle low cost.
đ Les forces de Deepseek sont que ses modĂšles de langage sont souvent optimisĂ©s pour la vitesse et quâils coĂ»tent bien moins chers Ă entraĂźner, et donc Ă âproduireâ. Câest l'utilisation de l'architecture "Mixture-of-Experts" (MoE) dans ses modĂšles LLM qui permet de rĂ©duire considĂ©rablement la puissance de calcul nĂ©cessaire pour l'infĂ©rence.
Ce quâil faut retenir : Deepseek est peut-ĂȘtre un exemple trĂšs concret que dans ce domaine, on peut faire aussi bien que les gĂ©ants, pour une fraction du coĂ»t !
OpenAI a levé environ 9 Mrds$ en financement direct, sans compter les investissements non publiés ou les partenariats stratégiques comme avec Microsoft.
Et lĂ , pour 5,5 M$, une IA chinoise arrive Ă faire aussi bien.
Nous sommes en droit de douter des dĂ©clarations de cette IA chinoise mais le fait que son code soit librement disponible sur Github, prouve quâils nâont rien Ă cacher. Câest mĂȘme le message inverse qui est envoyĂ©. Allez-y, testez-moi !
Les consĂ©quences ? đ„
La domination dâOpen AI sur les langages LLM pourrait ĂȘtre bien plus faible que prĂ©vu. Câest donc tout ce secteur qui est fragilisĂ© sur lâaspect âproduitâ. Je pense ici aussi Ă Anthropic (Claude), Google DeepMind (et Google AI), Meta (Llama, Llama 2), xAI (Grok), mais aussi Mistral AI. Le MOAT, les fameux remparts, serait bien plus faible que prĂ©vu.
Le business de ces diffĂ©rents crĂ©ateurs de langage pourrait ĂȘtre bien moins rentable que prĂ©vu, voire mĂȘme pas rentable ? Deepseek dĂ©montre en ce moment quâon peut faire un LLM trĂšs performant et pas cher, ce qui peut aller Ă lâencontre de tous ceux qui pensaient en faire un business trĂšs rentable. Cela peut inciter Ă la prudence tous les investisseurs qui sont sollicitĂ©s pour investir dans ces entreprises, ou pour construire des Data CentersâŠ
Les dĂ©penses dâĂ©quipements dans ce domaine pourraient ĂȘtre bien moins importantes que prĂ©vu. Tous les gĂ©ants de ce secteur sont certainement, Ă lâheure ou je vous parle, en train de dissĂ©quer le code de Deepseek, qui est Open Source et accessible librement sur Github. Ils vont certainement piquer toutes les bonnes idĂ©es pour amĂ©liorer et donc optimiser leur code, ce qui pourrait rĂ©duire drastiquement les coĂ»ts de fonctionnement de leur IA, Ă lâimage de ce quâĂ fait Deepseek. Ainsi, lâaspect positif serait que tous les ChatGPT pourraient rĂ©duire drastiquement leurs coĂ»ts de fonctionnement, et donc leurs besoins en serveur.
âĄïž De ce fait, pour Nvidia et AMD, câest potentiellement tout le story telling boursier sur le fait que les dĂ©penses dâinvestissement de la part de tous les gĂ©ants du web qui veulent faire de lâIA ne vont que croĂźtre qui est en train de disparaĂźtre Ă court terme.
On peut mĂȘme se demander si la course aux Ă©quipements nâa pas conduit tous les gĂ©ants du secteur Ă en avoir trop par prĂ©caution, et donc, et Ă devoir arrĂȘter leurs commandes drastiquement trĂšs rapidement Ă court terme. Câest ce qui sâest passĂ© par exemple avec Sartorius Stedim Biotech lors du Covid, ou tous les fabricants de vaccins ont passĂ© dâĂ©normes commandes dâĂ©quipements par peur de manquer, puis en ont finalement eu trop ! Actuellement, il nây a plus de pĂ©nurie de composants GPU comme Ă un certain moment, les commandes sont livrĂ©es rapidement, signe que le marchĂ© est peut-ĂȘtre bientĂŽt saturĂ© en Ă©quipement dernier cri.
Si on se met Ă la place de tous les dirigeants de ce secteur qui ont investi des montants Ă©normes, et qui prĂ©voient dâinvestir encore beaucoup sur les prochaines annĂ©es, si le code Ă©volue bien dans la direction des LLM de Deepseek, câest Ă dire un LLM qui a besoin de beaucoup moins de serveurs pour tourner et qui est âpas cherâ, tous ces dirigeants vont avoir beaucoup de mal Ă justifier ces investissements massifs, qui seront finalement beaucoup moins rentables.
Il y a dĂ©jĂ beaucoup de questions sur le potentiel de rentabilitĂ© de toutes ces activitĂ©s de LLM, et Deepseek vient peut-ĂȘtre de ternir un peu les espĂ©rances des pures player de ce secteur.
Cela ne veut pas dire que Nvidia ou AMD ne vendront plus du tout de GPU pour des data centers mais cela veut peut ĂȘtre dire que sur les prochaines annĂ©es, il va y avoir un gros creux en termes de demandes pour tous ces Ă©quipementiers de lâIA, ce qui se traduira par une baisse de la demande, au mieux une croissance moins forte, au pire une baisse de la demande, une guerre des prix, on nâachĂšte plus nâimporte quoi Ă tout prix, et on est plus en mesure de nĂ©gocier des baisses de prix, ce qui se traduira par une baisse des marges.
âĄïž Bref, je pense que lâarrivĂ©e de Deepseek, et dâautres Deepseek qui vont challenger les gros acteurs sur leurs fondements, est une bonne chose pour nous les consommateurs, câest une bonne chose pour tous les LLM qui sauront en tirer parti, mais câest une mauvaise chose pour les vendeurs dâĂ©quipements Ă court terme, pour les LLM fermĂ©s et pour les entreprises qui ont trop investi dans ce domaine.
Je ne suis pas le seul Ă le penser :
Jâai dis Ă court terme car les utilisations des LLM ne vont pas disparaĂźtre, câest tout le contraire, et lâinference va gagner en importance avec de nombreuses LLM qui seront en partie disponibles sur des objets du quotidien, votre smartphone, votre voiture etc. Par ailleurs, il y aura toujours besoin de GPU Ă moyen terme, car la durĂ©e de vie des GPU dans un data center dâintelligence artificielle nâest que de 3 Ă 5 ans !
âĄïžâĄïžâĄïž De ce fait, ce que jâestime possible sur Nvidia et AMD, câest un fort trou dâair dâun point de vue demande sur les 2/3 prochaines annĂ©es, qui pourrait se traduire par un fort trou dâair en Bourse, Ă lâimage de ce qui sâest passĂ© fin 2018 (-52%) et fin 2021 dĂ©but 2022 (-61%) sur Nvidia : —ïž
Ces forts trou dâair en bourse Ă©taient justifiĂ© Ă chaque fois par un pic de demande puis une chute sur plusieurs mois : —ïž
Et concernant AMD⊠elle a souvent suivi Nvidia⊠(courbe rose)
La baisse du cours de bourse d'AMD depuis fĂ©vrier 2024 peut ĂȘtre attribuĂ©e Ă plusieurs facteurs, mais principalement des prĂ©visions dĂ©cevantes, des problĂšmes de chaĂźne dâapprovisionnement, une valorisation tendue, et peut-ĂȘtre une dynamique moins favorable dans lâĂ©lectronique grand public.
Nvidia se nĂ©gocie 27,4x les bĂ©nĂ©fices 2027âŠ
AMD, câest 27,5x les bĂ©nĂ©fices 2027.
Dans les 2 cas, le risque est une grosse révision en baisse des perspectives de croissance et de marges sur les 2/3 prochaines années !
Et chaque fois que cela sâest produit sur ces 2 valeurs⊠les investisseurs nâont pas bien rĂ©agi.
đ„ Les enseignements pour mon portefeuille
Sur AMD et Nvidia đșđž
A moyen/long terme, je reste trĂšs positif sur AMD, qui est moins exposĂ© Ă lâIA que Nvidia, et qui a un portefeuille dâactivitĂ© plus diversifiĂ©, avec notamment une forte position dans le edge computing et lâinference.