Nvidia n’est pas la seule entreprise à profiter de la ruée vers l’or de l’IA

[ad_1]

Un bâtiment rectangulaire gris à la périphérie de San Jose abrite des rangées de machines clignotantes. Des enchevêtrements de fils colorés relient des serveurs haut de gamme, des équipements de mise en réseau et des systèmes de stockage de données. Des unités de climatisation volumineuses vrombissent au-dessus de votre tête. Le bruit oblige les visiteurs à crier.

Un bâtiment rectangulaire gris à la périphérie de San Jose abrite des rangées de machines clignotantes. Des enchevêtrements de fils colorés relient des serveurs haut de gamme, des équipements de mise en réseau et des systèmes de stockage de données. Des unités de climatisation volumineuses vrombissent au-dessus de votre tête. Le bruit oblige les visiteurs à crier.

Le bâtiment appartient à Equinix, une entreprise qui loue un espace de centre de données. L’équipement à l’intérieur appartient à des entreprises clientes qui l’utilisent de plus en plus pour faire fonctionner leurs systèmes d’intelligence artificielle (IA). La ruée vers l’or de l’IA, stimulée par l’étonnante sophistication des modèles « génératifs » tels que ChatGPT , un causeur virtuel à succès, promet de riches profits à ceux qui exploitent le potentiel de la technologie. Comme au début de toute ruée vers l’or, cependant, il est déjà frapper des fortunes pour les vendeurs des pioches et des pelles nécessaires.

Salut! Vous lisez un article premium

Le bâtiment appartient à Equinix, une entreprise qui loue un espace de centre de données. L’équipement à l’intérieur appartient à des entreprises clientes qui l’utilisent de plus en plus pour faire fonctionner leurs systèmes d’intelligence artificielle (IA). La ruée vers l’or de l’IA, stimulée par l’étonnante sophistication des modèles « génératifs » tels que ChatGPT , un causeur virtuel à succès, promet de riches profits à ceux qui exploitent le potentiel de la technologie. Comme au début de toute ruée vers l’or, cependant, il est déjà frapper des fortunes pour les vendeurs des pioches et des pelles nécessaires.

Le 24 mai, Nvidia, qui conçoit les semi-conducteurs de choix pour de nombreux serveurs d’intelligence artificielle, a dépassé les prévisions de revenus et de bénéfices des analystes pour les trois mois à avril et a déclaré qu’il s’attendait à des ventes de 11 milliards de dollars au cours de son trimestre en cours, soit la moitié de ce que Wall Street prédisait. Le 29 mai, le patron de Nvidia, Jensen Huang, a déclaré que le monde était au « point de basculement d’une nouvelle ère informatique ». Le lendemain, la valeur marchande de l’entreprise, qui avait bondi de 30 % après ses bénéfices, a brièvement atteint 1 000 000 $.

(Graphique : The Economist)

Cliquez sur l’image pour l’agrandir

D’autres fabricants de puces, des autres concepteurs comme AMD aux fabricants tels que TSMC de Taiwan, ont été emportés par l’excitation de l’IA. Il en va de même pour les fournisseurs d’autres infrastructures informatiques, qui comprennent tout, des câbles colorés, des unités de climatisation bruyantes et de l’espace au sol du centre de données au logiciel qui permet d’exécuter les modèles d’IA et de rassembler les données. Un indice équipondéré d’une trentaine de sociétés de ce type a augmenté de 40 % depuis le lancement de ChatGPT en novembre, contre 13 % pour l’indice NASDAQ à forte composante technologique (voir graphique). « Une nouvelle pile technologique est en train d’émerger », résume Daniel Jeffries de l’AI Infrastructure Alliance, un groupe de pression.

À première vue, les gubbins d’IA semblent moins excitants que les « grands modèles de langage » intelligents derrière ChatGPT et son éventail de rivaux en pleine expansion. Mais comme les constructeurs de modèles et les fabricants d’applications qui se greffent sur les modèles se disputent une tranche du futur gâteau à l’IA, ils ont besoin de puissance de calcul dès maintenant, et en grande quantité.

Les derniers systèmes d’IA, y compris le type génératif, sont beaucoup plus gourmands en calcul que les plus anciens, sans parler des applications non IA. Amin Vahdat, responsable de l’infrastructure d’intelligence artificielle chez Google Cloud Platform, la branche de cloud computing du géant de l’Internet, observe que la taille des modèles a été multipliée par dix chaque année au cours des six dernières années. GPT-4, la dernière version de celui qui alimente ChatGPT, analyse les données en utilisant peut-être 1 trn de paramètres, plus de cinq fois plus que son prédécesseur. Au fur et à mesure que les modèles gagnent en complexité, les besoins de calcul pour les former augmentent en conséquence.

Une fois formées, les IA ont besoin de moins de chiffres pour être utilisées. Mais compte tenu de l’éventail d’applications proposées, cette « inférence » demandera également beaucoup de puissance de traitement. C’est dix fois depuis le trimestre précédent.La société mère de Google, Alphabet, propose six produits avec 2 milliards d’utilisateurs ou plus dans le monde et prévoit de les dynamiser avec l’IA générative.

Les gagnants les plus évidents de la demande croissante de puissance de calcul sont les fabricants de puces. Les produits d’entreprises comme Nvidia et AMD, qui conçoivent des puces et les font fabriquer dans des fonderies comme TSMC, sont très demandés, notamment par les grands fournisseurs de cloud computing qui alimentent la plupart des applications d’IA. L’IA est ainsi une aubaine pour les concepteurs de puces, puisqu’elle bénéficie de puces plus puissantes (qui ont tendance à générer des marges plus élevées), et plus nombreuses. UBS, une banque, estime qu’au cours des deux prochaines années, l’IA augmentera la demande de puces spécialisées appelées unités de traitement graphique (GPU) de 10 à 15 milliards de dollars. Les revenus des centres de données de Nvidia, qui représentent 56 % de ses ventes, pourraient doubler. AMD va lancer cette année un nouveau GPU. Un acteur beaucoup plus petit dans le jeu de conception de GPU que Nvidia, l’entreprise est sur le point de bénéficier « même si elle ne fait que toucher la lie » du marché, déclare Stacy Rasgon de Bernstein, un courtier. Les startups de conception de puces axées sur l’IA, telles que comme Cerebras et Graphcore, tentent de se faire un nom.PitchBook, un fournisseur de données, compte environ 300 entreprises de ce type.

Naturellement, une partie de l’aubaine reviendra également aux fabricants. En avril, le patron de TSMC, CC Wei, a parlé avec prudence d’une « hausse incrémentielle de la demande liée à l’IA ». Les investisseurs ont été plutôt plus enthousiastes. Le cours de l’action de la société a augmenté de 10 % après les derniers bénéfices de Nvidia, ajoutant environ 20 milliards de dollars à sa capitalisation boursière. Parmi les bénéficiaires moins évidents figurent également les entreprises qui permettent de regrouper plus de puces dans une seule unité de traitement.Besi, une société néerlandaise, fabrique les outils qui aident à lier les puces entre elles.Selon Pierre Ferragu de New Street Research, une société d’analystes, les Pays-Bas La société contrôle les trois quarts du marché du collage de haute précision et son cours a bondi de plus de la moitié cette année.

UBS estime que les GPU représentent environ la moitié du coût des serveurs d’IA spécialisés, contre un dixième pour les serveurs standard. Mais ce ne sont pas les seuls équipements nécessaires. Pour fonctionner comme un seul ordinateur, les GPU d’un centre de données doivent également communiquer entre eux. Et cela nécessite des commutateurs avancés, des routeurs et des puces spécialisées. Le marché de ces équipements de réseautage devrait croître de 40 % par an au cours des prochaines années, pour atteindre près de 9 milliards de dollars d’ici 2027, selon 650 Group, une société de recherche. Nvidia, qui vend également ce kit, représente 78 % des ventes mondiales. Mais des concurrents comme Arista Networks, une entreprise californienne, sont également recherchés par les investisseurs : le cours de son action a augmenté de près de 70 % au cours de la dernière année. Broadcom, qui fabrique des puces qui aident les réseaux à fonctionner, a déclaré que ses ventes annuelles quadrupleraient en 2023, pour atteindre 800 millions de dollars.

Le boom de l’IA est également une bonne nouvelle pour les assembleurs de serveurs qui vont dans les centres de données, déclare Peter Rutten d’IDC, une autre société de recherche. Le groupe Dell’Oro, un autre cabinet d’analystes, prévoit que les centres de données du monde feront passer la part des serveurs dédiés à l’IA de moins de 10 % aujourd’hui à environ 20 % d’ici cinq ans : la part de ce kit dans les dépenses d’investissement des centres de données en les serveurs passeront d’environ 20 % à 45 %.

Cela profitera aux fabricants de serveurs comme Wistron et Inventec, tous deux de Taiwan, qui produisent des serveurs sur mesure principalement pour les fournisseurs de cloud géants tels qu’Amazon Web Services (AWS) et Azure de Microsoft. Les petits fabricants devraient également s’en sortir. Les patrons de Wiwynn, un autre fabricant de serveurs taïwanais, ont récemment déclaré que les projets liés à l’IA représentaient plus de la moitié de leur carnet de commandes actuel. Super Micro, une entreprise américaine, a déclaré qu’au cours des trois mois précédant avril, les produits d’IA représentaient 29 % de ses ventes, contre une moyenne de 20 % au cours des 12 mois précédents.

Tout ce matériel d’IA nécessite un logiciel spécialisé pour fonctionner. Certains de ces programmes proviennent des entreprises de quincaillerie ; La plate-forme logicielle de Nvidia, appelée CUDA, permet aux clients de tirer le meilleur parti de ses GPU, par exemple. D’autres entreprises créent des applications qui permettent aux entreprises d’IA de gérer des données (Datagen, Pinecone, Scale AI) ou d’héberger de grands modèles de langage (HuggingFace, Replicate). PitchBook compte environ 80 startups de ce type. Plus de 20 ont levé de nouveaux capitaux jusqu’à présent cette année; Pinecone compte parmi ses investisseurs Andreessen Horowitz et Tiger Global, deux géants du capital-risque.

Comme pour le matériel, les principaux clients de bon nombre de ces logiciels sont les géants du cloud. Ensemble, Amazon, Alphabet et Microsoft prévoient d’engager des dépenses d’investissement d’environ 120 milliards de dollars cette année, contre 78 milliards de dollars en 2022. Une grande partie de ces dépenses ira à l’expansion de leur capacité cloud. Même ainsi, la demande pour l’informatique IA est si élevée que même eux ont du mal à suivre.

Cela a créé une ouverture pour les challengers. Ces dernières années, IBM, Nvidia et Equinix ont commencé à offrir l’accès aux GPU « en tant que service ». Les startups cloud axées sur l’IA prolifèrent également. En mars, l’une d’entre elles, Lambda, a levé 44 millions de dollars auprès d’investisseurs tels que Gradient Ventures, un des bras de capital-risque de Google, et Greg Brockman, co-fondateur d’OpenAI. L’accord valorisait l’entreprise à environ 200 millions de dollars. Une entreprise similaire, CoreWeave, a levé 221 millions de dollars en avril, y compris auprès de Nvidia, pour une valorisation de 2 milliards de dollars. Brannin McBee , co-fondateur de CoreWeave, affirme que l’accent mis sur le service client et l’infrastructure conçue autour de l’IA l’aide à rivaliser avec les géants du cloud.

Le dernier groupe de gagnants de l’infrastructure d’IA est le plus proche de fournir de véritables pelles : les propriétaires de centres de données. Alors que la demande de cloud computing augmente, leurs propriétés se remplissent. Au second semestre 2022, le taux de vacance des centres de données s’élevait à 3 %, un niveau record. Des spécialistes comme Equinix ou son concurrent Digital Realty concurrencent les grands gestionnaires d’actifs désireux d’ajouter des centres de données à leurs portefeuilles immobiliers. En 2021, Blackstone, un géant des marchés privés, a payé 10 milliards de dollars pour QTS Realty Trust, l’un des plus grands opérateurs de centres de données américains. En avril, Brookfield, le rival canadien de Blackstone, qui investit massivement dans les centres de données, a acheté Data4, une société française de centres de données.

La croissance continue de la pile d’infrastructures d’IA peut encore se heurter à des contraintes. L’un est l’énergie. Un gros investisseur dans les centres de données note que l’accès à l’électricité, dont ces actifs sont de prodigieux utilisateurs, devrait ralentir le développement de nouveaux dans des hubs comme le nord de la Virginie et la Silicon Valley. Mais le passage des vastes modèles d’IA et de l’inférence basée sur le cloud à des systèmes plus petits peut réduire la demande, car ceux-ci nécessitent moins de puissance de calcul pour s’entraîner et peuvent exécuter l’inférence sur un smartphone, comme c’est le cas pour la version réduite de Google récemment dévoilée. Modèle PALM.

Le plus grand point d’interrogation pèse sur la permanence du boom de l’IA lui-même. Malgré la popularité de ChatGPT et de ses semblables, les cas d’utilisation rentables de la technologie restent flous. Dans la Silicon Valley, le battage médiatique peut se transformer en déception en un rien de temps. La valeur marchande de Nvidia a bondi en 2021, car ses GPU se sont avérés parfaits pour l’extraction de bitcoins et d’autres crypto-monnaies, puis se sont effondrés lorsque le boom de la crypto a tourné à l’effondrement. Et si la technologie est à la hauteur de sa facturation transformatrice, les régulateurs pourraient sévir. Les décideurs politiques du monde entier, inquiets du potentiel de l’IA générative à éliminer des emplois ou à diffuser de la désinformation, réfléchissent déjà à des garde-fous. En effet, le 11 mai, les législateurs de l’UE ont proposé un ensemble de règles qui restreindraient les chatbots.

Tous ces facteurs limitants peuvent ralentir le déploiement de l’IA et, ce faisant, assombrir les perspectives des entreprises d’infrastructure d’IA. Mais probablement seulement un peu. Même si l’IA générative ne s’avère pas aussi révolutionnaire que le prétendent ses boosters, elle sera presque certainement plus utile que la crypto. Et il existe de nombreuses autres IA non génératives qui ont également besoin de beaucoup de puissance de calcul. Rien de moins qu’une interdiction mondiale de l’IA générative, qui n’est pas à l’horizon, est susceptible d’arrêter la ruée vers l’or. Et tant que tout le monde se précipitera, les colporteurs de pioches et de pelles encaisseront.

Pour rester au courant des plus grandes histoires du monde des affaires et de la technologie, inscrivez-vous à la Conclusionnotre newsletter hebdomadaire réservée aux abonnés.

© 2023, The Economist Newspaper Limited. Tous les droits sont réservés. Tiré de The Economist, publié sous licence. Le contenu original peut être trouvé sur www.economist.com

[ad_2]

Laisser un commentaire