C’est un club très fermé que Nvidia a rejoint à la fin mai 2023, en dépassant les 1 000 milliards de valorisation boursière : seuls les GAFAM (Google, Amazon, Facebook, Apple et Microsoft), Tesla et les pétrolières Aramco (Arabie saoudite) et PetroChina (Chine) ont pu l’y accueillir.
La résultante de cinq jours d’une faramineuse croissance boursière, après des résultats financiers annoncés le 25 mai où Nvidia prenait le marché de court en tablant sur un chiffre de 11 milliards de dollars pour le deuxième trimestre. La banque Morgan Stanley n’en revenait pas, assurant ne connaître « aucun précédent » pour ce qui est à ses yeux « la plus forte hausse de revenus de l’histoire de l’industrie ».
« Nous sommes passés d’une année 2022 plutôt compliquée à un retournement complet de situation. Le chatbot d’OpenAI a créé une demande instantanée », souligne Jensen Huang, l’heureux fondateur et CEO de la compagnie.
Car c’est bien l’essor de ChatGPT, et avec lui de l’Intelligence Artificielle (IA) dite « générative », qui a dopé les revenus de Nvidia : ses puces GPU, jusqu’ici réservées aux fonctions graphiques des PC, s’avèrent particulièrement bien calibrées pour entraîner les LLM (Large Language Models), modèles algorithmiques à la source de ce type d’IA.
Lire aussi > IA. Qui est OpenAI, l’entreprise derrière ChatGPT et Dall-E ?
Elles ringardisent les processeurs CPU d’Intel ou AMD (voir encadré) et s’arrachent littéralement : de nouveaux clients apparaissent, comme OpenAI ou Anthropic, propriétaires de chatbots.
Google, Microsoft ou encore Elon Musk se ruent sur la H100, puce de pointe, pour en garnir leurs datacenters et pouvoir faire tourner des modèles d’IA. La star de Nvidia se vend à plus de 40 000 dollars : la maison mère de TikTok, la Chinoise ByteDance, s’en est offert pour un montant dépassant un milliard de dollars.

GPU contre CPU, le pari gagnant de Nvidia
Nvidia bâtit son succès sur ses puces GPU (graphics processing unit) inventées en 1999 pour construire plus vite des images de meilleure qualité dans les jeux vidéo.
La puissance graphique de ces puces détrône vite celle des CPU (central processing unit) : là où une CPU est polyvalente, mais traite une seule information à la fois (calcul séquentiel), la GPU est capable de multiples petites opérations simultanées (calcul matriciel).
Si les deux puces sont complémentaires dans les PC, la GPU s’avère plus prometteuse pour des applications industrielles. Elle était déjà plus agile pour le minage de cryptomonnaies, avant la chute du marché en 2022 ; l’IA la remet au centre du jeu pour exploiter sa puissance de calcul. Le marché des CPU, dominé par Intel et AMD, stagne de son côté avec la baisse des ventes d’ordinateurs. Nvidia pourrait en profiter pour devenir hégémonique : il lancera ses propres CPU en fin d’année.
La chance aussi
« Nvidia a toujours fait des puces graphiques, et a eu une chance formidable », raconte Christophe Lecuyer, professeur d’histoire des techniques à l’université Paris-Sorbonne.
Nvidia alimente les PC et consoles en puces depuis les années 90, mais l’explosion du printemps s’appuie sur un changement de stratégie mûri : Nvidia s’associe dès 2017 à Tesla ou Uber pour offrir sa puissance de calcul à de nouveaux secteurs, optimisant les IA des véhicules autonomes. « Bien avant ChatGPT, on avait beaucoup de datas à traiter, et Nvidia avait de la puissance de calcul disponible. Ils ont surfé sur l’efficacité de leurs processeurs pour l’IA générative », décrit Pierre Paradinas, spécialiste des systèmes embarqués au Conservatoire Nationale des Arts et Métiers (CNAM).
Faut-il alors cesser de craindre une bulle spéculative ? Cathie Wood, la patronne du prestigieux fonds d’investissement Ark, dénonçait fin mai une valorisation trop élevée. Une manière de se justifier, alors que son fonds était justement sorti de Nvidia en janvier ? « L’action Nvidia s’échange à 35 fois les bénéfices futurs estimés, et est valorisée 45 fois les bénéfices actuels. Ce n’est pas démesuré », souligne Rolando Grandi, gestionnaire d’un fond IA pour La Financière de l’Echiquier, et investisseur dans Nvidia depuis 2017.
« Les marchés prennent conscience du caractère incontournable des produits Nvidia, qui était fort sur le PC mais va aussi profiter du développement des objets connectés, dont les téléphones », appuie Julien Pillot, économiste et enseignant-chercheur à l’INSEEC. Aujourd’hui cantonnée aux supercalculateurs, l’IA devrait se déployer au plus près de nous, via de multiples objets connectés, des caméras aux smartphones. Une voie royale pour Nvidia.
Lire aussi > IA. Nvidia vaut-elle 1 000 milliards ?
Mais que fait la concurrence ?
Ces nouveaux marchés lui permettront de se diversifier, alors que les datacenters sont aujourd’hui l’unique porte d’entrée pour ses très coûteuses puces. Ses clients sont donc limités aux propriétaires d’infrastructures de cloud, d’Amazon à Google, en passant par Microsoft. Des clients qui, justement, se lancent à ses trousses : Microsoft planche sur sa propre puce depuis avril ; Google a déjà développé le TPU (Tensor Processing Unit), technologie censée répondre à ses propres besoins. Avant d’attaquer Nvidia ?
Hormis Apple, qui a réussi par le passé à se passer d’Intel en construisant sa propre architecture, personne n’a jamais réussi à contester l’autorité des concepteurs de puces. « Nvidia fait en sorte que les processeurs, les logiciels, les IA fonctionnent tous mieux grâce à ses puces. Ce savoir-faire architectural lui donne une longueur d’avance », défend Julien Pillot. C’est parce qu’elle est parfaitement intégrée à un écosystème que la technologie de Nvidia garde la main. Rolando Grandi mise donc sur des parts de marché d’environ 70 % à long terme. « Les puces de Google ou Microsoft sont encore trop spécialisées, à l’inverse de celles de Nvidia. Or, faire des puces dédiées comme ils le font, c’est créer des moules alors que le produit se transforme : l’IA va évoluer. »
La compagnie de Jensen Huang compte laisser sur place ses encombrants voisins en allant vers les services. Plutôt que de simplement vendre ses puces, Nvidia compte apprendre à ses clients à en assurer la maintenance, voire de faire tourner leurs modèles d’IA sur ses propres ordinateurs. Elle a racheté à cette fin le spécialiste du cloud israélien Mellanox, dans une opération à 6,9 milliards de dollars.
Quand l’économie fait sa loi : La « servicisation », eldorado de la tech ?
Le vendeur de puces veut devenir vendeur de services ? Nvidia opère depuis le début de l’année un virage qui pourrait l’amener à concurrencer ses clients actuels : si le groupe fournit aujourd’hui de la puissance de calcul pour les datacenters des fournisseurs de cloud computing – Azure (Microsoft), Amazon Web Services et Google Cloud en tête – il compte vendre l’accès à ses propres calculateurs directement aux entreprises qui n’ont pas les moyens d’acheter ses puces. Il planche aussi sur la location de sa propre IA pré-entraînée.
Cette remontée vers les services, ou « servicisation », constitue l’objectif ultime de beaucoup d’entreprises de la tech : l’ambition finale est de combiner la vente de matériels à celle de services vendus sur abonnement.
L’intérêt principal étant de se rendre indispensable dans le service après-vente (SAV) du matériel vendu et d’éliminer la concurrence. Amazon, de la vente de livres aux multiples abonnements, en est l’exemple typique. Mais jusqu’ici, peu de firmes ont réussi leur coup.

Dans un monde polarisé, une entreprise qui ne fabrique rien
Sa toute-puissance apparente sera peut-être fragilisée par son modèle d’affaires : comme beaucoup de firmes tech, Nvidia est fabless (sans usine) – elle ne produit rien. Elle délègue ses designs à TSMC, qui fond ses puces dans le silicium depuis Taïwan. « Ce modèle est apparu dans les années 80 pour limiter les coûts », rappelle Christophe Lecuyer. « Mais il serait catastrophique pour Nvidia de perdre l’accès aux usines TSMC. »
Or, les tensions entre la Chine et les États-Unis, notamment autour de l’autonomie de Taïwan, sont au plus haut, et Washington a interdit en 2022 l’exportation de puces de pointe pour entraver les progrès chinois dans l’IA, notamment militaires. La menace d’une invasion de Taïwan par Pékin pour mettre la main sur TSMC a aussitôt rejailli.
Jensen Huang lui-même prédisait récemment « d’énormes dégâts » en cas de guerre commerciale sur les puces, alors que la A100, ancêtre de la H100, n’est déjà plus autorisée à la vente en Chine. Nvidia s’en sort en vendant plus ailleurs, et en soutenant la construction d’une usine TSMC en Arizona (États-Unis), censée éloigner l’entreprise de la menace chinoise.
Mais Taïwan demeure malgré tout l’épicentre du monde des puces, et la question géopolitique prégnante. « Si cela tourne mal à Taïwan, Nvidia devra déporter ses designs ailleurs. Il y aura un trou, qui durera 12 à 18 mois au moins », pronostique Pierre Paradinas.
Lire aussi > Comment les investisseurs taïwanais ont permis le miracle économique chinois