Discours complet de Huang Renxun sur le GTC : L'ère de l'inférence est arrivée, avec des revenus qui devraient atteindre au moins mille milliards de dollars d'ici 2027, et le homard est le nouveau système d'exploitation

By: rootdata|2026/03/17 12:54:17
0
Partager
copy

Le 16 mars 2026, la conférence NVIDIA GTC 2026 s'est officiellement ouverte, avec le discours d'ouverture du fondateur et PDG de NVIDIA, Jensen Huang.

Lors de cette conférence, considérée comme le « pèlerinage annuel de l'industrie de l'IA », Huang a développé la transformation de NVIDIA d'une « entreprise de puces » à une « entreprise d'infrastructures et d'usines d'IA ». Répondant aux préoccupations du marché en matière de durabilité des performances et de potentiel de croissance, Huang a détaillé la logique commerciale sous-jacente à la croissance future : « l'économie d'usine de tokens ».

Les prévisions de performance sont extrêmement optimistes : « Au moins 1 000 milliards de dollars en demande d'ici 2027 »

Au cours des deux dernières années, la demande mondiale en informatique IA a explosé de façon exponentielle. À mesure que les grands modèles évoluent de la « perception » et de la « génération » au « raisonnement » et à l'« action (exécution des tâches) », la consommation de puissance de calcul a bondi de façon spectaculaire. En réponse aux préoccupations du marché concernant les plafonds d’ordre et de chiffre d’affaires, Huang a formulé de très fortes attentes.

Huang a déclaré dans son discours :

L'année dernière à pareille époque, j'ai mentionné que nous avions constaté une demande élevée de confiance de 500 milliards de dollars, couvrant Blackwell et Rubin jusqu'en 2026. Maintenant, ici et maintenant, je vois au moins 1 000 milliards de dollars en demande d'ici 2027.

L'attente de Huang, qui se chiffrait à mille milliards de dollars, a un jour fait grimper le cours de NVIDIA de plus de 4,3 %.

D'ailleurs, il compléta encore ce chiffre :

Est-ce raisonnable ? C'est de cela que je vais parler. En fait, nous pourrions même faire face à des pénuries d'approvisionnement. Je suis sûr que la demande réelle en informatique sera beaucoup plus élevée.

Huang a souligné que les systèmes NVIDIA d'aujourd'hui ont prouvé qu'ils étaient « l'infrastructure la moins coûteuse au monde ». Étant donné que NVIDIA peut faire fonctionner des modèles d'IA dans presque tous les domaines, cette polyvalence garantit que les 1 000 milliards de dollars investis par les clients peuvent être pleinement utilisés et maintenus sur un long cycle de vie.

Actuellement, 60 % de l'activité de NVIDIA provient des cinq principaux fournisseurs de services cloud à hyperéchelle, tandis que les 40 % restants sont largement répartis sur les clouds souverains, les entreprises, les industries, la robotique et le edge computing.

Token Factory Economics, où la performance par watt détermine la vitalité de l'entreprise

Pour expliquer le caractère raisonnable de cette demande de 1000 milliards de dollars, Huang a présenté un nouvel état d'esprit commercial aux PDG des entreprises mondiales. Il a rappelé que les futurs centres de données ne seront plus des entrepôts de stockage de fichiers, mais des "usines" produisant des Tokens (l'unité de base générée par l'IA).

Huang a souligné :

Chaque centre de données, chaque usine, est défini comme étant limité par la puissance. Une usine de 1 GW (gigawatt) ne deviendra jamais une usine de 2 GW ; c'est une loi de la physique et des atomes. À puissance fixe, celui qui a le débit de tokens par watt le plus élevé aura les coûts de production les plus bas.

Huang a classé les futurs services d'IA en quatre niveaux commerciaux :

  • Niveau libre (haut débit, faible vitesse)
  • Niveau intermédiaire (~3 $ par million de tokens)
  • Niveau élevé (~ 6 $ par million de tokens)
  • Niveau haute vitesse (~45 $ par million de tokens)
  • Niveau ultra-rapide (~150 $ par million de tokens)

Il a noté qu’à mesure que les modèles grossissent et que les contextes s’allongent, l’IA deviendra plus intelligente, mais le taux de génération de tokens diminuera. Huang a déclaré :

Dans cette Token Factory, votre débit et votre vitesse de génération de tokens se traduiront directement par vos revenus précis pour l'année prochaine.

Huang a souligné que l'architecture de NVIDIA permet aux clients d'atteindre un débit extrêmement élevé dans le niveau libre tout en obtenant une amélioration étonnante des performances 35 fois au niveau d'inférence de valeur le plus élevé.

Vera Rubin atteint 350 fois l'accélération en deux ans, Groq comble le vide pour une inférence ultra-rapide

Sous les contraintes des limites physiques, NVIDIA a présenté son système informatique d'IA le plus complexe de tous les temps, Vera Rubin. Huang a déclaré :

Dans le passé, quand je parlais de Hopper, je tendais une puce, ce qui était bien. Mais en mentionnant Vera Rubin, tout le monde pense à l'ensemble du système. Dans ce système 100 % refroidi par liquide, qui élimine complètement le câblage traditionnel, les baies qui prenaient deux jours à installer ne prennent plus que deux heures.

Huang a souligné que grâce à une co-conception matérielle et logicielle extrême de bout en bout, Vera Rubin a créé un bond de données étonnant au sein du même centre de données de 1GW :

En seulement deux ans, nous avons augmenté le taux de génération de tokens de 22 millions à 700 millions, réalisant une croissance par 350. La loi de Moore au cours de la même période n'a pu provoquer qu'une multiplication par 1,5.

Pour remédier au goulot d'étranglement de la bande passante dans des conditions d'inférence ultra-rapide (telles que 1000 tokens/seconde), NVIDIA a fourni la solution finale en intégrant la société rachetée Groq : l'inférence séparée asymétrique. Huang a expliqué :

Ces deux processeurs ont des caractéristiques complètement différentes. La puce Groq dispose de 500 Mo de SRAM, tandis qu'une puce Rubin dispose de 288 Go de mémoire.

Huang a noté que NVIDIA, par le biais du système logiciel Dynamo, attribue l'étape de « pré-remplissage », qui nécessite un calcul massif et de la mémoire vidéo, à Vera Rubin, tandis que l'étape de « décodage », extrêmement sensible à la latence, est attribuée à Groq. Huang a également fourni des suggestions pour la configuration de la puissance de calcul d'entreprise :

Si votre charge de travail est principalement élevée, utilisez 100 % Vera Rubin ; si vous avez un grand nombre de besoins de génération de tokens de niveau de programmation à haute valeur ajoutée, allouez 25 % de la capacité de votre data center à Groq.

Il a été révélé que la puce Groq LP30, fabriquée par Samsung, est entrée en production en série et devrait être livrée au troisième trimestre, tandis que le premier rack Vera Rubin est déjà opérationnel sur Microsoft Azure.

En outre, concernant la technologie d'interconnexion optique, Huang a présenté le premier commutateur optique co-emballé (CPO) produit en série au monde, Spectrum X, et a répondu aux préoccupations du marché concernant la « transition cuivre-optique » :

Nous avons besoin de plus de capacité de câble de cuivre, plus de capacité de puce optique et plus de capacité de CPO.

Prix de --

--

L'agent met fin au SaaS traditionnel, le "salaire + token" devient la norme dans la Silicon Valley

En plus des barrières matérielles, Huang a consacré une partie importante de son discours à la révolution des logiciels et des écosystèmes d'IA, en particulier l'explosion des Agents.

Il a décrit le projet open source OpenClaw comme « le projet open source le plus populaire de l'histoire de l'humanité », affirmant qu'il a dépassé les réalisations de Linux au cours des 30 dernières années en seulement quelques semaines. Huang a déclaré sans détour qu'OpenClaw est essentiellement le « système d'exploitation » des ordinateurs agents.

Huang a affirmé :

Chaque entreprise SaaS (Software as a Service) se transformera en une entreprise AaaS (Agent as a Service). Il ne fait aucun doute que pour déployer en toute sécurité ces agents, qui ont la capacité d'accéder à des données sensibles et d'exécuter du code, NVIDIA a lancé un design de référence NeMo Claw au niveau de l'entreprise, qui ajoute un moteur de politique et un routeur de confidentialité.

Pour les professionnels ordinaires, cette transformation est également à nos portes. Huang envisageait une nouvelle forme de lieu de travail à l'avenir :

À l'avenir, chaque ingénieur de notre entreprise aura besoin d'un budget annuel de tokens. Leur salaire de base peut représenter des centaines de milliers de dollars, et je leur allouerai environ la moitié de ce montant en tant que quota de tokens, ce qui leur permettra d'obtenir une efficacité 10 fois plus élevée. C'est déjà devenu une nouvelle puce d'embauche dans la Silicon Valley : combien de tokens accompagnent votre offre ?

À la fin du discours, Huang a également « gâché » l'architecture informatique de nouvelle génération, Feynman, qui réalisera la toute première mise à l'échelle horizontale conjointe de fils de cuivre et d'OPC. Plus intrigant encore, NVIDIA développe un ordinateur de centre de données pour l'espace, "Vera Rubin Space-1," qui ouvre complètement l'imagination d'une puissance de calcul IA s'étendant au-delà de la Terre.

Le texte intégral du discours de Jensen Huang sur le GTC 2026 est le suivant (avec l'aide d'outils d'IA) :

Hôte : Bienvenue sur scène au fondateur et PDG de NVIDIA, Jensen Huang.

Jensen Huang, fondatrice et PDG :

Bienvenue sur GTC. Je tiens à rappeler à tous que c'est une conférence technologique. Je suis très heureux de voir tant de gens faire la queue pour entrer tôt le matin et de vous voir tous ici.

Chez GTC, nous nous concentrerons sur trois grands thèmes : la technologie, la plateforme et l’écosystème. NVIDIA dispose actuellement de trois grandes plateformes : la plateforme CUDA-X, la plateforme systèmes et notre nouvelle plateforme d'usine d'IA.

Avant de commencer officiellement, je tiens à remercier nos hôtes de la session de réchauffement : Sarah Guo de Conviction, Alfred Lin de Sequoia Capital (premier capital-risqueur de NVIDIA) et Gavin Baker, premier investisseur institutionnel important de NVIDIA. Ces trois personnes ont une connaissance approfondie de la technologie et une large influence sur l'ensemble de l'écosystème technologique. Bien sûr, je tiens également à remercier tous les invités de marque que j'ai personnellement invités à participer aujourd'hui. Merci à cette équipe d'étoiles.

Je tiens également à remercier toutes les entreprises présentes aujourd'hui. NVIDIA est une société de plateformes, et nous disposons de technologies, de plateformes et d'un écosystème riche. Les entreprises présentes aujourd'hui représentent presque tous les participants de l'industrie des 100 000 milliards de dollars, avec 450 entreprises qui parrainent cet événement, ce dont je suis profondément reconnaissant.

Cette conférence réunit 1 000 forums techniques et 2 000 conférenciers, couvrant tous les niveaux de l'architecture du « gâteau à cinq couches » de l'IA, qu'il s'agisse d'infrastructures telles que le sol, l'énergie ou les centres de données, de puces, de plateformes, de modèles ou de diverses applications qui, au final, font progresser l'ensemble du secteur.

CUDA : Deux décennies d'accumulation technologique

Tout commence ici. Cette année marque le 20e anniversaire de CUDA.

Depuis vingt ans, nous nous consacrons au développement de cette architecture. CUDA est une invention révolutionnaire : la technologie SIMT (Single Instruction Multiple Threads) permet aux développeurs d'écrire des programmes en code scalaire et de les étendre en applications multi-threads, avec des difficultés de programmation bien inférieures à celles des architectures SIMD précédentes. Nous avons récemment ajouté la fonction « Tuiles » pour aider les développeurs à programmer les noyaux tensoriels de façon plus pratique, ainsi que diverses structures d'opérations mathématiques sur lesquelles s'appuie l'IA d'aujourd'hui. Actuellement, CUDA dispose de milliers d'outils, de compilateurs, de frameworks et de bibliothèques, avec des centaines de milliers de projets publics dans la communauté open source, et il a été profondément intégré dans chaque écosystème technologique.

Ce graphique révèle la logique 100% stratégique de NVIDIA, dont je parle depuis le début. L'élément le plus difficile et le plus important est la « base installée » au bas du graphique. Au cours des vingt dernières années, nous avons accumulé des centaines de millions de processeurs graphiques et de systèmes informatiques fonctionnant sous CUDA dans le monde entier.

Nos GPU couvrent toutes les plateformes cloud et servent presque tous les fabricants et industries d'ordinateurs. La grande base installée de CUDA est la raison fondamentale pour laquelle ce volant continue à s'accélérer. La base installée attire les développeurs, les développeurs créent de nouveaux algorithmes et des percées, les percées engendrent de nouveaux marchés, de nouveaux marchés forment de nouveaux écosystèmes et attirent plus d'entreprises à s'y joindre, élargissant ainsi la base installée – ce volant d'inertie s'accélère continuellement.

Le volume de téléchargement des bibliothèques NVIDIA augmente à un rythme étonnant, à grande échelle et à grande vitesse. Ce volant d'inertie permet à notre plateforme informatique de prendre en charge d'énormes applications et de nouvelles percées continues.

Plus important encore, il confère également à ces infrastructures une durée de vie extrêmement longue. La raison est évidente : il existe une multitude d'applications pouvant fonctionner sur NVIDIA CUDA, couvrant toutes les étapes du cycle de vie de l'IA, diverses plateformes de traitement des données et divers solveurs de principes scientifiques. Par conséquent, une fois les GPU NVIDIA installés, leur valeur d'utilisation réelle est extrêmement élevée. C'est aussi pour cela que le prix du cloud du GPU d'architecture Ampère que nous avons lancé il y a six ans a en fait augmenté.

La raison fondamentale de tout cela est: une grande base installée, un volant d'inertie solide et un large écosystème de développeurs. Lorsque ces facteurs sont combinés, couplés à nos mises à jour logicielles continues, les coûts informatiques continueront à diminuer. L'informatique accélérée améliore considérablement les performances des applications, et comme nous maintenons et itérons les logiciels sur le long terme, les utilisateurs non seulement obtiennent des bonds en performance au départ, mais continuent également à bénéficier de coûts informatiques en baisse. Nous sommes prêts à fournir un support à long terme pour chaque GPU dans le monde entier car ils sont totalement compatibles au niveau architectural.

Nous sommes prêts à le faire car la base installée est si grande : à chaque fois qu'une nouvelle optimisation est lancée, elle profite à des millions d'utilisateurs. Cette combinaison dynamique permet à l'architecture de NVIDIA d'étendre continuellement sa couverture, d'accélérer sa propre croissance et de réduire continuellement ses coûts de calcul, stimulant finalement une nouvelle croissance. CUDA est au cœur de tout cela.

De GeForce à CUDA : Une évolution de 25 ans

Notre aventure avec CUDA a commencé il y a 25 ans.

GeForce : beaucoup d'entre vous ont grandi avec GeForce. GeForce est le projet marketing le plus réussi de NVIDIA. Nous avons commencé à cultiver de futurs clients lorsque vous n'aviez pas les moyens d'acheter nos produits : vos parents sont devenus les premiers utilisateurs de NVIDIA, achetant nos produits année après année, jusqu'à ce qu'un jour vous deveniez d'excellents informaticiens, devenant de vrais clients et développeurs.

C'est la base posée par GeForce il y a 25 ans. Il y a 25 ans, nous avons inventé les ombrières programmables – une invention évidente mais profondément significative qui a rendu les accélérateurs programmables, et le premier accélérateur programmable au monde, à savoir les ombrières de pixels. Cinq ans plus tard, nous avons créé CUDA, l’un de nos investissements les plus importants. À cette époque, la société avait des ressources financières limitées, mais nous avons parié la plupart de nos profits sur cela, nous nous engageant à étendre CUDA de GeForce à chaque ordinateur. Nous étions si déterminés parce que nous croyions en son potentiel. Malgré les difficultés rencontrées dans les premiers temps, l'entreprise a conservé cette conviction pendant 13 générations, soit vingt ans, et aujourd'hui, CUDA est partout.

C'est le pixel shader qui a impulsé la révolution de la GeForce. Il y a environ huit ans, nous lançions RTX, une refonte complète de l'architecture pour l'ère moderne de l'infographie. GeForce a fait connaître CUDA dans le monde entier, et de ce fait, de nombreux chercheurs tels qu'Alex Krizhevsky, Ilya Sutskever, Geoffrey Hinton et Andrew Ng ont découvert que les GPU pouvaient devenir des outils puissants pour accélérer l'apprentissage profond, déclenchant l'explosion de l'IA il y a une décennie.

Il y a une dizaine d’années, nous avons décidé de fusionner l’ombrage programmable avec deux nouveaux concepts : l’un était le traçage de rayons matériels, ce qui est techniquement difficile ; l’autre était une idée prospective : il y a une dizaine d’années, nous avions prévu que l’IA transformerait fondamentalement l’infographie. Tout comme GeForce a apporté l'IA au monde, l'IA remodèle maintenant la façon dont l'infographie est mise en œuvre.

Aujourd'hui, je veux vous montrer l'avenir. Il s'agit de notre technologie graphique de nouvelle génération, que nous appelons le rendu neuronal, une intégration approfondie des graphiques 3D et de l'intelligence artificielle. Ici DLSS 5, jetez un coup d'œil.

Rendu neuronal : La fusion des données structurées et de l’IA générative

N'est-ce pas époustouflant ? L'infographie est ainsi revitalisée.

Qu'avons-nous fait ? Nous avons combiné des graphiques 3D contrôlables (le véritable fondement du monde virtuel) avec ses données structurées, puis nous lui avons infusé de l'IA générative et de l'informatique probabiliste. L’un est complètement déterministe, tandis que l’autre est probabiliste mais très réaliste : nous avons fusionné ces deux concepts en un seul, obtenant un contrôle de précision grâce à des données structurées tout en générant en temps réel. En fin de compte, le contenu est à la fois visuellement superbe et entièrement contrôlable.

L'idée de fusionner des informations structurées avec de l'IA génératrice continuera de se manifester dans divers secteurs. Les données structurées sont la pierre angulaire d'une IA fiable.

Plateforme accélérée pour les données structurées et non structurées

Je veux maintenant vous montrer un schéma d'architecture technique.

Des données structurées – SQL familier, Spark, Pandas, Velox et d’importantes plateformes comme Snowflake, Databricks, Amazon EMR, Azure Fabric, Google BigQuery, gèrent toutes les trames de données. Ces cadres de données sont comme des feuilles de calcul géantes, transportant toutes les informations du monde des affaires, servant de faits de base (vérité au sol) à l'informatique d'entreprise.

À l'ère de l'IA, nous devons laisser l'IA utiliser des données structurées et atteindre une accélération extrême. Dans le passé, l'accélération du traitement structuré des données visait à rendre les entreprises plus efficaces. À l'avenir, l'IA utilisera ces structures de données à des vitesses dépassant largement les capacités humaines, et les agents de l'IA s'appuieront largement sur des bases de données structurées.

En ce qui concerne les données non structurées, les bases de données vectorielles, les PDF, les vidéos, l’audio, etc., constituent la grande majorité des formes de données dans le monde – environ 90 % des données générées chaque année sont non structurées. Autrefois, ces données étaient presque entièrement inutilisables: nous les lisons, les stockions dans des systèmes de fichiers, et c'était tout. Nous n'avons pas pu les interroger, ni les récupérer, car les données non structurées manquent de méthodes d'indexation simples et doivent être comprises en termes de sens et de contexte. Désormais, l'IA peut le faire : grâce aux technologies multimodales de perception et de compréhension, l'IA peut lire des documents PDF, comprendre leurs significations et les intégrer dans des structures plus grandes pour les interroger.

NVIDIA a créé deux bibliothèques fondamentales à cet effet :

  • cuDF : pour un traitement accéléré des trames de données et des données structurées

  • cuVS : pour le stockage vectoriel, les données sémantiques et le traitement de données IA non structurées

Ces deux plateformes deviendront à l’avenir l’une des plateformes fondamentales les plus importantes.

Aujourd’hui, nous annonçons des partenariats avec plusieurs entreprises. IBM, l'inventeur de SQL, va utiliser cuDF pour accélérer sa plateforme WatsonX Data. Dell a collaboré avec nous pour créer la plateforme de données IA Dell, intégrant cuDF et cuVS, obtenant des améliorations significatives des performances des projets réels avec NTT Data. Sur le front du Cloud Google, nous accélérons désormais non seulement l’IA Vertex, mais aussi BigQuery, et nous nous sommes associés à Snapchat pour réduire ses coûts informatiques de près de 80 %.

Les avantages de l'informatique accélérée sont triples : vitesse, échelle et coût. Cela s'aligne sur la logique de la Loi de Moore : réaliser des bonds de performance grâce à l'informatique accélérée tout en optimisant continuellement les algorithmes, permettant à chacun de bénéficier de coûts de calcul en baisse continue.

NVIDIA a construit une plateforme informatique accélérée qui regroupe de nombreuses bibliothèques : RTX, cuDF, cuVS, et plus encore. Ces bibliothèques sont intégrées dans des services cloud mondiaux et des systèmes OEM, pour atteindre les utilisateurs du monde entier.

Une collaboration approfondie avec des fournisseurs de services cloud

Collaboration avec les principaux fournisseurs de services cloud

Google Cloud : Nous accélérons Vertex AI et BigQuery, en nous intégrant profondément à JAX/XLA, tout en réalisant d'excellentes performances sur PyTorch – NVIDIA est le seul accélérateur au monde qui réalise de bonnes performances sur PyTorch et JAX/XLA. Nous avons introduit des clients comme Base10, CrowdStrike, Puma et Salesforce dans l'écosystème Google Cloud.

AWS : Nous accélérons les processus EMR, SageMaker et Bedrock grâce à une intégration approfondie avec AWS. Cette année, je suis particulièrement ravi que nous fassions entrer OpenAI dans AWS, ce qui stimulera considérablement la croissance de la consommation de cloud AWS et aidera OpenAI à étendre ses déploiements régionaux et son échelle informatique.

Microsoft Azure : Le superordinateur NVIDIA 100 PFLOPS est notre premier superordinateur construit et le premier superordinateur déployé sur Azure, établissant une base importante pour la collaboration avec OpenAI. Nous accélérons les services cloud Azure et AI Foundry, en collaborant pour promouvoir l'expansion régionale d'Azure et en coopérant profondément sur la recherche Bing. Notamment, notre capacité informatique confidentielle, garantissant que même les opérateurs ne peuvent pas consulter les données et les modèles des utilisateurs, fait des GPU NVIDIA parmi les premiers au monde à prendre en charge l'informatique confidentielle, permettant des déploiements confidentiels de modèles OpenAI et Anthropic dans des environnements cloud à travers le monde. Par exemple, nous accélérons tous les flux de travail EDA et CAO pour Synopsys et les déployons sur Microsoft Azure.

Oracle : Nous sommes le premier client IA d'Oracle, et je suis fier d'avoir été le premier à expliquer le concept de cloud IA à Oracle. Depuis, ils se sont développés rapidement et nous avons présenté de nombreux partenaires tels que Cohere, Fireworks et OpenAI.

CoreWeave : Le premier cloud natif au monde, né pour l'hébergement GPU et les services cloud d'IA, avec une excellente base de clients et un fort élan de croissance.

Palantir + Dell : Les trois parties ont créé conjointement une nouvelle plateforme d'IA basée sur la plateforme d'ontologie et la plateforme d'IA de Palantir, capable de déployer l'IA de façon totalement localisée dans n'importe quel pays et n'importe quel environnement troué d'air, qu'il s'agisse du traitement des données (vectorisation ou structuration) ou d'une pile complète de calcul accéléré pour l'IA.

NVIDIA a établi cette relation de coopération spéciale avec des fournisseurs mondiaux de services cloud : nous amenons nos clients vers le cloud, créant ainsi un écosystème mutuellement bénéfique.

Intégration verticale, ouverture horizontale : La stratégie centrale de NVIDIA

NVIDIA est la première entreprise mondiale intégrée verticalement et ouverte horizontalement.

La nécessité de ce modèle est très simple : l'informatique accélérée n'est pas seulement un problème de puce ou de système ; son expression complète devrait être l'accélération des applications. Les processeurs peuvent faire fonctionner les ordinateurs plus rapidement dans l'ensemble, mais cette voie a atteint un goulot d'étranglement. À l'avenir, ce n'est que par le biais d'une application ou d'une accélération spécifique au domaine que nous pourrons continuer à réaliser des bonds de performance et des réductions de coûts.

C'est précisément pourquoi NVIDIA doit cultiver profondément une bibliothèque après l'autre, un champ après l'autre, une industrie verticale après l'autre. Nous sommes une entreprise informatique verticalement intégrée, et il n'y a pas d'autre voie à suivre. Nous devons comprendre les applications, comprendre les domaines, comprendre profondément les algorithmes et être capables de les déployer dans n'importe quel scénario : data centers, cloud, on-premise, edge et même systèmes robotisés.

Dans le même temps, NVIDIA reste ouvert horizontalement, disposé à intégrer la technologie dans la plateforme de n'importe quel partenaire, permettant au monde entier de profiter des dividendes de l'informatique accélérée.

La structure des participants à ce GTC en rend pleinement compte. La proportion de participants du secteur des services financiers est la plus élevée, espérant attirer les développeurs et non les traders. Notre écosystème couvre toute la chaîne d'approvisionnement en amont et en aval. Qu'une entreprise soit établie depuis 50, 70 ou 150 ans, l'année dernière a marqué sa meilleure année dans l'histoire. Nous sommes au point de départ de quelque chose de très, très significatif.

CUDA-X : Le moteur de calcul accéléré pour diverses industries

Dans divers domaines verticaux, NVIDIA a profondément exposé :

  • Conduite autonome : Couverture étendue et impact considérable

  • Services financiers : L'investissement quantitatif passe de l'ingénierie manuelle des fonctionnalités à l'apprentissage profond piloté par les superordinateurs, inaugurant son « moment Transformer »

  • Soins de santé : Il connaît son propre « moment ChatGPT », couvrant la découverte de médicaments assistée par l'IA, les diagnostics pris en charge par les agents de l'IA, le service client médical, et plus encore

  • Industrie : La plus grande vague de construction au monde se déroule, avec des usines d'IA, des usines de puces et des usines de centres de données qui sont établies

  • Divertissement et jeux : Les plateformes d'IA en temps réel prennent en charge la traduction, la diffusion en direct, l'interaction de jeu et les agents d'achat intelligents

  • Robotique : Avec plus d'une décennie de culture approfondie, trois grandes architectures informatiques (ordinateurs de formation, ordinateurs de simulation, ordinateurs de bord) sont en place, avec 110 robots présentés à ce salon

  • Télécommunications : Une industrie d'environ 2 000 milliards de dollars, les stations de base évolueront des fonctions de communication uniques aux plateformes d'infrastructure IA, avec une plateforme connexe nommée Aerial, collaborant étroitement avec des entreprises comme Nokia et T-Mobile.

Le cœur de tous ces domaines est notre bibliothèque CUDA-X, c'est l'essence fondamentale de NVIDIA en tant que société d'algorithmes. Ces bibliothèques sont les actifs les plus importants de l'entreprise, ce qui permet à la plateforme informatique de fournir une valeur réelle dans divers secteurs.

L'une des bibliothèques les plus importantes est cuDNN (cuDA Deep Neural Network Library), qui a complètement révolutionné l'intelligence artificielle, déclenchant l'explosion de l'IA moderne.

(Lire la vidéo de démonstration de CUDA-X)

Tout ce que vous venez de voir était de la simulation, y compris des solveurs basés sur la physique, des modèles physiques d'agents IA et des modèles de robots IA physiques. Tout a été simulé, sans animation manuelle ni liaison articulaire. C'est précisément là que réside la capacité fondamentale de NVIDIA : exploiter ces opportunités grâce à une compréhension approfondie des algorithmes et à une intégration organique avec la plateforme informatique.

Les entreprises natives de l'IA et la nouvelle ère informatique

Vous venez de voir des géants de l'industrie définir la société actuelle, tels que Walmart, L'Oréal, JPMorgan Chase, Roche et Toyota, ainsi qu'un grand nombre d'entreprises dont vous n'avez peut-être jamais entendu parler – nous appelons ces entreprises natives de l'IA. Cette liste est vaste, y compris OpenAI, Anthropic et de nombreuses entreprises émergentes desservant différentes verticales.

Au cours des deux dernières années, cette industrie a connu une croissance étonnante. L’ampleur du capital-risque entrant dans les startups a atteint 150 milliards de dollars, un record dans l’histoire de l’humanité. Plus important encore, la taille des investissements individuels a bondi de millions de dollars à des centaines de millions, voire des milliards. La raison est simple : pour la première fois dans l’histoire, chacune de ces entreprises nécessite d’énormes ressources informatiques et un grand nombre de tokens. Cette industrie crée et génère des tokens ou ajoute de la valeur aux tokens d'organisations comme Anthropic et OpenAI.

Tout comme la révolution PC, la révolution Internet et la révolution du cloud mobile ont chacune donné naissance à un lot d’entreprises de l’époque, cette génération de transformation des plateformes informatiques donnera également naissance à un lot d’entreprises très influentes, devenant une force importante dans le monde futur.

Trois percées historiques à l’origine de tout cela

Que s'est-il passé exactement au cours des deux dernières années? Trois événements majeurs.

Premièrement : ChatGPT, inaugurant l'ère de l'IA générative (fin 2022 à 2023)

Il peut non seulement percevoir et comprendre, mais également générer un contenu unique. J’ai démontré la fusion de l’IA générative avec l’infographie. L'IA générative modifie fondamentalement le fonctionnement de l'informatique : l'informatique est passée de la récupération à la génération, ce qui a profondément affecté l'architecture informatique, les méthodes de déploiement et l'importance globale.

Deuxièmement : IA de raisonnement, représenté par o1

Les capacités de raisonnement permettent à l'IA d'auto-réfléchir, de planifier et de décomposer les problèmes, en décomposant les problèmes qu'elle ne peut pas comprendre directement en étapes gérables. o1 rend l'IA générative fiable, capable de raisonner sur la base d'informations réelles. Pour y parvenir, la quantité de tokens de contexte d'entrée et de tokens de sortie pour la pensée a considérablement augmenté, entraînant une augmentation substantielle des demandes informatiques.

Troisièmement : Code Claude, le modèle du premier agent

Il peut lire des fichiers, écrire du code, compiler, tester, évaluer et itérer. Le Code Claude a complètement révolutionné le génie logiciel : 100 % des ingénieurs NVIDIA utilisent un ou plusieurs codes Claude Code, Codex et Cursor ; il n'y a pas un seul ingénieur logiciel qui ne tire parti de l'aide de l'IA.

Il s'agit d'un nouveau tournant : vous ne demandez plus à l'IA « qu'est-ce que c'est, où est-ce, comment faire », mais plutôt de la laisser « créer, exécuter, compiler », ce qui lui permet d'utiliser activement des outils, de lire des fichiers, de décomposer des problèmes et de prendre des mesures. L'IA a évolué de la perception à la génération, au raisonnement, et est désormais réellement capable d'accomplir des tâches.

Au cours des deux dernières années, la demande informatique de raisonnement a augmenté d'environ 10 000 fois, et l'utilisation a augmenté d'environ 100 fois. J'ai toujours cru que la demande en informatique a augmenté d'un million de fois au cours des deux dernières années – c'est un sentiment partagé par tout le monde, y compris OpenAI et Anthropic. Si nous parvenons à obtenir plus de puissance de calcul, nous pourrons générer plus de tokens, les revenus augmenteront et l'IA deviendra plus intelligente. Le tournant du raisonnement est en effet arrivé.

L'ère des infrastructures IA qui coûte mille milliards de dollars

L'année dernière à pareille époque, j'ai déclaré ici que nous avions une grande confiance dans la demande et les ordres d'achat de Blackwell et Rubin jusqu'en 2026, pour un montant d'environ 500 milliards de dollars. Aujourd'hui, un an après le GTC, je suis là pour vous dire : à l'horizon 2027, je vois un chiffre d'au moins 1 000 milliards de dollars. Et je suis convaincu que la demande réelle en informatique sera bien au-delà.

2025: L'année de l'inférence pour NVIDIA

2025 est l'année de l'inférence NVIDIA. Nous voulons nous assurer qu’au-delà de la formation et de la post-formation, nous maintenons l’excellence à chaque étape du cycle de vie de l’IA, permettant à l’infrastructure investie de fonctionner de manière efficiente et efficace plus longtemps, avec des coûts unitaires plus bas.

Parallèlement, Anthropic et Meta ont officiellement rejoint la plateforme NVIDIA, représentant ensemble un tiers de la demande mondiale en informatique IA. Les modèles open source sont presque à la pointe et sont omniprésents.

NVIDIA est actuellement la seule plateforme au monde capable d'exécuter tous les domaines de l'IA – langage, biologie, infographie, vision par ordinateur, parole, protéines et chimie, robotique, etc. – tous les modèles d'IA, qu'ils soient à la périphérie ou dans le cloud, quelle que soit la langue. L'architecture de NVIDIA est universelle dans tous ces scénarios, ce qui fait de nous la plateforme la plus économique et la plus fiable.

Actuellement, 60 % de l'activité de NVIDIA provient des cinq principaux fournisseurs de services cloud à hyperéchelle, tandis que les 40 % restants sont répartis sur les clouds régionaux, les clouds souverains, les entreprises, les industries, la robotique et l'informatique de périphérie. L'étendue de la couverture de l'IA elle-même est sa résilience – c'est sans aucun doute une nouvelle transformation de la plateforme informatique.

Grace Blackwell et NVLink 72 : Innovation architecturale audacieuse

Alors que l'architecture Hopper était encore à son apogée, nous avons décidé de ré-architecter complètement le système, en élargissant NVLink de 8 voies à NVLink 72, en décomposant et en reconstruisant entièrement le système informatique. Grace Blackwell NVLink 72 est un pari technologique important, pas facile pour tous les partenaires, et j’en remercie sincèrement tout le monde.

Dans le même temps, nous avons lancé NVFP4, non seulement un FP4 ordinaire, mais un nouveau type de cœur tensoriel et d'unité de calcul. Nous avons démontré que NVFP4 peut atteindre l'inférence sans aucune perte de précision tout en offrant des améliorations significatives de performance et d'efficacité énergétique, et il est également adapté à la formation. De plus, une série de nouveaux algorithmes tels que Dynamo et TensorRT-LLM ont émergé, et nous avons même investi des milliards de dollars pour construire un superordinateur spécialement conçu pour optimiser les noyaux, appelé DGX Cloud.

Les résultats montrent que nos performances d'inférence sont remarquables. Les données de Semi Analysis – l’évaluation la plus complète des performances d’inférence de l’IA à ce jour – montrent que NVIDIA est en avance significative à la fois pour les tokens par watt et le coût par token. À l'origine, la loi de Moore aurait pu multiplier par 1,5 les performances de H200, mais nous y sommes parvenus 35 fois. Dylan Patel de Semi Analysis a même dit : « Jensen a mis du sable ; en fait, c'est 50 fois ». Il a raison.

Je le cite : "Jensen ensablé."

Le coût par token de NVIDIA est le plus bas au monde, actuellement inégalé. La raison réside dans une co-conception extrême.

Par exemple, avant que NVIDIA ne mette à jour l'ensemble des logiciels et algorithmes, Fireworks avait une vitesse moyenne de tokens d'environ 700 par seconde ; après la mise à jour, elle approchait les 5 000 par seconde, soit une augmentation d'environ 7 fois. C’est la puissance de la co-conception extrême.

AI Factory : Des data centers aux usines de tokens

Les centres de données étaient des lieux de stockage de fichiers ; aujourd'hui, ce sont des usines de production de tokens. Chaque fournisseur de services cloud et chaque entreprise d'IA utilisera l'« efficacité de l'usine de tokens » comme mesure opérationnelle de base à l'avenir.

Voici mon argument principal :

  • Axe vertical : Débit – nombre de tokens générés par seconde à puissance fixe

  • Axe horizontal : Vitesse d'interaction : vitesse de réponse pour chaque inférence ; plus la vitesse est rapide, plus le modèle utilisable est grand, plus le contexte est long et plus l'IA est intelligente

Les tokens sont la nouvelle matière première, et une fois arrivés à maturité, le prix sera par paliers :

  • Niveau libre (haut débit, faible vitesse)

  • Niveau intermédiaire (~3 $ par million de tokens)

  • Niveau élevé (~ 6 $ par million de tokens)

  • Niveau haute vitesse (~45 $ par million de tokens)

  • Niveau ultra-rapide (~150 $ par million de tokens)

Par rapport à Hopper, Grace Blackwell a amélioré le débit de 35 fois au niveau de valeur le plus élevé et introduit un nouveau niveau. En simplifiant les estimations du modèle, si 25 % de la puissance est allouée à chacun des quatre niveaux, Grace Blackwell pourrait générer 5 fois plus de revenus que Hopper.

Vera Rubin : Le système informatique IA de nouvelle génération

(Lire la vidéo de présentation du système Vera Rubin)

Vera Rubin est un système complet, optimisé de bout en bout, conçu pour les charges de travail des agents :

  • Noyau informatique de modèle de grande langue : cluster GPU NVLink 72, gestion du pré-remplissage et de la mémoire cache KV

  • Nouveau processeur Vera : Conçu pour des performances monothread extrêmement élevées, utilisant de la mémoire LPDDR5, avec une excellente efficacité énergétique, le seul processeur de centre de données au monde utilisant LPDDR5, adapté aux appels d'outils d'agents IA

  • Système de stockage : BlueField 4 + CX 9, une nouvelle plateforme de stockage pour l'ère de l'IA, avec une participation à 100 % de l'industrie mondiale du stockage

  • Commutateur CPO Spectrum X : Le premier commutateur Ethernet optique co-emballé au monde, maintenant en pleine production de masse

  • Kyber rack : Un nouveau système de rack prenant en charge 144 GPU pour former un seul domaine NVLink, avec calcul frontal et commutation NVLink back-end, formant un ordinateur géant

  • Rubin Ultra : Nœud de supercalculateur de nouvelle génération, design vertical, associé au rack Kyber, prenant en charge les interconnexions NVLink à plus grande échelle

Vera Rubin est 100 % refroidi par liquide, réduisant le temps d'installation de deux jours à deux heures, utilisant un refroidissement à l'eau chaude à 45 °C, réduisant considérablement la pression de refroidissement dans les centres de données. Cette fois, Satya (Nadella) a confirmé que le premier rack Vera Rubin est désormais opérationnel sur Microsoft Azure, ce que je trouve très excitant.

Intégration de Groq : Extension extrême des performances d'inférence

Nous avons acquis l'équipe Groq et obtenu sa licence technologique. Groq est un processeur de flux de données déterministe, utilisant une compilation statique et une planification compilatrice, avec une grande quantité de SRAM, optimisé pour l'inférence d'une seule charge de travail, avec une latence extrêmement faible et une vitesse de génération de tokens élevée.

Cependant, la capacité mémoire de Groq est limitée (500 Mo de mémoire SRAM sur puce), ce qui rend difficile le transport indépendant des paramètres et de la mémoire cache KV des grands modèles, limitant son application à grande échelle.

La solution est Dynamo, un ensemble de logiciels de planification des inférences. Nous avons désagrégé le pipeline d'inférence via Dynamo :

  • Le décodage du mécanisme de pré-remplissage et d'attention est terminé sur Vera Rubin (nécessitant une puissance de calcul massive et un stockage KV Cache)

  • Le décodage réseau Feed Forward, c'est-à-dire la partie génération de tokens, est terminé sur Groq (nécessitant une bande passante extrêmement élevée et une faible latence)

Les deux sont étroitement couplés via Ethernet, réduisant la latence d'environ moitié grâce à des modes spéciaux. Dans le cadre de l'ordonnancement unifié de Dynamo, le « système d'exploitation d'usine d'IA », les performances globales s'améliorent de 35 fois, ouvrant de nouveaux niveaux de performance d'inférence auparavant inatteignables par NVLink 72.

Recommandations pour la combinaison de Groq et Vera Rubin :

  • Si la charge de travail est principalement élevée, utilisez 100 % Vera Rubin

  • Si un grand nombre de charges de travail impliquent une génération de tokens de grande valeur, comme la génération de code, présentez Groq, avec un ratio recommandé d'environ 25 % Groq + 75 % Vera Rubin

Le Groq LP30, fabriqué par Samsung, est entré en production de masse et devrait commencer à être livré au troisième trimestre. Merci à Samsung pour leur pleine coopération.

Bond historique des performances d'inférence

Quantification des avancées technologiques précédentes : d'ici deux ans, le taux de génération de tokens d'une usine d'IA de 1 GW passera de 22 millions de tokens/seconde à 700 millions de tokens/seconde, soit une multiplication par 350. C’est la puissance de la co-conception extrême.

Feuille de route technologique

  • Blackwell : Actuellement en production, système de rack standard Oberon, câble cuivre étendu à NVLink 72, extension optique optionnelle à NVLink 576

  • Vera Rubin (actuelle) : Kyber rack, NVLink 144 (câble cuivre) ; Oberon rack, NVLink 72 + optique, étendu à NVLink 576 ; Spectrum 6, le premier commutateur CPO au monde

  • Vera Rubin Ultra (à venir) : GPU Rubin Ultra de nouvelle génération, puce LP35 (première intégration de NVFP4), améliorant encore les performances plusieurs fois

  • Feynman (nouvelle génération) : Nouveau processeur graphique, puce LP40 (développée conjointement par NVIDIA et l'équipe Groq, intégrant NVFP4) ; nouveau processeur Rosa (Rosalyn) ; BlueField 5 ; CX 10 ; rack Kyber prenant en charge les méthodes d'extension cuivre et CPO

La feuille de route est claire : l’expansion du cuivre, l’expansion optique (Scale-Up) et l’expansion optique (Scale-Out) progressent en parallèle, et nous avons besoin de tous les partenaires pour continuer à développer la production de câbles en cuivre, de fibres optiques et de CPO.

NVIDIA DSX : La plateforme numérique jumelle pour les usines d'IA

Les usines d'IA deviennent de plus en plus complexes, mais les différents fournisseurs de technologies qui les composent n'ont jamais collaboré pendant la phase de conception, se réunissant uniquement dans le centre de données – c'est nettement insuffisant.

Pour y remédier, nous avons créé Omniverse et la plateforme NVIDIA DSX basée sur celle-ci, une plateforme permettant à tous les partenaires de concevoir et d'exploiter en collaboration des usines d'IA de niveau gigawatt dans le monde virtuel. DSX fournit :

  • Systèmes de simulation mécanique, thermique, électrique et de réseau au niveau du rack

  • Connexion au réseau électrique pour une planification collaborative des économies d'énergie

  • Optimisation dynamique de la consommation d'énergie et du refroidissement selon Max-Q au sein du datacenter

Estimé de façon prudente, ce système peut améliorer l'efficacité de l'utilisation de l'énergie d'environ deux fois, ce qui est un avantage important à l'échelle dont nous parlons. Omniverse part de la terre numérique et transportera des jumeaux numériques de différentes échelles ; nous construisons le plus grand ordinateur de l’histoire de l’humanité en collaboration avec des partenaires mondiaux.

En outre, NVIDIA s'aventure dans l'espace. La puce Thor a passé la certification de rayonnement et fonctionne dans des satellites. Nous développons Vera Rubin Space-1 avec des partenaires pour la construction d'ordinateurs de centre de données spatial. Dans l'espace, nous ne pouvons compter que sur le rayonnement pour la dissipation de la chaleur, et la gestion thermique est un défi majeur ; nous rassemblons des ingénieurs de haut niveau pour y faire face.

OpenClaw : Le système d'exploitation à l'ère des agents

Peter Steinberger a développé un logiciel appelé OpenClaw. Il s'agit du projet open source le plus populaire de l'histoire de l'humanité, dépassant les réalisations de Linux en seulement quelques semaines.

OpenClaw est essentiellement un système agentique capable de :

  • Gestion des ressources, accès aux outils, systèmes de fichiers et grands modèles linguistiques

  • Exécution de tâches de planification et de chronométrage

  • Décomposition progressive des problèmes et invocation de sous-agents

  • Prendre en charge des modalités arbitraires d'entrée et de sortie (voix, vidéo, texte, email, etc.)

Le décrire dans la syntaxe d'un système d'exploitation, c'est vraiment un système d'exploitation – le système d'exploitation pour les ordinateurs agents. Windows a rendu l'informatique personnelle possible ; OpenClaw rend les agents personnels possibles.

Chaque entreprise doit formuler sa propre stratégie OpenClaw, tout comme nous avons tous besoin de stratégies Linux, de stratégies HTML et de stratégies Kubernetes.

Refonte complète de l’informatique d’entreprise

Avant OpenClaw, l'informatique d'entreprise impliquait que les données et les fichiers entrent dans les systèmes, circulent à travers les outils et les flux de travail, devenant finalement des outils à usage humain. Les éditeurs de logiciels ont créé des outils, et les intégrateurs de systèmes (GSI) et les sociétés de conseil ont aidé les entreprises à utiliser ces outils.

Après OpenClaw, chaque entreprise SaaS se transformera en société AaaS (Agentic as a Service) – non seulement en fournissant des outils, mais en fournissant des agents d’IA spécialisés dans des domaines spécifiques.

Mais un défi majeur se pose : les agents internes peuvent accéder à des données sensibles, exécuter du code et communiquer avec des parties externes. Cela doit être strictement contrôlé dans les environnements d'entreprise.

Pour y remédier, nous avons collaboré avec Peter pour intégrer la sécurité dans la version entreprise, en lançant :

  • Griffe NeMo (design de référence) : Un cadre de référence au niveau de l'entreprise basé sur OpenClaw, intégrant la gamme complète de boîtes à outils d'IA des agents NVIDIA

  • Bouclier ouvert (couche de sécurité) : Intégré dans OpenClaw, fournissant des moteurs de politique, des barrières de réseau et des routeurs de confidentialité pour garantir la sécurité des données de l'entreprise

  • Cloud NeMo : Disponible au téléchargement et intégré aux moteurs de politique de toutes les entreprises SaaS

Il s’agit d’une renaissance pour l’informatique d’entreprise, une industrie de 2 000 milliards de dollars en passe de croître à une échelle de plusieurs billions de dollars, passant de la fourniture d’outils à l’offre de services spécialisés d’agents d’IA.

Je peux parfaitement prévoir qu'à l'avenir, chaque ingénieur d'une entreprise aura un budget annuel de tokens. Leurs salaires peuvent représenter des centaines de milliers de dollars, et je leur fournirai en outre un quota de tokens équivalent à la moitié de leur salaire, ce qui permettra de multiplier leur production par 10. « Combien de tokens accompagnent votre offre d'emploi ? » est devenu un nouveau sujet d'embauche dans la Silicon Valley.

Chaque entreprise sera à l'avenir à la fois un utilisateur de tokens (pour les ingénieurs) et un producteur de tokens (fournissant des services à leurs clients). L'importance d'OpenClaw ne peut être sous-estimée ; elle est aussi importante que HTML et Linux.

Initiative NVIDIA Open Model

Dans le domaine des agents personnalisés (Custom Claw), nous fournissons les modèles de pointe auto-développés par NVIDIA :

Modèle de domaine de modèle Némotron Modèle de grande langue Cosmos World Foundation Modèle GROOT Modèle général de robot humanoïde Alpamayo Conduite autonome BioNeMo Biologie numérique Physique-AIAI Physique

Nous sommes à la pointe de la technologie dans tous les domaines et nous nous engageons à itérer continuellement : Nemotron 3 sera suivi de Nemotron 4, Cosmos 1 sera suivi de Cosmos 2, et Groq itérera également vers sa deuxième génération.

Nemotron 3 se classe parmi les trois meilleurs modèles au monde en OpenClaw et est à la pointe. Nemotron 3 Ultra deviendra le modèle de base le plus solide de tous les temps, aidant les pays à construire une IA souveraine.

Aujourd’hui, nous annonçons la création de l’Alliance Nemotron, qui investit des milliards de dollars pour faire progresser le développement de modèles fondamentaux de l’IA. Les membres de l'alliance comprennent : BlackForest Labs, Cursor, LangChain, Mistral, Perplexité, Réflexion, Sarvam (Inde), Thinking Machines (laboratoire de Mira Murati), et plus encore. Les uns après les autres, les éditeurs de logiciels d'entreprise s'associent, intégrant dans leurs produits le design de référence NeMo Claw et la boîte à outils d'IA des agents NVIDIA.

IA physique et robotique

Les agents numériques agissent dans le monde numérique – écrivant du code, analysant des données ; tandis que l’IA physique fait référence aux agents incorporés, c’est-à-dire les robots.

Lors de ce GTC, 110 robots ont été présentés, couvrant presque toutes les entreprises de développement de robots dans le monde entier. NVIDIA fournit trois ordinateurs (ordinateurs de formation, ordinateurs de simulation, ordinateurs de bord) et une pile logicielle complète et des modèles d'IA.

En matière de conduite autonome, le « moment ChatGPT » de la conduite autonome est arrivé. Aujourd'hui, nous annonçons quatre nouveaux partenaires rejoignant la plateforme RoboTaxi Ready de NVIDIA : BYD, Hyundai, Nissan et Geely, avec une production totale annuelle de 18 millions de véhicules. La gamme s'est encore étoffée, avec d'autres partenaires comme Mercedes-Benz, Toyota et General Motors. Nous avons également annoncé une importante collaboration avec Uber pour déployer et intégrer des véhicules RoboTaxi Ready dans plusieurs villes.

Dans le domaine des robots industriels, de nombreuses entreprises telles qu’ABB, Universal Robotics et KUKA collaborent avec nous pour combiner des modèles d’IA physique avec des systèmes de simulation, favorisant le déploiement de robots dans les lignes de fabrication mondiales.

Dans les télécommunications, Caterpillar et T-Mobile en font également partie. À l'avenir, les stations de base sans fil ne seront plus seulement des nœuds de communication, mais deviendront NVIDIA Aerial AI RAN, une plateforme intelligente de calcul de périphérie capable d'ajuster la perception du trafic en temps réel et la formation de faisceaux pour réaliser des capacités d'économie d'énergie et d'amélioration de l'efficacité.

Segment spécial : Apparition du robot Olaf

(Lire la vidéo de démonstration du robot Disney Olaf)

Jensen Huang : Le bonhomme de neige est là ! Newton va bien ! Omniverse fonctionne aussi bien ! Olaf, comment vas-tu ?

Olaf : Je suis content de te voir.

Jensen Huang : Oui, parce que je t'ai donné un ordinateur... Jetson !

Olaf : C'est quoi ça ?

Jensen Huang : C'est dans ton ventre.

Olaf : C'est incroyable.

Jensen Huang : Tu as appris à marcher dans Omniverse.

Olaf : J'adore marcher. C'est beaucoup mieux que de chevaucher un renne et de regarder le beau ciel.

Jensen Huang : Cela est dû à la simulation physique : le solveur Newton fonctionnant sous NVIDIA Warp, développé en collaboration avec Disney et DeepMind, vous permet de vous adapter au monde physique réel.

Olaf : J'allais juste dire ça.

Jensen Huang : C'est votre talent. Je suis un bonhomme de neige, pas une boule de neige.

Jensen Huang : Vous imaginez ? Le futur Disneyland, tous ces personnages robotisés qui se promènent librement dans le parc. Mais honnêtement, je pensais que tu serais plus grande. Je n'ai jamais vu un bonhomme de neige aussi court.

Olaf : (sans engagement)

Jensen Huang : Pouvez-vous m'aider à conclure mon discours ?

Olaf : Ce serait génial !

Résumé général

Jensen Huang : Aujourd’hui, nous avons exploré ensemble les thèmes fondamentaux suivants :

  1. L’arrivée du tournant du raisonnement : le raisonnement est devenu la charge de travail essentielle de l’IA, les tokens sont la nouvelle marchandise, et les performances d’inférence déterminent directement les revenus.

  2. L'ère des usines d'IA : les centres de données sont passés d'installations de stockage de fichiers à des usines de production de tokens, et à l'avenir, chaque entreprise mesurera sa compétitivité par « l'efficacité des usines d'IA ».

  3. La révolution des agents OpenClaw : OpenClaw a ouvert l'ère de l'informatique des agents, et l'informatique d'entreprise passe de l'ère des outils à l'ère des agents ; chaque entreprise doit formuler une stratégie OpenClaw.

  4. IA physique et robotique : L’intelligence intégrée est en train de se développer, avec la conduite autonome, les robots industriels et les robots humanoïdes qui forment collectivement la prochaine opportunité significative pour l’IA physique.

Merci à tous et profitez de GTC !

Vous pourriez aussi aimer

Rapport du matin | La stratégie a investi 1,57 milliard de dollars la semaine dernière pour augmenter ses participations de 22 337 bitcoins ; Abra prévoit de devenir public par le biais d'une fusion SPAC ; Metaplanet vise à lever environ 765 millions de d

Vue d'ensemble des événements de marché importants du 16 mars

BTC Huit bougies vertes atteignent 76 000 $, quelle est la logique derrière la surperformance de l'or en pleine bataille ?

Guerre au ralenti, recul du pétrole, rebond du marché boursier : Où Bitcoin se dirige-t-il cette fois ?

CB Insights : Neuf prévisions pour le secteur de la fintech en 2026, avec la tokenisation des actifs devenant déjà une tendance

Les agents d'IA initient des transactions autonomes, les géants de la crypto défient directement les banques traditionnelles : un article révélant 9 prévisions perturbatrices qui redéfiniront le paysage financier en 2026.

Dune Stablecoin Research : Le flux et la demande d’un marché de 300 milliards de dollars

Dans l'ensemble de données, les transferts ne sont plus simplement étiquetés comme un « volume de transactions » pur, mais sont classés comme différentes activités on-chain. C'est la différence entre "savoir simplement que 100 000 milliards de dollars ont été transférés" et "comprendre pourquoi ils l'ont été".

Négociez l'or, l'argent et le pétrole sur WEEX : 300 000 $ de récompenses et 0 % de frais

WEEX a lancé une campagne de trading à grande échelle sur l'or, l'argent et le pétrole, proposant des frais de 0 %, une cagnotte de 300 000 $ et des opportunités de « Trade-to-Earn » (gagner en tradant). Cette campagne permet aux traders d'effectuer des dépôts, de trader des matières premières tokenisées telles que PAXG et XAUT, et de se mesurer aux autres sur les classements — le tout sur WEEX.

Lettre annuelle de Stripe : La nouvelle densité cognitive est extrêmement élevée, en particulier le modèle à 5 niveaux « IA + Paiements ».

Chaque tendance ici affecte la survie future de chacun.

Cryptos populaires

Dernières actus crypto

Lire plus