Il discorso completo di Huang Renxun sul GTC: L'era dell'inferenza è arrivata, con entrate che dovrebbero raggiungere almeno mille miliardi di dollari entro il 2027, e l'aragosta è il nuovo sistema operativo
Il 16 marzo 2026 si è ufficialmente aperta la conferenza NVIDIA GTC 2026, con il discorso principale del fondatore e CEO di NVIDIA Jensen Huang.
In questa conferenza, considerata il "pellegrinaggio annuale dell'industria dell'IA", Huang ha approfondito la trasformazione di NVIDIA da "azienda di chip" a "azienda di infrastrutture e fabbriche IA". Rispondendo alle preoccupazioni del mercato sulla sostenibilità delle performance e sul potenziale di crescita, Huang ha descritto dettagliatamente la logica di business sottostante che guida la crescita futura: "Economia di fabbrica di token".
La guidance sulle performance è estremamente ottimistica: "Almeno 1.000 miliardi di dollari di domanda entro il 2027"
Negli ultimi due anni, la domanda globale di IA computing è esplosa in modo esponenziale. Mentre i grandi modelli si evolvono dalla "percezione" e dalla "generazione" al "ragionamento" e all'"azione (esecuzione delle attività)," il consumo di potenza di calcolo è aumentato drasticamente. In risposta alle preoccupazioni del mercato sui tetti degli ordini e dei ricavi, Huang ha fornito aspettative molto forti.
Huang ha dichiarato nel suo discorso:
L'anno scorso, in quel momento, ho menzionato che abbiamo visto una domanda altamente sicura di $500 miliardi, che coprirà Blackwell e Rubin fino al 2026. Ora, proprio ora, vedo almeno 1.000 miliardi di dollari richiesti entro il 2027.
Le aspettative di Huang per un trilione di dollari hanno spinto il prezzo delle azioni NVIDIA oltre il 4,3%.
Inoltre, ha ulteriormente integrato questa cifra:
E' ragionevole? È di questo che parlerò dopo. In effetti, potremmo persino dover far fronte a carenze di approvvigionamento. Sono sicuro che la domanda effettiva di calcolo sarà molto più alta.
Huang ha sottolineato che i sistemi NVIDIA di oggi si sono dimostrati "l'infrastruttura più economica al mondo". Poiché NVIDIA è in grado di eseguire modelli IA in quasi tutti i campi, questa versatilità garantisce che i $1.000 miliardi investiti dai clienti possano essere pienamente utilizzati e mantenuti per un lungo ciclo di vita.
Attualmente, il 60% delle attività di NVIDIA proviene dai primi cinque fornitori di servizi cloud hyperscale, mentre il restante 40% è ampiamente distribuito tra cloud sovrani, imprese, industrie, robotica ed edge computing.
Economia della fabbrica di token, dove le prestazioni per watt determinano la linfa vitale del business
Per spiegare la ragionevolezza di questa domanda da $1.000 miliardi, Huang ha presentato una nuova mentalità aziendale ai CEO di aziende globali. Ha sottolineato che i futuri data center non saranno più magazzini per conservare file, ma "fabbriche" che producono token (l'unità di base generata dall'IA).
Huang ha sottolineato:
Ogni data center, ogni fabbrica, è definito come limitato dal potere. Una fabbrica da 1GW (gigawatt) non diventerà mai una fabbrica da 2GW; questa è una legge della fisica e degli atomi. A potenza fissa, chi ha la più alta produttività di token per watt avrà i costi di produzione più bassi.
Huang ha classificato i futuri servizi IA in quattro livelli di business:
- Livello libero (alta velocità, bassa velocità)
- Livello medio (~$3 per milione di token)
- Alto livello (~$6 per milione di token)
- Livello ad alta velocità (~$45 per milione di token)
- Livello ad altissima velocità (~$150 per milione di token)
Ha osservato che man mano che i modelli diventano più grandi e i contesti si allungano, l'IA diventerà più intelligente, ma il tasso di generazione di token diminuirà. Huang ha dichiarato:
In questa Token Factory, il tuo throughput e la velocità di generazione di token si tradurranno direttamente nelle tue entrate precise per il prossimo anno.
Huang ha sottolineato che l'architettura NVIDIA consente ai clienti di raggiungere un throughput estremamente elevato nel livello gratuito, ottenendo al contempo un sorprendente miglioramento delle prestazioni di 35 volte al livello di inferenza del valore più alto.
Vera Rubin raggiunge un'accelerazione 350 volte in due anni, Groq colma il vuoto per l'inferenza ultraveloce
Sotto i vincoli dei limiti fisici, NVIDIA ha introdotto il suo sistema di elaborazione IA più complesso di sempre, Vera Rubin. Huang ha dichiarato:
In passato, quando parlavo di Hopper, avevo in mano una fiche, il che era bello. Ma quando si parla di Vera Rubin, tutti pensano all'intero sistema. In questo sistema raffreddato a liquido al 100%, che elimina completamente il cablaggio tradizionale, i rack che prima richiedevano due giorni per essere installati ora richiedono solo due ore.
Huang ha sottolineato che attraverso un'estrema co-progettazione hardware-software end-to-end, Vera Rubin ha creato un salto di dati sorprendente all'interno dello stesso data center da 1GW:
In soli due anni abbiamo aumentato il tasso di generazione di token da 22 milioni a 700 milioni, raggiungendo una crescita di 350 volte. La legge di Moore nello stesso periodo potrebbe portare solo un aumento di 1,5 volte.
Per affrontare il collo di bottiglia della larghezza di banda in condizioni di inferenza ultraveloci (come 1000 token/secondo), NVIDIA ha fornito la soluzione finale integrando la società acquisita Groq: inferenza separata asimmetrica. Huang ha spiegato:
Questi due processori hanno caratteristiche completamente diverse. Il chip Groq ha 500MB di SRAM, mentre un chip Rubin ha 288GB di memoria.
Huang ha notato che NVIDIA, attraverso il sistema software Dynamo, assegna lo stadio di "pre-riempimento", che richiede un'enorme quantità di calcolo e memoria video, a Vera Rubin, mentre lo stadio di "decodifica", estremamente sensibile alla latenza, è assegnato a Groq. Huang ha anche fornito suggerimenti per la configurazione della potenza di calcolo aziendale:
Se il tuo carico di lavoro è principalmente ad alto throughput, utilizza 100% Vera Rubin; se hai un gran numero di esigenze di generazione di token a livello di programmazione di alto valore, alloca il 25% della capacità del tuo data center a Groq.
È stato rivelato che il chip Groq LP30, prodotto da Samsung, è entrato in produzione di massa e dovrebbe essere spedito nel terzo trimestre, mentre il primo rack Vera Rubin è già operativo su Microsoft Azure.
Inoltre, per quanto riguarda la tecnologia di interconnessione ottica, Huang ha mostrato il primo switch Co-Packaged Optical (CPO) prodotto in serie al mondo, Spectrum X, e ha sedato le preoccupazioni del mercato sulla via della "transizione rame-ottica":
Abbiamo bisogno di più capacità di cavo in rame, più capacità di chip ottico e più capacità di CPO.
Agente termina SaaS tradizionale, "salario + token" diventa standard nella Silicon Valley
Oltre alle barriere hardware, Huang ha dedicato una parte significativa del suo discorso alla rivoluzione del software e degli ecosistemi IA, in particolare all'esplosione degli agenti.
Ha descritto il progetto open source OpenClaw come "il progetto open source più popolare nella storia dell'umanità", sostenendo che ha superato i risultati di Linux negli ultimi 30 anni in poche settimane. Huang ha affermato senza mezzi termini che OpenClaw è essenzialmente il "sistema operativo" per i computer agenti.
Huang ha affermato:
Ogni azienda SaaS (Software as a Service) si trasformerà in un'azienda AaaS (Agent-as-a-Service). Non c'è dubbio che per implementare in modo sicuro questi agenti, che hanno la capacità di accedere ai dati sensibili ed eseguire codice, NVIDIA ha lanciato un progetto di riferimento NeMo Claw di livello enterprise, che aggiunge un motore di policy e un router per la privacy.
Anche per i normali professionisti questa trasformazione è dietro l'angolo. Huang ha immaginato una nuova forma di posto di lavoro in futuro:
In futuro, ogni ingegnere della nostra azienda avrà bisogno di un budget annuale di token. Il loro stipendio base potrebbe essere di centinaia di migliaia di dollari, e assegnerò loro circa la metà di tale importo come quota token, consentendo loro di ottenere un aumento dell'efficienza di 10 volte. Questo è già diventato un nuovo chip di assunzione nella Silicon Valley: quanti token vengono con la tua offerta?
Al termine del discorso, Huang ha anche "rovinato" l'architettura di calcolo di nuova generazione, Feynman, che realizzerà la prima scala orizzontale congiunta di fili di rame e CPO. Ancora più interessante, NVIDIA sta sviluppando un computer per data center per lo spazio, "Vera Rubin Space-1", che apre completamente l'immaginazione sulla potenza di calcolo dell'IA che si estende oltre la Terra.
Il testo completo del discorso di Jensen Huang sulle GTC 2026 è il seguente (con l'assistenza di strumenti IA):
Host: Benvenuto sul palco del fondatore e CEO di NVIDIA Jensen Huang.
Jensen Huang, fondatore e CEO:
Benvenuto al GTC. Voglio ricordare a tutti che questa è una conferenza tecnologica. Sono molto lieto di vedere così tante persone in fila per entrare la mattina presto e di vedervi tutti qui.
Al GTC, ci concentreremo su tre temi principali: tecnologia, piattaforma ed ecosistema. NVIDIA ha attualmente tre piattaforme principali: la piattaforma CUDA-X, la piattaforma di sistema e la nostra piattaforma AI factory appena lanciata.
Prima di iniziare ufficialmente, voglio ringraziare i nostri ospiti della sessione di riscaldamento: Sarah Guo di Conviction, Alfred Lin di Sequoia Capital (il primo venture capitalist di NVIDIA) e Gavin Baker, il primo grande investitore istituzionale di NVIDIA. Queste tre persone hanno una profonda conoscenza della tecnologia e un'ampia influenza sull'intero ecosistema tecnologico. Naturalmente, voglio anche ringraziare tutti gli ospiti illustri che ho personalmente invitato a partecipare oggi. Grazie a questo team stellare.
Voglio ringraziare anche tutte le aziende presenti oggi. NVIDIA è un'azienda di piattaforme e dispone di tecnologia, piattaforme e un ricco ecosistema. Le aziende presenti oggi rappresentano quasi tutti i partecipanti al settore da $100 trilioni, con 450 aziende che sponsorizzano questo evento, per cui sono profondamente grato.
Questa conferenza presenta 1.000 forum tecnici e 2.000 relatori, che coprono tutti i livelli dell'architettura IA "a torta a cinque strati", dalle infrastrutture come terra, energia e centri dati, ai chip, alle piattaforme, ai modelli e alle varie applicazioni che, in definitiva, fanno progredire l'intero settore.
CUDA: Due decenni di accumulo tecnologico
Tutto inizia qui. Quest'anno ricorre il 20° anniversario di CUDA.
Negli ultimi vent'anni ci siamo dedicati allo sviluppo di questa architettura. CUDA è un'invenzione rivoluzionaria: la tecnologia SIMT (Single Instruction Multiple Threads) consente agli sviluppatori di scrivere programmi in codice scalare ed estenderli in applicazioni multi-threaded, con difficoltà di programmazione molto inferiore a quella delle precedenti architetture SIMD. Recentemente abbiamo aggiunto la funzione Tiles per aiutare gli sviluppatori a programmare i core tensoriali in modo più conveniente, così come varie strutture matematiche di operazione basate sull'IA di oggi. Attualmente, CUDA ha migliaia di strumenti, compilatori, framework e librerie, con centinaia di migliaia di progetti pubblici nella community open-source, ed è stato profondamente integrato in ogni ecosistema tecnologico.
Questo grafico rivela la logica strategica al 100% di NVIDIA, di cui ho parlato fin dall'inizio. L'elemento più difficile e fondamentale è la "base installata" nella parte inferiore del grafico. Negli ultimi vent'anni, abbiamo accumulato centinaia di milioni di GPU e sistemi di calcolo che eseguono CUDA in tutto il mondo.
Le nostre GPU coprono tutte le piattaforme cloud e servono quasi tutti i produttori e i settori di computer. La grande base installata di CUDA è il motivo fondamentale per cui questo volano continua ad accelerare. La base installata attrae sviluppatori, gli sviluppatori creano nuovi algoritmi e scoperte, le scoperte generano nuovi mercati, nuovi mercati formano nuovi ecosistemi e attraggono più aziende a unirsi, espandendo così la base installata: questo volano è in continua accelerazione.
Il volume di download delle librerie NVIDIA sta crescendo a un ritmo sorprendente, su larga scala e aumentando in velocità. Questo volano consente alla nostra piattaforma di calcolo di supportare applicazioni di massa e continue nuove scoperte.
Ancora più importante, conferisce a queste infrastrutture una durata di vita estremamente lunga. Il motivo è ovvio: esistono numerose applicazioni che possono essere eseguite su NVIDIA CUDA, che coprono ogni fase del ciclo di vita dell'IA, varie piattaforme di elaborazione dati e vari risolutori di principi scientifici. Pertanto, una volta installate le GPU NVIDIA, il loro valore di utilizzo effettivo è estremamente elevato. Questo è anche il motivo per cui il prezzo del cloud della GPU dell'architettura Ampere che abbiamo rilasciato sei anni fa è effettivamente aumentato.
La ragione fondamentale di tutto ciò è: una grande base installata, un forte volano e un ampio ecosistema di sviluppatori. Quando questi fattori lavorano insieme, insieme ai nostri continui aggiornamenti software, i costi di elaborazione continueranno a diminuire. L'elaborazione accelerata migliora in modo significativo le prestazioni delle applicazioni e, man mano che manteniamo e iteriamo il software nel lungo termine, gli utenti non solo ottengono inizialmente un aumento delle prestazioni, ma continuano anche a godere di costi di elaborazione in calo. Siamo disposti a fornire supporto a lungo termine per ogni GPU a livello globale perché sono completamente compatibili a livello architetturale.
Siamo disposti a farlo perché la base installata è così grande: ogni volta che viene rilasciata una nuova ottimizzazione, ne beneficiano milioni di utenti. Questa combinazione dinamica consente all'architettura NVIDIA di espandere costantemente la propria copertura, accelerare la propria crescita e ridurre costantemente i costi di elaborazione, stimolando in definitiva una nuova crescita. CUDA è al centro di tutto questo.
Da GeForce a CUDA: Un'evoluzione di 25 anni
Il nostro viaggio con CUDA è iniziato 25 anni fa.
GeForce: molti di voi sono cresciuti con GeForce. GeForce è il progetto di marketing di maggior successo di NVIDIA. Abbiamo iniziato a coltivare clienti futuri quando non potevi permetterti i nostri prodotti: i tuoi genitori sono diventati i primi utenti NVIDIA, acquistando i nostri prodotti anno dopo anno, fino a quando un giorno sei cresciuto diventando un eccellente informatico, diventando veri clienti e sviluppatori.
Questa è la base posta da GeForce 25 anni fa. Venticinque anni fa, abbiamo inventato gli shader programmabili, un'invenzione ovvia ma profondamente significativa che ha reso programmabili gli acceleratori, e il primo acceleratore programmabile al mondo, ovvero gli shader di pixel. Cinque anni dopo, abbiamo creato CUDA, uno dei nostri investimenti più importanti di sempre. A quel tempo, l'azienda aveva risorse finanziarie limitate, ma abbiamo scommesso la maggior parte dei nostri profitti su questo, impegnati a estendere CUDA da GeForce a ogni computer. Eravamo così determinati perché credevamo nel suo potenziale. Nonostante abbia affrontato difficoltà nelle prime fasi, l'azienda ha mantenuto questa convinzione per 13 generazioni, un ventennio intero, e oggi CUDA è ovunque.
È stato il pixel shader a guidare la rivoluzione della GeForce. Circa otto anni fa, abbiamo lanciato RTX, una revisione completa dell'architettura per l'era moderna della computer grafica. GeForce ha portato CUDA nel mondo e, grazie a questo, molti studiosi come Alex Krizhevsky, Ilya Sutskever, Geoffrey Hinton e Andrew Ng hanno scoperto che le GPU potrebbero diventare potenti strumenti per accelerare il deep learning, innescando l'esplosione dell'IA dieci anni fa.
Dieci anni fa, abbiamo deciso di unire l'ombreggiatura programmabile con due nuovi concetti: uno era il ray tracing hardware, che è tecnicamente impegnativo; l'altro era un'idea lungimirante: circa dieci anni fa, avevamo previsto che l'IA avrebbe trasformato radicalmente la computer grafica. Proprio come GeForce ha portato l'IA nel mondo, l'IA sta ora rimodellando il modo in cui viene implementata la computer grafica.
Oggi voglio mostrarvi il futuro. Questa è la nostra tecnologia grafica di nuova generazione, che chiamiamo rendering neurale: integrazione profonda di grafica 3D e intelligenza artificiale. Questo è il DLSS 5, date un'occhiata.
Rendering neurale: La fusione di dati strutturati e IA generativa
Non è mozzafiato? La computer grafica viene così rivitalizzata.
Cosa abbiamo fatto? Abbiamo combinato la grafica 3D controllabile (la vera base del mondo virtuale) con i suoi dati strutturati, per poi infonderli di IA generativa e calcolo probabilistico. Uno è completamente deterministico, mentre l'altro è probabilistico ma altamente realistico: abbiamo unito questi due concetti in uno, ottenendo un controllo di precisione attraverso dati strutturati e generando in tempo reale. In definitiva, il contenuto è sia visivamente sorprendente che completamente controllabile.
L'idea di unire le informazioni strutturate con l'IA generativa continuerà a manifestarsi in vari settori. I dati strutturati sono la pietra angolare di un'IA affidabile.
Piattaforma accelerata per dati strutturati e non strutturati
Ora voglio mostrarvi un diagramma tecnico dell'architettura.
I dati strutturati: SQL familiare, Spark, Pandas, Velox e piattaforme importanti come Snowflake, Databricks, Amazon EMR, Azure Fabric, Google BigQuery gestiscono tutti i frame di dati. Questi frame di dati sono come fogli di calcolo giganti, che trasportano tutte le informazioni del mondo degli affari, fungendo da fatti di base (Ground Truth) dell'informatica aziendale.
Nell'era dell'IA, dobbiamo consentire all'IA di utilizzare dati strutturati e ottenere un'accelerazione estrema. In passato, l'accelerazione dell'elaborazione dei dati strutturati era volta a far sì che le imprese operassero in modo più efficiente. In futuro, l'IA utilizzerà queste strutture dati a velocità di gran lunga superiori alle capacità umane e gli agenti dell'IA si baseranno fortemente su database strutturati.
Per quanto riguarda i dati non strutturati, i database vettoriali, i PDF, i video, gli audio, ecc., costituiscono la maggior parte delle forme di dati nel mondo: circa il 90% dei dati generati ogni anno non è strutturato. In passato, questi dati erano quasi del tutto inutilizzabili: li leggevamo, li memorizzavamo in file system, e basta. Non siamo riusciti a interrogarlo, né a recuperarlo, perché i dati non strutturati mancano di semplici metodi di indicizzazione e devono essere compresi in termini di significato e contesto. Ora, l'IA può farlo: grazie alle tecnologie di percezione e comprensione multimodale, l'IA può leggere documenti PDF, comprenderne il significato e incorporarli in strutture più grandi per l'interrogazione.
NVIDIA ha creato due librerie fondamentali per questo scopo:
cuDF: per l'elaborazione accelerata di frame di dati e dati strutturati
cuVS: per l'archiviazione vettoriale, i dati semantici e l'elaborazione di dati IA non strutturati
Queste due piattaforme diventeranno una delle piattaforme fondamentali più importanti in futuro.
Oggi, annunciamo partnership con diverse aziende. IBM, l'inventore di SQL, utilizzerà cuDF per accelerare la sua piattaforma WatsonX Data. Dell ha collaborato con noi per creare la Dell AI Data Platform, integrando cuDF e cuVS, ottenendo significativi miglioramenti delle prestazioni nei progetti effettivi con NTT Data. Sul fronte Google Cloud, ora non stiamo solo accelerando l’IA Vertex, ma anche BigQuery e abbiamo una partnership con Snapchat per ridurre i suoi costi di calcolo di quasi l’80%.
I vantaggi del calcolo accelerato sono tre: velocità, scalabilità e costo. Questo è in linea con la logica della Legge di Moore: ottenere salti di prestazioni attraverso l'elaborazione accelerata e ottimizzare continuamente gli algoritmi, consentendo a tutti di godere di costi di elaborazione in continuo calo.
NVIDIA ha creato una piattaforma di calcolo accelerata che riunisce numerose librerie: RTX, cuDF, cuVS e altro ancora. Queste librerie sono integrate nei servizi cloud globali e nei sistemi OEM, raggiungendo utenti in tutto il mondo.
Profonda collaborazione con i fornitori di servizi cloud
Collaborazione con i principali fornitori di servizi cloud
Google Cloud: Acceleriamo l'IA Vertex e BigQuery, integrandoci profondamente con JAX/XLA, con prestazioni eccellenti su PyTorch: NVIDIA è l'unico acceleratore al mondo che funziona bene sia su PyTorch che su JAX/XLA. Abbiamo introdotto clienti come Base10, CrowdStrike, Puma e Salesforce nell'ecosistema Google Cloud.
AWS: Acceleriamo EMR, SageMaker e Bedrock, con una profonda integrazione con AWS. Quest'anno, sono particolarmente entusiasta di portare OpenAI in AWS, che aumenterà in modo significativo la crescita del consumo di cloud AWS e aiuterà OpenAI a espandere le distribuzioni regionali e la scala di elaborazione.
Microsoft Azure: Il supercomputer NVIDIA 100 PFLOPS è il nostro primo supercomputer costruito e il primo supercomputer distribuito su Azure, ponendo le basi per una collaborazione importante con OpenAI. Acceleriamo i servizi cloud di Azure e AI Foundry, collaborando per promuovere l'espansione regionale di Azure e collaborando in profondità alla ricerca di Bing. In particolare, la nostra capacità di elaborazione confidenziale, che garantisce che anche gli operatori non possano visualizzare i dati e i modelli degli utenti, rende le GPU NVIDIA tra le prime al mondo a supportare l'elaborazione confidenziale, consentendo distribuzioni riservate di modelli OpenAI e Anthropic in ambienti cloud in tutto il mondo. Ad esempio, acceleriamo tutti i flussi di lavoro EDA e CAD per Synopsys e li distribuiamo su Microsoft Azure.
Oracolo: Siamo il primo cliente IA di Oracle e sono orgoglioso di essere stato il primo a spiegare il concetto di cloud IA a Oracle. Da allora, si sono sviluppati rapidamente e abbiamo introdotto molti partner come Cohere, Fireworks e OpenAI.
CoreWeave: Il primo cloud nativo IA al mondo, nato per l'hosting di GPU e i servizi cloud IA, con un'eccellente base clienti e un forte momentum di crescita.
Palantir + Dell: Le tre parti hanno creato congiuntamente una nuova piattaforma IA basata sulla piattaforma ontologica e sulla piattaforma IA di Palantir, in grado di implementare completamente l'IA in qualsiasi Paese e in qualsiasi ambiente air-gap, dall'elaborazione dei dati (vectorizzazione o strutturazione) a uno stack di elaborazione accelerato completo per l'IA.
NVIDIA ha instaurato questo speciale rapporto di collaborazione con i fornitori globali di servizi cloud: portiamo i clienti sul cloud, creando un ecosistema reciprocamente vantaggioso.
Integrazione verticale, apertura orizzontale: La strategia principale di NVIDIA
NVIDIA è la prima azienda al mondo integrata verticalmente e aperta orizzontalmente.
La necessità di questo modello è molto semplice: il calcolo accelerato non è solo un problema di chip o di sistema; la sua espressione completa dovrebbe essere l'accelerazione delle applicazioni. Le CPU possono rendere i computer complessivamente più veloci, ma questo percorso ha raggiunto un collo di bottiglia. In futuro, solo attraverso l'accelerazione delle applicazioni o di specifici settori potremo continuare a ottenere salti di prestazioni e riduzioni dei costi.
Proprio per questo NVIDIA deve coltivare profondamente una libreria dopo l'altra, un campo dopo l'altro, un settore verticale dopo l'altro. Siamo un'azienda di elaborazione integrata verticalmente e non c'è altra strada da percorrere. Dobbiamo comprendere le applicazioni, comprendere i domini, comprendere profondamente gli algoritmi ed essere in grado di implementarli in qualsiasi scenario: data center, cloud, on-premise, edge e persino sistemi robotici.
Allo stesso tempo, NVIDIA rimane orizzontalmente aperta, disposta a integrare la tecnologia nella piattaforma di qualsiasi partner, consentendo a tutto il mondo di godere dei dividendi dell'elaborazione accelerata.
La struttura dei partecipanti a questo GTC riflette appieno questo aspetto. La percentuale di partecipanti del settore dei servizi finanziari è la più alta, nella speranza di attrarre sviluppatori, non trader. Il nostro ecosistema copre l'intera catena di fornitura a monte e a valle. Che un'azienda sia stata fondata da 50, 70 o 150 anni, l'anno scorso ha segnato il suo anno migliore nella storia. Siamo al punto di partenza di qualcosa di molto, molto significativo.
CUDA-X: Il motore di calcolo accelerato per vari settori
In vari campi verticali, NVIDIA ha sviluppato in profondità:
Guida autonoma: Ampia copertura e impatto di vasta portata
Servizi finanziari: Gli investimenti quantitativi si stanno spostando dall'ingegneria manuale delle funzionalità all'apprendimento profondo guidato dai supercomputer, inaugurando il suo "momento di trasformazione".
Assistenza sanitaria: Sta vivendo il suo "momento ChatGPT", che copre la scoperta di farmaci assistiti dall'IA, la diagnostica supportata da agenti IA, il servizio clienti medico e altro ancora.
Industria: La più grande ondata di costruzioni al mondo si sta verificando, con la creazione di fabbriche di IA, fabbriche di chip e fabbriche di data center.
Intrattenimento e giochi: Le piattaforme IA in tempo reale supportano traduzioni, live streaming, interazioni di gioco e agenti di shopping intelligenti
Robotica: Con oltre un decennio di profonda coltivazione, sono disponibili tre principali architetture di calcolo (computer di addestramento, computer di simulazione, computer di bordo), con 110 robot in mostra a questa mostra.
Telecomunicazioni: Un settore dal valore di circa 2 trilioni di dollari, le stazioni base si evolveranno da singole funzioni di comunicazione a piattaforme infrastrutturali IA, con una piattaforma correlata chiamata Aerial, che collaborerà profondamente con aziende come Nokia e T-Mobile.
Il cuore di tutti questi campi è la nostra libreria CUDA-X: questa è l'essenza fondamentale di NVIDIA come azienda di algoritmi. Queste librerie sono gli asset principali dell'azienda, consentendo alla piattaforma di elaborazione di fornire valore effettivo in vari settori.
Una delle librerie più importanti è la cuDNN (CUDA Deep Neural Network Library), che ha completamente rivoluzionato l’intelligenza artificiale, innescando la moderna esplosione dell’IA.
(Riproduci il video dimostrativo di CUDA-X)
Tutto ciò che hai appena visto era simulazione, inclusi risolutori basati sulla fisica, modelli fisici di agenti IA e modelli fisici di robot IA. Tutto è stato simulato, senza animazione manuale o binding congiunto. È proprio qui che risiede la capacità principale di NVIDIA: sbloccare queste opportunità attraverso una profonda comprensione degli algoritmi e l'integrazione organica con la piattaforma di elaborazione.
Le imprese native dell'IA e la nuova era informatica
Hai appena visto giganti del settore che definiscono la società odierna, come Walmart, L'Oréal, JPMorgan Chase, Roche e Toyota, oltre a un gran numero di aziende di cui forse non hai mai sentito parlare: queste le chiamiamo imprese native dell'IA. Questo elenco è ampio, includendo OpenAI, Anthropic e molte aziende emergenti che servono diversi verticali.
Negli ultimi due anni, questo settore ha registrato una crescita sorprendente. La scala del capitale di rischio che affluisce nelle startup ha raggiunto $150 miliardi, un massimo storico nella storia umana. Ancora più importante, la dimensione dei singoli investimenti è balzata da milioni di dollari a centinaia di milioni e persino miliardi. Il motivo è semplice: per la prima volta nella storia, ogni azienda di questo tipo richiede enormi risorse di calcolo e un gran numero di token. Questo settore sta creando e generando token o aggiungendo valore ai token di organizzazioni come Anthropic e OpenAI.
Proprio come la rivoluzione dei PC, la rivoluzione di Internet e la rivoluzione del cloud mobile hanno dato vita a un lotto di aziende epocali, anche questa generazione di trasformazione delle piattaforme di elaborazione darà vita a un lotto di aziende altamente influenti, diventando una forza importante nel mondo futuro.
Tre scoperte storiche che guidano tutto questo
Cosa è successo esattamente negli ultimi due anni? Tre eventi importanti.
Primo: ChatGPT, che inaugura l'era dell'IA generativa (dalla fine del 2022 al 2023)
Può non solo percepire e comprendere, ma anche generare contenuti unici. Ho dimostrato la fusione dell'IA generativa con la computer grafica. L'IA generativa cambia radicalmente il modo di lavorare dell'informatica: l'elaborazione è passata da quella basata sul recupero a quella basata sulla generazione, con un impatto profondo sull'architettura dei computer, sui metodi di distribuzione e sull'importanza complessiva.
Secondo: Ragionamento IA, rappresentato da o1
Le capacità di ragionamento consentono all'IA di riflettere, pianificare e scomporre autonomamente i problemi, suddividendoli in passaggi gestibili. o1 rende l'IA generativa affidabile, in grado di ragionare sulla base di informazioni reali. Per raggiungere questo obiettivo, la quantità di token di contesto di input e token di output per pensare è notevolmente aumentata, portando a un aumento sostanziale della domanda di elaborazione.
Terzo: Claude Code, il primo modello di agente
Può leggere file, scrivere codice, compilare, testare, valutare e iterare. Claude Code ha rivoluzionato completamente l'ingegneria del software: il 100% degli ingegneri NVIDIA utilizza uno o più codici Claude, Codex e Cursor; non c'è un solo ingegnere del software che non sfrutti l'assistenza IA.
Questo è un nuovo punto di svolta: non chiedi più all'IA "cos'è, dov'è, come farlo", ma lascia che "crei, esegua, costruisca", consentendole di utilizzare attivamente strumenti, leggere file, scomporre problemi e agire. L'IA si è evoluta da percezione a generazione, a ragionamento, e ora è veramente in grado di completare le attività.
Negli ultimi due anni, la domanda di calcolo per il ragionamento è aumentata di circa 10.000 volte e l'utilizzo è cresciuto di circa 100 volte. Ho sempre creduto che la domanda di elaborazione sia aumentata di un milione di volte negli ultimi due anni: questa è una sensazione condivisa da tutti, inclusi OpenAI e Anthropic. Se riusciamo a ottenere più potenza di calcolo, possiamo generare più token, i ricavi aumenteranno e l'IA diventerà più intelligente. La svolta del ragionamento è davvero arrivata.
L'era da trilioni di dollari delle infrastrutture IA
L'anno scorso in quel momento, ho affermato qui che avevamo un'elevata fiducia nella domanda e negli ordini di acquisto di Blackwell e Rubin fino al 2026, pari a circa $500 miliardi. Oggi, un anno dopo GTC, sono qui per dirvi: guardando al 2027, vedo una cifra di almeno 1.000 miliardi di dollari. E sono fiducioso che la domanda effettiva di calcolo sarà molto oltre.
2025: L'anno della deduzione per NVIDIA
Il 2025 è l'anno delle inferenze di NVIDIA. Vogliamo garantire che, oltre alla formazione e al post-formazione, manteniamo l'eccellenza in ogni fase del ciclo di vita dell'IA, consentendo all'infrastruttura investita di funzionare in modo efficiente ed efficace più a lungo, con costi unitari inferiori.
Allo stesso tempo, Anthropic e Meta si sono ufficialmente unite alla piattaforma NVIDIA, rappresentando insieme un terzo della domanda globale di elaborazione IA. I modelli open source si avvicinano all'avanguardia e sono onnipresenti.
NVIDIA è attualmente l'unica piattaforma al mondo in grado di gestire tutti i campi dell'IA (linguaggio, biologia, computer grafica, visione artificiale, parlato, proteine e chimica, robotica, ecc.), tutti i modelli di IA, sia all'edge che nel cloud, indipendentemente dalla lingua. L'architettura NVIDIA è universale in tutti questi scenari, rendendoci la piattaforma più economica e affidabile.
Attualmente, il 60% delle attività di NVIDIA proviene dai primi cinque fornitori di servizi cloud hyperscale, mentre il restante 40% è distribuito tra cloud regionali, cloud sovrani, imprese, industrie, robotica ed edge computing. L'ampiezza della copertura IA stessa è la sua resilienza: si tratta senza dubbio di una nuova trasformazione della piattaforma di elaborazione.
Grace Blackwell e NVLink 72: Audace innovazione architettonica
Mentre l'architettura Hopper era ancora al suo apice, abbiamo deciso di riprogettare completamente il sistema, espandendo NVLink da 8 corsie a NVLink 72, scomponendo e ricostruendo completamente il sistema di calcolo. Grace Blackwell NVLink 72 è una scommessa tecnologica significativa, non facile per tutti i partner, e ringrazio sinceramente tutti per questo.
Allo stesso tempo, abbiamo lanciato NVFP4, non solo un normale FP4, ma un nuovo tipo di core tensore e unità di calcolo. Abbiamo dimostrato che NVFP4 può raggiungere l'inferenza senza alcuna perdita di precisione, offrendo al contempo significativi miglioramenti in termini di prestazioni ed efficienza energetica, ed è anche adatto per l'addestramento. Inoltre, sono emersi una serie di nuovi algoritmi come Dynamo e TensorRT-LLM, e abbiamo persino investito miliardi di dollari per costruire un supercomputer specifico per l'ottimizzazione dei kernel, chiamato DGX Cloud.
I risultati mostrano che le nostre prestazioni di inferenza sono notevoli. I dati di Semi Analysis, la più completa valutazione delle prestazioni di inferenza IA finora effettuata, mostrano che NVIDIA è in testa in modo significativo sia in termini di token per watt che di costo per token. Originariamente, la Legge di Moore avrebbe potuto fornire un aumento delle prestazioni di 1,5 volte per l'H200, ma ci siamo riusciti 35 volte. Dylan Patel della Semi Analysis ha anche detto: "Jensen ha fatto il sandbag; in realtà è 50 volte." Ha ragione.
Lo cito: "Jensen imbustata."
Il costo per token di NVIDIA è il più basso al mondo, attualmente senza pari. Il motivo risiede in una co-progettazione estrema.
Ad esempio, prima che NVIDIA aggiornasse l'intera suite di software e algoritmi, Fireworks aveva una velocità media di token di circa 700 al secondo; dopo l'aggiornamento, si avvicinava a 5.000 al secondo, con un aumento di circa 7 volte. Questo è il potere della co-progettazione estrema.
Fabbrica AI: Dai data center alle fabbriche di token
Un tempo i data center erano luoghi di archiviazione dei file; ora sono fabbriche per la produzione di token. Ogni fornitore di servizi cloud e ogni azienda IA utilizzerà in futuro l'"efficienza della fabbrica di token" come metrica operativa principale.
Questo è il mio argomento principale:
Asse verticale: Rendimento: numero di token generati al secondo a potenza fissa
Asse orizzontale: Velocità di interazione: velocità di risposta per ogni inferenza; maggiore è la velocità, maggiore è il modello utilizzabile, più lungo è il contesto e più intelligente è l'IA
I token sono la nuova merce e, una volta maturi, saranno prezzati a livelli:
Livello libero (alta velocità, bassa velocità)
Livello medio (~$3 per milione di token)
Alto livello (~$6 per milione di token)
Livello ad alta velocità (~$45 per milione di token)
Livello ad altissima velocità (~$150 per milione di token)
Rispetto a Hopper, Grace Blackwell ha migliorato la produttività di 35 volte al livello più alto e ha introdotto un nuovo livello. Semplificando le stime del modello, se il 25% dell'energia viene assegnato a ciascuno dei quattro livelli, Grace Blackwell potrebbe generare entrate 5 volte maggiori di Hopper.
Vera Rubin: Il sistema di calcolo IA di nuova generazione
(Riproduci il video introduttivo del sistema Vera Rubin)
Vera Rubin è un sistema completo ottimizzato end-to-end progettato per carichi di lavoro agentici:
Nucleo di calcolo del modello linguistico di grandi dimensioni: Cluster GPU NVLink 72, gestione cache pre-riempimento e KV
Nuova CPU Vera: Progettato per prestazioni single-thread estremamente elevate, utilizzando memoria LPDDR5, con un'eccellente efficienza energetica, l'unica CPU al mondo per data center che utilizza LPDDR5, adatta per chiamate con strumenti agenti IA
Sistema di stoccaggio: BlueField 4 + CX 9, una nuova piattaforma di archiviazione per l'era dell'IA, con una partecipazione del 100% dal settore dello storage globale
Switch CPO Spectrum X: Il primo switch Ethernet ottico co-confezionato al mondo, ora in piena produzione di massa
Kyber rack: Un nuovo sistema rack che supporta 144 GPU per formare un unico dominio NVLink, con elaborazione front-end e switching NVLink back-end, formando un computer gigante
Rubin Ultra: Nodo di supercomputer di nuova generazione, design verticale, abbinato al rack Kyber, che supporta interconnessioni NVLink su larga scala
Vera Rubin è raffreddata a liquido al 100%, riducendo il tempo di installazione da due giorni a due ore, utilizzando il raffreddamento ad acqua calda a 45 °C, alleviando in modo significativo la pressione di raffreddamento nei data center. Questa volta, Satya (Nadella) ha confermato che il primo rack Vera Rubin è ora operativo su Microsoft Azure, il che lo trovo molto emozionante.
Integrazione Groq: Estensione estrema delle prestazioni di inferenza
Abbiamo acquisito il team Groq e ottenuto la sua licenza tecnologica. Groq è un processore di flusso di dati deterministico, che utilizza compilazione statica e pianificazione del compilatore, con una grande quantità di SRAM, ottimizzato per la singola inferenza del carico di lavoro, caratterizzato da latenza estremamente bassa e alta velocità di generazione di token.
Tuttavia, la capacità di memoria di Groq è limitata (500 MB di SRAM su chip), rendendo difficile trasportare in modo indipendente i parametri e la cache KV dei modelli di grandi dimensioni, limitando la sua applicazione su larga scala.
La soluzione è Dynamo, un insieme di software di pianificazione delle inferenze. Abbiamo disaggregato la pipeline di inferenza tramite Dynamo:
La decodifica dei meccanismi di pre-compilazione e attenzione viene completata su Vera Rubin (che richiede un'enorme potenza di calcolo e memorizzazione nella cache di KV)
La decodifica della rete di feed-forward, ovvero la parte di generazione dei token, viene completata su Groq (richiede una larghezza di banda estremamente elevata e una bassa latenza).
I due sono strettamente accoppiati tramite Ethernet, riducendo la latenza di circa la metà attraverso modalità speciali. Sotto la pianificazione unificata di Dynamo, il "sistema operativo di fabbrica IA", le prestazioni complessive migliorano di 35 volte, aprendo nuovi livelli di prestazioni di inferenza prima irraggiungibili da NVLink 72.
Raccomandazioni per la combinazione di Groq e Vera Rubin:
Se il carico di lavoro è principalmente ad alta produttività, utilizzare 100% Vera Rubin
Se un gran numero di carichi di lavoro coinvolge la generazione di token di alto valore come la generazione di codice, introduce Groq, con un rapporto consigliato di circa il 25% Groq + il 75% Vera Rubin
Il Groq LP30, prodotto da Samsung, è entrato in produzione di massa e dovrebbe iniziare la spedizione nel terzo trimestre. Grazie a Samsung per la loro piena collaborazione.
Balzo storico delle prestazioni di inferenza
Quantificando i precedenti progressi tecnologici: entro due anni, il tasso di generazione di token di una fabbrica IA da 1GW aumenterà da 22 milioni di token/secondo a 700 milioni di token/secondo, con un aumento di 350 volte. Questo è il potere della co-progettazione estrema.
Roadmap tecnologica
Blackwell: Attualmente in produzione, sistema rack standard Oberon, cavo in rame espanso a NVLink 72, espansione ottica opzionale a NVLink 576
Vera Rubin (attuale): Kyber rack, NVLink 144 (cavo in rame); Oberon rack, NVLink 72 + ottico, espanso a NVLink 576; Spectrum 6, il primo switch CPO al mondo
Vera Rubin Ultra (in arrivo): GPU Rubin Ultra di nuova generazione, chip LP35 (prima integrazione di NVFP4), che migliora ulteriormente le prestazioni più volte
Feynman (prossima generazione): Nuova GPU, chip LP40 (sviluppato congiuntamente da NVIDIA e dal team Groq, che integra NVFP4); nuova CPU: Rosa (Rosalyn); BlueField 5; CX 10; rack Kyber che supporta sia i metodi di espansione in rame che quelli CPO
La roadmap è chiara: l'espansione del rame, l'espansione ottica (Scale-Up) e l'espansione ottica (Scale-Out) stanno avanzando in parallelo e abbiamo bisogno di tutti i partner per continuare a espandere la produzione di cavi in rame, fibre ottiche e CPO.
NVIDIA DSX: La piattaforma gemella digitale per le fabbriche IA
Le fabbriche IA stanno diventando sempre più complesse, ma i vari fornitori di tecnologia che le compongono non hanno mai collaborato durante la fase di progettazione, ma si sono solo "incontrati" nel data center: questo è chiaramente insufficiente.
Per affrontare questo problema, abbiamo creato Omniverse e la piattaforma NVIDIA DSX basata su di esso, una piattaforma che consente a tutti i partner di progettare e gestire in modo collaborativo fabbriche di IA a livello di gigawatt nel mondo virtuale. DSX fornisce:
Sistemi di simulazione meccanici, termici, elettrici e di rete a livello di rack
Connessione alla rete elettrica per una programmazione collaborativa a risparmio energetico
Consumo energetico dinamico e ottimizzazione del raffreddamento basati su Max-Q all'interno del data center
Stimato in modo prudente, questo sistema può migliorare l'efficienza dell'utilizzo dell'energia di circa 2 volte, il che è un vantaggio significativo su scala di cui stiamo discutendo. Omniverse parte dalla terra digitale e porterà gemelli digitali di varie scale; stiamo costruendo il più grande computer della storia umana in collaborazione con partner globali.
Inoltre, NVIDIA si sta avventurando nello spazio. Il chip Thor ha superato la certificazione di radiazione ed è in funzione sui satelliti. Stiamo sviluppando Vera Rubin Space-1 con partner per la costruzione di computer per data center spaziali. Nello spazio, possiamo fare affidamento solo sulla radiazione per la dissipazione del calore, e la gestione termica è una sfida fondamentale; stiamo riunendo i migliori ingegneri per affrontare questo problema.
OpenClaw: Il sistema operativo per l'era degli agenti
Peter Steinberger ha sviluppato un software chiamato OpenClaw. Questo è il progetto open source più popolare nella storia dell'umanità, superando i risultati di Linux in poche settimane.
OpenClaw è essenzialmente un sistema agente in grado di:
Gestione delle risorse, accesso a strumenti, file system e modelli linguistici di grandi dimensioni
Esecuzione della pianificazione e delle attività a tempo
Problemi di decomposizione graduale e invocazione di agenti secondari
Supporta modalità arbitrarie di input e output (voce, video, testo, email, ecc.)
Descrivendolo nella sintassi di un sistema operativo, è veramente un sistema operativo, il sistema operativo per i computer agenti. Windows ha reso possibile il personal computing; OpenClaw rende possibili gli agenti personali.
Ogni azienda deve formulare la propria strategia OpenClaw, proprio come tutti noi abbiamo bisogno di strategie Linux, strategie HTML e strategie Kubernetes.
Rimodellamento completo dell'IT aziendale
Prima di OpenClaw, l'IT aziendale coinvolgeva l'inserimento di dati e file nei sistemi, che scorrevano attraverso strumenti e flussi di lavoro, diventando infine strumenti per l'uso umano. Le società di software hanno creato strumenti e gli integratori di sistema (GSI) e le società di consulenza hanno aiutato le imprese a utilizzarli.
Dopo OpenClaw, ogni azienda SaaS si trasformerà in un'azienda AaaS (Agentic as a Service), non solo fornendo strumenti, ma anche agenti IA specializzati in settori specifici.
Ma c'è una sfida fondamentale: gli agenti interni possono accedere ai dati sensibili, eseguire codice e comunicare con parti esterne. Questo deve essere rigorosamente controllato negli ambienti aziendali.
Per affrontare questo problema, abbiamo collaborato con Peter per integrare la sicurezza nella versione enterprise, lanciando:
NeMo Claw (design di riferimento): Un quadro di riferimento a livello aziendale basato su OpenClaw, che integra la suite completa di toolkit IA Agent NVIDIA
Scudo aperto (livello di sicurezza): Integrato in OpenClaw, fornisce motori di policy, barriere di rete e router per la privacy per garantire la sicurezza dei dati aziendali
Cloud di NeMo: Disponibile per il download e integrato con i motori di policy di tutte le aziende SaaS
Questa è una rinascita per l'IT aziendale, un settore da $2.000 miliardi destinato a crescere in una scala di svariati miliardi di dollari, passando dalla fornitura di strumenti all'offerta di servizi specializzati per agenti IA.
Posso prevedere pienamente che in futuro, ogni ingegnere di un'azienda avrà un budget annuale di token. I loro stipendi possono essere di centinaia di migliaia di dollari, e fornirò loro anche una quota di token equivalente alla metà del loro stipendio, consentendo loro di moltiplicare la loro produzione per 10 volte. "Quanti token vengono con la tua offerta di lavoro?" è diventato un nuovo argomento di assunzione nella Silicon Valley.
Ogni impresa in futuro sarà sia un utente di token (per gli ingegneri) che un produttore di token (fornendo servizi ai propri clienti). Il significato di OpenClaw non può essere sottovalutato; è importante quanto HTML e Linux.
Iniziativa NVIDIA Open Model
Nell'area degli agenti personalizzati (Custom Claw), forniamo i modelli all'avanguardia sviluppati da NVIDIA:
Modello Dominio Nemotron Modello di grande linguaggio Modello Cosmo World Foundation Modello GROOT Modello generale di robot umanoide Guida autonoma Alpamayo BioNeMo Biologia digitale Fisica Phys-AIAI
Siamo all'avanguardia nella tecnologia in ogni campo e ci impegniamo a continuare: Nemotron 3 sarà seguito da Nemotron 4, Cosmos 1 sarà seguito da Cosmos 2 e Groq itererà anche alla sua seconda generazione.
Nemotron 3 si colloca tra i primi tre modelli a livello globale in OpenClaw ed è all'avanguardia. Nemotron 3 Ultra diventerà il modello fondamentale più forte di sempre, supportando i Paesi nella costruzione di un'IA sovrana.
Oggi, annunciamo la costituzione della Nemotron Alliance, investendo miliardi di dollari per far progredire lo sviluppo di modelli fondazionali di IA. I membri dell'alleanza includono: BlackForest Labs, Cursor, LangChain, Mistral, Perplexity, Reflection, Sarvam (India), Thinking Machines (laboratorio di Mira Murati) e molto altro. Una dopo l'altra, le aziende di software aziendali si uniscono, integrando il design di riferimento NeMo Claw e il toolkit di IA agente di NVIDIA nei loro prodotti.
IA fisica e robotica
Gli agenti digitali agiscono nel mondo digitale: scrivono codice, analizzano dati; mentre l'IA fisica si riferisce ad agenti incorporati, ad esempio robot.
A questo GTC, 110 robot sono stati presentati, quasi comprendendo tutte le aziende di sviluppo di robot di tutto il mondo. NVIDIA fornisce tre computer (computer di addestramento, computer di simulazione, computer di bordo) e uno stack software completo e modelli IA.
In termini di guida autonoma, è arrivato il "momento ChatGPT" per la guida autonoma. Oggi, annunciamo quattro nuovi partner che si uniscono alla piattaforma RoboTaxi Ready di NVIDIA: BYD, Hyundai, Nissan e Geely, con una produzione totale annua di 18 milioni di veicoli. Insieme a partner precedenti come Mercedes-Benz, Toyota e General Motors, la gamma si è ulteriormente ampliata. Abbiamo anche annunciato una significativa collaborazione con Uber per implementare e integrare i veicoli RoboTaxi Ready in più città.
Nel campo dei robot industriali, numerose aziende come ABB, Universal Robotics e KUKA stanno collaborando con noi per combinare modelli di IA fisica con sistemi di simulazione, promuovendo l'implementazione dei robot nelle linee di produzione globali.
Anche nel settore delle telecomunicazioni Caterpillar e T-Mobile sono tra queste. In futuro, le stazioni base wireless non saranno più solo nodi di comunicazione, ma diventeranno NVIDIA Aerial AI RAN, una piattaforma di edge computing intelligente in grado di percepire in tempo reale il traffico e regolare il beamforming per ottenere capacità di risparmio energetico e miglioramento dell'efficienza.
Segmento speciale: Aspetto del robot Olaf
(Riproduci il video dimostrativo del robot Disney Olaf)
Jensen Huang: È arrivato il pupazzo di neve! Newton sta andando bene! Anche Omniverse funziona bene! Olaf, come stai?
Olaf: Sono davvero felice di vederti.
Jensen Huang: Sì, perché ti ho dato un computer, Jetson!
Olaf: Cos'e' quello?
Jensen Huang: E' proprio dentro la tua pancia.
Olaf: E' fantastico.
Jensen Huang: Hai imparato a camminare nell'Omniverso.
Olaf: Adoro camminare. È molto meglio che cavalcare una renna e guardare il cielo.
Jensen Huang: Questo grazie alla simulazione fisica: il risolutore Newton in esecuzione su NVIDIA Warp, sviluppato in collaborazione con Disney e DeepMind, consente di adattarsi al mondo fisico reale.
Olaf: Stavo proprio per dirlo.
Jensen Huang: E' la tua intelligenza. Sono un pupazzo di neve, non una palla di neve.
Jensen Huang: Te lo immagini? La futura Disneyland: tutti questi personaggi robotici che camminano liberamente nel parco. Ma onestamente, pensavo saresti stato piu' alto. Non ho mai visto un pupazzo di neve cosi' basso.
Olaf: (senza impegno)
Jensen Huang: Puoi aiutarmi a concludere il discorso di oggi?
Olaf: Sarebbe fantastico!
Sintesi delle note principali
Jensen Huang: Oggi abbiamo esplorato insieme i seguenti temi principali:
L'arrivo della svolta del ragionamento: il ragionamento è diventato il carico di lavoro principale dell'IA, i token sono la nuova merce e le prestazioni di inferenza determinano direttamente le entrate.
L'era delle fabbriche IA: i data center si sono evoluti da strutture di archiviazione di file a fabbriche di produzione di token e in futuro ogni azienda misurerà la propria competitività in base all'"efficienza della fabbrica IA".
La rivoluzione degli agenti OpenClaw: OpenClaw ha inaugurato l'era dell'agent computing e l'IT aziendale sta passando dall'era degli strumenti a quella degli agenti; ogni azienda deve formulare una strategia OpenClaw.
AI fisica e robotica: L'intelligenza incorporata viene potenziata, con la guida autonoma, i robot industriali e i robot umanoidi che insieme costituiscono la prossima significativa opportunità per l'IA fisica.
Grazie a tutti, e buon GTC!
Potrebbe interessarti anche

Aster Chain viene ufficialmente lanciato: si delinea una nuova era di privacy e trasparenza on-chain

RootData: Rapporto di ricerca sulla trasparenza degli exchange di criptovalute – febbraio 2026

「One and Done SEA」, quindi OpenSea sceglie di aspettare ancora un po'.

Ray Dalio: La chiave per risolvere il conflitto tra Stati Uniti e Iran sta nello Stretto di Hormuz

In soli 70 giorni, Polymarket ha guadagnato facilmente decine di milioni di commissioni

Matrixdock sta lanciando il token d'argento XAGm, basato sullo standard FRS come asset on-chain garantito dall'argento.

a16z: Il software aziendale più difficile e la più grande opportunità nell'IA

La Bibbia del Market-Making di Polymarket: Formula del margine di prezzo

Ray Dalio: Se gli Stati Uniti perdessero Hormuz, non perderebbero solo una guerra
Come ottenere fino al 40% di rimborso sul trading di future su criptovalute (Guida WEEX Trade to Earn IV)
WEEX Trade to Earn IV permette ai trader di ottenere rimborsi sulle commissioni fino al 40% in tempo reale tramite un sistema di miner a livelli legato all'attività di trading. Grazie anche ai bonus derivanti dai referral, offre un'alternativa più affidabile agli airdrop, man mano che il mercato delle criptovalute acquisisce slancio.

WEEX P2P supporta ora KZT, UZS, AMD, GEL e MDL - il reclutamento dei commercianti è ora aperto
Per rendere più semplici i depositi in criptovaluta, WEEX ha ufficialmente lanciato il suo P2P piattaforma di trading e continua ad espandere il supporto fiat. Siamo entusiasti di annunciare che il Tenge kazako (KZT), Som uzbeko (UZS), Dram armeno (AMD), Lari georgiano (GEL) e Leu moldavo (MDL) sono ora disponibili su WEEX P2P!

Resoconto mattutino | La scorsa settimana Strategy ha investito 1,57 miliardi di dollari per aumentare le proprie partecipazioni di 22.337 bitcoin; Abra intende quotarsi in borsa tramite una fusione con una SPAC; Metaplanet punta a raccogliere circa 765 m

BTC Eight Green Candles raggiunge i 76K$, qual è la logica dietro la performance dell'oro nel bel mezzo della battaglia?

CB Insights: Nove previsioni per il settore fintech nel 2026, con la tokenizzazione degli asset che si sta già affermando come tendenza.
Fai trading su oro, argento e petrolio su WEEX: premi fino a 300.000 $ e commissioni allo 0%
WEEX ha lanciato una campagna su larga scala dedicata al trading di oro, argento e petrolio, caratterizzata da commissioni pari allo 0%, un montepremi di 300.000 $ e opportunità di guadagnare facendo trading, che consentono ai trader di depositare, negoziare materie prime tokenizzate come PAXG e XAUT e competere nelle classifiche — il tutto su WEEX.

Addio agli Investimenti “Air”: Usa Questi 6 Indicatori Chiave per Identificare un Progetto Vincente
Identificare i progetti cripto che superano la barriera dell’hype richiede un’analisi profonda dei dati on-chain. Utilizzare dati come…

Alto Neuroscience si assicura 120 milioni di dollari per la sperimentazione di farmaci contro la depressione.
Punti chiave: Alto Neuroscience ha raccolto 120 milioni di dollari per promuovere lo sviluppo di ALTO-207, un farmaco destinato al trattamento della depressione resistente alle terapie tradizionali. ALTO-207…

I’m sorry, I can’t assist with that request.
I’m sorry, I can’t assist with that request.