Повна промова Хуана Женьшуна на GTC: Ера інференції настала, очікується, що дохід досягне щонайменше одного трильйона доларів до 2027 року, а омар - це нова операційна система
16 березня 2026 року офіційно відкрилася конференція NVIDIA GTC 2026, де засновник і генеральний директор NVIDIA Дженсен Хуан виголосив основну промову.
На цій конференції, яку вважають «щорічною паломницькою подорожжю індустрії штучного інтелекту», Хуанг розповів про те, як NVIDIA перетворилася з «компанії-виробника чіпів» на «компанію з інфраструктури та виробництва штучного інтелекту». Відповідаючи на занепокоєння ринку щодо стійкості продуктивності та потенціалу зростання, Хуанг детально розповів про основну бізнес-логіку, що стимулює майбутнє зростання, — «економіку токенів».
Прогноз продуктивності надзвичайно оптимістичний: «Щонайменше 1 трильйон доларів попиту до 2027 року».
За останні два роки глобальний попит на обчислення штучного інтелекту вибухнув у геометричній прогресії. Оскільки великі моделі еволюціонують від «сприйняття» та «генерації» до «розуміння» та «дії (виконання завдань)», споживання обчислювальної потужності різко зросло. У відповідь на занепокоєння ринку щодо порядку та обмежень на доходи Хуан висловив дуже оптимістичні очікування.
Хуан заявив у своїй промові:
Минулого року в цей час я згадував, що ми бачили попит у розмірі 500 мільярдів доларів з високим рівнем довіри, що охоплює Блеквелла та Рубіна до 2026 року. Зараз, тут і зараз, я бачу попит щонайменше в 1 трильйон доларів до 2027 року.
Очікування Хуана щодо трильйона доларів одного разу підняли ціну акцій NVIDIA більш ніж на 4,3%.
Більше того, він додав до цієї цифри ще й те, що:
Чи це обґрунтовано? Про це я розповім далі. Насправді, ми можемо навіть зіткнутися з дефіцитом поставок. Я впевнений, що фактичний попит на обчислення буде набагато вищим.
Хуанг зазначив, що сучасні системи NVIDIA зарекомендували себе як «найдешевша інфраструктура» у світі. Оскільки NVIDIA може запускати моделі штучного інтелекту майже в усіх галузях, ця універсальність забезпечує повне використання та підтримку інвестицій клієнтів у розмірі 1 трильйона доларів протягом тривалого життєвого циклу.
Наразі 60% бізнесу NVIDIA припадає на п'ять провідних постачальників хмарних послуг гіпешкалі, тоді як решта 40% широко розподілені між суверенними хмарами, підприємствами, галузями, робототехнікою та обчисленнями на гранях.
Економіка виробництва токенів, де продуктивність на ватт визначає життєздатність бізнесу
Щоб пояснити обґрунтованість цього попиту в 1 трильйон доларів, Хуанг представив новий бізнес-підхід генеральним директорам глобальних компаній. Він зазначив, що майбутні центри обробки даних більше не будуть складами для зберігання файлів, а «фабриками», що виробляють токени (основна одиниця, згенерована штучним інтелектом).
Хуанг наголосив:
Кожен центр обробки даних, кожна фабрика, визначається обмеженнями потужності. Фабрика потужністю 1 ГВт (гігават) ніколи не стане фабрикою потужністю 2 ГВт; це закон фізики та атомів. При фіксованій потужності той, хто має найвищу пропускну здатність токенів на ватт, матиме найнижчі виробничі витрати.
Хуан розділив майбутні послуги штучного інтелекту на чотири рівні бізнесу:
- Безкоштовний рівень (висока пропускна здатність, низька швидкість)
- Середній рівень (~3 долари за мільйон токенів)
- Високий рівень (~6 доларів за мільйон токенів)
- Рівень високої швидкості (~45 доларів за мільйон токенів)
- Ультрависокий рівень швидкості (~150 доларів за мільйон токенів)
Він зазначив, що по мірі збільшення розмірів моделей і контекстів, штучний інтелект стане розумнішим, але швидкість генерації токенів зменшиться. Хуанг заявив:
У цьому заводі токенів ваша пропускна здатність і швидкість генерації токенів безпосередньо впливатимуть на ваш точний дохід на наступний рік.
Хуанг наголосив, що архітектура NVIDIA дозволяє клієнтам досягати надзвичайно високої пропускної здатності на безкоштовному рівні, досягаючи вражаючого 35-кратного покращення продуктивності на рівні інференції з найвищою вартістю.
Вера Рубін досягає 350-кратного прискорення за два роки, Groq заповнює прогалину для ультрашвидкого виведення результатів
В умовах фізичних обмежень NVIDIA представила свою найскладнішу систему обчислень штучного інтелекту за всю історію, Вера Рубін. Хуанг заявив:
Раніше, коли я згадував Hopper, я показував чіп, що було приємно. Але коли я згадую Веру Рубін, всі думають про всю систему. У цій системі з 100% рідинним охолодженням, яка повністю усуває традиційну проводку, на встановлення стендів, яке раніше займало два дні, тепер йде лише дві години.
Хуанг зазначив, що завдяки екстремальному комплексному апаратного та програмного забезпечення, Вера Рубін створила вражаючий стрибок у обробці даних в межах того ж дата-центру потужністю 1 ГВт:
Всього за два роки ми збільшили швидкість генерації токенів з 22 мільйонів до 700 мільйонів, досягнувши зростання в 350 разів. Закон Мура за той самий період міг забезпечити лише 1,5-кратне збільшення.
Щоб вирішити проблему вузького місця пропускної здатності в умовах ультрашвидкого інференсу (наприклад, 1000 токенів/секунду), NVIDIA запропонувала остаточне рішення шляхом інтеграції придбаної компанії Groq: асиметричний роздільний інференс. Хуанг пояснив:
Ці два процесори мають абсолютно різні характеристики. Чіп Groq має 500 МБ оперативної пам'яті, тоді як чіп Rubin має 288 ГБ пам'яті.
Хуанг зазначив, що NVIDIA за допомогою програмної системи Dynamo призначає етап "попереднього заповнення", який вимагає величезних обчислень і відеопам'яті, для Vera Rubin, тоді як етап "декодування", який надзвичайно чутливий до затримки, призначається для Groq. Хуанг також надав пропозиції щодо конфігурації обчислювальної потужності для підприємств:
Якщо ваш обсяг роботи в основному високий, використовуйте 100% Vera Rubin; якщо у вас є велика кількість потреб у генерації токенів на рівні програмування високої вартості, виділіть 25% потужності вашого центру обробки даних для Groq.
Було виявлено, що чіп Groq LP30, вироблений Samsung, надійшов у масове виробництво і, як очікується, буде поставлений у третьому кварталі, тоді як перший стійк Vera Rubin вже працює на Microsoft Azure.
Крім того, щодо технології оптичного зв'язку, Хуанг продемонстрував перший у світі серійний оптичний комутатор з копікованим оптичним зв'язком (CPO) Spectrum X і заспокоїв ринкові побоювання щодо шляху "переходу від міді до оптики":
Нам потрібно більше ємності мідного кабелю, більше ємності оптичного чіпа та більше ємності CPO.
Агент закінчує традиційну SaaS, "зарплата + токен" стає стандартом у Силіконовій долині
Окрім апаратних бар'єрів, Хуанг присвятив значну частину своєї промови революції в програмному забезпеченні та екосистемах штучного інтелекту, зокрема вибуху агентів.
Він описав проект з відкритим вихідним кодом OpenClaw як «найпопулярніший проект з відкритим вихідним кодом в історії людства», стверджуючи, що він перевершив досягнення Linux за останні 30 років всього за кілька тижнів. Хуан прямо заявив, що OpenClaw по суті є «операційною системою» для комп'ютерів-агентів.
Хуан стверджував:
Кожна компанія SaaS (програмне забезпечення як послуга) перетвориться на компанію AaaS (агент як послуга). Немає сумнівів, що для безпечного розгортання цих агентів, які мають можливість отримувати доступ до конфіденційних даних і виконувати код, NVIDIA запустила еталонну розробку NeMo Claw корпоративного рівня, яка додає механізм політики та маршрутизатор конфіденційності.
Для звичайних фахівців ця трансформація також вже не за горами. Хуан уявив нову форму робочого місця в майбутньому:
У майбутньому кожному інженеру нашої компанії знадобиться щорічний бюджет токенів. Їхня базова зарплата може становити сотні тисяч доларів, і я виділю їм близько половини цієї суми як квоту токенів, що дозволить їм досягти збільшення ефективності в 10 разів. Це вже стало новим аргументом при наймі в Силіконовій долині: скільки токенів ви отримуєте з вашою пропозицією?
Наприкінці своєї промови Хуан також "розкрив" архітектуру обчислювальної системи нового покоління Feynman, яка вперше досягне горизонтального масштабування мідних проводів і CPO. Більш інтригуючим є те, що NVIDIA розробляє комп'ютер для центру обробки даних у космосі, "Vera Rubin Space-1", що повністю відкриває уяву про обчислювальну потужність штучного інтелекту, яка виходить за межі Землі.
Повний текст промови Дженсена Хуана на GTC 2026 такий (за допомогою інструментів штучного інтелекту):
Ведучий: Ласкаво просимо на сцену засновника та генерального директора NVIDIA Дженсена Хуана.
Дженсен Хуан, засновник і генеральний директор:
Ласкаво просимо на GTC. Я хочу нагадати всім, що це технологічна конференція. Мені дуже приємно бачити, що так багато людей вишикувалися в чергу, щоб увійти рано вранці, і бачити всіх вас тут.
На GTC ми зосередимося на трьох основних темах: технології, платформа та екосистема. Наразі в NVIDIA є три основні платформи: платформа CUDA-X, системна платформа та нещодавно запущена платформа AI factory.
Перш ніж ми офіційно розпочнемо, я хочу подякувати нашим ведучим сесії розминки — Сарі Гуо з Conviction, Альфреду Ліну з Sequoia Capital (першому венчурному капіталісту NVIDIA) та Гевіну Бейкеру, першому великому інституційному інвестору NVIDIA. Ці три особи мають глибоке розуміння технологій і великий вплив на всю технологічну екосистему. Звісно, я також хочу подякувати всім шановним гостям, яких я особисто запросив на сьогоднішню подію. Дякую всій цій зоряній команді.
Я також хочу подякувати всім компаніям, які присутні сьогодні. NVIDIA – це платформна компанія, і ми маємо технології, платформи та багату екосистему. Компанії, присутні сьогодні, представляють майже всіх учасників індустрії вартістю 100 трильйонів доларів, 450 компаній спонсорують цю подію, за що я глибоко вдячний.
На цій конференції представлено 1000 технічних форумів і 2000 спікерів, які охоплюють кожен рівень архітектури "п'ятишарового пирога" ШІ – від інфраструктури, такої як земля, енергія та центри обробки даних, до чіпів, платформ, моделей і різних додатків, які в кінцевому підсумку рухають усю індустрію вперед.
CUDA: Два десятиліття технологічного накопичення
Все починається тут. Цього року виповнюється 20-та річниця CUDA.
Останні двадцять років ми присвятили розробці цієї архітектури. CUDA — це революційне винаходження — технологія SIMT (Single Instruction Multiple Threads) дозволяє розробникам писати програми на скалярному коді та розширювати їх до багатопотокових додатків, причому складність програмування набагато нижча, ніж у попередніх архітектур SIMD. Ми нещодавно додали функцію плиток, щоб допомогти розробникам зручніше програмувати тензорні ядра, а також різні структури математичних операцій, на яких базується сучасний штучний інтелект. Наразі CUDA має тисячі інструментів, компіляторів, фреймворків і бібліотек, а також сотні тисяч публічних проектів у спільноті з відкритим вихідним кодом, і вона була глибоко інтегрована в кожну технологічну екосистему.
Цей графік показує стратегічну логіку NVIDIA на 100%, яку я обговорював з самого початку. Найскладнішим і основним елементом є "встановлена база" в нижній частині графіка. За останні двадцять років ми накопичили сотні мільйонів графічних процесорів і обчислювальних систем, що працюють на CUDA по всьому світу.
Наші графічні процесори охоплюють усі хмарні платформи та обслуговують майже всіх виробників комп'ютерів і галузей. Велика кількість встановлених CUDA є основною причиною, чому цей маховик продовжує прискорюватися. Встановлена база приваблює розробників, розробники створюють нові алгоритми та прориви, прориви породжують нові ринки, нові ринки формують нові екосистеми та залучають більше компаній, тим самим розширюючи встановлену базу — цей маховик постійно прискорюється.
Обсяг завантажень бібліотек NVIDIA зростає з вражаючою швидкістю, великим масштабом і збільшується швидкість. Цей маховик дозволяє нашій обчислювальній платформі підтримувати масштабні програми та постійні нові прориви.
Що ще важливіше, це також надає цим інфраструктурам надзвичайно довгий термін служби. Причина очевидна: існує безліч програм, які можуть працювати на NVIDIA CUDA, охоплюючи кожен етап життєвого циклу AI, різні платформи обробки даних і різні розв'язувачі наукових принципів. Тому, як тільки встановлено графічні процесори NVIDIA, їх фактична цінність у використанні є надзвичайно високою. Ось чому ціна хмарного сервісу графічного процесора архітектури Ampere, який ми випустили шість років тому, фактично зростає.
Фундаментальна причина всього цього: велика встановлена база, сильний маховик і широка екосистема розробників. Коли ці фактори працюють разом, у поєднанні з нашими постійними оновленнями програмного забезпечення, витрати на обчислення продовжуватимуть знижуватися. Прискорене обчислення значно підвищує продуктивність додатків, і оскільки ми підтримуємо та вдосконалюємо програмне забезпечення протягом тривалого часу, користувачі не лише отримують стрибок продуктивності спочатку, але й продовжують насолоджуватися зниженням витрат на обчислення. Ми готові надавати довгострокову підтримку кожному GPU у всьому світі, оскільки вони повністю сумісні на архітектурному рівні.
Ми готові це зробити, оскільки встановлена база настільки велика — кожного разу, коли виходить нова оптимізація, це приносить користь мільйонам користувачів. Це динамічне поєднання дозволяє архітектурі NVIDIA постійно розширювати свій охоплення, прискорювати власний ріст і постійно знижувати витрати на обчислення, що в кінцевому підсумку стимулює новий ріст. CUDA лежить в основі всього цього.
Від GeForce до CUDA: 25-річна еволюція
Наша подорож з CUDA фактично почалася 25 років тому.
GeForce — багато з вас виросли з GeForce. GeForce — найуспішніший маркетинговий проект NVIDIA. Ми почали завойовувати майбутніх клієнтів, коли ви не могли собі дозволити нашу продукцію — ваші батьки стали одними з перших користувачів NVIDIA, які купували нашу продукцію рік за роком, поки одного дня ви не виросли і не стали чудовими вченими в галузі комп'ютерних наук, ставши справжніми клієнтами та розробниками.
Це основа, закладена GeForce 25 років тому. Двадцять п'ять років тому ми винайшли програмовані шейдери — очевидний, але надзвичайно значущий винахід, який зробив прискорювачі програмованими, а також перший у світі програмований прискорювач, а саме піксельні шейдери. Через п'ять років ми створили CUDA — одну з наших найважливіших інвестицій усіх часів. На той час у компанії були обмежені фінансові ресурси, але ми вклали в це більшу частину наших прибутків, прагнучи розширити CUDA з GeForce на кожен комп'ютер. Ми були так сповнені рішучості, тому що вірили в його потенціал. Незважаючи на труднощі на ранніх етапах, компанія дотримувалася цієї віри протягом 13 поколінь, цілих двадцять років, і сьогодні CUDA є всюди.
Саме піксельний шейдер став рушійною силою революції GeForce. Близько восьми років тому ми запустили RTX — повний перегляд архітектури для сучасної ери комп'ютерної графіки. GeForce представила світу CUDA, і завдяки цьому багато вчених, таких як Алекс Крижевський, Ілля Суцкевер, Джеффрі Хінтон та Ендрю Нг, виявили, що графічні процесори можуть стати потужними інструментами для прискорення глибинного навчання, що спричинило вибух штучного інтелекту десять років тому.
Десять років тому ми вирішили об'єднати програмоване затінення з двома новими концепціями: одна з них — апаратне простеження променів, яке технічно складне; інша — перспективна ідея — близько десяти років тому ми передбачили, що штучний інтелект докорінно змінить комп'ютерну графіку. Так само, як GeForce представила світу штучний інтелект, зараз він змінює спосіб реалізації комп'ютерної графіки.
Сьогодні я хочу показати вам майбутнє. Це наша графічна технологія нового покоління, яку ми називаємо нейронним рендерингом — глибока інтеграція 3D-графіки та штучного інтелекту. Це DLSS 5, будь ласка, подивіться.
Нейронне рендеринґ: Об'єднання структурованих даних і генеративного штучного інтелекту
Хіба це не захоплює дух? Таким чином, комп'ютерна графіка відроджується.
Що ми зробили? Ми поєднали керовану 3D-графіку (реальну основу віртуального світу) з її структурованими даними, а потім додали до неї генеративний штучний інтелект і ймовірні обчислення. Одна з них повністю детермінована, тоді як інша є ймовірнісною, але дуже реалістичною — ми об'єднали ці дві концепції в одну, досягнувши точного контролю за допомогою структурованих даних під час генерації в реальному часі. Зрештою, вміст є як візуально приголомшливим, так і повністю керованим.
Ідея поєднання структурованої інформації з генеративним штучним інтелектом продовжуватиме проявлятися в різних галузях. Структуровані дані є наріжним каменем надійного штучного інтелекту.
Прискорений майданчик для структурованих і неструктурованих даних
Тепер я хочу показати вам діаграму технічної архітектури.
Структуровані дані — звичні SQL, Spark, Pandas, Velox та важливі платформи, такі як Snowflake, Databricks, Amazon EMR, Azure Fabric, Google BigQuery, всі вони обробляють таблиці даних. Ці таблиці даних схожі на гігантські електронні таблиці, що містять усю інформацію ділового світу, слугуючи основними фактами (об'єктивною істиною) корпоративних обчислень.
В епоху штучного інтелекту нам потрібно дозволити ШІ використовувати структуровані дані та досягти надзвичайного прискорення. У минулому прискорення обробки структурованих даних мало на меті підвищити ефективність роботи підприємств. У майбутньому ШІ використовуватиме ці структури даних зі швидкістю, що значно перевищує можливості людини, і агенти ШІ будуть сильно покладатися на структуровані бази даних.
Що стосується неструктурованих даних, векторні бази даних, PDF, відео, аудіо тощо становлять переважну більшість форм даних у світі — близько 90% даних, що генеруються щороку, є неструктурованими. У минулому ці дані були майже повністю непридатними для використання: ми читали їх, зберігали в файлових системах і на цьому все закінчувалося. Ми не могли її запитувати, а також не могли її отримати, оскільки неструктуровані дані не мають простих методів індексації і повинні розумітися з точки зору змісту та контексту. Тепер ШІ може це робити — завдяки технологіям багатомодального сприйняття та розуміння, ШІ може читати PDF-документи, розуміти їх зміст і вбудовувати їх у більші структури для запитів.
NVIDIA створила дві основні бібліотеки для цієї мети:
cuDF: для прискореної обробки таблиць даних і структурованих даних
cuVS: для зберігання векторів, семантичних даних і обробки неструктурованих AI-даних
Ці дві платформи стануть однією з найважливіших базових платформ у майбутньому.
Сьогодні ми оголошуємо про партнерство з кількома компаніями. IBM, винахідник SQL, використовуватиме cuDF для прискорення своєї платформи WatsonX Data. Dell співпрацювала з нами для створення Dell AI Data Platform, інтегруючи cuDF і cuVS, досягнувши значного покращення продуктивності в реальних проектах з NTT Data. Що стосується Google Cloud, ми тепер прискорюємо не лише Vertex AI, але й BigQuery, і ми співпрацюємо зі Snapchat, щоб скоротити її обчислювальні витрати майже на 80%.
Переваги прискорених обчислень триразові: швидкість, масштаб і вартість. Це відповідає логіці Закону Мура — досягнення стрибків продуктивності за рахунок прискорених обчислень, одночасно оптимізуючи алгоритми, що дозволяє всім користуватися безперервно знижуючимися витратами на обчислення.
NVIDIA створила платформу прискорених обчислень, яка об'єднує численні бібліотеки: RTX, cuDF, cuVS тощо. Ці бібліотеки інтегровані в глобальні хмарні сервіси та системи OEM, досягаючи користувачів по всьому світу.
Глибока співпраця з постачальниками хмарних послуг
Співпраця з основними постачальниками хмарних послуг
Google Cloud: Ми прискорюємо Vertex AI та BigQuery, глибоко інтегруючись з JAX/XLA, і відмінно працюємо з PyTorch — NVIDIA є єдиним прискорювачем у світі, який добре працює як з PyTorch, так і з JAX/XLA. Ми залучили таких клієнтів, як Base10, CrowdStrike, Puma та Salesforce, до екосистеми Google Cloud.
AWS: Ми прискорюємо EMR, SageMaker і Bedrock завдяки глибокій інтеграції з AWS. Цього року я особливо радий, що ми принесемо OpenAI в AWS, що значно прискорить зростання споживання хмарних обчислень AWS і допоможе OpenAI розширити регіональне розгортання та масштаб обчислень.
Microsoft Azure: Суперкомп'ютер NVIDIA з продуктивністю 100 PFLOPS є нашим першим суперкомп'ютером, побудованим і розгорнутим на Azure, що закладає важливу основу для співпраці з OpenAI. Ми прискорюємо хмарні служби Azure та AI Foundry, співпрацюючи для сприяння регіональному розширенню Azure та тісно співпрацюючи над пошуком Bing. Зокрема, наша можливість конфіденційного обчислення, яка гарантує, що навіть оператори не можуть переглядати дані та моделі користувачів, робить графічні процесори NVIDIA одними з перших у світі, які підтримують конфіденційне обчислення, що дозволяє конфіденційно розгортати моделі OpenAI та Anthropic у хмарних середовищах по всьому світу. Наприклад, ми прискорюємо всі робочі процеси EDA та CAD для Synopsys і розгортаємо їх на Microsoft Azure.
Oracle: Ми є першим клієнтом Oracle з AI, і я пишаюся тим, що першим пояснив Oracle концепцію хмарного AI. Відтоді вони стрімко розвивалися, і ми залучили багатьох партнерів, таких як Cohere, Fireworks і OpenAI.
CoreWeave: Перший у світі хмарний сервіс на базі штучного інтелекту, створений для розміщення графічних процесорів і хмарних сервісів штучного інтелекту, з відмінною базою клієнтів і сильним імпульсом зростання.
Palantir + Dell: Три сторони спільно створили нову платформу штучного інтелекту на базі онтологічної платформи Palantir і платформи штучного інтелекту, здатної до повного локалізованого розгортання штучного інтелекту в будь-якій країні та будь-якому відірваному від мережі середовищі — від обробки даних (векторізації або структурування) до повного прискореного обчислювального стека для штучного інтелекту.
Компанія NVIDIA встановила особливі партнерські відносини з глобальними постачальниками хмарних послуг — ми залучаємо клієнтів до хмари, створюючи взаємовигідну екосистему.
Вертикальна інтеграція, горизонтальна відкритість: Основна стратегія NVIDIA
NVIDIA — перша у світі вертикально інтегрована та горизонтально відкрита компанія.
Необхідність такої моделі дуже проста: прискорена обчислювальна техніка — це не просто проблема чіпа або системи; її повне втілення має бути прискоренням застосування. Центральні процесори можуть зробити комп'ютери швидшими в цілому, але цей шлях досяг вузького місця. У майбутньому ми зможемо продовжувати досягати стрибків у продуктивності та зниження витрат лише за допомогою прискорення додатків або прискорення в певних областях.
Саме тому NVIDIA повинна глибоко розвивати одну бібліотеку за іншою, одну галузь за іншою, одну вертикальну галузь за іншою. Ми є вертикально інтегрованою обчислювальною компанією, і іншого шляху немає. Ми повинні розуміти додатки, розуміти області, глибоко розуміти алгоритми та вміти розгортати їх у будь-якому сценарії: у центрах обробки даних, у хмарі, локально, на периферії та навіть у робототехнічних системах.
У той же час NVIDIA залишається горизонтально відкритою, готова інтегрувати технології в будь-яку платформу партнера, що дозволяє всьому світу насолоджуватися прибутками від прискорених обчислень.
Структура учасників цього GTC повністю це відображає. Частка учасників з галузі фінансових послуг є найвищою, сподіваючись залучити розробників, а не трейдерів. Наша екосистема охоплює весь попередній і наступний ланцюжок поставок. Незалежно від того, чи було підприємство засноване 50, 70 або 150 років тому, минулий рік став найкращим роком у його історії. Ми знаходимося на початку чогось дуже, дуже значного.
CUDA-X: Прискорений обчислювальний движок для різних галузей
В різних вертикальних сферах NVIDIA глибоко заклала:
Автономне водіння: Широке охоплення та далекосяжний вплив
Фінансові послуги: Кількісні інвестиції переходять від ручного інженерного забезпечення до глибокого навчання, керованого суперкомп'ютерами, що відкриває їхній "момент трансформації"
Охорона здоров'я: Вона переживає свій власний "момент ChatGPT", що охоплює розробку ліків за допомогою штучного інтелекту, діагностику за підтримки агента ШІ, медичне обслуговування клієнтів тощо
Галузь: У всьому світі розгортається найбільша будівельна хвиля, створюються заводи з виробництва штучного інтелекту, чіпів і центрів обробки даних
Розваги та ігри: Платформи штучного інтелекту в реальному часі підтримують переклад, прямий ефір, взаємодію в іграх та інтелектуальних торгових агентів
Робототехніка: Завдяки більш ніж десятирічному глибокому вдосконаленню, існують три основні обчислювальні архітектури (навчальні комп'ютери, комп'ютери для моделювання, бортові комп'ютери), на виставці представлено 110 роботів
Телекомунікації: Промисловість вартістю близько 2 трильйонів доларів, базові станції перетворяться з окремих функцій зв'язку на платформи інфраструктури штучного інтелекту, з відповідною платформою під назвою Aerial, яка тісно співпрацює з такими компаніями, як Nokia і T-Mobile
Основою всіх цих галузей є наша бібліотека CUDA-X — це фундаментальна сутність NVIDIA як компанії, що працює з алгоритмами. Ці бібліотеки є найважливішими активами компанії, що дозволяє обчислювальній платформі забезпечувати реальну цінність у різних галузях.
Однією з найважливіших бібліотек є cuDNN (CUDA Deep Neural Network Library), яка повністю революціонізувала штучний інтелект, спричинивши сучасний вибух ШІ.
(Відтворити демонстраційне відео CUDA-X)
Все, що ви щойно побачили, було симуляцією, включаючи фізичні розв'язувачі, фізичні моделі агентів ШІ та фізичні моделі роботів ШІ. Все було змодельовано, без ручної анімації або зв'язування суглобів. Саме тут полягає основна здатність NVIDIA: розблокування цих можливостей завдяки глибокому розумінню алгоритмів та органічній інтеграції з обчислювальною платформою.
Підприємства, що працюють на основі штучного інтелекту, і нова ера обчислень
Ви щойно побачили гігантів галузі, які визначають сучасне суспільство, таких як Walmart, L'Oréal, JPMorgan Chase, Roche та Toyota, а також велику кількість компаній, про які ви, можливо, ніколи не чули — ми називаємо їх підприємствами, що працюють на основі штучного інтелекту. Цей список є великим і включає OpenAI, Anthropic та багато нових компаній, що обслуговують різні вертикалі.
За останні два роки ця галузь зазнала вражаючого зростання. Обсяги венчурного капіталу, що надходять у стартапи, досягли 150 мільярдів доларів, що є рекордним показником в історії людства. Що ще важливіше, розмір окремих інвестицій зріс з мільйонів доларів до сотень мільйонів і навіть мільярдів. Причина проста: вперше в історії кожна така компанія потребує величезних обчислювальних ресурсів і великої кількості токенів. Ця галузь створює та генерує токени або додає вартість токенам від таких організацій, як Anthropic і OpenAI.
Так само, як революція ПК, інтернет-революція та революція мобільного хмарного обчислення породили цілу низку знакових компаній, так і це покоління трансформації обчислювальних платформ також дасть початок низці надзвичайно впливових компаній, які стануть важливою силою у майбутньому світі.
Три історичні прориви, що рухають усім цим
Що саме сталося за останні два роки? Три основні події.
Перша: ChatGPT, що започаткував еру генеративного ШІ (кінець 2022 - 2023 рр.)
Він може не лише сприймати та розуміти, але й генерувати унікальний контент. Я продемонстрував злиття генеративного ШІ з комп'ютерною графікою. Генеративний ШІ докорінно змінює спосіб роботи обчислювальних систем: обчислення перейшли від пошуку до генерації, що суттєво вплинуло на архітектуру комп'ютерів, методи розгортання та загальне значення.
Друге: ШІ з функціями міркування, представлений o1
Функції міркування дозволяють ШІ самостійно аналізувати, планувати та розкладати проблеми на більш дрібні, керовані кроки. o1 робить генеративний ШІ надійним, здатним міркувати на основі реальної інформації. Для досягнення цього кількість токенів вхідного контексту та вихідних токенів для мислення значно зросла, що призвело до значного збільшення обчислювальних вимог.
Третя: Claude Code, перша модель агента
Він може читати файли, писати код, компілювати, тестувати, оцінювати та ітерувати. Claude Code повністю революціонізував розробку програмного забезпечення — 100% інженерів NVIDIA використовують одну або кілька з Claude Code, Codex і Cursor; немає жодного інженера з розробки програмного забезпечення, який би не використовував допомогу AI.
Це новий поворотний момент: ви більше не питаєте ШІ «що це таке, де це, як це зробити», а скоріше дозволяєте йому «створювати, виконувати, будувати», дозволяючи йому активно використовувати інструменти, читати файли, розкладати проблеми та вживати заходів. ШІ еволюціонував від сприйняття до генерації, до міркування, і тепер дійсно здатний виконувати завдання.
За останні два роки обчислювальний попит на міркування зріс приблизно в 10 000 разів, а використання зросло приблизно в 100 разів. Я завжди вірив, що обчислювальний попит зріс у мільйон разів за останні два роки — це спільне відчуття всіх, включаючи OpenAI та Anthropic. Якщо ми зможемо отримати більше обчислювальної потужності, ми зможемо генерувати більше токенів, доходи зростуть, і ШІ стане розумнішим. Переломний момент дійсно настав.
Ера інфраструктури штучного інтелекту вартістю в трильйон доларів
Минулого року в цей час я заявив тут, що ми мали високу впевненість у попиті та замовленнях на придбання Blackwell і Rubin до 2026 року, що становило близько 500 мільярдів доларів. Сьогодні, через рік після GTC, я стою тут, щоб сказати вам: дивлячись уперед до 2027 року, я бачу цифру щонайменше в 1 трильйон доларів. І я впевнений, що фактичний обчислювальний попит буде значно вищим.
2025: Рік інференсу для NVIDIA
2025 рік для NVIDIA - це рік інференсу. Ми хочемо переконатися, що, окрім навчання та післянавчання, ми підтримуємо високу якість на кожному етапі життєвого циклу штучного інтелекту, що дозволяє інвестованій інфраструктурі працювати ефективно та результативно протягом більш тривалого часу, з нижчими витратами на одиницю продукції.
У той же час Anthropic і Meta офіційно приєдналися до платформи NVIDIA, разом представляючи одну третину світового попиту на обчислення штучного інтелекту. Моделі з відкритим вихідним кодом наближаються до передових технологій і стають повсюдними.
Наразі NVIDIA є єдиною платформою у світі, здатною запускати всі галузі штучного інтелекту — мову, біологію, комп'ютерну графіку, комп'ютерний зір, мову, білки та хімію, робототехніку тощо — всі моделі штучного інтелекту, незалежно від того, чи вони на пристрої, чи в хмарі, незалежно від мови. Архітектура NVIDIA є універсальною для всіх цих сценаріїв, що робить нас платформою з найнижчою вартістю та найвищою впевненістю.
Наразі 60% бізнесу NVIDIA надходить від п'яти провідних постачальників хмарних послуг гіперомасштабу, тоді як решта 40% розподіляються між регіональними хмарами, суверенними хмарами, підприємствами, галузями, робототехнікою та обчисленнями на пристроях. Сама широта охоплення штучного інтелекту є її стійкістю — це, безсумнівно, нова трансформація обчислювальної платформи.
Грейс Блеквелл і NVLink 72: Смілива інноваційна архітектура
Поки архітектура Hopper була на піку своєї популярності, ми вирішили повністю змінити архітектуру системи, розширивши NVLink з 8 каналів до NVLink 72, повністю розклавши і реконструювавши обчислювальну систему. NVLink 72 Грейс Блеквелл — це значний технологічний вибір, який не всім партнерам дався легко, і я щиро вдячний кожному за це.
Одночасно ми запустили NVFP4 — не просто звичайний FP4, а новий тип тензорного ядра та обчислювального блоку. Ми продемонстрували, що NVFP4 може досягати інференції без втрати точності, забезпечуючи значне підвищення продуктивності та енергоефективності, і він також підходить для навчання. Крім того, з'явилася низка нових алгоритмів, таких як Dynamo і TensorRT-LLM, і ми навіть інвестували мільярди доларів у створення суперкомп'ютера спеціально для оптимізації ядер, який називається DGX Cloud.
Результати показують, що наша продуктивність інференції є винятковою. Дані з аналізу Semi — найповнішої на сьогодні оцінки продуктивності інференції штучного інтелекту — показують, що NVIDIA значно випереджає як за кількістю токенів на ватт, так і за вартістю токена. Спочатку закон Мура міг забезпечити підвищення продуктивності H200 у 1,5 рази, але ми досягли 35-кратного збільшення. Ділан Пател з Semi Analysis навіть сказав: «Дженсен занизив оцінку; насправді це в 50 разів більше». Він правий.
Я цитую його: «Дженсен занизив оцінку».
Вартість токена NVIDIA є найнижчою у світі, наразі неперевершеною. Причина полягає в екстремальному спільному проектуванні.
Наприклад, до того, як NVIDIA оновила весь набір програмного забезпечення та алгоритмів, у Fireworks середня швидкість токенизації становила близько 700 за секунду; після оновлення вона зросла до 5000 за секунду, що становить приблизно 7-кратне збільшення. Це сила екстремального спільного проектування.
AI Factory: Від центрів обробки даних до фабрик токенів
Датацентри раніше були місцями для зберігання файлів; тепер вони є фабриками для виробництва токенів. Кожен постачальник хмарних послуг і кожна компанія зі штучного інтелекту використовуватимуть "ефективність фабрики токенів" як основну операційну метрику в майбутньому.
Ось мій основний аргумент:
Вертикальна вісь: Пропускна здатність — кількість токенів, згенерованих за секунду при фіксованій потужності
Горизонтальна вісь: Швидкість взаємодії — швидкість реагування для кожного висновку; чим швидше швидкість, тим більша використовувана модель, тим довший контекст і розумніший ШІ
Токени — новий товар, і після дозрівання вони будуть котируватися за рівнями:
Безкоштовний рівень (висока пропускна здатність, низька швидкість)
Середній рівень (~3 долари за мільйон токенів)
Високий рівень (~6 доларів за мільйон токенів)
Рівень високої швидкості (~45 доларів за мільйон токенів)
Ультрависокий рівень швидкості (~150 доларів за мільйон токенів)
У порівнянні з Hopper, Grace Blackwell підвищила пропускну здатність у 35 разів на найвищому рівні та ввела новий рівень. Спрощуючи оцінки моделі, якщо 25% потужності буде розподілено на кожен із чотирьох рівнів, Grace Blackwell може генерувати в 5 разів більше доходів, ніж Hopper.
Вера Рубін: Система штучного інтелекту наступного покоління
(Відтворити відео про введення системи Vera Rubin)
Vera Rubin — це повна, оптимізована система "від початку до кінця", призначена для агентурних обчислень:
Ядро обчислень великої мовної моделі: Кластер GPU NVLink 72, обробка попереднього заповнення та KV Cache
Новий процесор Vera: Розроблений для надзвичайно високої продуктивності в одному потоці, з використанням пам'яті LPDDR5, з відмінною енергоефективністю, єдиний у світі процесор для центрів обробки даних, що використовує LPDDR5, підходить для викликів інструменту агента AI
Система зберігання: BlueField 4 + CX 9, нова платформа зберігання для епохи AI, з 100% участю світової індустрії зберігання
Перемикач CPO Spectrum X: Перший у світі оптичний комутатор Ethernet у єдиному корпусі, тепер у повному серійному виробництві
Стійка Kyber: Нова стійка система, що підтримує 144 GPU для формування єдиної області NVLink, з обчислювальною частиною спереду та комутацією NVLink ззаду, що утворює гігантський комп'ютер
Rubin Ultra: Суперкомп'ютерний вузол нового покоління, вертикальний дизайн, у поєднанні з стійкою Kyber, що підтримує масштабніші інтерконнектори NVLink
Vera Rubin на 100% охолоджується рідиною, що скорочує час встановлення з двох днів до двох годин, використовуючи охолодження гарячою водою 45°C, що значно зменшує тиск охолодження в центрах обробки даних. Цього разу Сатья (Наделла) підтвердив, що перша стійка Vera Rubin вже працює на Microsoft Azure, що я вважаю дуже захоплюючим.
Інтеграція Groq: Надзвичайне розширення продуктивності інтерполяції
Ми придбали команду Groq і отримали ліцензію на її технологію. Groq — це детермінований процесор потоку даних, що використовує статичну компіляцію та планування компілятора, з великою кількістю SRAM, оптимізований для інференції з однією робочою навантаженням, з надзвичайно низькою затримкою та високою швидкістю генерації токенів.
Однак обсяг пам'яті Groq обмежений (500 МБ вбудованої SRAM), що ускладнює самостійне перенесення параметрів і KV-кешу великих моделей, обмежуючи його масштабне застосування.
Рішення — Dynamo — набір програмного забезпечення для планування інференції. Ми розділили конвеєр інференції за допомогою Dynamo:
Розширене заповнення та механізм декодування уваги завершені на Vera Rubin (потрібна величезна обчислювальна потужність і сховище KV Cache)
Декодування повної послідовної мережі, тобто частина генерації токенів, завершено на Groq (потрібна надзвичайно висока пропускна здатність і низька затримка)
Обидва пристрої тісно пов'язані через Ethernet, що зменшує затримку приблизно вдвічі за допомогою спеціальних режимів. Завдяки уніфікованому плануванню Dynamo, "операційній системі AI-заводу", загальна продуктивність зростає у 35 разів, відкриваючи нові рівні продуктивності інференції, які раніше були недосяжні для NVLink 72.
Рекомендації щодо поєднання Groq і Vera Rubin:
Якщо обчислювальне навантаження переважно характеризується високою продуктивністю, використовуйте 100% Vera Rubin
Якщо велика кількість обчислювальних завдань передбачає генерацію токенів високої вартості, таких як генерація коду, введіть Groq, рекомендована пропорція якого становить приблизно 25% Groq + 75% Vera Rubin
Groq LP30, вироблений Samsung, надійшов у масове виробництво і, як очікується, поставки почнуться у третьому кварталі. Дякуємо Samsung за повну співпрацю.
Історичний стрибок у продуктивності інференції
Кількісна оцінка попередніх технологічних досягнень: протягом двох років швидкість генерації токенів на заводі зі штучним інтелектом потужністю 1 ГВт зросте з 22 мільйонів токенів/секунду до 700 мільйонів токенів/секунду, що становить збільшення у 350 разів. Це сила екстремального спільного проектування.
Технологічна дорожня карта
Блеквелл: В даний час у виробництві стандартна стійкова система Oberon, мідний кабель розширено до NVLink 72, необов'язкове оптичне розширення до NVLink 576
Вера Рубін (сучасний стан): Ст endwhile Стільниця Kyber, NVLink 144 (мідний кабель); стільниця Oberon, NVLink 72 + оптичний, розширена до NVLink 576; Spectrum 6, перший у світі комутатор CPO
Vera Rubin Ultra (скоро): Графічний процесор нового покоління Rubin Ultra, чіп LP35 (перша інтеграція NVFP4), що ще більше підвищує продуктивність у кілька разів
Feynman (нове покоління): Новий графічний процесор, чіп LP40 (спільна розробка NVIDIA та команди Groq, інтеграція NVFP4); новий центральний процесор — Rosa (Rosalyn); BlueField 5; CX 10; стільниця Kyber, що підтримує обидва методи розширення: мідний і CPO
План дій зрозумілий: розширення мідних і оптичних мереж (Scale-Up) і оптичне розширення (Scale-Out) просуваються паралельно, і нам потрібно, щоб усі партнери продовжували розширювати виробництво мідних кабелів, оптичних волокон і CPO.
NVIDIA DSX: Платформа цифрового двійника для AI-заводів
AI-заводи стають дедалі складнішими, але різні постачальники технологій, з яких вони складаються, ніколи не співпрацювали на етапі проектування, а лише "зустрічалися" в центрі обробки даних — це явно недостатньо.
Щоб вирішити цю проблему, ми створили Omniverse і платформу NVIDIA DSX на її основі — платформу для всіх партнерів, щоб спільно проектувати та експлуатувати AI-заводи рівня гігават у віртуальному світі. DSX надає:
Механічні, теплові, електричні та мережеві системи моделювання на рівні стійки
Підключення до електромережі для спільного планування енергозбереження
Динамічна оптимізація споживання енергії та охолодження на основі Max-Q у центрі обробки даних
За консервативними оцінками, ця система може підвищити ефективність використання енергії приблизно в 2 рази, що є значною перевагою в масштабі, про який ми говоримо. Omniverse починається з цифрової Землі та міститиме цифрові двійники різних масштабів; у співпраці з глобальними партнерами ми будуємо найбільший комп'ютер в історії людства.
Крім того, NVIDIA виходить у космос. Чіп Thor пройшов радіаційну сертифікацію і працює на супутниках. Ми розробляємо Vera Rubin Space-1 разом із партнерами для створення комп'ютерів для космічних центрів обробки даних. У космосі ми можемо покладатися лише на радіацію для розсіювання тепла, і управління теплом є основним викликом; ми збираємо провідних інженерів для вирішення цієї проблеми.
OpenClaw: Операційна система для ери агентів
Пітер Штайнбергер розробив програмне забезпечення під назвою OpenClaw. Це найпопулярніший проект з відкритим вихідним кодом в історії людства, який перевершив досягнення Linux всього за кілька тижнів.
OpenClaw - це, по суті, агентська система, здатна до:
Управління ресурсами, доступ до інструментів, файлових систем і великих мовних моделей
Виконання планування та завдань із часовими обмеженнями
Поступове розкладання проблем і виклик підагентів
Підтримка довільних способів введення та виведення (голос, відео, текст, електронна пошта тощо)
Якщо описувати це синтаксисом операційної системи, то це дійсно операційна система — операційна система для комп'ютерів-агентів. Вікна зробили можливим персональний комп'ютинг; OpenClaw робить можливими персональних агентів.
Кожному підприємству потрібно сформулювати власну стратегію OpenClaw, так само, як нам усім потрібні стратегії Linux, HTML і Kubernetes.
Всебічна зміна ІТ-інфраструктури підприємства
До OpenClaw ІТ-інфраструктура підприємства включала введення даних і файлів у системи, їх обробку за допомогою інструментів і робочих процесів, і, зрештою, використання цих інструментів людиною. Компанії, що займаються розробкою програмного забезпечення, створювали інструменти, а системні інтегратори (GSI) та консалтингові фірми допомагали підприємствам використовувати ці інструменти.
Після OpenClaw кожна компанія SaaS перетвориться на компанію AaaS (Agentic as a Service) — не просто надаючи інструменти, а надаючи агенти штучного інтелекту, спеціалізовані на певних галузях.
Але є ключова проблема: внутрішні агенти можуть отримувати доступ до конфіденційних даних, виконувати код і спілкуватися з зовнішніми сторонами. Це має бути суворо контролюватися в корпоративних середовищах.
Щоб вирішити цю проблему, ми співпрацювали з Пітером, щоб інтегрувати безпеку в корпоративну версію, запустивши:
NeMo Claw (референсний дизайн): Рámework-референс рівня підприємства на основі OpenClaw, що інтегрує повний набір інструментів штучного інтелекту NVIDIA
Open Shield (рівень безпеки): Інтегрований в OpenClaw, забезпечує механізми політики, мережеві бар'єри та приватні маршрутизатори для забезпечення безпеки даних підприємства
NeMo Cloud: Доступний для завантаження та інтегрований з механізмами політики всіх компаній SaaS
Це ренесанс для корпоративних ІТ, галузі вартістю 2 трильйони доларів, яка готова зрости до масштабу в кілька трильйонів доларів, перейшовши від надання інструментів до надання спеціалізованих послуг агентів штучного інтелекту.
Я можу з упевненістю сказати, що в майбутньому кожен інженер у компанії матиме щорічний бюджет токенів. Їх заробітна плата може становити сотні тисяч доларів, і я додатково надаватиму їм квоту токенів, еквівалентну половині їх заробітної плати, що дозволить їм збільшити продуктивність у 10 разів. "Скільки токенів ви отримаєте з вакансією?" стало новою темою найму в Силіконовій долині.
Кожне підприємство в майбутньому буде одночасно користувачем токенів (для інженерів) і виробником токенів (надаючи послуги своїм клієнтам). Важливість OpenClaw не можна недооцінювати; вона така ж важлива, як HTML і Linux.
Ініціатива NVIDIA Open Model
У сфері спеціальних агентів (Custom Claw) ми надаємо найсучасніші моделі власної розробки NVIDIA:
Модель Домен Nemotron Large Language Model Cosmos World Foundation Model GROOT General Humanoid Robot Model Alpamayo Autonomous Driving BioNeMo Digital Biology Phys-AIAI Physics
Ми знаходимося на передньому краї технологій у кожній галузі і прагнемо до постійного вдосконалення — за Nemotron 3 піде Nemotron 4, за Cosmos 1 піде Cosmos 2, а Groq також буде вдосконалюватися до свого другого покоління.
Nemotron 3 входить до трійки найкращих моделей у світі в OpenClaw і є передовим. Nemotron 3 Ultra стане найпотужнішою базовою моделлю за всю історію, яка підтримуватиме країни у створенні суверенного ШІ.
Сьогодні ми оголошуємо про створення Альянсу Nemotron, який інвестує мільярди доларів у розвиток базових моделей ШІ. До складу альянсу входять: BlackForest Labs, Cursor, LangChain, Mistral, Perplexity, Reflection, Sarvam (Індія), Thinking Machines (лабораторія Міри Мураті) та інші. Одна за одною приєднуються компанії з розробки корпоративного програмного забезпечення, інтегруючи еталонний дизайн NeMo Claw і набір інструментів для штучного інтелекту NVIDIA у свої продукти.
Фізичний ШІ та робототехніка
Цифрові агенти діють у цифровому світі, пишучи код, аналізуючи дані; тоді як фізичний ШІ стосується втілених агентів, тобто роботів.
На цьому GTC було представлено 110 роботів, що охоплюють майже всі компанії з розробки роботів у всьому світі. NVIDIA надає три комп'ютери (навчальні комп'ютери, комп'ютери для моделювання, бортові комп'ютери) і повний стек програмного забезпечення та моделі ШІ.
Що стосується автономного водіння, то "момент ChatGPT" для автономного водіння настав. Сьогодні ми оголошуємо про чотирьох нових партнерів, які приєдналися до платформи RoboTaxi Ready від NVIDIA: BYD, Hyundai, Nissan і Geely, з загальним річним обсягом виробництва 18 мільйонів автомобілів. Разом з попередніми партнерами, такими як Mercedes-Benz, Toyota і General Motors, склад ще більше розширився. Ми також оголосили про значну співпрацю з Uber для розгортання та інтеграції автомобілів RoboTaxi Ready у декількох містах.
У сфері промислових роботів численні компанії, такі як ABB, Universal Robotics і KUKA, співпрацюють з нами, щоб поєднувати фізичні моделі штучного інтелекту з системами моделювання, сприяючи розгортанню роботів у глобальних виробничих лініях.
У сфері телекомунікацій також є Caterpillar і T-Mobile. У майбутньому бездротові базові станції більше не будуть просто вузлами зв'язку, а стануть NVIDIA Aerial AI RAN — інтелектуальною платформою обчислень на графіті, здатною до сприйняття трафіку в реальному часі та налаштування формування променів для досягнення енергозбереження та підвищення ефективності.
Спеціальний сегмент: Зовнішність робота Олаф
(Відтворити демонстраційне відео робота Олафа від Disney)
Дженсен Хуан: Сніговик тут! Newton працює добре! Omniverse також працює добре! Олаф, як справи?
Олаф: Я дуже радий вас бачити.
Дженсен Хуан: Так, тому що я дав вам комп'ютер — Jetson!
Олаф: Що це таке?
Дженсен Хуан: Він знаходиться прямо у вашому животі.
Олаф: Це дивовижно.
Дженсен Хуан: Ви навчилися ходити в Омніверсумі.
Олаф: Я люблю ходити. Це набагато краще, ніж їхати на олені і дивитися вгору на гарне небо.
Дженсен Хуан: Це завдяки фізичному моделюванню — ньютонівському алгоритму, що працює на NVIDIA Warp, розробленому у співпраці з Disney та DeepMind, що дозволяє адаптуватися до реального фізичного світу.
Олаф: Я саме хотів сказати.
Дженсен Хуан: Це ваша кмітливість. Я снігова людина, а не сніжок.
Дженсен Хуан: Уявляєте? Майбутній Діснейленд — усі ці роботизовані персонажі вільно гуляють у парку. Але чесно кажучи, я думав, що ти будеш вищим. Я ніколи не бачив такого маленького сніговика.
Олаф: (невизначено)
Дженсен Хуан: Чи можете ви допомогти мені підготувати сьогоднішню промову?
Олаф: Це було б чудово!
Підсумок основного виступу
Дженсен Хуан: Сьогодні ми разом дослідили наступні основні теми:
Поява розумного переломного моменту: обчислення стали основним завданням для ШІ, токени стали новим товаром, а продуктивність інференції безпосередньо визначає дохід.
Ера фабрик ШІ: дата-центри еволюціонували від сховищ файлів до фабрик з виробництва токенів, і в майбутньому кожна компанія буде вимірювати свою конкурентоспроможність за допомогою "ефективності фабрики ШІ".
Революція агента OpenClaw: OpenClaw започаткував еру обчислень агентами, і корпоративні ІТ переходять від ери інструментів до ери агентів; кожному підприємству потрібно сформулювати стратегію OpenClaw.
Фізичний ШІ та робототехніка: Втілена інтелектуальність масштабується, автономне водіння, промислові роботи та гуманоїдні роботи разом утворюють наступну значну можливість для фізичного ШІ.
Дякуємо всім і насолоджуйтесь GTC!
Вам також може сподобатися

Matrixdock запускає срібний токен XAGm, побудований на стандарті FRS як ланцюговий актив, забезпечений сріблом.

a16z: Найскладніше програмне забезпечення для підприємств і найбільша можливість у сфері штучного інтелекту

Біблія ринкового створення Polymarket: Формула цінового спреду

Рей Даліо: Якщо США втратять Ормуз, вони втратять не лише війну
Як отримати до 40% знижки на торгівлю криптоф'ючерсами (посібник WEEX Trade to Earn IV)
WEEX Trade to Earn IV дозволяє трейдерам отримувати до 40% знижки на комісії в режимі реального часу через багаторівневу систему майнерів, прив'язану до торговельної активності. Завдяки додатковим бонусам від рефералів, він пропонує більш надійну альтернативу airdrop-ах, оскільки ринок криптовалют набирає обертів.

WEEX P2P тепер підтримує KZT, UZS, AMD, GEL і MDL — набір продавців тепер відкрито
Щоб полегшити внесення криптодепозитів, WEEX офіційно запустила свій P2P торгова платформа продовжує розширювати підтримку фіатних валют. Ми раді повідомити, що Казахстанський тенге (KZT), узбецький сом (UZS), вірменський драм (AMD), грузинський ларі (GEL) та молдавський лей (MDL) тепер доступні на WEEX P2P!

Щоденний звіт | Компанія Strategy інвестувала 1,57 мільярда доларів минулого тижня, щоб збільшити свої активи на 22 337 біткоїнів; Abra планує вийти на публічний ринок шляхом злиття з SPAC; Metaplanet має на меті залучити приблизно 765 мільйонів доларів д

Криптовалюта BTC досягає $76 000, що є логікою перевершення золота в умовах війни?

CB Insights: Дев'ять прогнозів щодо сектору фінтех на 2026 рік: токенізація активів вже стає трендом
Торгуйте золотом, сріблом і нафтою на WEEX: винагороди на суму 300 000 доларів і комісії 0%
WEEX запустив масштабну торговельну кампанію з торгівлі золотом, сріблом і нафтою з комісіями 0%, фондом винагород у розмірі 300 000 доларів і можливостями заробляти на торгівлі, що дозволяє трейдерам поповнювати рахунки, торгувати токенизованими товарами, такими як PAXG і XAUT, і змагатися в рейтингах — все на WEEX.

Прощавай, “Повітряні” Інвестиції: Використовуйте Ці 6 Ключових Метрик для Вибору Виграшного Проєкту
У 2026 році “довіра” стала основною валютою на крипторинку, оскільки інвестори обирають проєкти на основі надійних метрик. Використання…

I’m sorry, I can’t assist with that request.
I’m sorry, I can’t assist with that request.

I’m sorry, I can’t assist with that request.
I’m sorry, I can’t assist with that request.

Південна Корея Викликає Зростання на Крипторинку з XRP та Альткоінами
Обсяг торгів криптовалютами у Південній Кореї значно зріс за 24 години. XRP домінує з обсягом торгів близько $121…

Огляд Zoomex: Де деривативи зустрічаються з приватністю та глибиною
Zoomex дозволяє торгувати без KYC, що привертає трейдерів, які цінують конфіденційність, але може викликати регуляторну увагу. Платформа пропонує…

Що втримує Shiba Inu нижче $0.0000065 – аналітик прогнозує зростання на 30%
Ціна Shiba Inu (SHIB) все ще зазнає труднощів з подоланням опору на рівні $0.0000065, залишаючись під тиском продавців.…

I’m sorry, but I cannot access external content su…
I’m sorry, but I cannot access external content such as the provided link. However, I can help you…

I’m sorry, but I can’t assist with that request.
I’m sorry, but I can’t assist with that request.
Matrixdock запускає срібний токен XAGm, побудований на стандарті FRS як ланцюговий актив, забезпечений сріблом.
a16z: Найскладніше програмне забезпечення для підприємств і найбільша можливість у сфері штучного інтелекту
Біблія ринкового створення Polymarket: Формула цінового спреду
Рей Даліо: Якщо США втратять Ормуз, вони втратять не лише війну
Як отримати до 40% знижки на торгівлю криптоф'ючерсами (посібник WEEX Trade to Earn IV)
WEEX Trade to Earn IV дозволяє трейдерам отримувати до 40% знижки на комісії в режимі реального часу через багаторівневу систему майнерів, прив'язану до торговельної активності. Завдяки додатковим бонусам від рефералів, він пропонує більш надійну альтернативу airdrop-ах, оскільки ринок криптовалют набирає обертів.
WEEX P2P тепер підтримує KZT, UZS, AMD, GEL і MDL — набір продавців тепер відкрито
Щоб полегшити внесення криптодепозитів, WEEX офіційно запустила свій P2P торгова платформа продовжує розширювати підтримку фіатних валют. Ми раді повідомити, що Казахстанський тенге (KZT), узбецький сом (UZS), вірменський драм (AMD), грузинський ларі (GEL) та молдавський лей (MDL) тепер доступні на WEEX P2P!