NVIDIA: Розлом імперії один за одним

Першоджерело: Decode

Джерело зображення: Створено Unbounded AI

Часто виникає ілюзія, що процесори Intel добре продаються, і приписують їх успішній апаратній компанії, хоча насправді домінуванням Intel над процесорами для настільних ПК є архітектура X86, яка народилася в 1978 році.

Така ж ілюзія зустрічається і у Nvidia.

Причина, через яку NVIDIA може монополізувати ринок навчальних чіпів штучного інтелекту, архітектура CUDA, безумовно, є одним із героїв за лаштунками.

Ця архітектура, народжена в 2006 році, була задіяна у всіх областях комп'ютерних обчислень і майже сформувалася у форму NVIDIA. 80% досліджень в аерокосмічній галузі, біологічних дослідженнях, механічному та рідинному моделюванні, а також дослідженні енергії проводяться на основі CUDA.

У найгарячішій сфері штучного інтелекту до плану Б готуються майже всі великі виробники: Google, Amazon, Huawei, Microsoft, OpenAI, Baidu... Ніхто не хоче, щоб його майбутнє було в руках інших.

Консалтингове агентство з підприємницьких послуг Dealroom.co оприлюднило набір даних, у цій хвилі генеративної хвилі тепла штучного інтелекту Сполучені Штати отримали 89% світових інвестицій та фінансування, а в інвестиціях та фінансуванні чіпів штучного інтелекту Китай посідає перше місце у світі, більш ніж удвічі більше, ніж у Сполучених Штатах.

Тобто, незважаючи на те, що існує багато відмінностей в методах розробки і етапах розробки великих моделей китайських і американських компаній, всі особливо послідовні в управлінні обчислювальними потужностями.

Чому в CUDA така магія? **

У 2003 році, щоб конкурувати з Intel, яка представила 4-ядерний процесор, NVIDIA почала розробляти технологію уніфікованої архітектури обчислювальних пристроїв, або CUDA.

Початковий задум CUDA полягав у тому, щоб додати простий у використанні програмний інтерфейс до графічного процесора, щоб розробникам не доводилося вивчати складні мови затінення або примітиви обробки графіки. Початкова ідея Nvidia полягала в тому, щоб надати розробникам ігор додаток у галузі графічних обчислень, який Хуанг називає «зробити графіку програмованою».

Однак з моменту запуску CUDA він не зміг знайти ключові програми та не мав важливої підтримки клієнтів. Крім того, NVIDIA доводиться витрачати багато грошей на розробку додатків, підтримку послуг, просування та маркетинг, і до 2008 року зіткнулася з фінансовим штормом, доходи Nvidia різко впали через погані продажі відеокарт, а ціна акцій одного разу впала лише до 1,50 долара, що гірше, ніж у найгірший час AMD.

Лише у 2012 році двоє студентів Хінтона використовували графічні процесори NVIDIA, щоб конкурувати за швидкістю розпізнавання зображень під назвою ImageNet. Вони використовували відеокарту GTX580 і тренувалися за технологією CUDA, і результати були в десятки разів швидшими за друге місце, а точність була більш ніж на 10% вищою, ніж у другого місця.

Не тільки сама модель ImageNet шокувала індустрію. Ця нейронна мережа, яка вимагала 14 мільйонів зображень і загалом 262 квадрильйони операцій з плаваючою комою, використовувала лише чотири GTX 580 за тиждень навчання. Для довідки, Google Cat використовував 10 мільйонів зображень, 16 000 процесорів і 1 000 комп'ютерів.

Цей конкурс є не лише історичним поворотним моментом для ШІ, а й відкриває прорив для NVIDIA. NVIDIA почала співпрацювати з галуззю для просування екосистеми штучного інтелекту, просування фреймворків штучного інтелекту з відкритим вихідним кодом, а також співпрацювати з Google, Facebook та іншими компаніями для сприяння розвитку технологій штучного інтелекту, таких як TensorFlow.

Це еквівалентно виконанню другого кроку, який, за словами Хуанга, «відкрити графічний процесор для програмування для будь-яких речей».

Коли було виявлено значення обчислювальної потужності графічних процесорів, великі виробники також раптово прокинулися від того, що CUDA, яку NVIDIA ітерувала та прокладала протягом кількох років, стала високою стіною, якої ШІ не міг уникнути.

Для того, щоб створити екосистему CUDA, NVIDIA надає розробникам безліч бібліотек та інструментів, таких як cuDNN, cuBLAS і TensorRT тощо, які зручні для розробників для виконання глибокого навчання, лінійної алгебри, прискорення висновків та інших завдань. Крім того, NVIDIA пропонує повний ланцюжок інструментів розробки, включаючи компілятори та оптимізатори CUDA, що полегшує розробникам програмування графічного процесора та оптимізацію продуктивності.

У той же час NVIDIA також тісно співпрацює з багатьма популярними фреймворками глибокого навчання, такими як TensorFlow, PyTorch і MXNet, надаючи CUDA значні переваги в завданнях глибокого навчання.

Ця відданість справі «допомогти коню і покатати його» дозволила NVIDIA подвоїти кількість розробників в екосистемі CUDA всього за два з половиною роки.

За останнє десятиліття NVIDIA просувала навчальні курси CUDA в більш ніж 350 університетах, з професійними розробниками та експертами в галузі на платформі, які надавали широку підтримку додаткам CUDA, ділячись досвідом і відповідаючи на складні питання.

Що ще важливіше, NVIDIA знає, що дефект апаратного забезпечення як рову полягає в тому, що немає липкості користувача, тому вона об'єднує апаратне забезпечення з програмним забезпеченням, рендеринг графічного процесора для використання CUDA, шумозаглушення штучного інтелекту для використання OptiX, обчислення автономного водіння потребують CUDA...

Хоча в даний час NVIDIA монополізує 90% ринку обчислювальних потужностей штучного інтелекту за допомогою GPU + NVlink + CUDA, в імперії є не одна тріщина.

Тріщини

Виробники штучного інтелекту вже давно страждають від CUDA, і він не є панікерським.

Магія CUDA полягає в тому, що вона займає ключову позицію поєднання програмного та апаратного забезпечення, що є наріжним каменем усієї екосистеми програмного забезпечення, і конкурентам важко обійти CUDA, щоб бути сумісною з екосистемою NVIDIA; Для апаратного забезпечення дизайн CUDA в основному є програмною абстракцією у вигляді апаратного забезпечення NVIDIA, і в основному кожна концепція ядра відповідає апаратній концепції графічного процесора.

Тоді для конкурентів залишається лише два варіанти:

1 Обійти CUDA та перебудувати програмну екосистему, що вимагає вирішення величезної проблеми прихильності користувачів NVIDIA;

2 Сумісні з CUDA, але також стикаються з двома проблемами, одна полягає в тому, що якщо ваш апаратний маршрут не відповідає NVIDIA, то можна досягти неефективності та незручності, а інша полягає в тому, що CUDA буде слідувати за еволюцією апаратних характеристик NVIDIA, а сумісність може лише слідувати.

Але для того, щоб позбутися хватки Nvidia, були випробувані обидва варіанти.

У 2016 році AMD запустила ROCm, екосистему графічних процесорів, засновану на проектах з відкритим вихідним кодом, що надає інструменти HIP, повністю сумісні з CUDA, що є способом слідувати маршруту.

Однак через нестачу бібліотечних ресурсів ланцюжка інструментів і високу вартість розробки та сумісності ітерацій екосистемі ROCm важко розвиватися. На Github понад 32 600 розробників роблять свій внесок у репозиторій пакетів CUDA, тоді як ROCm має менше 600.

Складність використання NVIDIA-сумісного шляху CUDA полягає в тому, що швидкість ітерації оновлення ніколи не встигає за CUDA, і важко досягти повної сумісності:

1 ітерація завжди на крок повільніша: графічні процесори NVIDIA швидко виконують ітерації на мікроархітектурах і наборах інструкцій, і багато місць у верхньому стеку програмного забезпечення також повинні робити відповідні оновлення функцій. Але AMD не може знати дорожню карту продукту NVIDIA, і оновлення програмного забезпечення завжди буде на крок повільнішим, ніж NVIDIA. Наприклад, AMD, можливо, щойно оголосила про підтримку CUDA11, але NVIDIA вже запустила CUDA12.

2 Складність повної сумісності збільшить навантаження на розробників: велике програмне забезпечення, таке як CUDA, саме по собі дуже складне, і AMD потрібно інвестувати багато людських і матеріальних ресурсів протягом декількох років або навіть більше десяти років, щоб надолужити згаяне. Оскільки існують неминучі функціональні відмінності, якщо сумісність не виконана належним чином, це вплине на продуктивність (хоча 99% схожі, але вирішення решти 1% відмінностей може зайняти 99% часу розробника).

Є також компанії, які вирішують обійти CUDA, наприклад, Modular, яка була заснована в січні 2022 року.

Ідея Модулара полягає в тому, щоб тримати планку якомога нижчою, але це більше схоже на раптову атаку. Він пропонує механізм штучного інтелекту «для підвищення продуктивності моделей штучного інтелекту», щоб вирішити проблему, пов'язану з тим, що «поточні стеки додатків штучного інтелекту часто поєднуються з конкретним апаратним і програмним забезпеченням» за допомогою «модульного» підходу.

На додаток до цього механізму штучного інтелекту Modular також розробила мову програмування з відкритим вихідним кодом Mojo. Ви можете думати про неї як про мову програмування, «створену для штучного інтелекту», Modular використовує її для розробки інструментів для інтеграції у вищезгаданий механізм штучного інтелекту, одночасно легко інтегруючись з Python і зменшуючи витрати на навчання.

Проблема Modular, однак, полягає в тому, що його бачення «інструментів розробки на всіх платформах» є занадто ідеалістичним.

Незважаючи на те, що вона носить титул «за межами Python» і схвалена репутацією Кріса Латтнера, Mojo, як нова мова, має бути протестована багатьма розробниками з точки зору просування.

Рушії штучного інтелекту стикаються з більшою кількістю проблем не лише з угодами з численними компаніями з виробництва апаратного забезпечення, а й із сумісністю між платформами. Це все завдання, для виконання яких потрібен тривалий час шліфування, а в що еволюціонує Nvidia в цей час, боюся, ніхто не дізнається.

Челленджер Huawei

17 жовтня Сполучені Штати оновили правила експортного контролю для чіпів штучного інтелекту, заборонивши таким компаніям, як NVIDIA, експортувати передові чіпи штучного інтелекту до Китаю. Згідно з останніми правилами, це вплине на експорт чіпів NVIDIA до Китаю, включаючи A800 і H800.

Раніше, після того, як дві моделі NVIDIA A100 і H100 були обмежені для експорту в Китай, «кастровані версії» A800 і H800 виключно для Китаю були розроблені відповідно до регламенту. Intel також випустила чіп штучного інтелекту Gaudi2 для китайського ринку. Тепер, схоже, компаніям доведеться коригувати свою реакцію під новий раунд експортних заборон.

У серпні цього року в продаж раптово надійшов Mate60Pro, оснащений чіпом власної розробки Huawei Kirin 9000S, який миттєво викликав величезну хвилю громадської думки, через що чергова новина майже в той же час швидко заглушилася.

Лю Цінфен, голова iFLYTEK, зробив рідкісну заяву на публічному заході, заявивши, що графічний процесор Huawei може порівнюватися з NVIDIA A100, але тільки в тому випадку, якщо Huawei надішле спеціальну робочу групу для оптимізації роботи iFLYTEK.

Такі раптові заяви часто мають глибокі наміри, і хоча вони не мають можливості це передбачити, їхня корисність все одно полягає в тому, щоб відреагувати на заборону чіпів через два місяці.

Графічний процесор Huawei, програмно-апаратна платформа Ascend AI з повним стеком, включає 5 рівнів, які включають апаратне забезпечення серії Atlas, гетерогенну обчислювальну архітектуру, фреймворк штучного інтелекту, підтримку додатків і галузеві додатки знизу вгору.

В принципі, можна зрозуміти, що Huawei зробила набір замін для NVIDIA, рівень чіпів - Ascend 910 і Ascend 310, а гетерогенна обчислювальна архітектура (CANN) бенчмаркує програмний рівень ядра NVIDIA CUDA + CuDNN.

Звичайно, розрив не може бути відсутнім, і деякі профільні практики узагальнили два моменти:

1 Продуктивність однієї карти відстає, і між Ascend 910 і A100 все ще є розрив, але перемога в тому, що ціна дешева і суму можна скласти, а загальний розрив не великий після досягнення шкали кластера;

2 Екологічні недоліки дійсно існують, але Huawei також намагається надолужити згаяне, наприклад, завдяки співпраці спільноти PyTorch і Ascend, PyTorch версії 2.1 синхронно підтримує Ascend NPU, а це означає, що розробники можуть безпосередньо розробляти моделі на основі Ascend на PyTorch 2.1.

В даний час Huawei Ascend в основному запускає власні великомодельні продукти Huawei із замкнутим циклом, і будь-яка публічна модель повинна бути глибоко оптимізована Huawei для роботи на платформі Huawei, і ця частина роботи з оптимізації значною мірою покладається на Huawei.

У нинішньому контексті Ascend має особливе значення.

У травні цього року Чжан Дісюань, президент підрозділу Ascend Computing компанії Huawei, розповів, що базова програмно-апаратна платформа «Ascend AI» інкубувалася та адаптувалася до більш ніж 30 основних великих моделей, і більше половини вітчизняних великих моделей Китаю базуються на базовій програмно-апаратній платформі «Ascend AI», включаючи серії Pengcheng, Zidong і серії HUAWEI CLOUD Pangu. У серпні цього року Baidu також офіційно оголосила про адаптацію Ascend AI з моделлю літаюче весло + Wen Xin.

І згідно з картинкою, що циркулює в Інтернеті, Китайський інтелектуальний суперкомп'ютерний центр в основному є Ascend, за винятком нерозголошеного, і кажуть, що після нового раунду обмежень на чіпи 30-40% виробничих потужностей Huawei з виробництва чіпів буде зарезервовано для кластера Ascend, а решта - Kirin.

Епілог

У 2006 році, коли NVIDIA розгортала свій грандіозний наратив, ніхто не думав, що CUDA стане революційним продуктом, і Хуангу довелося переконати раду директорів інвестувати 500 мільйонів доларів на рік, щоб зробити ставку на невідомий термін окупності понад 10 років, а дохід NVIDIA того року становив лише 3 мільярди доларів.

Але у всіх бізнес-історіях, які використовують технології та інновації як ключові слова, завжди є люди, які досягли великого успіху завдяки своїй наполегливій прихильності довгостроковим цілям, і NVIDIA та Huawei є одними з найкращих.

Ресурси

[1] «Серп» NVIDIA – це не чіп штучного інтелекту, лабораторія на основі кремнію

[2] Для того, щоб стати «заміною NVIDIA», великі виробники моделей відкрили книгу, а маленький обідній стіл створив одяг

[3] Лише через 1 рік після свого заснування цей зірковий стартап зі штучним інтелектом хоче кинути виклик NVIDIA та магнієвому кенету

[4] Тріщина в імперії Nvidia, науково-дослідний інститут Енукава

[5] США планують активізувати експорт мікросхем до Китаю, Huawei лідирує у зростанні внутрішнього виробництва, а West China Securities

[6] Поглиблений звіт AIGC Industry (11): Спін-офф обчислювальних потужностей Huawei: другий полюс глобальної обчислювальної потужності штучного інтелекту, West China Securities

[7] Галузевий спеціальний звіт AIGC за 2023 рік: чотири основні технічні маршрути чіпів штучного інтелекту, кембрійська копія NVIDIA, Shenwan Hongyuan

[8] Як CUDA досягає NVIDIA: великий прорив у сфері штучного інтелекту, хмарна спільнота Tencent

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити