* «Основні речі важкі» План дослідження напівпровідникової промисловості Tencent Technology, цей випуск Core Tide IC і Tencent Technology, зосереджений на вибуху великих моделей, формуванні нової моделі на світовому ринку обчислювальної потужності чіпів, макеті провідних компаній і зростання вітчизняних виробників гонитві. *
Хвиля революції штучного інтелекту, випадково викликана ChatGPT, знову запалила ринок чіпів штучного інтелекту.
«Ціни на такі чіпи, як A800 і H800, змінилися з приблизно 120 000 юанів до 250 000 або навіть 300 000, або навіть до 500 000». Це справжня сцена в колі внутрішнього розповсюдження чіпів. Основні вітчизняні виробники хочуть отримати чіпи у великій кількості. кількості, і вони повинні мати «прямий зв’язок» з Хуан Реньсюнем.
У міру так званого «немає чіпа — немає штучного інтелекту», оскільки попит на обчислювальну потужність великих моделей стрімко зростає, мікросхеми, які є основою технології ШІ, відкривають важливі можливості для бізнесу. OpenAI одного разу передбачив, що для того, щоб зробити прорив у наукових дослідженнях штучного інтелекту, обчислювальні ресурси, необхідні для споживання, подвоюватимуться кожні 3-4 місяці, а кошти також повинні відповідати експоненціальному зростанню. «Закон Мура».
Фінансовий директор Nvidia Кресс сказав, що поточний ринковий попит на обчислювальну потужність штучного інтелекту перевищив очікування компанії на наступні кілька кварталів, і є занадто багато замовлень для виконання.
Хвиля генеративного ШІ принесла Nvidia багато грошей. Після 14 років лістингу Nvidia успішно увійшла до клубу з трильйонною ринковою капіталізацією. Щоб досягти цієї мети, таким гігантам Кремнієвої долини, як Apple, знадобилося 37 років, Microsoft — 33 роки, Amazon — 21 рік, а Tesla бігла найшвидше. лише 11 років.
Це також стимулювало китайські компанії-виробники чіпів прагнути спробувати.Вітчизняні компанії-виробники чіпів, такі як Haiguang Information, Cambrian, Loongson Zhongke, Biren Technology, Tianshu Zhixin тощо, мають амбіції створити «китайську версію» Nvidia і спробувати покладатися на власні дослідження Вітчизняна широкомасштабна модель розширення можливостей. Деякі великі виробники також почали використовувати мікросхеми штучного інтелекту власної розробки для підтримки частини завдань навчання або міркування моделі, наприклад мікросхеми Baidu Kunlun, Ali Hanguang 800...
Зіткнувшись із трильйонним ринком, створеним завдяки обчислювальній потужності штучного інтелекту, чи зможуть вітчизняні компанії отримати таку хвилю дивідендів? Як вітчизняним виробникам чіпів долати «гору» Nvidia? Це проблема, від якої не може уникнути жодна компанія.
01. Безумство штучного інтелекту створило ринкову вартість Nvidia в трильйони доларів
Чоловіки, які люблять носити шкіряний одяг, першими отримують дивіденди від ШІ.
Наприкінці 2022 року, після виходу ChatGPT, він швидко спричинив божевілля ШІ в усьому світі. Серед них Nvidia, яка робить ставку на майбутнє штучного інтелекту, стала однією з компаній, яка виграла найбільше від хвилі ChatGPT. На цьогорічній конференції Nvidia GTC засновник і генеральний директор Nvidia Джен-Хсун Хуан представив нову технологію штучного інтелекту та чіпів і сказав, що «момент iPhone» для штучного інтелекту настав.
На прес-конференції Хуан Реньсюнь сказав, що розгортання великомасштабних мовних моделей, подібних до ChatGPT, є важливим новим робочим навантаженням.Для підтримки великомасштабних мовних моделей Nvidia випустила низку продуктів і послуг, пов’язаних із ШІ. Серед них прийнята нова архітектура, і чіп H100 з більш досконалим процесом є найбільш привабливим.
Джерело: офіційний сайт NVIDIA
Цей графічний процесор H100 базується на архітектурі NVIDIA Hopper і оснащений рушієм Transformer, призначеним для обробки та керування попередньо навченими моделями, подібними до ChatGPT. Стандартний сервер із чотирма парами H100 і двома GPU NVLink може прискорити навчання в 10 разів порівняно з HGX A100 для обробки GPT-3.
«H100 може на порядок зменшити вартість обробки великих мовних моделей», — якось сказав Хуан Реньсюнь. На основі чіпа H100 компанія Nvidia також створила найновіший суперкомп’ютер DGX, оснащений 8 графічними процесорами H100, щоб їх можна було об’єднати, щоб утворити величезний графічний процесор, забезпечуючи «проект» для побудови інфраструктури ШІ. Суперкомп'ютер DGX повністю запущено у виробництво.
Після цього високопродуктивні чіпи Nvidia, такі як A100, H100, A800 і H800, відповідно підняли ціни, особливо флагманський чіп H100, який був проданий за понад 40 000 доларів США на закордонних платформах електронної комерції в середині квітня, і деякі продавці навіть оцінили його в 6,5 10 тисяч доларів США.
У той же час, специфічні для Китаю чіпи Nvidia A800 і H800 також були розграбовані. «Національним великим модельним компаніям важко отримати ці мікросхеми. Попит на всьому ринку перевищує попит, і дефіцит дуже серйозний», — відверто сказав Чжан Цзюе, засновник постачальника електронних компонентів «Guangxin Century». Xinchao IC: «Цього року цей тип чіпа GPU змінився з приблизно 120 000 юанів до 250 000 юанів або навіть 300 000 юанів або навіть до 500 000 юанів».
Немає сумніву, що технологічне лідерство Nvidia у високопродуктивних графічних процесорах і два її чіпи AI, A100 і H100, є основною рушійною силою для великих мовних моделей, таких як ChatGPT.
Деякі професіонали хмарних обчислень вважають, що 10 000 мікросхем Nvidia A100 є порогом обчислювальної потужності для хорошої моделі ШІ. Суперкомп’ютер зі штучним інтелектом, створений Microsoft для OpenAI для навчання своїх моделей, оснащений 10 000 графічним процесором Nvidia. За збігом обставин, великі вітчизняні інтернет-компанії також розмістили великі замовлення в Nvidia. Відповідно до останнього звіту LatePost, цього року Byte замовила у Nvidia графічних процесорів на суму понад 1 мільярд доларів США. Ще одна велика компанія, яку не можна назвати, має замовлення принаймні на більше понад 1 млрд. юанів.
Ще більш перебільшеним є те, що чи зможуть ці компанії нарешті захопити картку, більше залежить від ділових стосунків, особливо від того, чи були вони основним клієнтом Nvidia в минулому. «Незалежно від того, спілкуєтеся ви з китайською Nvidia чи їдете до Сполучених Штатів, щоб поговорити безпосередньо з Лао Хуанг (Хуан Реньсюнь), це має значення».
У результаті фінансові дані Nvidia знову піднялися до нових максимумів. 25 травня Nvidia опублікувала свій фінансовий звіт за перший квартал. Дохід бізнесу центрів обробки даних, де розміщені мікросхеми штучного інтелекту, досяг рекордного рівня, зберігаючи річне зростання на рівні понад 10%.
Хуан Реньсюнь розповів, що вся лінійка продуктів для центрів обробки даних зараз знаходиться у виробництві, і пропозиція значно збільшується, щоб задовольнити різкий попит.
Низка хороших новин напряму призвела до зростання ціни акцій Nvidia. Увечері 30 травня фондовий ринок США відкрився, і ринкова вартість Nvidia безпосередньо перевищила 1 трильйон доларів. 19 липня загальна ринкова вартість Nvidia за одну ніч зросла на 175 мільярдів доларів США, знову спровокувавши інвестиційний бум.
За даними веб-сайту companiesmarketcap, загальна ринкова вартість Nvidia посідає шосте місце у світі, а також є компанією чіпів з найвищою ринковою вартістю на даний момент, близькою до двох TSMC ($533,6 млрд.). Ціна акцій Nvidia за цей час зросла приблизно на 180%. рік. Мушу визнати, що ця хвиля божевілля ШІ наповнила Nvidia Хуан Реньсюня.
02. Для Nvidia неможливо насолодитися шаленою обчислювальною потужністю
«Nvidia не матиме монополії на великомасштабні чіпи для навчання та висновків».
Це була відповідь генерального директора Tesla Ілона Маска на твіт Адама Д'Анджело, генерального директора соціального сайту запитань-відповідей і онлайн-ринку знань Quora, який написав: «Одна з причин, чому бум штучного інтелекту недооцінюється, це графічні процесори. /дефіцит TPU, що призвело до різноманітних обмежень на запуск продуктів і навчання моделей, але жодне з них не було очевидним. Натомість ми побачили стрімке зростання цін на акції Nvidia. Коли пропозиція відповідала попиту, ситуація прискорилася».
Очевидно, Залізна людина з Кремнієвої долини не погоджується з цим.Він також прокоментував: «Багато інших чіпів-прискорювачів нейронних мереж також знаходяться в стадії розробки, і Nvidia не монополізує масштабне навчання та міркування назавжди».
Наближається гроза.
Наскільки великий ринок обчислювальної потужності може спричинити божевілля ШІ, зосереджене на великих моделях? Soochow Securities вважає, що попит на обчислювальну потужність моделей штучного інтелекту продовжує зростати, відкриваючи ринковий попит на високопродуктивні обчислювальні мікросхеми. За оцінками, обсяг ринку мікросхем ШІ в моїй країні досягне 178 мільярдів юанів у 2025 році, а сукупний річний темп зростання з 2019 по 2025 рік досягне 42,9%. З точки зору розміру ринку, мікросхеми штучного інтелекту знаходяться в зародковому стані, але вони мають величезний потенціал зростання.
Чіп штучного інтелекту — це широке поняття, яке загалом відноситься до модуля, який спеціально використовується для обробки обчислювальних завдань у додатках зі штучним інтелектом. Це апаратне забезпечення для обчислювальних завдань, яке народилося в епоху швидкого розвитку додатків зі штучним інтелектом. Усі чіпи для штучного інтелекту додатки називаються мікросхемами ШІ. Є три основні технічні шляхи: загального призначення (GPU), напівкористувацького (FPGA) і спеціального (ASIC).
З точки зору навчання великомасштабної моделі, тонкої настройки на основі сценаріїв і сценаріїв додатків логічного висновку, гетерогенна обчислювальна потужність, що забезпечується чіпами CPU+AI, чудові можливості паралельного обчислення та висока пропускна здатність з’єднання можуть підтримувати максимальну ефективність обчислень AI. і стати інтелектуальним Основним рішенням для обчислень.
З точки зору частки ринку, за даними iResearch, до 2027 року очікується, що ринок чіпів зі штучним інтелектом у Китаї досягне 216,4 мільярда юанів. Завдяки оптимізації моделей штучного інтелекту кількість чіпів штучного інтелекту збільшуватиметься з кожним днем. У 2022 році китайські чіпи для навчання AI та чіпи для міркувань AI становитимуть 47,2% та 52,8% відповідно.
Зараз існує три типи гравців у сфері чіпів зі штучним інтелектом: одні — це старі гіганти чіпів, представлені Nvidia та AMD, з видатною продуктивністю продукту; інший — гіганти хмарних обчислень, представлені Google, Baidu та Huawei. , а також розробив мікросхеми ШІ, платформи глибокого навчання тощо для підтримки розробки великих моделей. Наприклад, Kunpeng Ascend від Huawei, CANN і Mindspore, Kunlun Core від Baidu тощо. Нарешті, є кілька маленьких і красивих єдинорогів на основі штучного інтелекту, таких як Cambrian, Biren Technology, Tianshu Zhixin тощо.
Хоча спалах вітчизняних великомасштабних моделей може спричинити розрив у обчислювальній потужності, це лише питання часу, коли вітчизняні виробники чіпів отримають дивіденди від домашньої заміни. Як розробник навчальних чіпів зі штучним інтелектом, компанія Cambrian, «перша акція чіпів зі штучним інтелектом», знову привернула увагу ринку, і ціна її акцій продовжувала зростати. Остання ринкова вартість перевищила 90 мільярдів.
У лінійці хмарних продуктів Cambricon випустила чотири покоління мікросхем: Siyuan 100 у 2018 році, Siyuan 270 у 2019 році, Siyuan 290 (транспортний засіб) у 2020 році та серію Siyuan 370, випущену в 2021 році. Він використовується для підтримки завдань обробки штучного інтелекту. зі швидким зростанням складності та пропускної здатності даних у сценаріях хмарних обчислень і центрів обробки даних. Крім того, Cambrian також досліджує продукт Siyuan 590, який ще не випущено. Крім того, до кінця 2022 року серія Siyuan 370 і продукт AIGC Baidu Flying Paddle завершать тестування рівня сумісності II.
Однак поки що немає точної інформації про те, чи взяли на озброєння вітчизняні великомасштабні модельні компанії кембрійські мікросхеми. «У сфері високоякісних чіпів зі штучним інтелектом вітчизняні виробники знаходяться в зародковому стані, і для перевірки багатьох речей потрібен час і гроші», — розповів старший інженер чіпів. Навіть мікросхеми таких компаній, як Huawei, Baidu та Haiguang Information, мають явний розрив з продуктами Nvidia.
Хтось колись відверто сказав, що розрив між Nvidia та іншими виробниками чіпів – це різниця між академіками та старшокласниками. Як сказав Хуан Реньсюнь, Nvidia «біжить», а інші виробники чіпів, які хочуть перевершити гігантів, можуть тільки шалено працювати.
03. «Гра престолів» за великою моделлю ШІ
На додаток до Nvidia, AMD, інший гігант GPU, також нещодавно вжив заходів.
Нещодавно AMD випустила останню карту прискорювача. На сайті конференції, де AMD представила останню карту прискорювача Instinct MI300X, рядок слів був спеціально надрукований на PPT, присвячений великим мовним моделям. Це розцінюється галуззю як пряма декларація війни проти Nvidia!
Повідомляється, що щільність пам’яті з високою пропускною здатністю (HBM) MI300X може досягати в 2,4 рази більшої, ніж у NVIDIA H100, а пропускна здатність пам’яті з високою пропускною здатністю може досягати в 1,6 разів більшої, ніж у H100. Очевидно, MI300X може працювати з більша модель AI, ніж H100.
Серія MI300, де знаходиться MI300X, — це серія найновіших карт прискорювачів APU, створених AMD для штучного інтелекту та HPC. Серед них MI300A — це «базова модель», а MI300X — це «модель, оптимізована для великої моделі» з вищою апаратною продуктивністю.
Наразі зразки MI300A вже відібрано, і, за оцінками, незабаром він буде доступний для покупки; зразки великомасштабної виділеної карти MI300X і обчислювальної платформи AMD Instinct, що інтегрує 8 MI300X, очікуються в третьому кварталі цього року. року, і буде запущено в четвертому кварталі.
За останні кілька років, порівняно з великими кроками Nvidia у сфері ШІ, дії AMD здаються трохи повільними. Як сказав Ерік Джанг, генеральний директор DeepBrain AI, він вважає, що AMD розчарувала його за останні кілька років, і за останні п’ять років нічого не змінилося. Особливо під час спалаху AIGC, якщо AMD не докладе зусиль, щоб не відставати, розрив лише збільшиться.
Із запуском продуктів AMD серії MI300 ми нарешті можемо побачити лобову боротьбу AMD і Nvidia.
На жаль, ринок, здається, не купує нові карти AMD.
Під час цієї конференції AMD ціна її акцій не зросла, а впала. Навпаки, ціна акцій Nvidia також різко зросла. Ринкові настрої неважко зрозуміти, тому що в сфері високих технологій, особливо на ринках, що розвиваються, на комерційному ринку стає загальною логікою йти в ногу з кожним кроком і залишатися сильним.
Але насправді, після ретельного вивчення причин, можна виявити, що основною причиною, чому Nvidia монополізує ринок навчальних чіпів зі штучним інтелектом, є її власно розроблена екологія CUDA. Тому, якщо AMD MI300 хоче замінити Nvidia, він спочатку повинен бути сумісний з екосистемою CUDA Nvidia. Для цього AMD запустила екосистему ROCm і досягла повної сумісності з CUDA через HIP, тим самим зменшивши відому вартість користувачів.
У зв’язку з цим Murong Yi, відомий інвестиційний блогер, вважає, що складність використання маршруту, сумісного з NVIDIA CUDA, полягає в тому, що його швидкість ітерації оновлення ніколи не встигає за CUDA, і важко досягти повної сумісності, тобто , з одного боку, ітерація завжди на один крок повільніша. Графічний процесор Nvidia швидко повторює мікроархітектуру та набір інструкцій, і відповідні оновлення функцій потрібні у багатьох місцях у верхньому програмному стеку, але для AMD неможливо знати дорожню карту продукту Nvidia, а оновлення програмного забезпечення завжди відбуватимуться на крок повільніше, ніж Nvidia (наприклад, AMD, можливо, щойно оголосила про підтримку CUDA11, але Nvidia запустила CUDA12); з іншого боку, складність повної сумісності збільшить навантаження на розробників. Архітектура великомасштабного програмного забезпечення, такого як CUDA, це дуже складно, і AMD потребує інвестування великої кількості робочої сили та матеріальних ресурсів. Щоб наздогнати, знадобляться роки або навіть більше десяти років, тому що неминуче будуть функціональні відмінності, і якщо сумісність не буде виконана належним чином, це вплине продуктивність. Тому це також основні причини, чому не всі його купують.
За оцінками Khaveen Investments, у 2022 році частка ринку графічних процесорів для центрів обробки даних Nvidia досягне 88%, а AMD і Intel поділять решту.
Відколи OpenAI випустив ChatGPT минулого року, новий виток технологічної революції продовжує бродити. Можна сказати, що жоден технологічний прогрес протягом багатьох років не привертав такої уваги світу, як ChatGPT.
Різноманітні технологічні компанії, науково-дослідні установи, коледжі та університети в країні та за кордоном стежать за цим. Менш ніж за півроку з’явилося багато стартап-компаній для широкомасштабних модельних застосувань, і масштаб фінансування неодноразово зростав досягти нових вершин.
За словами блогера wgang, Baidu, iFLYTEK, 4Paradigm, Університет Цінхуа, Фудань та інші великі вітчизняні фабрики, компанії-початківці та науково-дослідні установи послідовно випускають масштабні моделі продуктів:
Джерело: Zhihu wgwang
Можна помітити, що не лише в загальній сфері, але й у конкретних галузевих сценаріях, особливо в деяких галузях із високим професіоналізмом і високою щільністю знань, технологічні компанії також випускають великі моделі у вертикальних полях. Наприклад, компанія Baijiayun (RTC), зареєстрована на американській біржі, нещодавно випустила продукт AIGC «Market Easy» на основі свого розуміння потреб підприємств у послугах. Це також перша система великомасштабної моделі GPT, придатна для сценаріїв виробництва контенту. відділів маркетингу підприємства.
Деякі інсайдери з галузі сказали з посмішкою: «Вітчизняні великомасштабні моделі сформували ситуацію, коли групи моделей дико танцюють і сотні моделей змагаються. Очікується, що до кінця сезону буде більше 100 великих моделей. рік».
Однак розробка великих моделей вимагає підтримки трьох важливих факторів: алгоритмів, обчислювальної потужності та даних. Обчислювальна потужність є важливим енергетичним двигуном для навчання великих моделей, а також є основною перешкодою для розвитку індустрії великих моделей. у Китаї.
Можливості чіпа безпосередньо впливають на ефект і швидкість навчання з високим обчислювальним процесом. Як згадувалося вище, незважаючи на часту появу вітчизняних великомасштабних моделей продуктів, судячи з чіпів, що стоять за ними, усі ці платформи використовують або графічні процесори Nvidia A100 і H100, або графічні процесори Nvidia зі зменшеною конфігурацією A800 і A800, спеціально випущені після заборони минулого року. H800, пропускна здатність цих двох процесорів становить приблизно 3/4 і приблизно половину оригінальної версії, уникаючи стандарту обмеження високопродуктивного GPU.
У березні цього року Tencent оголосила про те, що використовує H800. Вона вже використовувала H800 у новій версії високопродуктивних обчислювальних служб, випущених Tencent Cloud, і заявила, що це перша версія в Китаї.
Alibaba Cloud також запропонувала в травні цього року, що «Битва за розумні обчислення» стане битвою номер один цього року, а кількість графічних процесорів стала важливим індикатором її битви.
Крім того, Shangtang також оголосила, що майже 30 000 графічних процесорів були розгорнуті в його обчислювальному кластері «великих пристроїв штучного інтелекту», з яких 10 000 — це Nvidia A100. Byte і Meituan напряму виділяють графічні процесори інших бізнес-команд компанії для навчання великих моделей. З другої половини 2022 року деякі виробники навіть шукали різні готові машинні продукти, які могли б вивести A100 з ринку, з єдиною метою отримати чіпи GPU. «Там занадто багато машин і недостатньо місць для їх зберігання».
Зрозуміло, що вітчизняні провідні технологічні компанії інвестували значні кошти в штучний інтелект і хмарні обчислення.У минулому накопичення A100 досягало десятків тисяч.
У той же час, великі технологічні компанії Китаю все ще беруть участь у новому раунді конкуренції у сфері закупівель.
За словами постачальника хмарних послуг, такі великі компанії, як Byte і Alibaba, в основному ведуть переговори про закупівлі безпосередньо з оригінальною фабрикою Nvidia, і агентам і ринкам секонд-хенду важко задовольнити їхні величезні потреби.
Як згадувалося вище, цього року ByteDance замовила у Nvidia графічних процесорів на суму понад $1 млрд. Обсяг закупівель тільки Byte цього року близький до загального обсягу продажів комерційних графічних процесорів, проданих Nvidia в Китаї минулого року. Згідно з повідомленнями, є ще одна велика компанія із замовленням щонайменше на понад 1 мільярд юанів.
Можна побачити, що великі технологічні компанії Китаю дуже терміново купують графічні процесори.
Не тільки вітчизняні компанії, але й великі іноземні клієнти мають дуже високий попит на чіпи Nvidia A100/H100. Згідно зі статистичними даними, Baidu, яка першою почала тестувати продукти, подібні до ChatGPT, має щорічні капітальні витрати від 800 до 2 мільярдів доларів США з 2020 року, а Alibaba – від 6 до 8 мільярдів доларів США. У той же період Amazon, Meta, Google і Microsoft, чотири американські технологічні компанії, які побудували власні центри обробки даних, мали щорічні капітальні витрати в розмірі щонайменше 15 мільярдів доларів США.
В даний час видимість замовлень Nvidia досягла 2024, а високоякісних чіпів не вистачає. З поточним графіком виробництва навіть A800/H800 не буде поставлено до кінця цього або наступного року. У короткостроковій перспективі, з точки зору його популярності, єдине, що впливає на продажі графічних процесорів Nvidia високого класу, може бути виробнича потужність TSMC.
04. За "божевільною" Nvidia, вітчизняні чіпи недостатні як апаратно, так і програмно?
Судячи з постачання чіпів великомасштабних моделей, наразі немає заміни для A100, H100 і скорочених версій A800 і H800, спеціально поставлених до Китаю з точки зору навчання великомасштабних моделей ШІ.
Отже, чому в цьому раунді буму GPT Nvidia взяла лідерство та показала хороші результати?
Чжан Гаонань, керуючий партнер Huaying Capital, сказав, що, з одного боку, це тому, що Nvidia має самий ранній макет, а його структура мікроядра також розвивалася та вдосконалювалася від покоління до покоління. Тепер, чи то з точки зору паралелізму, швидкості шини чи зрілої підтримки мікроядра для трансформації матриць, його можливості вже дуже ефективні, включаючи водночас надання дуже повної обчислювальної платформи CUDA, яка фактично стала потенційним галузевим стандартом для алгоритми глибокого навчання Допоміжні засоби всього промислового ланцюга також є дуже повними, а комплексні бар’єри конкуренції та глибина рову надзвичайно високі.
Підводячи підсумок, нинішня незамінність графічного процесора Nvidia походить від механізму навчання великих моделей. Його основними кроками є попереднє навчання та тонке налаштування. Перше полягає в закладанні основи, що еквівалентно отриманню загальної освіти. Закінчити університет ; останній оптимізований для конкретних сценаріїв і завдань для підвищення ефективності роботи.
Отже, чи можуть вітчизняні чіпи GPU підтримувати вимоги до обчислювальної потужності великих моделей?
У практичних застосуваннях вимоги великої моделі до обчислювальної потужності поділяються на два етапи: перший – це процес навчання великої моделі ChatGPT, інший – процес міркування для комерціалізації моделі. Тобто навчання штучному інтелекту полягає у створенні моделей, а міркування штучного інтелекту полягає у використанні моделей, а навчання вимагає вищої продуктивності чіпа.
На основі цього продовжують з’являтися вітчизняні компанії-виробники чіпів ШІ, випускаючи продукти на ринок один за одним. Такі компанії, як Suiyuan Technology, Biren Technology, Tianshu Zhixin і Cambrian, випустили власні хмарні GPU продукти, і теоретичні показники продуктивності не є слабкими. Мікросхема DCU «Shensu No. 1» компанії Haiguang Information має відносно повну екосистему програмного та апаратного забезпечення та сумісна з архітектурою CUDA. Великі інтернет-компанії, такі як Tencent, Baidu та Ali, також активно розгортають сферу чіпів штучного інтелекту шляхом інвестицій та інкубації.
Серед них навчання великомасштабної моделі потребує обробки інформації високої деталізації, що вимагає вищої точності та швидкості обчислень для чіпів навчання хмари. Наразі більшість вітчизняних графічних процесорів не мають можливості підтримувати навчання великомасштабної моделі. Це підходить для роботи з хмарним висновком, яка не вимагає такої високої деталізації інформації.
* Продукти штучного інтелекту та інтегральні схеми хвилі програмного ядра деяких вітчизняних пов’язаних компаній відсортовано відповідно до загальнодоступної інформації *
У березні цього року Baidu Li Yanhong публічно заявив, що чіп Kunlun зараз дуже підходить для міркування великих моделей і буде придатним для навчання в майбутньому.
Цзоу Вей, віце-президент Tianshu Zhixin, також сказав Xinchao IC, що все ще існує певний розрив між домашніми чіпами та останніми продуктами Nvidia, але з точки зору розрахунків висновків, домашні чіпи можуть досягти такої ж продуктивності, як і звичайні продукти, і з додатком Популярність штучного інтелекту, ринковий попит на чіпи для міркувань прискорить зростання, і з розширенням попиту вітчизняні чіпи також матимуть більший ринок.
Інша особа в галузі, яка не захотіла називати свого імені, сказала: «Внутрішня продукція GPU загального призначення має розрив із міжнародними флагманськими продуктами в підтримці широкомасштабного навчання моделей, але це не непоправне. Справа в тому, що галузь має не розроблений у напрямку великомасштабних моделей у визначенні продукту».
Наразі фахівці галузі проводять відповідні дослідження та намагаються, наприклад, думаючи про те, чи можна покращити обчислювальну потужність чіпів за допомогою чіплетів та вдосконаленого пакування. В даний час вітчизняні компанії GPU займаються розробкою чіпів і компонуванням у сфері великих моделей.
З точки зору капіталу, Чжан Гаонань, керуючий партнер Huaying Capital, сказав Xinchao IC, що Huaying протягом тривалого часу приділяє велику увагу інфраструктурі обчислювальної потужності. Чи то GPU, DPU чи більш передові фотоелектричні гібридні обчислення, квантові обчислення. , є Цільові дослідження та макет. Загалом він зосереджений на обчислювальній інфраструктурі загального призначення, такій як FPGA та периферійні обчислення. Навпаки, наразі багато мікросхем обчислювальної потужності навколо глибокого навчання, спеціальних алгоритмів, оптимізації локальної обчислювальної потужності тощо не є предметом його розгляду.
Насправді, окрім розриву в апаратній продуктивності, екосистема програмного забезпечення також є недоліком вітчизняних виробників мікросхем ШІ.
Чіп потребує адаптації до кількох рівнів, таких як апаратна система, ланцюжок інструментів, компілятор тощо, і потребує високої адаптивності. Інакше буде здаватися, що цей чіп може використовувати 90% обчислювальної потужності в одній сцені, але лише в іншій Вичерпано 80% сценарію продуктивності.
Як було сказано вище, Nvidia має очевидні переваги в цьому плані. Ще в 2006 році Nvidia запустила обчислювальну платформу CUDA, яка є механізмом програмного забезпечення для паралельних обчислень. Фреймворк CUDA об’єднує багато кодів, необхідних для запуску обчислювальної потужності GPU. Інженери можуть безпосередньо використовувати ці коди, не пишучи їх один за іншим. Розробники можуть використовувати CUDA для ефективнішого навчання ШІ та міркувань, а також краще використовувати обчислювальну потужність GPU. Сьогодні CUDA стала інфраструктурою штучного інтелекту, а базові фреймворки штучного інтелекту, бібліотеки та інструменти розробляються на основі CUDA.
Без цього набору мов кодування розробникам програмного забезпечення буде надзвичайно важко усвідомити цінність апаратного забезпечення.
Якщо графічні процесори та мікросхеми штучного інтелекту, крім Nvidia, хочуть отримати доступ до CUDA, вони повинні надати власне програмне забезпечення для адаптації. Згідно з інсайдерами галузі, я зв’язався з виробником графічних процесорів, не пов’язаних із компанією NVIDIA. Незважаючи на те, що ціна на чіпи та обслуговування у них нижча, ніж у NVIDIA, і обіцяє надавати більш своєчасні послуги, загальні витрати на навчання та розробку використання його графічного процесора будуть вищими, ніж у NVIDIA. невизначеність результатів і часу розробки.
Хоча графічні процесори Nvidia дорогі, насправді вони найдешевші у використанні. Для компаній, які мають намір скористатися можливістю великомасштабних моделей, гроші часто не є проблемою, а час є більш дорогоцінним ресурсом.Кожен має отримати достатню передову обчислювальну потужність якнайшвидше, щоб забезпечити перевагу першому.
Таким чином, для вітчизняних постачальників чіпів, навіть якщо продукт із порівнянною обчислювальною потужністю можна скласти за допомогою чіпів, клієнтам важче прийняти адаптацію програмного забезпечення та сумісність. Крім того, з точки зору роботи сервера витрати на його материнську плату, електроенергію, експлуатаційні витрати та такі питання, як споживання електроенергії та розсіювання тепла, які необхідно враховувати, значно збільшать експлуатаційні витрати центру обробки даних.
Оскільки ресурси обчислювальної потужності часто мають бути представлені у формі об’єднання, центри обробки даних зазвичай охочіше використовують той самий чіп або чіпи від однієї компанії, щоб зменшити складність об’єднання обчислювальних потужностей.
Вивільнення обчислювальної потужності вимагає складної взаємодії програмного та апаратного забезпечення, щоб перетворити теоретичну обчислювальну потужність чіпа в ефективну обчислювальну потужність. Клієнтам нелегко використовувати домашні мікросхеми штучного інтелекту. Заміна хмарних мікросхем штучного інтелекту потребує певних витрат і ризиків міграції, якщо тільки новий продукт не має переваг у продуктивності або може створити проблеми, які інші не можуть вирішити в певному вимірі. Інакше готовність клієнтів для заміни дуже низька.
Як єдиний постачальник GPU, який може справді обробляти ChatGPT, Nvidia є заслуженим «королем обчислювальної потужності ШІ». Шість років тому Хуан Реньсюнь особисто передав OpenAI перший суперкомп’ютер, оснащений чіпом A100, допоміг останньому створити ChatGPT і став лідером ери ШІ.
Однак, оскільки минулого року Сполучені Штати запровадили контроль над експортом, Nvidia заборонили експортувати до Китаю два своїх найдосконаліших графічних процесора, H100 і A100. Це, безсумнівно, удар для компаній, що розробляють додатки.
З точки зору безпеки та самоконтролю, це також відкриває нове вікно можливостей для вітчизняних компаній-виробників мікросхем. Хоча вітчизняні чіпи поступаються гігантам галузі, таким як Nvidia та AMD, щодо продуктивності та екології програмного забезпечення, що зумовлено складними міжнародними торговими відносинами та геополітичними факторами, «внутрішнє заміщення» стало головною темою розвитку вітчизняної напівпровідникової промисловості.
05. Висновок
Кожне збільшення обчислювальної потужності спричинить хвилю технологічних і промислових змін: центральні процесори ведуть людство в еру ПК, мобільні мікросхеми спровокують хвилю мобільного Інтернету, а мікросхеми штучного інтелекту подолають десятиліттями вузьке місце обчислювальної потужності ШІ. промисловість.
Сьогодні настав «момент AI iPhone», і дорога в наступну еру, можливо, вже попереду.
Незважаючи на те, що в області чіпів штучного інтелекту та систем програмного забезпечення в цих центрах обробки даних все ще домінують іноземні виробники, двері на ринок для «локалізації обчислювальної потужності» можуть відкритися зараз.
Переглянути оригінал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Комп’ютерний карнавал, хто є «китайською версією» Nvidia?
**Джерело: **Core Tide IC
Текст: Ван Іке десять алей
Редактор: Су Ян Сюбай
Хвиля революції штучного інтелекту, випадково викликана ChatGPT, знову запалила ринок чіпів штучного інтелекту.
«Ціни на такі чіпи, як A800 і H800, змінилися з приблизно 120 000 юанів до 250 000 або навіть 300 000, або навіть до 500 000». Це справжня сцена в колі внутрішнього розповсюдження чіпів. Основні вітчизняні виробники хочуть отримати чіпи у великій кількості. кількості, і вони повинні мати «прямий зв’язок» з Хуан Реньсюнем.
У міру так званого «немає чіпа — немає штучного інтелекту», оскільки попит на обчислювальну потужність великих моделей стрімко зростає, мікросхеми, які є основою технології ШІ, відкривають важливі можливості для бізнесу. OpenAI одного разу передбачив, що для того, щоб зробити прорив у наукових дослідженнях штучного інтелекту, обчислювальні ресурси, необхідні для споживання, подвоюватимуться кожні 3-4 місяці, а кошти також повинні відповідати експоненціальному зростанню. «Закон Мура».
Фінансовий директор Nvidia Кресс сказав, що поточний ринковий попит на обчислювальну потужність штучного інтелекту перевищив очікування компанії на наступні кілька кварталів, і є занадто багато замовлень для виконання.
Хвиля генеративного ШІ принесла Nvidia багато грошей. Після 14 років лістингу Nvidia успішно увійшла до клубу з трильйонною ринковою капіталізацією. Щоб досягти цієї мети, таким гігантам Кремнієвої долини, як Apple, знадобилося 37 років, Microsoft — 33 роки, Amazon — 21 рік, а Tesla бігла найшвидше. лише 11 років.
Це також стимулювало китайські компанії-виробники чіпів прагнути спробувати.Вітчизняні компанії-виробники чіпів, такі як Haiguang Information, Cambrian, Loongson Zhongke, Biren Technology, Tianshu Zhixin тощо, мають амбіції створити «китайську версію» Nvidia і спробувати покладатися на власні дослідження Вітчизняна широкомасштабна модель розширення можливостей. Деякі великі виробники також почали використовувати мікросхеми штучного інтелекту власної розробки для підтримки частини завдань навчання або міркування моделі, наприклад мікросхеми Baidu Kunlun, Ali Hanguang 800...
Зіткнувшись із трильйонним ринком, створеним завдяки обчислювальній потужності штучного інтелекту, чи зможуть вітчизняні компанії отримати таку хвилю дивідендів? Як вітчизняним виробникам чіпів долати «гору» Nvidia? Це проблема, від якої не може уникнути жодна компанія.
01. Безумство штучного інтелекту створило ринкову вартість Nvidia в трильйони доларів
Чоловіки, які люблять носити шкіряний одяг, першими отримують дивіденди від ШІ.
Наприкінці 2022 року, після виходу ChatGPT, він швидко спричинив божевілля ШІ в усьому світі. Серед них Nvidia, яка робить ставку на майбутнє штучного інтелекту, стала однією з компаній, яка виграла найбільше від хвилі ChatGPT. На цьогорічній конференції Nvidia GTC засновник і генеральний директор Nvidia Джен-Хсун Хуан представив нову технологію штучного інтелекту та чіпів і сказав, що «момент iPhone» для штучного інтелекту настав.
На прес-конференції Хуан Реньсюнь сказав, що розгортання великомасштабних мовних моделей, подібних до ChatGPT, є важливим новим робочим навантаженням.Для підтримки великомасштабних мовних моделей Nvidia випустила низку продуктів і послуг, пов’язаних із ШІ. Серед них прийнята нова архітектура, і чіп H100 з більш досконалим процесом є найбільш привабливим.
Цей графічний процесор H100 базується на архітектурі NVIDIA Hopper і оснащений рушієм Transformer, призначеним для обробки та керування попередньо навченими моделями, подібними до ChatGPT. Стандартний сервер із чотирма парами H100 і двома GPU NVLink може прискорити навчання в 10 разів порівняно з HGX A100 для обробки GPT-3.
«H100 може на порядок зменшити вартість обробки великих мовних моделей», — якось сказав Хуан Реньсюнь. На основі чіпа H100 компанія Nvidia також створила найновіший суперкомп’ютер DGX, оснащений 8 графічними процесорами H100, щоб їх можна було об’єднати, щоб утворити величезний графічний процесор, забезпечуючи «проект» для побудови інфраструктури ШІ. Суперкомп'ютер DGX повністю запущено у виробництво.
Після цього високопродуктивні чіпи Nvidia, такі як A100, H100, A800 і H800, відповідно підняли ціни, особливо флагманський чіп H100, який був проданий за понад 40 000 доларів США на закордонних платформах електронної комерції в середині квітня, і деякі продавці навіть оцінили його в 6,5 10 тисяч доларів США.
У той же час, специфічні для Китаю чіпи Nvidia A800 і H800 також були розграбовані. «Національним великим модельним компаніям важко отримати ці мікросхеми. Попит на всьому ринку перевищує попит, і дефіцит дуже серйозний», — відверто сказав Чжан Цзюе, засновник постачальника електронних компонентів «Guangxin Century». Xinchao IC: «Цього року цей тип чіпа GPU змінився з приблизно 120 000 юанів до 250 000 юанів або навіть 300 000 юанів або навіть до 500 000 юанів».
Немає сумніву, що технологічне лідерство Nvidia у високопродуктивних графічних процесорах і два її чіпи AI, A100 і H100, є основною рушійною силою для великих мовних моделей, таких як ChatGPT.
Деякі професіонали хмарних обчислень вважають, що 10 000 мікросхем Nvidia A100 є порогом обчислювальної потужності для хорошої моделі ШІ. Суперкомп’ютер зі штучним інтелектом, створений Microsoft для OpenAI для навчання своїх моделей, оснащений 10 000 графічним процесором Nvidia. За збігом обставин, великі вітчизняні інтернет-компанії також розмістили великі замовлення в Nvidia. Відповідно до останнього звіту LatePost, цього року Byte замовила у Nvidia графічних процесорів на суму понад 1 мільярд доларів США. Ще одна велика компанія, яку не можна назвати, має замовлення принаймні на більше понад 1 млрд. юанів.
Ще більш перебільшеним є те, що чи зможуть ці компанії нарешті захопити картку, більше залежить від ділових стосунків, особливо від того, чи були вони основним клієнтом Nvidia в минулому. «Незалежно від того, спілкуєтеся ви з китайською Nvidia чи їдете до Сполучених Штатів, щоб поговорити безпосередньо з Лао Хуанг (Хуан Реньсюнь), це має значення».
У результаті фінансові дані Nvidia знову піднялися до нових максимумів. 25 травня Nvidia опублікувала свій фінансовий звіт за перший квартал. Дохід бізнесу центрів обробки даних, де розміщені мікросхеми штучного інтелекту, досяг рекордного рівня, зберігаючи річне зростання на рівні понад 10%.
Хуан Реньсюнь розповів, що вся лінійка продуктів для центрів обробки даних зараз знаходиться у виробництві, і пропозиція значно збільшується, щоб задовольнити різкий попит.
Низка хороших новин напряму призвела до зростання ціни акцій Nvidia. Увечері 30 травня фондовий ринок США відкрився, і ринкова вартість Nvidia безпосередньо перевищила 1 трильйон доларів. 19 липня загальна ринкова вартість Nvidia за одну ніч зросла на 175 мільярдів доларів США, знову спровокувавши інвестиційний бум.
За даними веб-сайту companiesmarketcap, загальна ринкова вартість Nvidia посідає шосте місце у світі, а також є компанією чіпів з найвищою ринковою вартістю на даний момент, близькою до двох TSMC ($533,6 млрд.). Ціна акцій Nvidia за цей час зросла приблизно на 180%. рік. Мушу визнати, що ця хвиля божевілля ШІ наповнила Nvidia Хуан Реньсюня.
02. Для Nvidia неможливо насолодитися шаленою обчислювальною потужністю
«Nvidia не матиме монополії на великомасштабні чіпи для навчання та висновків».
Це була відповідь генерального директора Tesla Ілона Маска на твіт Адама Д'Анджело, генерального директора соціального сайту запитань-відповідей і онлайн-ринку знань Quora, який написав: «Одна з причин, чому бум штучного інтелекту недооцінюється, це графічні процесори. /дефіцит TPU, що призвело до різноманітних обмежень на запуск продуктів і навчання моделей, але жодне з них не було очевидним. Натомість ми побачили стрімке зростання цін на акції Nvidia. Коли пропозиція відповідала попиту, ситуація прискорилася».
Наближається гроза.
Наскільки великий ринок обчислювальної потужності може спричинити божевілля ШІ, зосереджене на великих моделях? Soochow Securities вважає, що попит на обчислювальну потужність моделей штучного інтелекту продовжує зростати, відкриваючи ринковий попит на високопродуктивні обчислювальні мікросхеми. За оцінками, обсяг ринку мікросхем ШІ в моїй країні досягне 178 мільярдів юанів у 2025 році, а сукупний річний темп зростання з 2019 по 2025 рік досягне 42,9%. З точки зору розміру ринку, мікросхеми штучного інтелекту знаходяться в зародковому стані, але вони мають величезний потенціал зростання.
Чіп штучного інтелекту — це широке поняття, яке загалом відноситься до модуля, який спеціально використовується для обробки обчислювальних завдань у додатках зі штучним інтелектом. Це апаратне забезпечення для обчислювальних завдань, яке народилося в епоху швидкого розвитку додатків зі штучним інтелектом. Усі чіпи для штучного інтелекту додатки називаються мікросхемами ШІ. Є три основні технічні шляхи: загального призначення (GPU), напівкористувацького (FPGA) і спеціального (ASIC).
З точки зору навчання великомасштабної моделі, тонкої настройки на основі сценаріїв і сценаріїв додатків логічного висновку, гетерогенна обчислювальна потужність, що забезпечується чіпами CPU+AI, чудові можливості паралельного обчислення та висока пропускна здатність з’єднання можуть підтримувати максимальну ефективність обчислень AI. і стати інтелектуальним Основним рішенням для обчислень.
З точки зору частки ринку, за даними iResearch, до 2027 року очікується, що ринок чіпів зі штучним інтелектом у Китаї досягне 216,4 мільярда юанів. Завдяки оптимізації моделей штучного інтелекту кількість чіпів штучного інтелекту збільшуватиметься з кожним днем. У 2022 році китайські чіпи для навчання AI та чіпи для міркувань AI становитимуть 47,2% та 52,8% відповідно.
Хоча спалах вітчизняних великомасштабних моделей може спричинити розрив у обчислювальній потужності, це лише питання часу, коли вітчизняні виробники чіпів отримають дивіденди від домашньої заміни. Як розробник навчальних чіпів зі штучним інтелектом, компанія Cambrian, «перша акція чіпів зі штучним інтелектом», знову привернула увагу ринку, і ціна її акцій продовжувала зростати. Остання ринкова вартість перевищила 90 мільярдів.
У лінійці хмарних продуктів Cambricon випустила чотири покоління мікросхем: Siyuan 100 у 2018 році, Siyuan 270 у 2019 році, Siyuan 290 (транспортний засіб) у 2020 році та серію Siyuan 370, випущену в 2021 році. Він використовується для підтримки завдань обробки штучного інтелекту. зі швидким зростанням складності та пропускної здатності даних у сценаріях хмарних обчислень і центрів обробки даних. Крім того, Cambrian також досліджує продукт Siyuan 590, який ще не випущено. Крім того, до кінця 2022 року серія Siyuan 370 і продукт AIGC Baidu Flying Paddle завершать тестування рівня сумісності II.
Однак поки що немає точної інформації про те, чи взяли на озброєння вітчизняні великомасштабні модельні компанії кембрійські мікросхеми. «У сфері високоякісних чіпів зі штучним інтелектом вітчизняні виробники знаходяться в зародковому стані, і для перевірки багатьох речей потрібен час і гроші», — розповів старший інженер чіпів. Навіть мікросхеми таких компаній, як Huawei, Baidu та Haiguang Information, мають явний розрив з продуктами Nvidia.
Хтось колись відверто сказав, що розрив між Nvidia та іншими виробниками чіпів – це різниця між академіками та старшокласниками. Як сказав Хуан Реньсюнь, Nvidia «біжить», а інші виробники чіпів, які хочуть перевершити гігантів, можуть тільки шалено працювати.
03. «Гра престолів» за великою моделлю ШІ
На додаток до Nvidia, AMD, інший гігант GPU, також нещодавно вжив заходів.
Нещодавно AMD випустила останню карту прискорювача. На сайті конференції, де AMD представила останню карту прискорювача Instinct MI300X, рядок слів був спеціально надрукований на PPT, присвячений великим мовним моделям. Це розцінюється галуззю як пряма декларація війни проти Nvidia!
Серія MI300, де знаходиться MI300X, — це серія найновіших карт прискорювачів APU, створених AMD для штучного інтелекту та HPC. Серед них MI300A — це «базова модель», а MI300X — це «модель, оптимізована для великої моделі» з вищою апаратною продуктивністю.
Наразі зразки MI300A вже відібрано, і, за оцінками, незабаром він буде доступний для покупки; зразки великомасштабної виділеної карти MI300X і обчислювальної платформи AMD Instinct, що інтегрує 8 MI300X, очікуються в третьому кварталі цього року. року, і буде запущено в четвертому кварталі.
За останні кілька років, порівняно з великими кроками Nvidia у сфері ШІ, дії AMD здаються трохи повільними. Як сказав Ерік Джанг, генеральний директор DeepBrain AI, він вважає, що AMD розчарувала його за останні кілька років, і за останні п’ять років нічого не змінилося. Особливо під час спалаху AIGC, якщо AMD не докладе зусиль, щоб не відставати, розрив лише збільшиться.
Із запуском продуктів AMD серії MI300 ми нарешті можемо побачити лобову боротьбу AMD і Nvidia.
Під час цієї конференції AMD ціна її акцій не зросла, а впала. Навпаки, ціна акцій Nvidia також різко зросла. Ринкові настрої неважко зрозуміти, тому що в сфері високих технологій, особливо на ринках, що розвиваються, на комерційному ринку стає загальною логікою йти в ногу з кожним кроком і залишатися сильним.
Але насправді, після ретельного вивчення причин, можна виявити, що основною причиною, чому Nvidia монополізує ринок навчальних чіпів зі штучним інтелектом, є її власно розроблена екологія CUDA. Тому, якщо AMD MI300 хоче замінити Nvidia, він спочатку повинен бути сумісний з екосистемою CUDA Nvidia. Для цього AMD запустила екосистему ROCm і досягла повної сумісності з CUDA через HIP, тим самим зменшивши відому вартість користувачів.
У зв’язку з цим Murong Yi, відомий інвестиційний блогер, вважає, що складність використання маршруту, сумісного з NVIDIA CUDA, полягає в тому, що його швидкість ітерації оновлення ніколи не встигає за CUDA, і важко досягти повної сумісності, тобто , з одного боку, ітерація завжди на один крок повільніша. Графічний процесор Nvidia швидко повторює мікроархітектуру та набір інструкцій, і відповідні оновлення функцій потрібні у багатьох місцях у верхньому програмному стеку, але для AMD неможливо знати дорожню карту продукту Nvidia, а оновлення програмного забезпечення завжди відбуватимуться на крок повільніше, ніж Nvidia (наприклад, AMD, можливо, щойно оголосила про підтримку CUDA11, але Nvidia запустила CUDA12); з іншого боку, складність повної сумісності збільшить навантаження на розробників. Архітектура великомасштабного програмного забезпечення, такого як CUDA, це дуже складно, і AMD потребує інвестування великої кількості робочої сили та матеріальних ресурсів. Щоб наздогнати, знадобляться роки або навіть більше десяти років, тому що неминуче будуть функціональні відмінності, і якщо сумісність не буде виконана належним чином, це вплине продуктивність. Тому це також основні причини, чому не всі його купують.
За оцінками Khaveen Investments, у 2022 році частка ринку графічних процесорів для центрів обробки даних Nvidia досягне 88%, а AMD і Intel поділять решту.
Відколи OpenAI випустив ChatGPT минулого року, новий виток технологічної революції продовжує бродити. Можна сказати, що жоден технологічний прогрес протягом багатьох років не привертав такої уваги світу, як ChatGPT.
Різноманітні технологічні компанії, науково-дослідні установи, коледжі та університети в країні та за кордоном стежать за цим. Менш ніж за півроку з’явилося багато стартап-компаній для широкомасштабних модельних застосувань, і масштаб фінансування неодноразово зростав досягти нових вершин.
За словами блогера wgang, Baidu, iFLYTEK, 4Paradigm, Університет Цінхуа, Фудань та інші великі вітчизняні фабрики, компанії-початківці та науково-дослідні установи послідовно випускають масштабні моделі продуктів:
Можна помітити, що не лише в загальній сфері, але й у конкретних галузевих сценаріях, особливо в деяких галузях із високим професіоналізмом і високою щільністю знань, технологічні компанії також випускають великі моделі у вертикальних полях. Наприклад, компанія Baijiayun (RTC), зареєстрована на американській біржі, нещодавно випустила продукт AIGC «Market Easy» на основі свого розуміння потреб підприємств у послугах. Це також перша система великомасштабної моделі GPT, придатна для сценаріїв виробництва контенту. відділів маркетингу підприємства.
Деякі інсайдери з галузі сказали з посмішкою: «Вітчизняні великомасштабні моделі сформували ситуацію, коли групи моделей дико танцюють і сотні моделей змагаються. Очікується, що до кінця сезону буде більше 100 великих моделей. рік».
Однак розробка великих моделей вимагає підтримки трьох важливих факторів: алгоритмів, обчислювальної потужності та даних. Обчислювальна потужність є важливим енергетичним двигуном для навчання великих моделей, а також є основною перешкодою для розвитку індустрії великих моделей. у Китаї.
Можливості чіпа безпосередньо впливають на ефект і швидкість навчання з високим обчислювальним процесом. Як згадувалося вище, незважаючи на часту появу вітчизняних великомасштабних моделей продуктів, судячи з чіпів, що стоять за ними, усі ці платформи використовують або графічні процесори Nvidia A100 і H100, або графічні процесори Nvidia зі зменшеною конфігурацією A800 і A800, спеціально випущені після заборони минулого року. H800, пропускна здатність цих двох процесорів становить приблизно 3/4 і приблизно половину оригінальної версії, уникаючи стандарту обмеження високопродуктивного GPU.
У березні цього року Tencent оголосила про те, що використовує H800. Вона вже використовувала H800 у новій версії високопродуктивних обчислювальних служб, випущених Tencent Cloud, і заявила, що це перша версія в Китаї.
Alibaba Cloud також запропонувала в травні цього року, що «Битва за розумні обчислення» стане битвою номер один цього року, а кількість графічних процесорів стала важливим індикатором її битви.
Крім того, Shangtang також оголосила, що майже 30 000 графічних процесорів були розгорнуті в його обчислювальному кластері «великих пристроїв штучного інтелекту», з яких 10 000 — це Nvidia A100. Byte і Meituan напряму виділяють графічні процесори інших бізнес-команд компанії для навчання великих моделей. З другої половини 2022 року деякі виробники навіть шукали різні готові машинні продукти, які могли б вивести A100 з ринку, з єдиною метою отримати чіпи GPU. «Там занадто багато машин і недостатньо місць для їх зберігання».
Зрозуміло, що вітчизняні провідні технологічні компанії інвестували значні кошти в штучний інтелект і хмарні обчислення.У минулому накопичення A100 досягало десятків тисяч.
У той же час, великі технологічні компанії Китаю все ще беруть участь у новому раунді конкуренції у сфері закупівель.
За словами постачальника хмарних послуг, такі великі компанії, як Byte і Alibaba, в основному ведуть переговори про закупівлі безпосередньо з оригінальною фабрикою Nvidia, і агентам і ринкам секонд-хенду важко задовольнити їхні величезні потреби.
Як згадувалося вище, цього року ByteDance замовила у Nvidia графічних процесорів на суму понад $1 млрд. Обсяг закупівель тільки Byte цього року близький до загального обсягу продажів комерційних графічних процесорів, проданих Nvidia в Китаї минулого року. Згідно з повідомленнями, є ще одна велика компанія із замовленням щонайменше на понад 1 мільярд юанів.
Можна побачити, що великі технологічні компанії Китаю дуже терміново купують графічні процесори.
Не тільки вітчизняні компанії, але й великі іноземні клієнти мають дуже високий попит на чіпи Nvidia A100/H100. Згідно зі статистичними даними, Baidu, яка першою почала тестувати продукти, подібні до ChatGPT, має щорічні капітальні витрати від 800 до 2 мільярдів доларів США з 2020 року, а Alibaba – від 6 до 8 мільярдів доларів США. У той же період Amazon, Meta, Google і Microsoft, чотири американські технологічні компанії, які побудували власні центри обробки даних, мали щорічні капітальні витрати в розмірі щонайменше 15 мільярдів доларів США.
В даний час видимість замовлень Nvidia досягла 2024, а високоякісних чіпів не вистачає. З поточним графіком виробництва навіть A800/H800 не буде поставлено до кінця цього або наступного року. У короткостроковій перспективі, з точки зору його популярності, єдине, що впливає на продажі графічних процесорів Nvidia високого класу, може бути виробнича потужність TSMC.
04. За "божевільною" Nvidia, вітчизняні чіпи недостатні як апаратно, так і програмно?
Судячи з постачання чіпів великомасштабних моделей, наразі немає заміни для A100, H100 і скорочених версій A800 і H800, спеціально поставлених до Китаю з точки зору навчання великомасштабних моделей ШІ.
Отже, чому в цьому раунді буму GPT Nvidia взяла лідерство та показала хороші результати?
Чжан Гаонань, керуючий партнер Huaying Capital, сказав, що, з одного боку, це тому, що Nvidia має самий ранній макет, а його структура мікроядра також розвивалася та вдосконалювалася від покоління до покоління. Тепер, чи то з точки зору паралелізму, швидкості шини чи зрілої підтримки мікроядра для трансформації матриць, його можливості вже дуже ефективні, включаючи водночас надання дуже повної обчислювальної платформи CUDA, яка фактично стала потенційним галузевим стандартом для алгоритми глибокого навчання Допоміжні засоби всього промислового ланцюга також є дуже повними, а комплексні бар’єри конкуренції та глибина рову надзвичайно високі.
Підводячи підсумок, нинішня незамінність графічного процесора Nvidia походить від механізму навчання великих моделей. Його основними кроками є попереднє навчання та тонке налаштування. Перше полягає в закладанні основи, що еквівалентно отриманню загальної освіти. Закінчити університет ; останній оптимізований для конкретних сценаріїв і завдань для підвищення ефективності роботи.
Отже, чи можуть вітчизняні чіпи GPU підтримувати вимоги до обчислювальної потужності великих моделей?
У практичних застосуваннях вимоги великої моделі до обчислювальної потужності поділяються на два етапи: перший – це процес навчання великої моделі ChatGPT, інший – процес міркування для комерціалізації моделі. Тобто навчання штучному інтелекту полягає у створенні моделей, а міркування штучного інтелекту полягає у використанні моделей, а навчання вимагає вищої продуктивності чіпа.
На основі цього продовжують з’являтися вітчизняні компанії-виробники чіпів ШІ, випускаючи продукти на ринок один за одним. Такі компанії, як Suiyuan Technology, Biren Technology, Tianshu Zhixin і Cambrian, випустили власні хмарні GPU продукти, і теоретичні показники продуктивності не є слабкими. Мікросхема DCU «Shensu No. 1» компанії Haiguang Information має відносно повну екосистему програмного та апаратного забезпечення та сумісна з архітектурою CUDA. Великі інтернет-компанії, такі як Tencent, Baidu та Ali, також активно розгортають сферу чіпів штучного інтелекту шляхом інвестицій та інкубації.
Серед них навчання великомасштабної моделі потребує обробки інформації високої деталізації, що вимагає вищої точності та швидкості обчислень для чіпів навчання хмари. Наразі більшість вітчизняних графічних процесорів не мають можливості підтримувати навчання великомасштабної моделі. Це підходить для роботи з хмарним висновком, яка не вимагає такої високої деталізації інформації.
У березні цього року Baidu Li Yanhong публічно заявив, що чіп Kunlun зараз дуже підходить для міркування великих моделей і буде придатним для навчання в майбутньому.
Цзоу Вей, віце-президент Tianshu Zhixin, також сказав Xinchao IC, що все ще існує певний розрив між домашніми чіпами та останніми продуктами Nvidia, але з точки зору розрахунків висновків, домашні чіпи можуть досягти такої ж продуктивності, як і звичайні продукти, і з додатком Популярність штучного інтелекту, ринковий попит на чіпи для міркувань прискорить зростання, і з розширенням попиту вітчизняні чіпи також матимуть більший ринок.
Інша особа в галузі, яка не захотіла називати свого імені, сказала: «Внутрішня продукція GPU загального призначення має розрив із міжнародними флагманськими продуктами в підтримці широкомасштабного навчання моделей, але це не непоправне. Справа в тому, що галузь має не розроблений у напрямку великомасштабних моделей у визначенні продукту».
Наразі фахівці галузі проводять відповідні дослідження та намагаються, наприклад, думаючи про те, чи можна покращити обчислювальну потужність чіпів за допомогою чіплетів та вдосконаленого пакування. В даний час вітчизняні компанії GPU займаються розробкою чіпів і компонуванням у сфері великих моделей.
З точки зору капіталу, Чжан Гаонань, керуючий партнер Huaying Capital, сказав Xinchao IC, що Huaying протягом тривалого часу приділяє велику увагу інфраструктурі обчислювальної потужності. Чи то GPU, DPU чи більш передові фотоелектричні гібридні обчислення, квантові обчислення. , є Цільові дослідження та макет. Загалом він зосереджений на обчислювальній інфраструктурі загального призначення, такій як FPGA та периферійні обчислення. Навпаки, наразі багато мікросхем обчислювальної потужності навколо глибокого навчання, спеціальних алгоритмів, оптимізації локальної обчислювальної потужності тощо не є предметом його розгляду.
Насправді, окрім розриву в апаратній продуктивності, екосистема програмного забезпечення також є недоліком вітчизняних виробників мікросхем ШІ.
Чіп потребує адаптації до кількох рівнів, таких як апаратна система, ланцюжок інструментів, компілятор тощо, і потребує високої адаптивності. Інакше буде здаватися, що цей чіп може використовувати 90% обчислювальної потужності в одній сцені, але лише в іншій Вичерпано 80% сценарію продуктивності.
Як було сказано вище, Nvidia має очевидні переваги в цьому плані. Ще в 2006 році Nvidia запустила обчислювальну платформу CUDA, яка є механізмом програмного забезпечення для паралельних обчислень. Фреймворк CUDA об’єднує багато кодів, необхідних для запуску обчислювальної потужності GPU. Інженери можуть безпосередньо використовувати ці коди, не пишучи їх один за іншим. Розробники можуть використовувати CUDA для ефективнішого навчання ШІ та міркувань, а також краще використовувати обчислювальну потужність GPU. Сьогодні CUDA стала інфраструктурою штучного інтелекту, а базові фреймворки штучного інтелекту, бібліотеки та інструменти розробляються на основі CUDA.
Без цього набору мов кодування розробникам програмного забезпечення буде надзвичайно важко усвідомити цінність апаратного забезпечення.
Якщо графічні процесори та мікросхеми штучного інтелекту, крім Nvidia, хочуть отримати доступ до CUDA, вони повинні надати власне програмне забезпечення для адаптації. Згідно з інсайдерами галузі, я зв’язався з виробником графічних процесорів, не пов’язаних із компанією NVIDIA. Незважаючи на те, що ціна на чіпи та обслуговування у них нижча, ніж у NVIDIA, і обіцяє надавати більш своєчасні послуги, загальні витрати на навчання та розробку використання його графічного процесора будуть вищими, ніж у NVIDIA. невизначеність результатів і часу розробки.
Хоча графічні процесори Nvidia дорогі, насправді вони найдешевші у використанні. Для компаній, які мають намір скористатися можливістю великомасштабних моделей, гроші часто не є проблемою, а час є більш дорогоцінним ресурсом.Кожен має отримати достатню передову обчислювальну потужність якнайшвидше, щоб забезпечити перевагу першому.
Таким чином, для вітчизняних постачальників чіпів, навіть якщо продукт із порівнянною обчислювальною потужністю можна скласти за допомогою чіпів, клієнтам важче прийняти адаптацію програмного забезпечення та сумісність. Крім того, з точки зору роботи сервера витрати на його материнську плату, електроенергію, експлуатаційні витрати та такі питання, як споживання електроенергії та розсіювання тепла, які необхідно враховувати, значно збільшать експлуатаційні витрати центру обробки даних.
Оскільки ресурси обчислювальної потужності часто мають бути представлені у формі об’єднання, центри обробки даних зазвичай охочіше використовують той самий чіп або чіпи від однієї компанії, щоб зменшити складність об’єднання обчислювальних потужностей.
Вивільнення обчислювальної потужності вимагає складної взаємодії програмного та апаратного забезпечення, щоб перетворити теоретичну обчислювальну потужність чіпа в ефективну обчислювальну потужність. Клієнтам нелегко використовувати домашні мікросхеми штучного інтелекту. Заміна хмарних мікросхем штучного інтелекту потребує певних витрат і ризиків міграції, якщо тільки новий продукт не має переваг у продуктивності або може створити проблеми, які інші не можуть вирішити в певному вимірі. Інакше готовність клієнтів для заміни дуже низька.
Як єдиний постачальник GPU, який може справді обробляти ChatGPT, Nvidia є заслуженим «королем обчислювальної потужності ШІ». Шість років тому Хуан Реньсюнь особисто передав OpenAI перший суперкомп’ютер, оснащений чіпом A100, допоміг останньому створити ChatGPT і став лідером ери ШІ.
Однак, оскільки минулого року Сполучені Штати запровадили контроль над експортом, Nvidia заборонили експортувати до Китаю два своїх найдосконаліших графічних процесора, H100 і A100. Це, безсумнівно, удар для компаній, що розробляють додатки.
З точки зору безпеки та самоконтролю, це також відкриває нове вікно можливостей для вітчизняних компаній-виробників мікросхем. Хоча вітчизняні чіпи поступаються гігантам галузі, таким як Nvidia та AMD, щодо продуктивності та екології програмного забезпечення, що зумовлено складними міжнародними торговими відносинами та геополітичними факторами, «внутрішнє заміщення» стало головною темою розвитку вітчизняної напівпровідникової промисловості.
05. Висновок
Кожне збільшення обчислювальної потужності спричинить хвилю технологічних і промислових змін: центральні процесори ведуть людство в еру ПК, мобільні мікросхеми спровокують хвилю мобільного Інтернету, а мікросхеми штучного інтелекту подолають десятиліттями вузьке місце обчислювальної потужності ШІ. промисловість.
Сьогодні настав «момент AI iPhone», і дорога в наступну еру, можливо, вже попереду.
Незважаючи на те, що в області чіпів штучного інтелекту та систем програмного забезпечення в цих центрах обробки даних все ще домінують іноземні виробники, двері на ринок для «локалізації обчислювальної потужності» можуть відкритися зараз.