8 серпня відбулася офіційна Всесвітня конференція з комп'ютерної графіки SIGGRAPH, найважливіший круглий стіл у світовій комп'ютерній індустрії.
Засновник і генеральний директор NVIDIA Дженсен Хуанг був присутній і представив нове покоління чіпа NVIDIA Super AI GH200. Дженсен Хуанг дуже впевнений у своєму новому флагманському продукті, називаючи GH200 «найшвидшою пам’яттю у світі».
**На сучасному ринку ШІ Nvidia називають «центром, який керує всім світом ШІ». **Незалежно від того, чи це OpenAI, чи Google, META, Baidu, Tencent, Alibaba, усі генеративні ШІ значною мірою покладаються на мікросхеми ШІ Nvidia для навчання.
Крім того, згідно з повідомленнями ЗМІ, загальний ринковий попит на чіп Nvidia AI H100 у серпні 2023 року може складати близько 432 000 штук, а поточна ціна чіпа H100 на Ebay навіть досягла 45 000 доларів США, що еквівалентно понад 300 000 юанів. Юань.
Існує понад 400 000 розривів мікросхем, ціна одиниці становить 45 000 доларів США, а загальна ціна може легко досягати мільйонів доларів.
Nvidia переживає ринкову хвилю, більш божевільну, ніж «ера майнінгу».
Чип штучного інтелекту, його важко знайти
Так звані мікросхеми штучного інтелекту насправді є графічними процесорами (GPU), головна роль яких полягає в тому, щоб допомагати виконувати численні обчислення, пов’язані з навчанням і розгортанням алгоритмів штучного інтелекту.
**Тобто всі види інтелектуальної продуктивності генеративного штучного інтелекту походять від стеку незліченних графічних процесорів. Чим більше чіпів використовується, тим розумнішим стає генеративний ШІ. **
OpenAI мовчить про деталі навчання GPT-4, але, згідно зі спекуляціями ЗМІ, GPT-4 потребує щонайменше 8192 мікросхем H100 за ціною 2 долари за годину, попереднє навчання може бути завершено приблизно за 55 днів, і вартість становить близько 21,5 мільйонів доларів (150 мільйонів юанів).
За словами керівників Microsoft, суперкомп’ютер зі штучним інтелектом, який забезпечує обчислювальну потужність для ChatGPT, — це великомасштабний суперкомп’ютер верхнього рівня, у який Microsoft інвестувала 1 мільярд доларів США у 2019 році, оснащений десятками тисяч графічних процесорів Nvidia A100 і понад 60 даними. Загалом у центрі розгорнуто сотні тисяч графічних процесорів Nvidia.
Чіп штучного інтелекту, необхідний ChatGPT, не фіксований, а поступово збільшений. Чим розумнішим є ChatGPT, тим ціною є потреба в дедалі більшій обчислювальній потужності. Згідно з прогнозом Morgan Stanley, GPT-5 потребуватиме використання близько 25 000 графічних процесорів, що приблизно в три рази перевищує GPT-4.
**Якщо ви хочете задовольнити потреби ряду продуктів штучного інтелекту, таких як OpenAI і Google, тоді це еквівалентно тому, що компанія Nvidia надає ядра для продуктів штучного інтелекту по всьому світу, що є чудовим випробуванням для виробничих потужностей Nvidia. **
NVIDIA H100
Незважаючи на те, що Nvidia виробляє мікросхеми штучного інтелекту на повну потужність, згідно з повідомленнями ЗМІ, потужність великомасштабного кластера H100 малих і великих хмарних провайдерів скоро вичерпається, і «серйозна проблема дефіциту» H100 триватиме принаймні до кінця 2024 року.
На даний момент чіпи Nvidia для ринку штучного інтелекту в основному поділяються на два типи: H100 і A100. H100 є флагманським продуктом. З точки зору технічних деталей, H100 приблизно в 3,5 рази швидше, ніж A100 у 16-бітній швидкості міркування, і 16-бітна швидкість навчання приблизно в 2,3 рази вища.
Незалежно від того, H100 чи A100, усі вони виробляються спільно TSMC, яка обмежує виробництво H100. За даними деяких ЗМІ, для кожного H100 від виробництва до доставки потрібно близько півроку, а ефективність виробництва дуже повільна.
Nvidia заявила, що збільшить потужність поставок чіпів AI у другій половині 2023 року, але не надала жодної кількісної інформації.
Багато компаній і покупців закликають Nvidia збільшити виробництво фабрик, щоб не тільки співпрацювати з TSMC, але і передавати більше замовлень Samsung і Intel.
** Швидша швидкість навчання **
**Якщо немає можливості збільшити виробничі потужності, то найкращим рішенням буде випуск чіпів з вищою продуктивністю, щоб виграти за якістю. **
У результаті Nvidia почала часто випускати нові графічні процесори для покращення можливостей навчання ШІ. По-перше, у березні цього року Nvidia випустила чотири мікросхеми штучного інтелекту, H100 NVL GPU, L4 Tensor Core GPU, L40 GPU і NVIDIA Grace Hopper, щоб задовольнити зростаючі вимоги до обчислювальної потужності генеративних ШІ.
Попереднє покоління ще не було випущено в серійне виробництво та не було запущено.Nvidia випустила оновлену версію H100, GH200, Хуан Реньсюнь на Всесвітній конференції SIGGRAPH з комп’ютерної графіки 8 серпня.
Зрозуміло, що новий суперчіп GH200 Grace Hopper заснований на 72-ядерному процесорі Grace, оснащеному 480 ГБ пам’яті ECC LPDDR5X і обчислювальним графічним процесором GH100, 141 ГБ пам’яті HBM3E, використовує шість стеків по 24 ГБ і використовує 6144-бітний інтерфейс пам’яті.
NVIDIA GH200
Найбільша чорна технологія GH200 полягає в тому, що як перший у світі чіп, оснащений пам’яттю HBM3e, він може збільшити локальну пам’ять GPU на 50%. І це також «конкретне оновлення» спеціально для ринку штучного інтелекту, оскільки генеративний ШІ верхнього рівня часто має величезний розмір, але обмежений обсяг пам’яті.
Згідно з загальнодоступною інформацією, пам’ять HBM3e — це пам’ять п’ятого покоління з високою пропускною здатністю SK Hynix.Це новий тип технології пам’яті з високою пропускною здатністю, яка може забезпечити вищу швидкість передачі даних у меншому просторі. Він має ємність 141 ГБ і пропускну здатність 5 ТБ на секунду, що може досягати 1,7 і 1,55 разів більше, ніж H100 відповідно.
З моменту випуску в липні SK Hynix став улюбленцем ринку GPU, випередивши прямих конкурентів Intel Optane DC і флеш-чіпи Z-NAND Samsung.
Варто відзначити, що SK Hynix завжди була одним з партнерів Nvidia.Починаючи з пам'яті HBM3, більшість продуктів Nvidia використовують продукти SK Hynix. Однак SK Hynix хвилювалася щодо виробничої потужності пам’яті, необхідної для чіпів AI, і Nvidia неодноразово просила SK Hynix збільшити виробничу потужність.
Коли велика родина з дистокією зустрічається з іншою великою родиною з дистокією, люди не можуть не хвилюватися про виробничу потужність GH200.
NVIDIA офіційно заявила, що порівняно з продуктом поточного покоління H100, GH200 має в 3,5 рази більшу ємність пам’яті та в 3 рази вищу пропускну здатність; а пам’ять HBM3e дозволить наступному поколінню GH200 працювати з моделями штучного інтелекту в 3,5 рази швидше, ніж поточна модель.
**Швидкість роботи моделі AI в 3,5 рази швидше, ніж у H100. Чи означає це, що 1 GH200 еквівалентний 3,5 H100? Усьому треба вчитися на практиці. **
Але наразі можна сказати точно те, що як найбільший постачальник на ринку штучного інтелекту Nvidia ще більше зміцнила свою лідируючу позицію та збільшила відставання від AMD та Intel.
NVIDIA Rivals
Зіткнувшись з дефіцитом у 430 000 мікросхем ШІ, жодна компанія не залишиться байдужою. Зокрема, найбільші конкуренти Nvidia AMD і Intel не дозволять монополізувати весь ринок.
14 червня цього року голова правління та генеральний директор AMD Су Цзифен інтенсивно випускав різноманітні нові програмні та апаратні продукти штучного інтелекту, включаючи мікросхему штучного інтелекту, розроблену для великих мовних моделей, MI300X. Офіційно розпочато позитивний виклик Nvidia на ринку AI.
З точки зору апаратних параметрів, AMD MI300X має цілих 13 маленьких чіпів, що містять в цілому 146 мільярдів транзисторів, і оснащений 128 ГБ пам'яті HBM3. Його щільність HBM у 2,4 рази більша, ніж у Nvidia H100, а його пропускна здатність у 1,6 рази більша, ніж у Nvidia H100, що означає, що швидкість обробки генеративного ШІ може бути прискорена.
Але, на жаль, цього флагманського чіпа штучного інтелекту немає в наявності, але очікується, що його повне масове виробництво почнеться в четвертому кварталі 2023 року.
Інший конкурент, Intel, придбав виробника чіпів штучного інтелекту HABANA Labs приблизно за 2 мільярди доларів у 2019 році, вийшовши на ринок чіпів штучного інтелекту.
У серпні цього року під час останнього звіту про прибутки Intel генеральний директор Intel Пет Гелсінгер сказав, що Intel розробляє суперкомп’ютерний чіп Falcon Shores AI наступного покоління під умовною назвою Falcon Shores 2, який, як очікується, буде випущений у 2026 році.
Окрім Falcon Shores 2, Intel також випустила AI-чіп Gaudi2, який уже почав продавати, а Gaudi3 знаходиться в розробці.
Шкода тільки, що характеристики чіпа Gaudi2 невисокі, і важко кинути виклик Nvidia H100 і A100.
AMD MI300X
** Окрім того, що іноземні напівпровідникові гіганти грають м’язами та починають «конкуренцію чіпів», вітчизняні напівпровідникові компанії також розпочали дослідження та розробку мікросхем ШІ. **
Серед них основна карта прискорення ШІ Kunlun RG800, карта прискорення Tiangai 100 від Tianshu Zhixin і навчальний продукт другого покоління Yunsui T20/T21 від Suiyuan Technology вказують на те, що вони можуть підтримувати навчання великомасштабних моделей.
У цій битві за чіпи, які використовують обчислювальну потужність як стандарт, а великі моделі штучного інтелекту як поле битви, Nvidia, як один із найбільших переможців на ринку штучного інтелекту, продемонструвала свою силу в дизайні чіпів і частці ринку.
Однак, незважаючи на те, що вітчизняні мікросхеми штучного інтелекту дещо відстають, темпи досліджень і розробок, а також розширення ринку ніколи не припинялися, і майбутнє варто дивитися з нетерпінням.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Дефіцит ядра AI, Nvidia розпродана
Автор: Sun Pengyue Редактор: Gale
Джерело: Цинк Фінанс
8 серпня відбулася офіційна Всесвітня конференція з комп'ютерної графіки SIGGRAPH, найважливіший круглий стіл у світовій комп'ютерній індустрії.
Засновник і генеральний директор NVIDIA Дженсен Хуанг був присутній і представив нове покоління чіпа NVIDIA Super AI GH200. Дженсен Хуанг дуже впевнений у своєму новому флагманському продукті, називаючи GH200 «найшвидшою пам’яттю у світі».
**На сучасному ринку ШІ Nvidia називають «центром, який керує всім світом ШІ». **Незалежно від того, чи це OpenAI, чи Google, META, Baidu, Tencent, Alibaba, усі генеративні ШІ значною мірою покладаються на мікросхеми ШІ Nvidia для навчання.
Крім того, згідно з повідомленнями ЗМІ, загальний ринковий попит на чіп Nvidia AI H100 у серпні 2023 року може складати близько 432 000 штук, а поточна ціна чіпа H100 на Ebay навіть досягла 45 000 доларів США, що еквівалентно понад 300 000 юанів. Юань.
Існує понад 400 000 розривів мікросхем, ціна одиниці становить 45 000 доларів США, а загальна ціна може легко досягати мільйонів доларів.
Nvidia переживає ринкову хвилю, більш божевільну, ніж «ера майнінгу».
Чип штучного інтелекту, його важко знайти
Так звані мікросхеми штучного інтелекту насправді є графічними процесорами (GPU), головна роль яких полягає в тому, щоб допомагати виконувати численні обчислення, пов’язані з навчанням і розгортанням алгоритмів штучного інтелекту.
**Тобто всі види інтелектуальної продуктивності генеративного штучного інтелекту походять від стеку незліченних графічних процесорів. Чим більше чіпів використовується, тим розумнішим стає генеративний ШІ. **
OpenAI мовчить про деталі навчання GPT-4, але, згідно зі спекуляціями ЗМІ, GPT-4 потребує щонайменше 8192 мікросхем H100 за ціною 2 долари за годину, попереднє навчання може бути завершено приблизно за 55 днів, і вартість становить близько 21,5 мільйонів доларів (150 мільйонів юанів).
За словами керівників Microsoft, суперкомп’ютер зі штучним інтелектом, який забезпечує обчислювальну потужність для ChatGPT, — це великомасштабний суперкомп’ютер верхнього рівня, у який Microsoft інвестувала 1 мільярд доларів США у 2019 році, оснащений десятками тисяч графічних процесорів Nvidia A100 і понад 60 даними. Загалом у центрі розгорнуто сотні тисяч графічних процесорів Nvidia.
Чіп штучного інтелекту, необхідний ChatGPT, не фіксований, а поступово збільшений. Чим розумнішим є ChatGPT, тим ціною є потреба в дедалі більшій обчислювальній потужності. Згідно з прогнозом Morgan Stanley, GPT-5 потребуватиме використання близько 25 000 графічних процесорів, що приблизно в три рази перевищує GPT-4.
**Якщо ви хочете задовольнити потреби ряду продуктів штучного інтелекту, таких як OpenAI і Google, тоді це еквівалентно тому, що компанія Nvidia надає ядра для продуктів штучного інтелекту по всьому світу, що є чудовим випробуванням для виробничих потужностей Nvidia. **
Незважаючи на те, що Nvidia виробляє мікросхеми штучного інтелекту на повну потужність, згідно з повідомленнями ЗМІ, потужність великомасштабного кластера H100 малих і великих хмарних провайдерів скоро вичерпається, і «серйозна проблема дефіциту» H100 триватиме принаймні до кінця 2024 року.
На даний момент чіпи Nvidia для ринку штучного інтелекту в основному поділяються на два типи: H100 і A100. H100 є флагманським продуктом. З точки зору технічних деталей, H100 приблизно в 3,5 рази швидше, ніж A100 у 16-бітній швидкості міркування, і 16-бітна швидкість навчання приблизно в 2,3 рази вища.
Незалежно від того, H100 чи A100, усі вони виробляються спільно TSMC, яка обмежує виробництво H100. За даними деяких ЗМІ, для кожного H100 від виробництва до доставки потрібно близько півроку, а ефективність виробництва дуже повільна.
Nvidia заявила, що збільшить потужність поставок чіпів AI у другій половині 2023 року, але не надала жодної кількісної інформації.
Багато компаній і покупців закликають Nvidia збільшити виробництво фабрик, щоб не тільки співпрацювати з TSMC, але і передавати більше замовлень Samsung і Intel.
** Швидша швидкість навчання **
**Якщо немає можливості збільшити виробничі потужності, то найкращим рішенням буде випуск чіпів з вищою продуктивністю, щоб виграти за якістю. **
У результаті Nvidia почала часто випускати нові графічні процесори для покращення можливостей навчання ШІ. По-перше, у березні цього року Nvidia випустила чотири мікросхеми штучного інтелекту, H100 NVL GPU, L4 Tensor Core GPU, L40 GPU і NVIDIA Grace Hopper, щоб задовольнити зростаючі вимоги до обчислювальної потужності генеративних ШІ.
Попереднє покоління ще не було випущено в серійне виробництво та не було запущено.Nvidia випустила оновлену версію H100, GH200, Хуан Реньсюнь на Всесвітній конференції SIGGRAPH з комп’ютерної графіки 8 серпня.
Зрозуміло, що новий суперчіп GH200 Grace Hopper заснований на 72-ядерному процесорі Grace, оснащеному 480 ГБ пам’яті ECC LPDDR5X і обчислювальним графічним процесором GH100, 141 ГБ пам’яті HBM3E, використовує шість стеків по 24 ГБ і використовує 6144-бітний інтерфейс пам’яті.
Найбільша чорна технологія GH200 полягає в тому, що як перший у світі чіп, оснащений пам’яттю HBM3e, він може збільшити локальну пам’ять GPU на 50%. І це також «конкретне оновлення» спеціально для ринку штучного інтелекту, оскільки генеративний ШІ верхнього рівня часто має величезний розмір, але обмежений обсяг пам’яті.
Згідно з загальнодоступною інформацією, пам’ять HBM3e — це пам’ять п’ятого покоління з високою пропускною здатністю SK Hynix.Це новий тип технології пам’яті з високою пропускною здатністю, яка може забезпечити вищу швидкість передачі даних у меншому просторі. Він має ємність 141 ГБ і пропускну здатність 5 ТБ на секунду, що може досягати 1,7 і 1,55 разів більше, ніж H100 відповідно.
З моменту випуску в липні SK Hynix став улюбленцем ринку GPU, випередивши прямих конкурентів Intel Optane DC і флеш-чіпи Z-NAND Samsung.
Варто відзначити, що SK Hynix завжди була одним з партнерів Nvidia.Починаючи з пам'яті HBM3, більшість продуктів Nvidia використовують продукти SK Hynix. Однак SK Hynix хвилювалася щодо виробничої потужності пам’яті, необхідної для чіпів AI, і Nvidia неодноразово просила SK Hynix збільшити виробничу потужність.
Коли велика родина з дистокією зустрічається з іншою великою родиною з дистокією, люди не можуть не хвилюватися про виробничу потужність GH200.
NVIDIA офіційно заявила, що порівняно з продуктом поточного покоління H100, GH200 має в 3,5 рази більшу ємність пам’яті та в 3 рази вищу пропускну здатність; а пам’ять HBM3e дозволить наступному поколінню GH200 працювати з моделями штучного інтелекту в 3,5 рази швидше, ніж поточна модель.
**Швидкість роботи моделі AI в 3,5 рази швидше, ніж у H100. Чи означає це, що 1 GH200 еквівалентний 3,5 H100? Усьому треба вчитися на практиці. **
Але наразі можна сказати точно те, що як найбільший постачальник на ринку штучного інтелекту Nvidia ще більше зміцнила свою лідируючу позицію та збільшила відставання від AMD та Intel.
NVIDIA Rivals
Зіткнувшись з дефіцитом у 430 000 мікросхем ШІ, жодна компанія не залишиться байдужою. Зокрема, найбільші конкуренти Nvidia AMD і Intel не дозволять монополізувати весь ринок.
14 червня цього року голова правління та генеральний директор AMD Су Цзифен інтенсивно випускав різноманітні нові програмні та апаратні продукти штучного інтелекту, включаючи мікросхему штучного інтелекту, розроблену для великих мовних моделей, MI300X. Офіційно розпочато позитивний виклик Nvidia на ринку AI.
З точки зору апаратних параметрів, AMD MI300X має цілих 13 маленьких чіпів, що містять в цілому 146 мільярдів транзисторів, і оснащений 128 ГБ пам'яті HBM3. Його щільність HBM у 2,4 рази більша, ніж у Nvidia H100, а його пропускна здатність у 1,6 рази більша, ніж у Nvidia H100, що означає, що швидкість обробки генеративного ШІ може бути прискорена.
Але, на жаль, цього флагманського чіпа штучного інтелекту немає в наявності, але очікується, що його повне масове виробництво почнеться в четвертому кварталі 2023 року.
Інший конкурент, Intel, придбав виробника чіпів штучного інтелекту HABANA Labs приблизно за 2 мільярди доларів у 2019 році, вийшовши на ринок чіпів штучного інтелекту.
У серпні цього року під час останнього звіту про прибутки Intel генеральний директор Intel Пет Гелсінгер сказав, що Intel розробляє суперкомп’ютерний чіп Falcon Shores AI наступного покоління під умовною назвою Falcon Shores 2, який, як очікується, буде випущений у 2026 році.
Окрім Falcon Shores 2, Intel також випустила AI-чіп Gaudi2, який уже почав продавати, а Gaudi3 знаходиться в розробці.
Шкода тільки, що характеристики чіпа Gaudi2 невисокі, і важко кинути виклик Nvidia H100 і A100.
** Окрім того, що іноземні напівпровідникові гіганти грають м’язами та починають «конкуренцію чіпів», вітчизняні напівпровідникові компанії також розпочали дослідження та розробку мікросхем ШІ. **
Серед них основна карта прискорення ШІ Kunlun RG800, карта прискорення Tiangai 100 від Tianshu Zhixin і навчальний продукт другого покоління Yunsui T20/T21 від Suiyuan Technology вказують на те, що вони можуть підтримувати навчання великомасштабних моделей.
У цій битві за чіпи, які використовують обчислювальну потужність як стандарт, а великі моделі штучного інтелекту як поле битви, Nvidia, як один із найбільших переможців на ринку штучного інтелекту, продемонструвала свою силу в дизайні чіпів і частці ринку.
Однак, незважаючи на те, що вітчизняні мікросхеми штучного інтелекту дещо відстають, темпи досліджень і розробок, а також розширення ринку ніколи не припинялися, і майбутнє варто дивитися з нетерпінням.