Не просто дивіться на велику модель, майбутнє штучного інтелекту залежить від хмари, як ніколи раніше

Першоджерело: Silicon Star People

Джерело зображення: Створено Unbounded AI

**Хмара! **

Якщо ви щодня дивитеся на повідомлення ЗМІ про великі моделі, ви будете засліплені різноманіттям моделей і недовговічними страшними застосуваннями, думаючи, що майбутнє моделей лежить за наступною універсальною універсальною моделлю. Таким чином, штучний інтелект, схоже, є історією перемоги або OpenAI, або Anthropic.

Фінансування, яке було завершено з неймовірною швидкістю та обсягом, здається, підтверджує це сприйняття.

Anthropic, яка вважається одним із найбільших конкурентів OpenAI, перебуває в раунді фінансування в місячному циклі в 2 мільярди - 27 жовтня Google заявила, що інвестувала в неї ще $2 млрд, менш ніж через місяць після того, як Amazon вклала в неї $4 млрд, а її модель Claude, яка конкурує з такими функціями, як довжина контексту, вважається одним із найсильніших конкурентів для ChatGPT. У той же час OpenAI також збирає різні ресурси, і за кожним його кроком SoftBank, Microsoft і Apple по-різному стежать за ним.

Однак насправді це ще не вся історія.

Для практиків інша сторона історії є більш глибокою:

Очевидно, що краще брати долари тих інвесторів, у яких більше грошей і менше роботи, однак всі вони вибирають великі заводи один за одним, і навіть великі фабрики, які придивляються до них, тільки через одне - у них є можливості хмарних обчислень. Про внесок OpenAI в Microsoft Azure говорилося занадто багато разів на шляху до успіху, і тепер Anthropic гарантує собі підтримку потужності хмарних обчислень Google і Amazon одночасно, і вона заявила, що однією з важливих цілей фінансування є створення гарантії обчислювальної потужності для себе для навчання наступного покоління моделей.

Це чудове свідчення необхідності хмари для великих моделей.

На конференції Apsara 31 жовтня серія даних Alibaba Cloud говорила про те ж саме.

Alibaba Cloud анонсувала деякі моделі, які працюють поверх її послуг, від власної великої моделі Tongyi до Baichuan Intelligence, Zhipu AI, Zero One Everything, Kunlun Wanwei, vivo, Fudan University тощо, половина великих модельних компаній та установ Китаю навчаються тут.

Ці основні моделі в Китаї також надають послуги API через Alibaba Cloud, включаючи серію Tongyi, серію Baichuan, серію Zhipu AI ChatGLM, загальну модель Jiang Ziya тощо.

Ці моделі одночасно наздоганяють верхній рівень, але також починають нарощувати власні характеристики, серед яких одна з найголовніших великих модельних компаній Китаю Baichuan Intelligence, встановила в середньому 28 днів, щоб повторити версію рекорду великої моделі, це 30 жовтня Останній випуск Baichuan2-192K став найдовшою у світі підтримкою контекстного вікна великої моделі, може вводити 350 000 слів за раз, випереджаючи Claude2-100K.

Усі ці переваги вказують на більш приземлені застосування. Ван Сяочуань, генеральний директор Baichuan Intelligence, описав це як «на один крок повільніше, ніж ідеал, і на три кроки швидше на землі». З іншого боку, хмарна інфраструктура пропонує швидкі можливості.

Ван Сяочуань ввів, що важливою причиною щомісячної ітерації моделі Байчуань є підтримка хмарних обчислень. «Швидка ітерація та розгортання моделі невіддільні від хмарних обчислень, і Baichuan Intelligence та Alibaba Cloud здійснили поглиблену співпрацю. Спільними зусиллями обох сторін Байчуань успішно виконав навчальне завдання великої моделі кілокалорії, ефективно знизивши вартість висновування моделі та підвищивши ефективність розгортання моделі. "

Ще одна причина, чому важливість хмарних обчислень була недооцінена, полягає в тому, що сфера штучного інтелекту відволікається на «відсутність карток для всіх».

«Люди приділяють занадто багато уваги графічним процесорам». Багато великих практиків моделей говорили мені, що як обчислювальна одиниця вона дійсно постійно вдосконалюється, але для вирішення проблеми штучного інтелекту в кінцевому підсумку потрібне систематичне та оптимальне рішення обчислювальної потужності. Навіть хмара була річчю, яка вирішує проблему недостатньої потужності одного пристрою з моменту його створення.

«Тільки карта, тільки дивовижна модель на папері, цього недостатньо, і нарешті покластися на хмару, щоб приземлитися, а потім реалізувати ідеал». – сказав він. Якщо уважно нашорошити вуха і прислухатися до «криків» цих реальних учасників передової модельної екології, то можна почути одне слово:

Хмара!

Те, як розвиватиметься майбутнє штучного інтелекту, залежить від хмари сьогодні, як ніколи.

Нова хмара

Але це точно не означає, що хмарні вендори, які встановили перевагу, можуть лягти і виграти.

Просто подивіться, що сталося після того, як Google і Microsoft нещодавно опублікували свої звіти про прибутки в один день.

25 жовтня Google опублікував звіт про прибутки, який перевершив очікування, збільшившись на 11% у річному обчисленні, а основний рекламний бізнес також зріс на 9%. Але потім ціна акцій впала. Причина одна, хмарні обчислення зросли на 22%, але ринок вважає, що цього недостатньо. Зокрема, фінансовий звіт Microsoft, опублікований того ж дня, показав, що її інтелектуальний хмарний підрозділ став найбільшим джерелом доходу.

Вперше гіганти опиняються на узбіччі таких бізнесів, як реклама, про яку вони колись говорили, оскільки хмарні обчислення вважаються спостережуваним показником у порівнянні з прямим доходом, отриманим від моделей, які все ще є ілюзорними. За цим показником стоїть здатність постачальників хмарних послуг адаптуватися до викликів, які приносить штучний інтелект.

Навіть AWS, частка ринку No1, відчуває тиск, і інвестиції Amazon в Anthropic також відбулися під час цих звітів про прибутки. Повідомлялося, що 3% доходів Microsoft від Azure припадає на штучний інтелект, а серед його клієнтів є велика кількість користувачів OpenAI, а AWS починає робити акцент на своїх послугах для різних моделей. Після того, як 2 мільярди було кинуто на Anthropic, було негайно оголошено, що LLM після модельної компанії буде побудована з чіпом AWS для прискорення навчання Trainium і чіпом логічного висновку Inferentia. Крім того, такі як нове кластерне рішення, висвітлене у фінансовому звіті Microsoft, і Bedrock, повністю керований сервіс базової моделі для AWS, також наголошують на власній трансформації для нових потреб ШІ.

«Зіткнувшись з інтелектуальною ерою, Alibaba Cloud оновить свою систему хмарних обчислень за допомогою повного стека технологічних інновацій від базової обчислювальної потужності до платформи штучного інтелекту та модельного сервісу». Чжоу Цзінжень, який визначає технічний маршрут Alibaba Cloud, також дав свою відповідь на конференції Apsara. Зміни, відображені Alibaba Cloud цього разу, є рішучими та ґрунтовними, від текстури до ядра, всі вони трансформуються для ШІ.

Згідно зі вступом Чжоу Цзінгреня, Alibaba Cloud спочатку використала велику модель для трансформації, і понад 30 хмарних продуктів були підключені до можливостей великої моделі.

Наприклад, DataWorks, платформа управління великими даними Alibaba Cloud, додала нову інтерактивну форму Copilot, яка дозволяє користувачам генерувати SQL-вирази з введенням природної мови та автоматично виконувати відповідні операції ETL даних, підвищуючи загальну ефективність розробки та аналізу більш ніж на 30%.

Чжоу Цзінжень описав це як автономний режим водіння хмарних обчислень, який значно підвищить ефективність і досвід розробників, які використовують хмару.

У той же час Alibaba Cloud також оновила свою платформу штучного інтелекту PAI. Базовий рівень PAI використовує архітектуру кластерної мережі нового покоління HPN 7.0, підтримує масштабований масштаб кластерів до 100 000 карток, а коефіцієнт прискорення надмасштабного розподіленого навчання досягає 96%, що значно перевищує галузевий рівень. У великих модельних навчальних завданнях він може заощадити понад 50% обчислювальних ресурсів, а продуктивність є провідною у світі.

Ці професійні терміни дещо складні, пояснюються простими кейсами клієнтів, і Чжоу Цзінжень також поділився деякими кейсами в той же день: «Завдяки нашій платформі PAI це може допомогти оптимізувати міркування, допомогти Xiaohongshu заощадити 30% витрат і дійсно може сприяти швидкому зростанню бізнесу Xiaohongshu, а також різноманітним бізнес-потребам». "

Постачальники хмарних послуг, включаючи Alibaba Cloud, по суті, з'ясовують нову інфраструктуру. Зміни, викликані технологіями штучного інтелекту, такими як великі моделі, є повноцінними, від нижнього шару моделі до ідей навчання, від вимог до даних до інтерактивного інтерфейсу, змінюються і навіть потребують «переробки».

Відправною точкою всіх перетворень Alibaba Cloud є MaaS (модель як послуга), запропонована Чжоу Цзінжень на ранніх етапах.

«Сама модель є високорівневою абстракцією даних і обчислень». — сказав Чжоу Цзінжень у невеликій розмові з нами того дня.

«Наприклад, раніше ми використовували більше даних з журналів або баз даних. Що являє собою модель? Модель - це оброблена сукупність даних, яка є високоінтелектуальною абстракцією. Так що з цієї точки зору можна думати, що вихідні дані - це більш примітивний виробничий матеріал, що спирається на вихідні обчислювальні потужності. Сьогоднішня модель – це рівень обробки, який є більш абстрактним виробничим елементом, заснованим на сировині даних, і ви можете використовувати такі виробничі елементи для розробки бізнес-систем вищої розмірності. Раніше у нас була Infrastructure, яка була виробничим елементом, а сьогодні модель також є виробничим елементом. "

Ця нова інфраструктура навколо моделі вимагає більш складних системних можливостей, ніж у минулому.

У той час як поріг для додатків штучного інтелекту стає все нижчим і нижчим, поріг надання хмарних обчислень, які відповідають потребам нової ери штучного інтелекту, буде ставати все вище і вище. Щоб дослідити цю нову річ, очевидно, що вам потрібно освоїти основну технологію хмарних обчислень, і ви повинні мати реальне розуміння технології великих моделей - ви знаєте, що у вас є, і ви знаєте, що потрібно вашим клієнтам.

«Ґрунтуючись на наших накопиченнях у хмарних обчисленнях, ми побудували повну інфраструктуру штучного інтелекту. Завдяки сьогоднішній серії оптимізацій у мережах, зберіганні, плануванні, компіляції, відмовостійкості тощо. Ми створили повноцінну навчальну платформу для великих моделей зі штучним інтелектом. – сказав Чжоу Цзінжень. У той же час, завдяки серії оптимізацій у поєднанні з високою еластичністю самої хмари, ми можемо надати вам дуже повну послугу навчання моделі та висновків. "

У той же день Alibaba Cloud також випустила самостійно розроблену 100-мільярдну модель параметрів Tongyi Qianwen 2.0.

Tongyi Qianwen 2.0 досяг значного прогресу в продуктивності та значно покращив свою здатність розуміти складні інструкції, здатність до літературної творчості, здібності до загальної математики, пам'ять знань, стійкість до ілюзій тощо, а його всебічна продуктивність перевершила GPT-3.5, прискорюючись, щоб наздогнати GPT-4.

При цьому офіційний сайт моделі Tongyi був повністю оновлений, додавши мультимодальні взаємодії та функції плагіна, які дозволяють користувачам взаємодіяти з Tongyi Qianwen 2.0 через картинки, а також називати більш багатими новими можливостями плагіна.

Чжоу Цзінжень сказав: «Tongyi Qianwen 2.0 більш зрілий і простий у використанні».

Відкрити, відкрити або відкрити

При такій всеосяжній трансформації, природно, виникає питання про те, чи не перетвориться в кінцевому підсумку і модель, і інфраструктура в ситуацію, коли ви і суддя, і спортсмен.

Відповідь, яку дає Alibaba Cloud – максимальна відкритість.

Alibaba Cloud є найпершою технологічною компанією в Китаї, яка відкрила вихідний код для великих моделей, розроблених самостійно, і в даний час Alibaba Cloud має версії Tongyi Qianwen 7B і 14B з відкритим вихідним кодом з більш ніж одним мільйоном завантажень. На місці події Чжоу Цзінжень оголосив, що модель Tongyi Qianwen 72B незабаром стане моделлю з відкритим вихідним кодом у Китаї.

Насправді така відкритість – це не те, що станеться після ChatGPT. На конференції Apsara рік тому Alibaba Cloud почала будувати модельну магічну будівлю спільноти, фактично першою партією відкритого вихідного коду на той момент була власна модель ядра Alibaba Cloud. У той час план Moda полягав у тому, щоб використовувати Alibaba Cloud для передачі речей на дні коробки, щоб змусити всіх змінити закритий стан штучного інтелекту в минулому, і використовувати відкритість, щоб по-справжньому зробити його доступним для громадськості.

Чжоу Цзінжень розповів, що сьогодні спільнота зібрала понад 2 300 моделей штучного інтелекту, залучила 2,8 мільйона розробників штучного інтелекту, а кількість завантажень моделей штучного інтелекту перевищила 100 мільйонів, що зробило її найбільшою та найактивнішою спільнотою штучного інтелекту в Китаї. Це досягнення є найпрямішим визнанням його відкритості до зовнішнього світу.

Сьогодні Baichuan Intelligence, Zhipu AI, Шанхайська лабораторія штучного інтелекту, науково-дослідний інститут IDEA тощо відкрили вихідний код своїх основних великих моделей, а Alibaba Cloud надає розробникам безкоштовну обчислювальну потужність GPU для «ранніх послідовників» великих моделей, які на даний момент перевищили 30 мільйонів годин.

«Наше позиціонування сьогодні полягає в тому, щоб обслуговувати різноманітних клієнтів з різними потребами». – сказав Чжоу Цзінжень.

В екосистемі Alibaba Cloud є суперкомп'ютер, побудований спільно з Університетом Фудань, який підтримує навчання великих моделей із сотнями мільярдів параметрів, і входить до топ-15 у світі за загальною обчислювальною потужністю. Обчислювальний кластер, що стоїть за ним, складається з Jinsi No 1 у кампусі Фудань і Qiewen No 1 у центрі обробки даних Alibaba Cloud в Уланкабі за 1500 кілометрів.

vivo самостійно розробив великі моделі, від обчислювальної потужності, функцій платформи, продуктивності навчання тощо до фреймворку оптимізації навчання платформи штучного інтелекту PAI від Alibaba Cloud З точки зору нагляду SFT і тонкого налаштування великих моделей і навчання з підкріпленням, vivo та Alibaba Cloud співпрацюють для більш ефективної ітерації великих моделей.

Існує також популярна «Чудова качина камера», для генерації фотографій якої потрібно щонайменше кілька тисяч GPU-серверів на піковому рівні, а офлайн-розгортання недоцільне, а хмарне розгортання може значно заощадити кошти та час стартапів. Більше того, такі програми, як Miaoya, представляють тенденцію, згідно з якою в майбутньому потреба в висновках переважатиме потребу в навчанні, що лише зробить хмарні обчислення більш важливими для стійкості сервісів штучного інтелекту.

При такому позиціонуванні велика модель Alibaba Cloud більше схожа на продовження ідеї, яку Alibaba завжди використовувала в минулому - best practices. Його думка полягає в тому, що тільки після того, як він виконає найскладніші завдання і протестує з ним свою інфраструктуру, він зможе надавати більш надійні послуги і технології зовнішньому світу. І всі ці зусилля в кінцевому підсумку спрямовані на одну мету – сприяти індустріалізації ШІ.

Маючи на увазі цю мету, Alibaba Cloud також випустила Alibaba Cloud Bailian, універсальну платформу для розробки великомасштабних моделей додатків. Alibaba Cloud є системним і відкритим інтегратором.

У Alibaba Cloud заявили, що на його основі розробники можуть розробити велику модель-додаток за 5 хвилин, а «доопрацювати» модель під конкретне підприємство за кілька годин. Допомагаючи розробникам вибрати найбільш підходящу модель, він також надає різноманітні методи тонкого налаштування, такі як SFT і LoRA, що дозволяє точно налаштувати вашу модель. Після завершення навчання ви також можете розгорнути його через Alibaba Cloud одним клацанням миші. Розробка додатків також значно спрощується, і навіть найновіші агенти та інші плагіни доступні користувачам на вибір.

«Кожне посилання та кожна група людей сьогодні є важливою частиною всієї екосистеми розробників». – сказав Чжоу Цзінжень.

«Наша мета – зробити Alibaba Cloud найбільш відкритою хмарою, і ми сподіваємося, що сьогодні Alibaba Cloud може обслуговувати не тільки один тип клієнтів, але і всі наші клієнти сьогодні, всі з яких згадуються по-різному, зможуть ефективно надати їм підтримку в епоху штучного інтелекту, а також можуть допомогти їм впроваджувати інновації та робити прориви у власних галузях знань. Це наша мета і відображення, що стоїть за дизайном наших продуктів сьогодні. "

У сьогоднішньому «ідеалі на крок позаду» жвава модельна екосистема потребує не тільки хмари в реальному розвитку, але й натхнення хмарних обчислень для китайських технологічних компаній також надзвичайно важливе для сучасних практиків штучного інтелекту та моделей.

Процес розробки хмарних обчислень у Китаї завжди мав символічне значення, тобто, коли у нас є сильні таланти з розробки технологій і найбільші потреби в промисловому застосуванні, як спонтанно осягнути технологію, що лежить в її основі. І коли ви перебуваєте в певному технологічному невигідному становищі, такі можливості з'являться лише тоді, коли велика технологічна система буде повністю трансформована.

Коли нова технологічна революція знову настане, і технологію, що лежить в її основі, потрібно буде знову реконструювати, хмарні обчислення стали довірою та ціною китайської моделі, щоб продовжувати боротьбу зі своїми передовими колегами, а також це надихає та попереджає. У той час як індустрія штучного інтелекту та його застосування прискорюються, наявність власної передової технологічної бази та формування на її основі відкритих відносин взаємодопомоги стане важливим для спільного прогресу всієї екосистеми, а також важливо нагадати нам, як зрозуміти цю технологічну інновацію, і навіть очікується, що вона стане перевагою в цій конкуренції при постійних зусиллях.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити