OpenAI в небезпеці

Виготовлено | Tiger Sniff Technology Group Автор | Ци Цзянь Редактор | Ляо Ін

Джерело зображення: створено Unbounded AI‌

7 серпня ще одна вітчизняна стартап-компанія зі штучним інтелектом випустила власну безкоштовну комерційну модель штучного інтелекту з відкритим кодом: XVERSE-13B. Компанію під назвою Yuanxiang XVERSE заснував Яо Сін, колишній віце-президент Tencent і засновник лабораторії Tencent AI.

Оскільки в липні Meta випустила широкомасштабні моделі серії LLaMA 2 з відкритим вихідним кодом для безкоштовного комерційного використання, на ринку великомасштабних моделей ШІ назріває нова хвиля «відкритого коду».

2 серпня Wenxin Qianfan, платформа великомасштабних моделей штучного інтелекту під керівництвом Baidu, оголосила про доступ до повної серії моделей з відкритим кодом LLaMA2. Кількість великомасштабних моделей, які можна викликати на платформі, зросла до 33 За винятком 3 моделей Wenxin, інші 30 моделей є відкритими. Моделі, включаючи ChatGLM2, RWKV, MPT, Dolly, OpenLLaMA, Falcon тощо.

Наступного дня Alibaba Cloud також оголосила, що приєднається до рядів моделі з відкритим кодом. Модель параметрів Tongyi Qianwen із відкритим кодом із 7 мільярдів включає загальну модель Qwen-7B і діалогову модель Qwen-7B-Chat. Ці дві моделі були запущені в спільноті Mota. Вони є відкритими, безкоштовними та комерційно доступними.

Цікаво, що це позитивне ставлення до відкритого коду та відкритості почалося з Microsoft, великого власника закритої моделі ChatGPT. ** 18 липня Microsoft оголосила, що співпрацюватиме з Meta, щоб випустити комерційну версію моделі LLaMA 2 з відкритим вихідним кодом, надаючи підприємствам альтернативи моделям OpenAI і Google. **Монопольне становище OpenAI на ринку великомасштабних моделей штучного інтелекту, схоже, є «мішенню» всієї галузі, навіть її найближчих партнерів.

Будучи всесвітньо визнаною великою мовною моделлю номер один, OpenAI GPT-4 наразі є єдиною великою мовною моделлю, за яку готова платити велика кількість користувачів.

Кращий учень у класі зазвичай не має мотивації приєднатися до навчальної групи. Подібним чином, **OpenAI не має жодних причин або мотивації відкривати код. **

Однак із повним відкритим кодом LLaMA 2 все більше і більше розробників інвестують у Meta та різні моделі з відкритим кодом. Подібно до того, як Android використовує відкритий вихідний код для боротьби з iOS, велика кількість моделей штучного інтелекту з відкритим кодом активно обходять технічні бар’єри GPT-4 і оточуючого OpenAI за допомогою екосистеми з відкритим кодом. **

Чому відкритий код?

Коли OpenAI вперше запустив функцію плагіна, багато людей порівнювали модель AI з майбутніми Windows, iOS та Android. Тепер, з випуском LLaMA 2, велика модель штучного інтелекту є не тільки функцією, але навіть структура ринку розвивається в напрямку операційної системи.

Ініційований LMSYS Org, організацією під керівництвом Каліфорнійського університету в Берклі, це рейтингове змагання для великих мовних моделей (LLM); станом на 20 липня остання версія рейтингу нараховує 40 великих моделей штучного інтелекту, а п’ятірку найкращих все ще закрито. Джерела Model (Proprietary), які представляють собою три моделі GPT-4, GPT-3.5-turbo і Claude. Проте всі наступні 34 моделі, окрім PaLM-Chat-Bison-001 від Google, є моделями з відкритим кодом, 15 із яких є некомерційними.

* Таблиця лідерів LMSYS Org Large Language Models (LLM), опублікована 20 липня Chatbot Arena: обчислює рейтинги Elo, використовуючи понад 50 000 голосів користувачів. MT-Bench: набір складних багатораундових задач. MMLU (5-shot): тест, який вимірює багатозадачну точність моделі за 57 завданнями. *

Хоча з точки зору можливостей моделі, дивлячись на весь ринок, жодна модель, незалежно від відкритого чи закритого коду, не наважиться конкурувати з GPT-4. Однак «Тигри» не змогли протистояти «вовкам», і вони не змогли перемогти великі моделі GPT-4. Вони вирішили «пересмугуватися та обганяти» та використовувати відкритий вихідний код, щоб захопити екологію програми. Це, здається, дещо схоже на боротьбу Android проти iOS.

«Зараз усі великі моделі з відкритим кодом мають одну мету — маркетинг».

Засновник вітчизняної компанії з дослідження та розробки великомасштабних моделей із відкритим кодом зізнався Tiger Sniff, що головною причиною просування великомасштабних моделей із відкритим кодом і систем Android із відкритим кодом є безкоштовне захоплення ринку. «Багато великих компаній випустили великі моделі штучного інтелекту або навіть просто зробили додаток на основі існуючої моделі, а потім почали рекламувати його з великою помпою. Насправді, для користувачів базових великих моделей витрачати більше грошей на рекламу дорожче Це також найкращий спосіб для компаній штучного інтелекту довести свою силу.

По-перше, моделі з відкритим кодом легше оцінити, ніж моделі із закритим кодом. Оскільки код і набори даних моделей з відкритим вихідним кодом є загальнодоступними, дослідники можуть безпосередньо перевіряти архітектуру моделі, дані навчання та процес навчання, щоб провести більш глибокий аналіз моделі, щоб зрозуміти її сильні та слабкі сторони.

"Деякі великі моделі штучного інтелекту здаються дуже потужними, але вони не є відкритими, і ви можете бачити лише результати його виходу."

У порівнянні з моделлю з відкритим вихідним кодом модель із закритим вихідним кодом може зрозуміти переваги та недоліки моделі лише через оцінку ефективності моделі. Це призводить до того, що продуктивність закритих моделей може бути штучно перебільшена, або їх недоліки приховані. Прозорість моделі з відкритим кодом може допомогти розробникам отримати глибше розуміння моделі та оцінити її більш справедливо.

Для тих, хто запізнився, існує ще одна проблема із закритою моделлю: легко поставити під сумнів оригінальність технології. Багато великих розробників моделей одного разу сказали Huxiu: «Для тих моделей, які не є відкритим кодом, прямо кажучи, навіть якщо це оболонка LLaMA або просто викликає інтерфейс ChatGPT у фоновому режимі, хто знає?»

Коли вийшла перша хвиля вітчизняних великих моделей штучного інтелекту, подібні голоси сумнівів широко поширювалися в Інтернеті. Для великих моделей штучного інтелекту, які не мають відкритого коду, важко довести їх невинуватість. Щоб довести, що вони не викликають ChatGPT API, деякі компанії навіть перемістили аргументаційний сервер і витягли мережевий кабель, щоб продемонструвати на пляма.

Відкритий код, безсумнівно, є одним із найкращих способів самосертифікації великих моделей ШІ. Але справжня цінність **відкритого вихідного коду полягає не в здатності до самосертифікації, а в оволодінні екологією. **

«Після випуску LLaMA 2 він точно швидко захопить екосистему OpenAI.» Великий розробник моделей сказав Huxiu, що, хоча GPT-4 майже визнано галуззю як найпотужніший, моделі після GPT-3 не є відкритим кодом. Крім того, відкритість інтерфейсу API GPT-4 також дуже низька, тому існує багато обмежень на розробку моделі GPT. У результаті багато розробників обирають моделі з відкритим кодом, такі як LLaMA. Ці моделі з відкритим кодом можуть не лише налаштовувати інструкції, але й проводити дослідження базових моделей.

"LLaMA однозначно більш популярна серед розробників, ніж OpenAI."

Коли LLaMA 2 було вперше випущено 19 липня, на GitHub було понад 5600 проектів із ключовими словами, включаючи «LLaMA», і більше 4100 проектів, включаючи «GPT-4». Через два тижні після випуску LLaMA зростає швидше. На момент публікації налічується понад 6200 «LLaMA» та більше 4400 «GPT-4».

З іншого боку, моделі з відкритим кодом можна завантажити локально для приватизованого розгортання, що полегшує навчання ШІ для комерційних компаній. Додатки ШІ таких компаній потрібно навчати на основі їхніх власних бізнес-даних, а широкомасштабна модель ШІ, розгорнута приватно, може максимально захистити безпеку даних. У той же час існує більше можливостей вибору обчислювальної потужності для приватизованого розгортання, будь то хмарний сервіс, локальне розгортання або навіть розподілена обчислювальна потужність кількох IDC, що значно знижує вартість навчання моделі та міркування.

Незважаючи на те, що ChatGPT зібрав 100 мільйонів активних користувачів щомісяця лише за два місяці, в екосистемі розробників швидкість, з якою модель з відкритим кодом захоплює розуми користувачів, здається, швидше.

Зараз багато вітчизняних компаній зі штучного інтелекту вирішили випускати моделі з відкритим кодом. Серед них модель ChatGLM-6B з відкритим кодом, випущена Zhipu AI, MOSS, випущений Університетом Фудань, Wudao Tianying Aquila, випущений Zhiyuan Research Institute, і Baichuan-7B (13B), випущений Baichuan Intelligent. Серед них ChatGLM-6B, велика модель з відкритим кодом, випущена **Zhipu AI, була завантажена понад 4 мільйони разів у всьому світі та отримала 32 000 зірок на GitHub, що на 3 000 зірок більше, ніж LLaMA. **

«Якщо ми не створимо модель з відкритим кодом, ринок незабаром буде переповнений LLaMA.» Керівник компанії штучного інтелекту, яка запустила модель з відкритим кодом, сказав Huxiu, що відкритий код є важливим кроком у розвитку китайського штучного інтелекту. велика модель.

Деякі вітчизняні великі моделі ШІ з відкритим кодом

Насправді, до того, як почалася тенденція LLMs, генеративний ШІ вже вів битву між відкритим і закритим кодами.

**Завдяки великій кількості розробників і додатків для продуктів графова модель Wensheng із відкритим кодом Stable Diffusion майже загнала в кут першу закриту модель OpenAI Dall-E 2. Хоча користувачі загалом вважають, що модельні можливості Stable Diffusion не такі хороші, як інший продукт із закритим кодом MidJourney, Stable Diffusion захопив велику кількість ринків графів Вінсента завдяки своїм відкритим кодам і безкоштовним атрибутам і став Найпоширеніша графічна модель Вінсента. Компанія-розробник RunwayML And Stability AI також отримала багато уваги та фінансування. **

Модель LLaMA 2 з відкритим вихідним кодом, схоже, має намір примусити OpenAI у сфері LLM.

Відкритий код із товарами

LLaMA 2 наразі має відкритий вихідний код, усі три моделі в серії: версії з 7 мільярдами, 13 мільярдами та 70 мільярдами параметрів. Однак на ринку також ходять чутки про те, що «у Meta насправді є версія з більшими параметрами, яка не була випущена. Наступна версія може мати версію з більшими параметрами, але вона може бути не з відкритим кодом».

Варто зазначити, що в даний час багато моделей з відкритим кодом не всі є відкритими. У моделі Enlightenment 3.0, випущеній Науково-дослідним інститутом Zhiyuan, лише базова мовна модель "Tianying" є відкритою; ChatGLM, випущений Zhipu AI, відкриває лише частину серії моделей, а більша модель зі 130 мільярдів параметрів все ще закрита. джерело. **

Незалежно від того, чи «зарезервовано» LLaMA 2 для більших моделей, «вільна» форма, безсумнівно, прискорить формування Meta на ринку великих моделей і підштовхне її на «стару дорогу» Android.

Завдяки екосистемі з відкритим кодом система Android накопичила велику кількість розробників і користувачів у всьому світі. З точки зору технологічної екології, вона значно перевірила та збалансувала провідну закриту систему iOS і навіть сформувала власну монополію на деяких ринках. З 2018 року Євросоюз наклав на Google штраф у понад 4 мільярди євро через монопольний механізм системи Android. З цього захмарного штрафу ми також бачимо, наскільки прибутковою є система Android з відкритим кодом.

Згідно зі звітом дослідницької компанії Sensor Tower, витрати користувачів на Google Play становитимуть приблизно 53 мільярди доларів США у 2022 році, а у 2023 році ця цифра зросте до 60 мільярдів доларів США. Відповідно до звіту, опублікованого іншою дослідницькою установою, Statista, станом на січень 2022 року в Google Play Store є близько 140 000 програм.

На даному етапі модель штучного інтелекту з відкритим кодом, очевидно, ще не така популярна, як мобільні телефони. Однак, навіть якщо штучний інтелект справді настільки ж популярний, як мобільні телефони, такі гіганти, як Meta, не відпустять компанії, які заробили багато грошей на LLaMA 2.

В угоді з відкритим вихідним кодом LLaMA 2 є така умова: **Якщо кількість активних користувачів на місяць перевищує 700 мільйонів, ви повинні подати заявку на отримання ліцензії від Meta. Meta може на власний розсуд надати вам ліцензію, і ви не матимете права використовувати жодне з цих прав. **

У той же час, на додаток до закритої версії моделі з відкритим кодом і застосування великих моделей штучного інтелекту, це також може допомогти обчислювальній потужності «принести товар».

Перші два виробники в Китаї, які просувають широкомасштабні моделі ШІ, Baidu та Ali, обидва є хмарними постачальниками. Інші два постачальники хмарних технологій, Tencent Cloud і Huawei Cloud, хоч і не мають продуктів LLM, таких як Wenxin Yiyan і Tongyi Qianwen, вони також продовжують кричати про моделі ШІ. Основною причиною цього є «несучий ефект» великої моделі на хмару.

«Оголошення про деякі дії щодо великомасштабних моделей штучного інтелекту також спільно просуваються ринком і клієнтами. За останні кілька місяців було надто багато клієнтів, які прийшли запитати про великомасштабні моделі», — сказав керівник хмарного бізнесу Tencent. Huxiu, що обчислювальна потужність піднялася в чергу, що є найкращим доказом здатності великої моделі ШІ перевозити вантажі.

**Моделі не потрібно заробляти гроші, але обчислювальна потужність має бути прибутковою. **Alibaba відкрила Tongyi Qianwen, а Baidu представила 30 моделей з відкритим кодом на платформі великомасштабних моделей Wenxin Qianfan. Ці дві дії мають надати користувачам «безкоштовні» можливості AI. Користувачі, які використовують модель з відкритим вихідним кодом, більше не платять за ШІ, але поки їхній ШІ працює на Alibaba Cloud і Baidu Smart Cloud, їм доведеться платити за обчислювальну потужність.

«**Штучний інтелект також повинен повернутися до ідеї хмари та заробляти гроші на хмарі». Сінь Чжоу, генеральний менеджер Baidu Smart Cloud AI and Big Data Platform, сказав, що початковий намір відкрити Платформа великої моделі покликана створювати цінність для бізнесу клієнтів. Створюючи цінність, вона може посилити постійність старих клієнтів і збільшити кількість нових клієнтів. Це дуже допомагає в розширенні ефекту масштабу хмарних постачальників.

Безкоштовне дорожче

«10 мільйонів, це приблизно стільки ж, скільки стартова ціна за налаштування великої моделі.»

Засновник великої модельної компанії з відкритим кодом надав посереднику, який прийшов проконсультуватися по телефону, цінову пропозицію.

«Після того, як модель з відкритим вихідним кодом буде визнана користувачами, ви можете поговорити з іншими про комісію за послугу індивідуальної розробки». Після того, як засновник поклав слухавку, він пояснив Хусю, що для такої моделі, як LLaMA 2, вартість розробки становить принаймні те, що це коштує десятки мільйонів доларів. Тому ринок, на який він орієнтується, має в десятки чи сотні разів перевищувати вартість розробки.

З нинішньої точки зору, найкращий спосіб для **компаній зі штучним інтелектом заробляти гроші на моделях з відкритим вихідним кодом — почати з послуг. **

На щастя, більшість користувачів великих моделей ШІ дуже потребують цих послуг.

«Модель має відкритий вихідний код, безкоштовна та комерційно доступна. Це означає, що починаючи від завантаження моделі, розгортання моделі, навчання, налаштування та розробки додатків у реальних додатках, усю роботу потрібно виконувати самостійно». Розробник додатків LLaMA сказав Huxiu, більшість постачальників моделей із закритим вихідним кодом нададуть послуги з навчання та розгортання, а також можуть налаштувати функції розробки відповідно до потреб користувачів. Але якщо ви використовуєте модель з відкритим вихідним кодом, ви повинні виконувати всі ці завдання самостійно, ніхто не допоможе вам навчитися, ніхто не знайде вашу обчислювальну потужність і ніхто не допоможе вам налаштувати розробку.

«Насправді виробники моделей із закритим вихідним кодом продають послуги.» Керівник онлайн-освітнього закладу, який проводив дослідження застосування штучного інтелекту на основі моделі LLaMA, сказав Хусю: «Модель з відкритим кодом, здається, безкоштовна , але під час процесу розгортання ще потрібно витратити багато грошей». Після додавання моделі AI вартість робочої сили та обчислювальної потужності в ІТ-відділі значно зросла.

Хоча навчання та налаштування на основі моделей з відкритим кодом не є складним для більшості ІТ-персоналу. Однак для проведення поглибленого дослідження та розробки моделі все ще потрібні певні технічні резерви щодо алгоритмів та ШІ. Оскільки концепція великомасштабних моделей штучного інтелекту стає все більш популярною, ціна талантів у цій сфері також зростає.

«Збільшення витрат на оплату праці фактично плаває, але вартість серверів і апаратного забезпечення реальна. Від інвестування у великі моделі до теперішнього моменту наші витрати зросли приблизно на 20%-30%.», – сказав відповідальний представник Наразі його організація все ще перебуває на стадії дослідження сцени ШІ, і найбільша складність полягає в тому, що їй потрібно експериментувати з кожною сценою. «Якщо один виходить з ладу, замініть його іншим. У цьому процесі кожен крок коштує грошей».

У зв’язку з цим Huxiu запитав інсайдера Baidu Smart Cloud про послугу та вартість Baidu Wenxin Qianfan з точки зору розгортання. Це заощадить гроші.**»

Насправді, незалежно від того, чи це модель з відкритим або закритим кодом, вартість розгортання моделі розраховується на людину/день, і не буде суттєвої різниці у вартості обчислювальної потужності для наступних навчання та міркування. «**Однак використання моделей з відкритим кодом для самостійного навчання, розгортання та розробки лише ускладнить цей процес.» Інсайдер Baidu сказав, що конкретна вартість розгортання залежить від конкретного проекту, і різниця дуже велика. Однак насправді немає суттєвої різниці між відкритим кодом і закритим кодом з точки зору вартості розгортання та використання. **І з точки зору безпеки даних більшість моделей із закритим кодом також можна розгортати приватно.

**На цьому етапі ШІ все ще важко досягти інклюзивності. **

Для більшості компаній, які займаються Інтернет-бізнесом, у них є власні групи ІТ-дослідницьких і розробних технологій. Коли з’явиться велика модель, вони незабаром зможуть сформувати «стабільну» команду для розробки додатків ШІ. Але для багатьох галузей роздрібної торгівлі, традиційного виробництва та послуг цифрова трансформація є складною проблемою.Їм справді важко вивчати навчання, розгортання та обґрунтування великих моделей ШІ.

Для цих компаній найкращим продуктом ШІ є універсальний плагін ШІ. «Нам потрібен лише робот із обслуговування клієнтів, чиї розмови не виглядають такими ідіотськими. Я попросив мене навчитися тренувати модель, що трохи захоплююче». Менеджер бізнес-напряму бренду електронної комерції сказав Huxiu, що за останні шість місяців він просто слухав Кажуть, що здатність ШІ вести діалог сильніша, ніж раніше, але ChatGPT ще не випробували. Хоча він також готовий охоплювати нові технології, зараз для нього недостатньо мотивації витрачати час на навчання та інвестувати гроші в ШІ.

«Якщо на платформі чи програмному забезпеченні, яке я зараз використовую, немає плагіна, я можу використовувати його, просто взявши його, інакше я не буду надто думати про те, щоб витрачати гроші на негайне оновлення помічника ШІ ." Низький.

«** Продавцям для цього потрібен штучний інтелект, і його можна застосовувати та розширювати можливості без жодних почуттів». Виробник SaaS Weimob створив таку програму WAI у цифровому маркетингу, яка допомагає продавцям використовувати можливості штучного інтелекту у формі вбудовування існуючих програм. Надайте торговцям діалог ШІ та можливості генерації тексту та зображень на основі великих мовних моделей.

Відкрите підключення великих моделей до сервісних інструментів SaaS дещо схоже на виклик моделі Baidu Wenxin Qianfan. Хоча здійснюються лише виклики інтерфейсу та Finetune, він надає користувачам більше, швидших і стабільніших можливостей посадки штучного інтелекту.

«Моделі з відкритим кодом можуть полегшити користувачам початок роботи, і зараз багато моделей з відкритим кодом оновлюються швидше, ніж основні виробники.» Головний операційний директор Weimob Інь Шімінг вважає, що відкритий вихідний код і відкритість можуть швидко надати можливості ШІ. для користувачів У ваших руках те, що дійсно потрібно користувачам, — це штучний інтелект «підключи та працюй». **

Для більшості користувачів, які все ще перебувають на стадії тестування, експериментів і досвіду роботи з великими моделями штучного інтелекту, поріг для моделей з відкритим кодом, очевидно, нижчий, а стартові витрати майже нульові.

Багато користувачів використовували модель з відкритим кодом із самого початку, і вони продовжуватимуть використовувати її в майбутньому. Згадані вище проблеми з розгортанням і навчанням породжують ланцюжок індустрії послуг для моделей з відкритим кодом.

Чен Ран У цій хвилі підйому великої моделі нещодавно створений OpenCSG надає послуги навколо великої моделі з відкритим кодом.

Сервіс великих моделей, який надає OpenCSG, в основному спрямований на навчання та впровадження моделей з відкритим кодом для підприємств. Від вибору моделей з відкритим вихідним кодом до гібридної розподіленої обчислювальної потужності в поєднанні з навчанням бізнес-моделей і розробкою серверних додатків тощо, він може надавати послуги підприємствам.

«**Великі моделі, на мій погляд, схожі на всі SaaS. Вихідні та низхідні галузі будуть поступово збагачуватися, і клієнти не зосереджуватимуться лише на можливостях моделі.» Чен Ран вважає, що кінцевий попит клієнтів полягає не в тому, щоб знайти найбільше здатна модель, але краще, легше та простіше використовує великі моделі ШІ для обслуговування свого бізнесу.

Екологія відкритого коду навколо ШІ

У всьому ланцюжку індустрії штучного інтелекту відкритий код виходить далеко за рамки моделей. Майже кожне посилання невід’ємне від теми відкритого вихідного коду – від досліджень і розробок до розгортання та застосування.

**Алгоритми, обчислювальна потужність, дані та три елементи ШІ потребують підтримки відкритого коду. **

На рівні алгоритму великі моделі штучного інтелекту з відкритим кодом знаходяться на відносно пізній стадії. У ранніх дослідженнях і розробках штучного інтелекту майже всі моделі ШІ використовували рамки машинного навчання, які еквівалентні створенню наборів інструментів ШІ. Поточні базові фреймворки машинного навчання, включаючи TensorFlow, Pytorch і PaddlePaddle (літаюче весло), є фреймворками з відкритим кодом.

На рівні даних набір даних із відкритим кодом Commen Crowl є важливим джерелом даних у процесі навчання моделі GPT. Наразі багато установ і компаній, що займаються обробкою даних, випустили продукти з відкритим вихідним кодом на наборах навчальних даних штучного інтелекту, включаючи набір даних COIG-PC дослідницького інституту Zhiyuan та набір мультимодальних даних DOTS-MM-0526 Haitian AAC.

Для видавців наборів даних відкритий вихідний код може не лише підвищити вплив і цінність бренду, але набори відкритих вихідних даних також можуть збирати позитивні відгуки від спільноти відкритого коду, щоб знаходити та виправляти помилки чи невідповідності в даних. Ця зовнішня перевірка допомагає покращити якість даних, одночасно збагачуючи екосистему продуктів видавця.

«**Інженери-алгоритми часто стикаються з проблемою нестачі даних у дослідженнях і розробках. Високоякісні дані можуть якісно покращити оцінку моделі. **наразі моя країна стикається з дефіцитом високоякісних наборів даних, що також заважає Китаю «Haitian AAC є одним із постачальників навчальних даних моделі LLaMA 2 з відкритим кодом», — сказав Лі Ке, головний операційний директор Haitian AAC.

** З точки зору обчислювальної потужності, найбільше вузьке місце в розвитку штучного інтелекту, структура мікросхем з відкритим кодом також стимулює розвиток галузі. **

4 серпня Qualcomm оголосила про створення спільного підприємства з чотирма напівпровідниковими компаніями для прискорення комерціалізації чіпів на основі архітектури з відкритим кодом RISC-V. На даний момент на ринку є три стандартні чіп-фреймворки: x86, який використовується процесорами Intel, Arm, який використовується графічними процесорами Nvidia, і RISC-V, чіп-фреймворк з відкритим кодом.

«RISC-V може надати програмоване середовище. Команда розробників чіпів може використовувати RISC-V для виконання великої кількості робіт із попередньої та постобробки, а також може додавати спеціальні прискорювачі або функціональні модулі, які відповідають потребам користувачів для задоволення потреб користувачів «Ган Чжіцзянь, старший віце-президент із маркетингу та розвитку бізнесу в SiFive, сказав, що екосистема RISC-V надає безліч варіантів для дослідження та розробки мікросхем, що є великою підмогою для стрімкого зростання попиту на мікросхеми ШІ сьогодні.

Arm і x86 мають відносно закриті екосистеми порівняно з RISC-V. **В екосистемі Arm користувачі можуть вибирати лише обмежені параметри, надані Arm, тоді як в екосистемі RISC-V бере участь багато компаній, і буде більше типів продуктів і варіантів. **

Архітектура з відкритим вихідним кодом також стимулює індустрію чіпів до прискорення конкуренції. Ган Чжіцзянь сказав: «Як постачальник послуг архітектури чіпів з відкритим кодом, ми також будемо конкурувати з іншими компаніями. Але незалежно від того, виграємо ми чи виграють інші компанії, це Зрештою, це сприятиме процвітанню та прогресу екосистеми RISC-V.»

Незважаючи на те, що архітектура набору інструкцій RISC-V є безкоштовною та має відкритий вихідний код, основна IP-адреса, сформована виробниками мікросхем на основі вторинної розробки архітектури набору інструкцій RISC-V, має незалежні права інтелектуальної власності та може бути дозволена через зовнішні збори. Згідно з даними Міжнародного фонду RISC-V, у 2022 році кількість членів зросте більш ніж на 26% порівняно з минулим роком, а загальна кількість підрозділів учасників перевищить 3180, що охоплює 70 країн/регіонів, включаючи Qualcomm, Intel, Google, Alibaba, Huawei та UNISOC. Sharp та багато інших провідних виробників мікросхем.

Відкритий код є перевагою для RISC-V, але він також створює деякі проблеми. RISC-V містить лише понад 40 базових наборів інструкцій, а також десятки базових інструкцій розширення модулів.Будь-яке підприємство та розробник можуть безкоштовно використовувати RISC-V для створення мікросхем із незалежними правами інтелектуальної власності.

Однак модульні функції з відкритим вихідним кодом, які можна налаштувати, також роблять екосистему RISC-V більш фрагментованою та складною.

«Після того, як кожна дослідницько-розробна компанія чіпів оновить набір інструкцій RISC-V, вона фактично вироблятиме нову архітектуру. Вона називається RISC-V, але різні компанії несумісні з RISC-V, а екологія з відкритим кодом насправді є Лу Тао, президент Weiwei Technology і генеральний директор Greater China, вважає, що відкритість архітектури чіпа та екологія програмного забезпечення дуже важливі, але різним командам дуже важко знайти баланс між відкритістю, Перевірте мудрість і здібності команди дослідників і розробників.

Крім того, архітектура Arm вже випустила GPU, IPU та інші чіпи, придатні для навчання штучного інтелекту та міркування, а технічна екологія є більш повною та зрілою. Початковий намір RISC-V полягає в розробці ЦП. Хоча він дуже відкритий, дизайн чіпів ШІ все ще знаходиться на дослідницькій стадії.

За даними дослідницької фірми Counterpoint Research, до 2025 року загальний обсяг поставок процесорів RISC-V перевищить 80 мільярдів із загальним річним темпом зростання 114,9%. До того часу RISC-V займе 14% світового ринку ЦП, 28% ринку Інтернету речей, 12% промислового ринку та 10% автомобільного ринку.

Qualcomm вже впровадила RISC-V у мікроконтролери у своєму процесорі Snapdragon 865 SoC у 2019 році та на сьогодні поставила понад 650 мільйонів мікросхем RISC-V. На форумі AI Hardware Summit у вересні 2022 року професор Крсте Асанович, винахідник RISC-V, повідомив, що Google почав використовувати SiFive Intelligence X280 на базі RISC-V для розробки фреймворку машинного навчання TensorFlow.Чіпи TPU. **До цього компанія Google проводила самодослідження архітектури мікросхеми TPU протягом понад 10 років.

Хоча складно розробити чіпи RISC-V з нуля, відкритий код RISC-V дав китайським чіпам, які також почали з нуля, шанс вижити в умовах блокади та монополії. «З моєї точки зору, чіп Китаю Китаю компанії є найшвидшими у світі. Китайські компанії, що займаються виробництвом мікросхем, більш агресивні та готові протистояти викликам". Ган Чжицзянь сказав, що китайський ринок є ключовим фактором для стимулювання розвитку індустрії мікросхем. Китайський ринок чіпів величезний. Наприклад, попит на обчислювальну потужність автомобільних чіпів у Китаї значно перевищує попит на європейському та американському ринках. **Зі зростанням попиту китайських підприємств на обчислювальну потужність штучного інтелекту китайська індустрія чіпів штучного інтелекту безперечно відкриє більше можливостей у майбутньому.

Висновок

Окрім комерційних міркувань, **відкритий код також може допомогти технічним видавцям оптимізувати моделі. **

«ChatGPT — це фактично перемога інженерії.» Успіх сучасної великої мовної моделі насправді базується на багаторазовому навчанні та налаштуванні моделі. Якщо після створення базової моделі модель буде просунута до спільноти з відкритим кодом і більше розробників візьме участь у роботі з оптимізації моделі, це, безсумнівно, дуже допоможе прогресу великої моделі ШІ.

Крім того, «великі моделі з відкритим кодом можуть уникнути повторного винаходу велосипеда». Лінь Юнхуа, віце-президент і головний інженер Пекінського науково-дослідного інституту штучного інтелекту Чжиюань, сказав в інтерв’ю під час конференції Чжіюань 2023 року, припускаючи, що всі в ** походять з Дослідження та розробка широкомасштабних моделей загального призначення потребують великої обчислювальної потужності, даних та електроенергії.Це повне перевинахід колеса, що не сприяє раціональному використанню соціальних ресурсів. **

Для некомерційної організації, як-от Науково-дослідний інститут Zhiyuan, незалежно від того, є модель з відкритим або закритим кодом, комерційних міркувань може бути мало. Але для комерційних компаній штучного інтелекту, будь то Microsoft, Google, Meta, OpenAI або внутрішні Zhipu AI та Baichuan Intelligent, будь-яка велика модель штучного інтелекту точно не буде лише для цілей «наукових досліджень». **

Хоча продукти OpenAI мають абсолютну технологічну перевагу, екосистема ChatGPT, побудована у формі плагінів, слабка з точки зору екологічної конструкції. У суперечках щодо ШІ щодо відкритих і закритих вихідних кодів ми можемо побачити в майбутньому іншу модель, ніж мобільна операційна система.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити