Велика модель Xiaomi дебютувала публічно під час щорічної промови Лей Цзюня у 2023 році.
Лей Цзюнь зазначив, що, на відміну від багатьох інтернет-платформ, ключовим напрямком прориву великої моделі Xiaomi є легка вага та локальне розгортання, яке може безперебійно працювати на стороні мобільних телефонів.
Він сказав, що в даний час модель MiLM1.3B з масштабом 1,3 мільярда параметрів була запущена на мобільних телефонах, і ефект можна порівняти з результатами великих моделей з 6 мільярдами параметрів у хмарних обчисленнях. У звіті, який він опублікував, велика наскрізна модель Xiaomi показала кращі результати, ніж модель ChatGLM2-6B Zhipu AI у різних темах китайської оцінки CMMLU, і розрив у балах з великою моделлю Baichuan-13B Baichuan Intelligent. було близько 5 хвилин.
(Джерело: Xiaomi)
Раніше широкомасштабна мовна модель попереднього навчання MiLM-6B/1.3B, розроблена Xiaomi, була розміщена на GitHub, платформі для розміщення коду, і посіла десяте місце в списку C-general, посідаючи перше місце за тією ж величиною параметрів і рейтингу. першим у китайському еталонні великих моделей "CMMLU", "MiLM-6B" посіла перше місце.
Звичайно, оскільки розміри цих списків тестів є загальнодоступними, багатьом великим модельним компаніям неважко виставити бали відповідно до тестових завдань. Тому ці результати оцінювання можна використовувати лише як довідкові, а не означати що результати абсолютно чудові.
У той же час Лей Цзюнь також оголосив, що Xiao Ai, як перший прикладний бізнес великої моделі Xiaomi, пройшов нове оновлення та офіційно відкрив тест запрошення.
Це поетапне досягнення великомасштабної моделі, досягнуте Xiaomi за чотири місяці з моменту анонсу нової команди великомасштабної моделі в квітні цього року.
Яке нове мислення вносить практика Xiaomi у впровадження великих моделей? Що це означає для виробників мобільних телефонів, які покладаються на нові технології?
1. Xiaomi не виробляє великих моделей загального призначення, а основна команда налічує близько 30 осіб
Xiaomi належить до раціональної школи на шляху великомасштабних моделей -** не женеться за масштабом параметрів і не робить універсальні великомасштабні моделі. **
Раніше під час телефонної конференції про прибутки Лу Вейбінг, президент Xiaomi Group, сказав, що Xiaomi буде активно використовувати великомасштабні моделі, і напрямок полягає в тому, щоб глибоко інтегрувати продукти та бізнес, і не буде створювати великомасштабні моделі загального призначення, такі як OpenAI. .
Відповідно до попередніх звітів Шенрана, доктор Ван Бін, директор Лабораторії штучного інтелекту Xiaomi Group, одного разу сказав, що Xiaomi не буде випускати продукт, схожий на ChatGPT, і що власноруч розроблена велика модель буде в кінцевому підсумку представлена продуктом, а відповідний уряд інвестує десятки мільйонів юанів. **
Він сказав: «Що стосується великих моделей, ми належимо до раціональної школи. Xiaomi має переваги в сценаріях застосування, і ми бачимо величезні можливості для поєднання великих моделей і сценаріїв».
Він розповів, що до народження ChatGPT компанія Xiaomi проводила внутрішні дослідження, розробку та застосування великих моделей.Тоді вона використовувала попереднє навчання + нагляд за виконанням завдань і тонке налаштування для ведення діалогу між людиною та машиною зі шкалою параметрів. від 2,8 млрд до 3 млрд. Це в основному досягається шляхом тонкого налаштування даних діалогу на основі попередньо навченої базової моделі, а не великої моделі загального призначення, як її зараз називають.
Згідно з загальнодоступною інформацією, нинішнім керівником великої модельної команди Xiaomi є Луань Цзянь, експерт у напрямку голосового штучного інтелекту, який підпорядковується Ван Біну, віце-голові технічного комітету та директору лабораторії ШІ. Уся велика модельна команда налічує близько 30 осіб.
Раніше Луань Цзянь був головним спеціалістом з голосу та керівником голосової групи інтелектуального голосового робота "Microsoft Xiaoice", дослідником у Науково-дослідному інституті Toshiba (Китай) і старшим науковим співробітником із голосу в Інженерній академії Microsoft (Китай). Після приєднання до Xiaomi Луань Цзянь відповідав за генерацію голосу, НЛП та інші команди, а також запроваджував відповідні технології в таких продуктах, як Xiao Ai. Ван Бін приєднався до Xiaomi у 2018 році та керує лабораторією штучного інтелекту з 2019 року. До того, як приєднатися до Xiaomi, він був науковим співробітником і керівником докторської дисертації в Інституті інформаційної інженерії Академії наук Китаю. За його плечима майже 30 років досліджень досвід у сфері пошуку інформації та обробки природної мови.
Масштабна модель також покладається на команду штучного інтелекту, яка стоїть за Xiaomi.Лей Цзюнь сказав, що після 7 років і 6 розширень команда штучного інтелекту Xiaomi налічує понад 3000 людей, які охоплюють CV, NLP, зображення штучного інтелекту, автономне водіння, робототехніку та інше. поля..
(Джерело: Xiaomi)
2. Google, Qualcomm і Huawei увійшли в гру один за одним
Крім Xiaomi, головною метою багатьох технологічних компаній є створення великих моделей для мобільних телефонів.
Технологічні компанії уявляють можливість великих моделей: незалежно від того, що ви відкриваєте – WPS, графічні документи чи електронні листи, якщо ви вводите такі команди, як написання, мобільний телефон може викликати локальні можливості для створення повної статті чи електронного листа. На мобільному телефоні всі додатки можуть у будь-який час зателефонувати місцевій великомасштабній моделі, щоб допомогти впоратися з роботою та вирішити життєві проблеми. Взаємодія між людьми та різними додатками на мобільному телефоні більше не полягає в частих клацаннях, але їх можна інтелектуально викликати голосом.
Багато компаній намагаються стиснути розмір моделі, щоб зробити більш практичним і економним локальне використання великих моделей на мобільних телефонах. На конференції Google I/O у травні цього року, коли Google випустив PaLM2, його було розділено на чотири специфікації відповідно до розміру, від малого до великого в порядку Gecko, Otter, Bison та Unicorn. Серед них найменший Gecko може І він швидкий, він може обробляти 20 токенів за секунду, що приблизно еквівалентно 16 або 17 словам, і він також може підтримувати мобільні телефони для роботи в автономному режимі. Але тоді Google не повідомляв, у якому телефоні використовуватиметься ця модель.
Наразі Qualcomm прийшла до конкретних результатів. На виставці 2023MWC у березні цього року компанія Qualcomm запустила Stable Diffusion, графічну модель Wensheng із понад 1 мільярдом параметрів, на смартфоні, оснащеному процесором Snapdragon 8 другого покоління. Під час демонстрації співробітники використовували Stable Diffusion для створення зображень на телефоні Android без підключення до Інтернету, і весь процес зайняв 15 секунд.
На CVPR, головній конференції науковців з комп’ютерного зору в червні, Qualcomm продемонструвала модель ControlNet, що працює на телефоні Android зі шкалою 1,5 мільярда параметрів, а час малювання склав лише 11,26 секунди. Зіад Асгар, старший віце-президент із управління продуктами та керівник відділу штучного інтелекту в Qualcomm, сказав: **Технічно потрібно менше місяця, щоб перенести ці великі моделі з понад 1 мільярдом параметрів у мобільні телефони. **
Остання подія полягає в тому, що Qualcomm оголосила про співпрацю з Meta для вивчення додатків і додатків на основі моделі Llama 2 на смартфонах, ПК, наголовних дисплеях AR/VR, автомобілях та інших пристроях на основі чіпа Qualcomm Snapdragon без підключення до мережі. Подавайте. Відповідно до Qualcomm, у порівнянні з хмарним LLM, запуск великомасштабних мовних моделей, таких як Llama 2 локально на пристрої, не тільки має нижчу вартість і кращу продуктивність, але також не вимагає підключення до онлайн-сервісів**, а сервіс є більш персоналізованим і більш ефективним. Безпечним і більш приватним.
Apple, яка офіційно не анонсувала жодних масштабних моделей, також вивчає можливості розміщення великомасштабних моделей на стороні пристроїв. Згідно зі звітом "Financial Times", Apple повністю набирає інженерів і дослідників для стиснення великих мовних моделей, щоб вони могли ефективно працювати на iPhone і iPad, а головною відповідальною командою є Machine Intelligence and Neural Design ( РОЗУМ) команда .
Зараз на Github популярна модель MLC LLM з відкритим кодом може підтримувати локальне розгортання. Він усуває обмеження пам’яті шляхом ретельного планування розподілу та активного стиснення параметрів моделі, а також може запускати моделі ШІ на різних апаратних пристроях, таких як iPhone. Проект був спільно розроблений доцентом CMU, технічним директором OctoML Чен Тіанькі та іншими дослідниками. Команда використовує технологію компіляції машинного навчання (MLC) як основу для ефективного розгортання моделей AI. Менш ніж через два дні після виходу MLC-LLM в Інтернет кількість зірок на GitHub наблизилася до 1000. Хтось тестував запуск великої мовної моделі локально в режимі польоту iPhone.
На відміну від іноземних Google і Qualcomm, які підкреслюють, що великі моделі можна розгортати локально на стороні пристрою та працювати в автономному режимі, вітчизняні виробники мобільних телефонів наразі віддають пріоритет розгортанню великих моделей на голосових помічниках мобільних телефонів або існуючих функціях пошуку зображень. це оновлення полягає у виклику додаткових можливостей хмари для використання великих моделей.
Цього разу Xiaomi використала велику модель на голосовому помічнику Xiao Ai. Однак, оскільки відповідна інформація про наскрізну велику модель Xiaomi не розголошується, неможливо точно судити про шлях розвитку великої моделі Xiaomi в майбутньому. Судячи з напрямку локального розгортання та легкої ваги, на якій підкреслив Лей Цзюнь, Xiaomi може спробувати запустити велику модель в автономному режимі на мобільному телефоні в майбутньому.
Huawei також намагається впровадити масштабні моделі на мобільних телефонах, але в центрі уваги все ще голосові помічники мобільного телефону та сцени пошуку зображень. Раніше в квітні на нещодавно випущеному мобільному телефоні Huawei P60 за новою функцією інтелектуального пошуку зображень стояла технологія мультимодальної великомасштабної моделі, і модель була мініатюризована на стороні мобільного телефону під час процесу. Нещодавно нещодавно оновлений термінальний інтелектуальний помічник Huawei Xiaoyi також оптимізував роботу на основі великої моделі та може рекомендувати ресторани відповідно до голосових підказок і виконувати нові функції, такі як підсумки.
OPPO та vivo також докладають зусиль у цьому напрямку. 13 серпня OPPO оголосила, що незабаром почне працювати новий помічник Xiaobu на основі AndesGPT. З даних видно, що після того, як помічник Xiaobu інтегрує можливості великих моделей, він буде більш ефективним у діалозі та копірайтингу.Уміння писати та інші аспекти будуть посилені. AndesGPT — це генеративна модель великої мови на основі гібридної хмарної архітектури, створеної OPPO Andes Intelligent Cloud Team.
Для виробників мобільних телефонів, незалежно від того, чи йдеться про локальне розгортання чи використання хмарних можливостей, великі моделі є новою можливістю, яку не можна втрачати для мобільних телефонів.
**3. Велика модель працює на мобільному телефоні, де основна проблема? **
Змусити велику модель працювати на мобільному телефоні – справа непроста.
Обчислювальна потужність є першочерговою проблемою. Використання великої моделі на мобільному телефоні вимагає не лише виклику обчислювальної потужності хмари, але й обчислювальної потужності кінцевого пристрою.Через велике споживання ресурсів великою моделлю, кожен виклик означає високу вартість. Голова правління Alphabet Джон Хеннессі одного разу зазначив, що вартість пошуку за допомогою великої мовної моделі в 10 разів вища, ніж вартість попереднього пошуку за ключовими словами. Минулого року в Google було 3,3 трильйона пошукових запитів, вартістю близько однієї п’ятої цента кожен. Аналітики Уолл-стріт прогнозують, що якщо Google використовуватиме великі мовні моделі для обробки половини своїх пошукових запитів, кожен з яких дає відповідь із приблизно 50 слів**, Google може зіткнутися зі збільшенням витрат на 6 мільярдів доларів до 2024 року. **
(Джерело: Reuters)
Запуск великих моделей на мобільному телефоні стикається з подібними проблемами з витратами.Це згадується у звіті Qualcomm «Гібридний штучний інтелект — це майбутнє штучного інтелекту», опублікованому Qualcomm, так само, як традиційні обчислення еволюціонували від мейнфрейму та клієнта до поєднання хмарних і периферійних терміналів. У тому ж режимі для запуску великої моделі на стороні терміналу також потрібна гібридна архітектура штучного інтелекту, яка дозволить розподіляти та координувати робочі навантаження штучного інтелекту між хмарою та крайовими терміналами**, дозволяючи виробникам мобільних телефонів використовувати обчислювальну потужність периферійних терміналів. зменшити витрати. Саме з огляду на ці витрати великі моделі можна розгортати локально.
Крім того, як особисті речі кожного, мобільний телефон є місцем, де генеруються дані, і великий обсяг особистих даних також зберігається локально. Якщо локальне розгортання можна реалізувати, це забезпечить захист для людей з точки зору безпеки та конфіденційності .
Це викликає другу проблему: якщо ви хочете використовувати більше кінцевих можливостей для запуску великих моделей, як ви можете зробити споживання енергії мобільного телефону дуже низьким і в той же час зробити модель більш ефективною?
Компанія Qualcomm одного разу заявила, що ключова можливість розгортання великих моделей на локальних пристроях, таких як мобільні телефони, полягає в повній оптимізації штучного інтелекту Qualcomm для апаратного та програмного забезпечення, включаючи набір інструментів покращення моделі штучного інтелекту Qualcomm (AIMET), механізм штучного інтелекту Qualcomm і пов’язані технології Qualcomm, такі як стек програмного забезпечення AI може стискати обсяг моделі, прискорювати міркування та зменшувати затримку виконання та енергоспоживання. Хоу Цзілей, глобальний віце-президент Qualcomm і керівник відділу досліджень штучного інтелекту Qualcomm, одного разу зазначив, що важливою частиною досліджень і розробок Qualcomm щодо високоефективного штучного інтелекту є загальне дослідження ефективності моделі. Мета полягає в зменшенні моделі штучного інтелекту в кількох напрямках. щоб він міг ефективно працювати на апаратному забезпеченні.
Стиснення однієї моделі не є невеликою складністю. Деяке стиснення моделі призведе до втрати продуктивності великих моделей, а деякі технічні методи можуть досягти стиснення без втрат, і всі вони вимагають інженерних спроб у різних напрямках за допомогою різних інструментів.
Ці ключові програмні та апаратні можливості є великим викликом для виробників мобільних телефонів. Сьогодні багато виробників мобільних телефонів зробили перший крок до запуску великих моделей мобільних телефонів. Далі, як зробити так, щоб краща велика модель вставлялася в кожен мобільний телефон більш економно та ефективно, є складнішим і критичнішим кроком.
Пригода тільки почалася.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Залучений у велику модель, новий наратив виробників мобільних телефонів
Автор|Wu Jingjing
Редагувати|Chestnuts
Джерело: Jiazi Guangnian
Велика модель Xiaomi дебютувала публічно під час щорічної промови Лей Цзюня у 2023 році.
Лей Цзюнь зазначив, що, на відміну від багатьох інтернет-платформ, ключовим напрямком прориву великої моделі Xiaomi є легка вага та локальне розгортання, яке може безперебійно працювати на стороні мобільних телефонів.
Він сказав, що в даний час модель MiLM1.3B з масштабом 1,3 мільярда параметрів була запущена на мобільних телефонах, і ефект можна порівняти з результатами великих моделей з 6 мільярдами параметрів у хмарних обчисленнях. У звіті, який він опублікував, велика наскрізна модель Xiaomi показала кращі результати, ніж модель ChatGLM2-6B Zhipu AI у різних темах китайської оцінки CMMLU, і розрив у балах з великою моделлю Baichuan-13B Baichuan Intelligent. було близько 5 хвилин.
Раніше широкомасштабна мовна модель попереднього навчання MiLM-6B/1.3B, розроблена Xiaomi, була розміщена на GitHub, платформі для розміщення коду, і посіла десяте місце в списку C-general, посідаючи перше місце за тією ж величиною параметрів і рейтингу. першим у китайському еталонні великих моделей "CMMLU", "MiLM-6B" посіла перше місце.
Звичайно, оскільки розміри цих списків тестів є загальнодоступними, багатьом великим модельним компаніям неважко виставити бали відповідно до тестових завдань. Тому ці результати оцінювання можна використовувати лише як довідкові, а не означати що результати абсолютно чудові.
У той же час Лей Цзюнь також оголосив, що Xiao Ai, як перший прикладний бізнес великої моделі Xiaomi, пройшов нове оновлення та офіційно відкрив тест запрошення.
Це поетапне досягнення великомасштабної моделі, досягнуте Xiaomi за чотири місяці з моменту анонсу нової команди великомасштабної моделі в квітні цього року.
Яке нове мислення вносить практика Xiaomi у впровадження великих моделей? Що це означає для виробників мобільних телефонів, які покладаються на нові технології?
1. Xiaomi не виробляє великих моделей загального призначення, а основна команда налічує близько 30 осіб
Xiaomi належить до раціональної школи на шляху великомасштабних моделей -** не женеться за масштабом параметрів і не робить універсальні великомасштабні моделі. **
Раніше під час телефонної конференції про прибутки Лу Вейбінг, президент Xiaomi Group, сказав, що Xiaomi буде активно використовувати великомасштабні моделі, і напрямок полягає в тому, щоб глибоко інтегрувати продукти та бізнес, і не буде створювати великомасштабні моделі загального призначення, такі як OpenAI. .
Відповідно до попередніх звітів Шенрана, доктор Ван Бін, директор Лабораторії штучного інтелекту Xiaomi Group, одного разу сказав, що Xiaomi не буде випускати продукт, схожий на ChatGPT, і що власноруч розроблена велика модель буде в кінцевому підсумку представлена продуктом, а відповідний уряд інвестує десятки мільйонів юанів. **
Він сказав: «Що стосується великих моделей, ми належимо до раціональної школи. Xiaomi має переваги в сценаріях застосування, і ми бачимо величезні можливості для поєднання великих моделей і сценаріїв».
Він розповів, що до народження ChatGPT компанія Xiaomi проводила внутрішні дослідження, розробку та застосування великих моделей.Тоді вона використовувала попереднє навчання + нагляд за виконанням завдань і тонке налаштування для ведення діалогу між людиною та машиною зі шкалою параметрів. від 2,8 млрд до 3 млрд. Це в основному досягається шляхом тонкого налаштування даних діалогу на основі попередньо навченої базової моделі, а не великої моделі загального призначення, як її зараз називають.
Згідно з загальнодоступною інформацією, нинішнім керівником великої модельної команди Xiaomi є Луань Цзянь, експерт у напрямку голосового штучного інтелекту, який підпорядковується Ван Біну, віце-голові технічного комітету та директору лабораторії ШІ. Уся велика модельна команда налічує близько 30 осіб.
Раніше Луань Цзянь був головним спеціалістом з голосу та керівником голосової групи інтелектуального голосового робота "Microsoft Xiaoice", дослідником у Науково-дослідному інституті Toshiba (Китай) і старшим науковим співробітником із голосу в Інженерній академії Microsoft (Китай). Після приєднання до Xiaomi Луань Цзянь відповідав за генерацію голосу, НЛП та інші команди, а також запроваджував відповідні технології в таких продуктах, як Xiao Ai. Ван Бін приєднався до Xiaomi у 2018 році та керує лабораторією штучного інтелекту з 2019 року. До того, як приєднатися до Xiaomi, він був науковим співробітником і керівником докторської дисертації в Інституті інформаційної інженерії Академії наук Китаю. За його плечима майже 30 років досліджень досвід у сфері пошуку інформації та обробки природної мови.
Масштабна модель також покладається на команду штучного інтелекту, яка стоїть за Xiaomi.Лей Цзюнь сказав, що після 7 років і 6 розширень команда штучного інтелекту Xiaomi налічує понад 3000 людей, які охоплюють CV, NLP, зображення штучного інтелекту, автономне водіння, робототехніку та інше. поля..
2. Google, Qualcomm і Huawei увійшли в гру один за одним
Крім Xiaomi, головною метою багатьох технологічних компаній є створення великих моделей для мобільних телефонів.
Технологічні компанії уявляють можливість великих моделей: незалежно від того, що ви відкриваєте – WPS, графічні документи чи електронні листи, якщо ви вводите такі команди, як написання, мобільний телефон може викликати локальні можливості для створення повної статті чи електронного листа. На мобільному телефоні всі додатки можуть у будь-який час зателефонувати місцевій великомасштабній моделі, щоб допомогти впоратися з роботою та вирішити життєві проблеми. Взаємодія між людьми та різними додатками на мобільному телефоні більше не полягає в частих клацаннях, але їх можна інтелектуально викликати голосом.
Багато компаній намагаються стиснути розмір моделі, щоб зробити більш практичним і економним локальне використання великих моделей на мобільних телефонах. На конференції Google I/O у травні цього року, коли Google випустив PaLM2, його було розділено на чотири специфікації відповідно до розміру, від малого до великого в порядку Gecko, Otter, Bison та Unicorn. Серед них найменший Gecko може І він швидкий, він може обробляти 20 токенів за секунду, що приблизно еквівалентно 16 або 17 словам, і він також може підтримувати мобільні телефони для роботи в автономному режимі. Але тоді Google не повідомляв, у якому телефоні використовуватиметься ця модель.
Наразі Qualcomm прийшла до конкретних результатів. На виставці 2023MWC у березні цього року компанія Qualcomm запустила Stable Diffusion, графічну модель Wensheng із понад 1 мільярдом параметрів, на смартфоні, оснащеному процесором Snapdragon 8 другого покоління. Під час демонстрації співробітники використовували Stable Diffusion для створення зображень на телефоні Android без підключення до Інтернету, і весь процес зайняв 15 секунд.
На CVPR, головній конференції науковців з комп’ютерного зору в червні, Qualcomm продемонструвала модель ControlNet, що працює на телефоні Android зі шкалою 1,5 мільярда параметрів, а час малювання склав лише 11,26 секунди. Зіад Асгар, старший віце-президент із управління продуктами та керівник відділу штучного інтелекту в Qualcomm, сказав: **Технічно потрібно менше місяця, щоб перенести ці великі моделі з понад 1 мільярдом параметрів у мобільні телефони. **
Остання подія полягає в тому, що Qualcomm оголосила про співпрацю з Meta для вивчення додатків і додатків на основі моделі Llama 2 на смартфонах, ПК, наголовних дисплеях AR/VR, автомобілях та інших пристроях на основі чіпа Qualcomm Snapdragon без підключення до мережі. Подавайте. Відповідно до Qualcomm, у порівнянні з хмарним LLM, запуск великомасштабних мовних моделей, таких як Llama 2 локально на пристрої, не тільки має нижчу вартість і кращу продуктивність, але також не вимагає підключення до онлайн-сервісів**, а сервіс є більш персоналізованим і більш ефективним. Безпечним і більш приватним.
Apple, яка офіційно не анонсувала жодних масштабних моделей, також вивчає можливості розміщення великомасштабних моделей на стороні пристроїв. Згідно зі звітом "Financial Times", Apple повністю набирає інженерів і дослідників для стиснення великих мовних моделей, щоб вони могли ефективно працювати на iPhone і iPad, а головною відповідальною командою є Machine Intelligence and Neural Design ( РОЗУМ) команда .
Зараз на Github популярна модель MLC LLM з відкритим кодом може підтримувати локальне розгортання. Він усуває обмеження пам’яті шляхом ретельного планування розподілу та активного стиснення параметрів моделі, а також може запускати моделі ШІ на різних апаратних пристроях, таких як iPhone. Проект був спільно розроблений доцентом CMU, технічним директором OctoML Чен Тіанькі та іншими дослідниками. Команда використовує технологію компіляції машинного навчання (MLC) як основу для ефективного розгортання моделей AI. Менш ніж через два дні після виходу MLC-LLM в Інтернет кількість зірок на GitHub наблизилася до 1000. Хтось тестував запуск великої мовної моделі локально в режимі польоту iPhone.
На відміну від іноземних Google і Qualcomm, які підкреслюють, що великі моделі можна розгортати локально на стороні пристрою та працювати в автономному режимі, вітчизняні виробники мобільних телефонів наразі віддають пріоритет розгортанню великих моделей на голосових помічниках мобільних телефонів або існуючих функціях пошуку зображень. це оновлення полягає у виклику додаткових можливостей хмари для використання великих моделей.
Цього разу Xiaomi використала велику модель на голосовому помічнику Xiao Ai. Однак, оскільки відповідна інформація про наскрізну велику модель Xiaomi не розголошується, неможливо точно судити про шлях розвитку великої моделі Xiaomi в майбутньому. Судячи з напрямку локального розгортання та легкої ваги, на якій підкреслив Лей Цзюнь, Xiaomi може спробувати запустити велику модель в автономному режимі на мобільному телефоні в майбутньому.
Huawei також намагається впровадити масштабні моделі на мобільних телефонах, але в центрі уваги все ще голосові помічники мобільного телефону та сцени пошуку зображень. Раніше в квітні на нещодавно випущеному мобільному телефоні Huawei P60 за новою функцією інтелектуального пошуку зображень стояла технологія мультимодальної великомасштабної моделі, і модель була мініатюризована на стороні мобільного телефону під час процесу. Нещодавно нещодавно оновлений термінальний інтелектуальний помічник Huawei Xiaoyi також оптимізував роботу на основі великої моделі та може рекомендувати ресторани відповідно до голосових підказок і виконувати нові функції, такі як підсумки.
OPPO та vivo також докладають зусиль у цьому напрямку. 13 серпня OPPO оголосила, що незабаром почне працювати новий помічник Xiaobu на основі AndesGPT. З даних видно, що після того, як помічник Xiaobu інтегрує можливості великих моделей, він буде більш ефективним у діалозі та копірайтингу.Уміння писати та інші аспекти будуть посилені. AndesGPT — це генеративна модель великої мови на основі гібридної хмарної архітектури, створеної OPPO Andes Intelligent Cloud Team.
Для виробників мобільних телефонів, незалежно від того, чи йдеться про локальне розгортання чи використання хмарних можливостей, великі моделі є новою можливістю, яку не можна втрачати для мобільних телефонів.
**3. Велика модель працює на мобільному телефоні, де основна проблема? **
Змусити велику модель працювати на мобільному телефоні – справа непроста.
Обчислювальна потужність є першочерговою проблемою. Використання великої моделі на мобільному телефоні вимагає не лише виклику обчислювальної потужності хмари, але й обчислювальної потужності кінцевого пристрою.Через велике споживання ресурсів великою моделлю, кожен виклик означає високу вартість. Голова правління Alphabet Джон Хеннессі одного разу зазначив, що вартість пошуку за допомогою великої мовної моделі в 10 разів вища, ніж вартість попереднього пошуку за ключовими словами. Минулого року в Google було 3,3 трильйона пошукових запитів, вартістю близько однієї п’ятої цента кожен. Аналітики Уолл-стріт прогнозують, що якщо Google використовуватиме великі мовні моделі для обробки половини своїх пошукових запитів, кожен з яких дає відповідь із приблизно 50 слів**, Google може зіткнутися зі збільшенням витрат на 6 мільярдів доларів до 2024 року. **
Запуск великих моделей на мобільному телефоні стикається з подібними проблемами з витратами.Це згадується у звіті Qualcomm «Гібридний штучний інтелект — це майбутнє штучного інтелекту», опублікованому Qualcomm, так само, як традиційні обчислення еволюціонували від мейнфрейму та клієнта до поєднання хмарних і периферійних терміналів. У тому ж режимі для запуску великої моделі на стороні терміналу також потрібна гібридна архітектура штучного інтелекту, яка дозволить розподіляти та координувати робочі навантаження штучного інтелекту між хмарою та крайовими терміналами**, дозволяючи виробникам мобільних телефонів використовувати обчислювальну потужність периферійних терміналів. зменшити витрати. Саме з огляду на ці витрати великі моделі можна розгортати локально.
Крім того, як особисті речі кожного, мобільний телефон є місцем, де генеруються дані, і великий обсяг особистих даних також зберігається локально. Якщо локальне розгортання можна реалізувати, це забезпечить захист для людей з точки зору безпеки та конфіденційності .
Це викликає другу проблему: якщо ви хочете використовувати більше кінцевих можливостей для запуску великих моделей, як ви можете зробити споживання енергії мобільного телефону дуже низьким і в той же час зробити модель більш ефективною?
Компанія Qualcomm одного разу заявила, що ключова можливість розгортання великих моделей на локальних пристроях, таких як мобільні телефони, полягає в повній оптимізації штучного інтелекту Qualcomm для апаратного та програмного забезпечення, включаючи набір інструментів покращення моделі штучного інтелекту Qualcomm (AIMET), механізм штучного інтелекту Qualcomm і пов’язані технології Qualcomm, такі як стек програмного забезпечення AI може стискати обсяг моделі, прискорювати міркування та зменшувати затримку виконання та енергоспоживання. Хоу Цзілей, глобальний віце-президент Qualcomm і керівник відділу досліджень штучного інтелекту Qualcomm, одного разу зазначив, що важливою частиною досліджень і розробок Qualcomm щодо високоефективного штучного інтелекту є загальне дослідження ефективності моделі. Мета полягає в зменшенні моделі штучного інтелекту в кількох напрямках. щоб він міг ефективно працювати на апаратному забезпеченні.
Стиснення однієї моделі не є невеликою складністю. Деяке стиснення моделі призведе до втрати продуктивності великих моделей, а деякі технічні методи можуть досягти стиснення без втрат, і всі вони вимагають інженерних спроб у різних напрямках за допомогою різних інструментів.
Ці ключові програмні та апаратні можливості є великим викликом для виробників мобільних телефонів. Сьогодні багато виробників мобільних телефонів зробили перший крок до запуску великих моделей мобільних телефонів. Далі, як зробити так, щоб краща велика модель вставлялася в кожен мобільний телефон більш економно та ефективно, є складнішим і критичнішим кроком.
Пригода тільки почалася.