В начале июня зарубежные СМИ выдали пытку «кто такой китайский OpenAI», и после того, как на волне крупномодельного предпринимательства устремились большие волны в песок, и в итоге осталось всего несколько человек.
Здание Xaar в нескольких перекрёстках за пределами Университета Цинхуа — это Байчуаньский Интеллект звездного предпринимателя Ван Сяочуаня, а Сетевое Здание Соху — это ИИ спектра мудрости, посланный академией. Пройдя тест рынка, они стали двумя самыми перспективными кандидатами.
Битва за два здания, похоже, тихо началась.
** С точки зрения финансирования, Zhipu AI и Baichuan Intelligent завершили несколько раундов крупномасштабного финансирования в этом году. **
(Интеллектуальное картографирование светового конуса: организовано в соответствии с общедоступной информацией)
В этом году совокупный общий объем финансирования Zhipu AI превысил 2,5 млрд юаней, а общий объем финансирования Baichuan Intelligent достиг 350 млн долларов США (около 2,3 млрд юаней). Согласно публичной информации, последняя оценка **Zhipu AI превысила 10 млрд юаней, что является самым высоким показателем или 15 млрд, что является одной из самых быстрых отечественных компаний с оценкой более 10 млрд юаней; ** После последнего раунда финансирования Baichuan Intelligent была оценена более чем в 1 миллиард долларов США (около 6,6 миллиарда юаней).
С точки зрения состава команды, Zhipu AI и Baichuan Intelligent Master выходят из одного дома, а Ван Шаолань, президент Zhipu AI, и Ван Сяочуань, основатель Sogou, являются предприимчивыми командами департамента Цинхуа.
** С точки зрения скорости технологического догоняющего развития эти два понятия также неразличимы. ** GLM-130B от Zhipu AI победил GPT-3, как только он вышел, а недавно выпущенная Baichuan 2 опережает Llama 2 во всех измерениях, являясь пионером в развитии экосистемы с открытым исходным кодом в Китае.
Все указывает на то, что Zhipu AI и Baichuan Intelligence стали «темными лошадками» на большом модельном треке Китая, и в условиях жесткой конкуренции кто из оленей умер?
Верят в OpenAI: Wisdom AI
Отношения между Zhipu AI и OpenAI можно проследить до 2020 года, который Чжан Пэн, генеральный директор Zhipu AI, расценил как настоящий «первый год большой языковой модели ИИ» в своем сердце.
Отношения между Zhipu AI и OpenAI можно проследить до 2020 года, который Чжан Пэн, генеральный директор Zhipu AI, расценил как настоящий «первый год большой языковой модели ИИ» в своем сердце.
В годовщину Zhipu AI, в радостной атмосфере, время от времени чувствуется некоторая тревога, вызванная рождением GPT-3. GPT-3, которая достигает 175 миллиардов параметров, является первой моделью большого языка в строгом смысле.
В то время Чжан Пэн был не только шокирован способностью к возникновению GPT-3, но и впал в размышления о том, «стоит ли следовать», было ли это тогда или сейчас, все в направлении сверхкрупномасштабной параметрической большой модели является крайне рискованной вещью. Взвесив все выше, Zhipu AI решила взять OpenAI в качестве эталона и инвестировать в разработку сверхмасштабных моделей предварительного обучения.
(Интеллектуальное картографирование светового конуса: организовано в соответствии с общедоступной информацией)
** С точки зрения выбора технологического пути, Zhipu AI обладает таким же независимым мышлением, как и OpenAI. **
В то время существовало несколько крупных модельных фреймворков для предварительного обучения, таких как BERT, GPT и T5. Эти три пути имеют свои преимущества и недостатки с точки зрения цели обучения, структуры модели, источника обучающих данных и размера модели.
Если сравнивать большой модельный процесс обучения с экзаменом по английскому языку, то BERT хорошо справляется с вопросами через взаимосвязь между словами и предложениями, а сдача экзамена через понимание, а его материалы для обзора в основном взяты из учебников и Википедии; GPT хорошо предсказывает следующее слово для выполнения вопросов, готовится к экзамену с помощью большой практики письма, а его обзорные материалы в основном поступают с различных веб-страниц; Т5 придерживается стратегии формализации вопросов, сначала переводя вопросы на китайский язык, а затем решая вопросы, а при рецензировании не только читая учебник, но и просматривая большое количество банков вопросов.
Как мы все знаем, Google выбрал BERT, OpenAI выбрал GPT, а Zhipu AI не стал слепо следовать, ** на основе этих двух маршрутов был предложен фреймворк алгоритма GLM (General Language Model). Фреймворк на самом деле реализует взаимодополняющие преимущества и недостатки BERT и GPT, «которые можно понять, продолжая и заполняя пробелы». **
Таким образом, GLM стал самой большой уверенностью для Zhipu AI в развитии OpenAI, и в рамках этой концепции модели серии GLM, такие как GLM-130B, ChatGLM-6B и ChatGLM2-6B, были последовательно выращены. Экспериментальные данные показывают, что большие модели серии GLM превосходят GPT с точки зрения точности понимания языка, скорости вывода, доли памяти и применения адаптации больших моделей.
(Источник: Интернет)
OpenAI в настоящее время является наиболее полным учреждением, которое может предоставлять базовые модельные услуги за рубежом, и его коммерциализация в основном делится на две категории, одна из которых - плата за сбор API, а другая - плата за подписку на ChatGPT. С точки зрения коммерциализации Zhipu AI также следует общей идее и находится в эшелоне предприятий с относительно зрелой коммерциализацией отечественных крупных моделей.
В соответствии с интеллектуальным расчесыванием оптического конуса в сочетании с посадкой китайских предприятий, бизнес-модель **Zhipu AI разделена на сбор API и режим приватизации. **
К общим типам предоставляемых моделей относятся большие языковые модели, суперантропоморфные большие модели, векторные большие модели и большие модели кода, а также для каждого варианта большой модели, включая стандартные цены, облачные частные цены и локальные частные цены. По сравнению с OpenAI, Zhapu AI не предоставляет услуги голосовых и графических больших моделей, но добавляет суперантропоморфные большие модели, которые также удовлетворяют потребности цифрового человека, интеллектуальных NPC и других отраслей Китая.
(Интеллектуальное картографирование светового конуса: организовано в соответствии с общедоступной информацией)
Light Cone Intelligence узнала от разработчика, что «в настоящее время характеристики платформы Baidu Wenxin Qianfan идеальны, характеристики Tongyi Qianwen гибкие, а Zhipu AI является одной из компаний с самой низкой платой за API среди основных производителей на рынке».
Комиссия за ChaGLM-Pro составляет 0,01 юаня/тысячу токенов, а разыгрывается 18 юаней, а комиссия ChaGLM-Lite снижается до 0,002 юаня/тыс. токенов. Для справки, OpenAI GPT-3.5 взимает 0,014 юаня/тыс. токенов, Ali Tongyi Qianwen-turbo — 0,012 юаня/тыс. токенов, а Baidu Wenxin One Word emie-bot-turbo — 0,008 юаня/тыс. токенов.
Как сказал Чжан Пэн, Zhipu AI также переживает новый этап «отказа от следования OpenAI» с OpenAI в качестве цели.
С точки зрения продуктового бизнеса, в отличие от OpenAI, которая фокусируется только на обновлении и создании ChatGPT, Zhipu AI решила атаковать с трех сторон.
Согласно официальному сайту, текущий бизнес Zhipu AI в основном разделен на три блока, а именно платформу MaaS с большой моделью, платформу технологического интеллекта AMiner и когнитивного цифрового человека. В результате были сформированы три основные матрицы продуктов ИИ: большие модельные продукты, продукты AMiner и продукты цифрового человека. Среди них крупногабаритные модельные изделия охватывают не только базовые диалоговые роботы, но и программирование, написание, покраску подвесных роботов.
(Источник: официальный сайт Zhipu AI)
В то же время Zhipu AI продолжает исследовать прикладную сторону за счет инвестиций. До сих пор Zhipu AI инвестировала в Lingxin Intelligence и Painting Wall Intelligence, а в сентябре этого года снова увеличила свои активы в Lingxin Intelligent.
Lingxin Intelligence также инкубируется с факультета компьютерных наук Университета Цинхуа, хотя кафедра и гомологична, но Lingxin Intelligence более склонна к применению, а разработанное ею интерактивное сообщество AiU представляет собой суперантропоморфную большую модель, основанную на Zhipu AI. Идея развития ее продуктов схожа с зарубежным Character AI, создавая ИИ-персонажей с разными личностями и персонажами, взаимодействуя и общаясь с ними, она больше склоняется к C-end приложениям и делает акцент на атрибутах развлечения.
** Переход от OpenAI к LIama: Baichuan Intelligence**
Light Cone Intelligence обнаружила, что по сравнению с OpenAI, Baichuan Intelligence больше похож на ламу.
**Во-первых, на основе оригинальной технологии и опыта, скорость выпуска и итерации очень высокая. **
Через полгода после своего основания Baichuan Intelligent последовательно выпустила четыре коммерческие модели с открытым исходным кодом baichuan-7B/13B, Baichuan2-7B/13B и две большие модели Baichuan-53B и Baichuan2-53B с закрытым исходным кодом. На момент открытия интерфейса API Baichuan2-53B 25 сентября, за последние 168 дней компания Baichuan Intelligent выпустила большую модель в среднем за несколько месяцев.
(Интеллектуальное картографирование светового конуса: организовано в соответствии с общедоступной информацией)
Meta полагается на LLama2, чтобы отвоевать позиции ИИ, а Baichuan Intelligent известна тем, что победила LLama2 с серией моделей с открытым исходным кодом Baichuan2.
По результатам тестов Baichuan2-7B-Base и Baichuan2-13B-Base превосходят LLaMA2 в нескольких авторитетных оценочных бенчмарках, таких как MMLU, CMMLU, GSM8K и т.д., и их производительность также очень яркая по сравнению с другими моделями с большим количеством тех же параметров, а их производительность значительно лучше, чем у конкурентов LLaMA2 и других моделей того же размера.
Факты доказали, что байчуаньская интеллектуальная большая модель действительно выдержала испытание. Согласно официальным данным, Baichuan был загружен более 5 миллионов раз в сообществе с открытым исходным кодом и более 3 миллионов раз в месяц.
Компания Light Cone Intelligent обнаружила, что интеллектуальная последовательная модель Baichuan имеет самое большое количество загрузок в сообществе с открытым исходным кодом Hugging Face — более 110 000, что по-прежнему является конкурентоспособным среди китайских и зарубежных моделей с открытым исходным кодом.
(Источник: официальный сайт Hugging Face)
Причина, по которой его открытый исходный код имеет преимущества, также связана с его сильной совместимостью, Baichuan Intelligent публично представила, что вся его большая базовая структура модели ближе к структуре LLAMA от Meta, поэтому она очень дружелюбна к предприятиям и производителям с открытым исходным кодом.
**"После открытого исходного кода экология будет построена вокруг LLaMA, и есть много проектов с открытым исходным кодом в зарубежных странах, которые следуют за LLaMA для продвижения, поэтому наша структура ближе к LLaMA." — сказал Ван Сяочуань.
В соответствии с интеллектом оптического конуса, Baichuan Intelligent использует горячую замену в архитектуре, которая может поддерживать случайное переключение между различными модулями модели Baichuan и модели LLAMA и модели Baichuan, например, обучение модели с помощью LLAMA, без модификации модель может быть напрямую помещена в Baichuan для использования. Это также объясняет, почему большинство интернет-производителей в настоящее время используют модель Baichuan, а поставщики облачных услуг внедряют модель серии Baichuan.
Путь, пройденный историей, ведет как в прошлое, так и в будущее, и крупномасштабное предпринимательство Ван Сяочуаня именно таково.
Основываясь на личности основателя Sogou и опыте работы с поисковыми технологиями, в первые дни предпринимательства Ван Сяочуань получил оценки многих людей: «Сяочуань наиболее подходит для больших моделей».
** Создание больших моделей в интерфейсе поиска и фреймворках стало фоновым цветом Baichuan Intelligence. **
Чэнь Вэйпэн (Chen Weipeng), соучредитель Baichuan Intelligent Technology, однажды сказал, что поисковые исследования и разработки имеют много общего с разработкой больших моделей: «Baichuan Intelligent быстро переносит опыт поиска на исследования и разработку больших моделей, что похоже на систематический проект «ракетостроения», демонтирующий сложные системы, способствующий сотрудничеству в команде и повышающий эффективность команды за счет оценки процессов».
Ван Сяочуань также выступил на пресс-конференции: «Поскольку у Baichuan Intelligence уже есть ген поиска, он, естественно, знает, как выбрать лучшие страницы из середины триллионов веб-страниц, которые могут быть дедуплицированы и защищены от мусора». При обработке данных Baichuan Intelligent также опирается на опыт предыдущих поисков и может выполнить очистку и дедупликацию сотен миллиардов данных за час».
Ядро его поиска больших моделей ярко отображено в Baichuan-53B. Решая проблему «иллюзии» больших моделей в сочетании с ускорением технологии поиска, компания Baichuan Intelligent провела оптимизацию в сборе информации, улучшении качества данных и улучшении поиска.
С точки зрения улучшения качества данных, основная идея Baichuan Intelligent заключается в том, чтобы «всегда брать лучшее», классифицировать данные с низким и высоким качеством в качестве стандарта и гарантировать, что Baichuan2-53B всегда использует высококачественные данные для предварительного обучения; С точки зрения сбора информации, Baichuan2-53B модернизировал несколько модулей, включая ключевые компоненты, такие как понимание намерения инструкции, интеллектуальный поиск и улучшение результатов, благодаря глубокому пониманию пользовательских инструкций, точному поиску терминов запроса и, наконец, объединению технологии больших языковых моделей для оптимизации надежности генерации результатов модели.
Несмотря на то, что компания Baichuan Intelligent начинала с открытого исходного кода, она начала изучать путь коммерциализации. Согласно официальной информации, целью Baichuan Intelligence является «создание лучшей базы больших моделей в Китае», а целью вертикального измерения является усиление в поисковой, мультимодальной, образовательной, медицинской и других областях.
Сегодняшняя коммерциализация сосредоточена в Baichuan2-53B, и на официальном сайте указано, что вызов API модели использует стандарт зарядки на основе времени. 0:00-8:00 взимает 0,01 юаня/тысячу токенов, 8:00-24:00 взимает 0,02 юаня/тысячу токенов, для сравнения, цена комиссии в дневное время выше, чем в ночное.
(Источник: официальный сайт Baichuan Intelligent)
Конец
Споры о том, кто является китайским OpenAI, не имеют особого смысла в первые дни разработки больших моделей. Многие стартапы, такие как Zhipu AI и Baichuan Intelligent, поняли, что слепо следовать по стопам OpenAI не целесообразно, например, Zhipu AI разъяснил технический путь «не делать китайский GPT». Более того, в то время, когда открытый исходный код становится популярным и образует осаду, абсолютное технологическое превосходство OpenAI не кажется нерушимым.
Zhipu AI, Baichuan Intelligent упомянул, что суперприложения - это более широкий рынок, но также зона комфорта крупных модельных предприятий Китая, больше не остается на месте, например, человек, близкий к Zhipu AI, однажды сообщил новость в СМИ, команда Zhipu AI твердо определила маршрут 2B, нацеленный на информационный и инновационный рынок, и за 5 месяцев быстро расширила команду, с 200 до 500 человек, для последующего резерва персонала 2B.
На пути коммерциализации Baichuan Intelligent решила обратиться к экологии с открытым исходным кодом Llama2, а также начала итерацию небольшими шагами.
Невооруженным глазом видно, что всего за полгода Baichuan Intelligent и Zhipu AI прошли технологическую ничейную землю и вышли на стадию коммерциализации промышленного десанта. По сравнению с предпринимательским бумом ИИ 1.0, период шлифовки технологии составляет целых 3 года (2016-2019), и именно из-за препятствия в коммерческом посадке большое количество ИИ-компаний коллективно упадут в 2022 году и упадут до рассвета.
Извлекая уроки из предыдущего этапа, а также потому, что универсальность технологии больших моделей удобнее для приземления, стартапы, представленные Baichuan Intelligence и Zhipu AI, собирают войска и лошадей для подготовки технологий, продуктов и кадровых резервов для следующего этапа.
Однако первые выстрелы были слышны только во время марафона, и говорить о том, что исход был слишком ранним, было рано. Но, по крайней мере, первый этап трассы разложен, а после того, как цель ясна, конкуренция становится еще более терпеливой и настойчивой. То же самое касается Baichuan Intelligence, Zhipu AI или OpenAI.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Байчуань VS Чжипу, кто такой китайский OpenAI?
Источник статьи: Light Cone Intelligence
Текст: Хао Синь
Редактор: Лю Юйци
В начале июня зарубежные СМИ выдали пытку «кто такой китайский OpenAI», и после того, как на волне крупномодельного предпринимательства устремились большие волны в песок, и в итоге осталось всего несколько человек.
Здание Xaar в нескольких перекрёстках за пределами Университета Цинхуа — это Байчуаньский Интеллект звездного предпринимателя Ван Сяочуаня, а Сетевое Здание Соху — это ИИ спектра мудрости, посланный академией. Пройдя тест рынка, они стали двумя самыми перспективными кандидатами.
Битва за два здания, похоже, тихо началась.
** С точки зрения финансирования, Zhipu AI и Baichuan Intelligent завершили несколько раундов крупномасштабного финансирования в этом году. **
В этом году совокупный общий объем финансирования Zhipu AI превысил 2,5 млрд юаней, а общий объем финансирования Baichuan Intelligent достиг 350 млн долларов США (около 2,3 млрд юаней). Согласно публичной информации, последняя оценка **Zhipu AI превысила 10 млрд юаней, что является самым высоким показателем или 15 млрд, что является одной из самых быстрых отечественных компаний с оценкой более 10 млрд юаней; ** После последнего раунда финансирования Baichuan Intelligent была оценена более чем в 1 миллиард долларов США (около 6,6 миллиарда юаней).
С точки зрения состава команды, Zhipu AI и Baichuan Intelligent Master выходят из одного дома, а Ван Шаолань, президент Zhipu AI, и Ван Сяочуань, основатель Sogou, являются предприимчивыми командами департамента Цинхуа.
** С точки зрения скорости технологического догоняющего развития эти два понятия также неразличимы. ** GLM-130B от Zhipu AI победил GPT-3, как только он вышел, а недавно выпущенная Baichuan 2 опережает Llama 2 во всех измерениях, являясь пионером в развитии экосистемы с открытым исходным кодом в Китае.
Все указывает на то, что Zhipu AI и Baichuan Intelligence стали «темными лошадками» на большом модельном треке Китая, и в условиях жесткой конкуренции кто из оленей умер?
Верят в OpenAI: Wisdom AI
Отношения между Zhipu AI и OpenAI можно проследить до 2020 года, который Чжан Пэн, генеральный директор Zhipu AI, расценил как настоящий «первый год большой языковой модели ИИ» в своем сердце.
Отношения между Zhipu AI и OpenAI можно проследить до 2020 года, который Чжан Пэн, генеральный директор Zhipu AI, расценил как настоящий «первый год большой языковой модели ИИ» в своем сердце.
В годовщину Zhipu AI, в радостной атмосфере, время от времени чувствуется некоторая тревога, вызванная рождением GPT-3. GPT-3, которая достигает 175 миллиардов параметров, является первой моделью большого языка в строгом смысле.
В то время Чжан Пэн был не только шокирован способностью к возникновению GPT-3, но и впал в размышления о том, «стоит ли следовать», было ли это тогда или сейчас, все в направлении сверхкрупномасштабной параметрической большой модели является крайне рискованной вещью. Взвесив все выше, Zhipu AI решила взять OpenAI в качестве эталона и инвестировать в разработку сверхмасштабных моделей предварительного обучения.
** С точки зрения выбора технологического пути, Zhipu AI обладает таким же независимым мышлением, как и OpenAI. **
В то время существовало несколько крупных модельных фреймворков для предварительного обучения, таких как BERT, GPT и T5. Эти три пути имеют свои преимущества и недостатки с точки зрения цели обучения, структуры модели, источника обучающих данных и размера модели.
Если сравнивать большой модельный процесс обучения с экзаменом по английскому языку, то BERT хорошо справляется с вопросами через взаимосвязь между словами и предложениями, а сдача экзамена через понимание, а его материалы для обзора в основном взяты из учебников и Википедии; GPT хорошо предсказывает следующее слово для выполнения вопросов, готовится к экзамену с помощью большой практики письма, а его обзорные материалы в основном поступают с различных веб-страниц; Т5 придерживается стратегии формализации вопросов, сначала переводя вопросы на китайский язык, а затем решая вопросы, а при рецензировании не только читая учебник, но и просматривая большое количество банков вопросов.
Как мы все знаем, Google выбрал BERT, OpenAI выбрал GPT, а Zhipu AI не стал слепо следовать, ** на основе этих двух маршрутов был предложен фреймворк алгоритма GLM (General Language Model). Фреймворк на самом деле реализует взаимодополняющие преимущества и недостатки BERT и GPT, «которые можно понять, продолжая и заполняя пробелы». **
Таким образом, GLM стал самой большой уверенностью для Zhipu AI в развитии OpenAI, и в рамках этой концепции модели серии GLM, такие как GLM-130B, ChatGLM-6B и ChatGLM2-6B, были последовательно выращены. Экспериментальные данные показывают, что большие модели серии GLM превосходят GPT с точки зрения точности понимания языка, скорости вывода, доли памяти и применения адаптации больших моделей.
OpenAI в настоящее время является наиболее полным учреждением, которое может предоставлять базовые модельные услуги за рубежом, и его коммерциализация в основном делится на две категории, одна из которых - плата за сбор API, а другая - плата за подписку на ChatGPT. С точки зрения коммерциализации Zhipu AI также следует общей идее и находится в эшелоне предприятий с относительно зрелой коммерциализацией отечественных крупных моделей.
В соответствии с интеллектуальным расчесыванием оптического конуса в сочетании с посадкой китайских предприятий, бизнес-модель **Zhipu AI разделена на сбор API и режим приватизации. **
К общим типам предоставляемых моделей относятся большие языковые модели, суперантропоморфные большие модели, векторные большие модели и большие модели кода, а также для каждого варианта большой модели, включая стандартные цены, облачные частные цены и локальные частные цены. По сравнению с OpenAI, Zhapu AI не предоставляет услуги голосовых и графических больших моделей, но добавляет суперантропоморфные большие модели, которые также удовлетворяют потребности цифрового человека, интеллектуальных NPC и других отраслей Китая.
Light Cone Intelligence узнала от разработчика, что «в настоящее время характеристики платформы Baidu Wenxin Qianfan идеальны, характеристики Tongyi Qianwen гибкие, а Zhipu AI является одной из компаний с самой низкой платой за API среди основных производителей на рынке».
Комиссия за ChaGLM-Pro составляет 0,01 юаня/тысячу токенов, а разыгрывается 18 юаней, а комиссия ChaGLM-Lite снижается до 0,002 юаня/тыс. токенов. Для справки, OpenAI GPT-3.5 взимает 0,014 юаня/тыс. токенов, Ali Tongyi Qianwen-turbo — 0,012 юаня/тыс. токенов, а Baidu Wenxin One Word emie-bot-turbo — 0,008 юаня/тыс. токенов.
Как сказал Чжан Пэн, Zhipu AI также переживает новый этап «отказа от следования OpenAI» с OpenAI в качестве цели.
С точки зрения продуктового бизнеса, в отличие от OpenAI, которая фокусируется только на обновлении и создании ChatGPT, Zhipu AI решила атаковать с трех сторон.
Согласно официальному сайту, текущий бизнес Zhipu AI в основном разделен на три блока, а именно платформу MaaS с большой моделью, платформу технологического интеллекта AMiner и когнитивного цифрового человека. В результате были сформированы три основные матрицы продуктов ИИ: большие модельные продукты, продукты AMiner и продукты цифрового человека. Среди них крупногабаритные модельные изделия охватывают не только базовые диалоговые роботы, но и программирование, написание, покраску подвесных роботов.
В то же время Zhipu AI продолжает исследовать прикладную сторону за счет инвестиций. До сих пор Zhipu AI инвестировала в Lingxin Intelligence и Painting Wall Intelligence, а в сентябре этого года снова увеличила свои активы в Lingxin Intelligent.
Lingxin Intelligence также инкубируется с факультета компьютерных наук Университета Цинхуа, хотя кафедра и гомологична, но Lingxin Intelligence более склонна к применению, а разработанное ею интерактивное сообщество AiU представляет собой суперантропоморфную большую модель, основанную на Zhipu AI. Идея развития ее продуктов схожа с зарубежным Character AI, создавая ИИ-персонажей с разными личностями и персонажами, взаимодействуя и общаясь с ними, она больше склоняется к C-end приложениям и делает акцент на атрибутах развлечения.
** Переход от OpenAI к LIama: Baichuan Intelligence**
Light Cone Intelligence обнаружила, что по сравнению с OpenAI, Baichuan Intelligence больше похож на ламу.
**Во-первых, на основе оригинальной технологии и опыта, скорость выпуска и итерации очень высокая. **
Через полгода после своего основания Baichuan Intelligent последовательно выпустила четыре коммерческие модели с открытым исходным кодом baichuan-7B/13B, Baichuan2-7B/13B и две большие модели Baichuan-53B и Baichuan2-53B с закрытым исходным кодом. На момент открытия интерфейса API Baichuan2-53B 25 сентября, за последние 168 дней компания Baichuan Intelligent выпустила большую модель в среднем за несколько месяцев.
Meta полагается на LLama2, чтобы отвоевать позиции ИИ, а Baichuan Intelligent известна тем, что победила LLama2 с серией моделей с открытым исходным кодом Baichuan2.
По результатам тестов Baichuan2-7B-Base и Baichuan2-13B-Base превосходят LLaMA2 в нескольких авторитетных оценочных бенчмарках, таких как MMLU, CMMLU, GSM8K и т.д., и их производительность также очень яркая по сравнению с другими моделями с большим количеством тех же параметров, а их производительность значительно лучше, чем у конкурентов LLaMA2 и других моделей того же размера.
Факты доказали, что байчуаньская интеллектуальная большая модель действительно выдержала испытание. Согласно официальным данным, Baichuan был загружен более 5 миллионов раз в сообществе с открытым исходным кодом и более 3 миллионов раз в месяц.
Компания Light Cone Intelligent обнаружила, что интеллектуальная последовательная модель Baichuan имеет самое большое количество загрузок в сообществе с открытым исходным кодом Hugging Face — более 110 000, что по-прежнему является конкурентоспособным среди китайских и зарубежных моделей с открытым исходным кодом.
Причина, по которой его открытый исходный код имеет преимущества, также связана с его сильной совместимостью, Baichuan Intelligent публично представила, что вся его большая базовая структура модели ближе к структуре LLAMA от Meta, поэтому она очень дружелюбна к предприятиям и производителям с открытым исходным кодом.
**"После открытого исходного кода экология будет построена вокруг LLaMA, и есть много проектов с открытым исходным кодом в зарубежных странах, которые следуют за LLaMA для продвижения, поэтому наша структура ближе к LLaMA." — сказал Ван Сяочуань.
В соответствии с интеллектом оптического конуса, Baichuan Intelligent использует горячую замену в архитектуре, которая может поддерживать случайное переключение между различными модулями модели Baichuan и модели LLAMA и модели Baichuan, например, обучение модели с помощью LLAMA, без модификации модель может быть напрямую помещена в Baichuan для использования. Это также объясняет, почему большинство интернет-производителей в настоящее время используют модель Baichuan, а поставщики облачных услуг внедряют модель серии Baichuan.
Путь, пройденный историей, ведет как в прошлое, так и в будущее, и крупномасштабное предпринимательство Ван Сяочуаня именно таково.
Основываясь на личности основателя Sogou и опыте работы с поисковыми технологиями, в первые дни предпринимательства Ван Сяочуань получил оценки многих людей: «Сяочуань наиболее подходит для больших моделей».
** Создание больших моделей в интерфейсе поиска и фреймворках стало фоновым цветом Baichuan Intelligence. **
Чэнь Вэйпэн (Chen Weipeng), соучредитель Baichuan Intelligent Technology, однажды сказал, что поисковые исследования и разработки имеют много общего с разработкой больших моделей: «Baichuan Intelligent быстро переносит опыт поиска на исследования и разработку больших моделей, что похоже на систематический проект «ракетостроения», демонтирующий сложные системы, способствующий сотрудничеству в команде и повышающий эффективность команды за счет оценки процессов».
Ван Сяочуань также выступил на пресс-конференции: «Поскольку у Baichuan Intelligence уже есть ген поиска, он, естественно, знает, как выбрать лучшие страницы из середины триллионов веб-страниц, которые могут быть дедуплицированы и защищены от мусора». При обработке данных Baichuan Intelligent также опирается на опыт предыдущих поисков и может выполнить очистку и дедупликацию сотен миллиардов данных за час».
Ядро его поиска больших моделей ярко отображено в Baichuan-53B. Решая проблему «иллюзии» больших моделей в сочетании с ускорением технологии поиска, компания Baichuan Intelligent провела оптимизацию в сборе информации, улучшении качества данных и улучшении поиска.
Несмотря на то, что компания Baichuan Intelligent начинала с открытого исходного кода, она начала изучать путь коммерциализации. Согласно официальной информации, целью Baichuan Intelligence является «создание лучшей базы больших моделей в Китае», а целью вертикального измерения является усиление в поисковой, мультимодальной, образовательной, медицинской и других областях.
Сегодняшняя коммерциализация сосредоточена в Baichuan2-53B, и на официальном сайте указано, что вызов API модели использует стандарт зарядки на основе времени. 0:00-8:00 взимает 0,01 юаня/тысячу токенов, 8:00-24:00 взимает 0,02 юаня/тысячу токенов, для сравнения, цена комиссии в дневное время выше, чем в ночное.
Конец
Споры о том, кто является китайским OpenAI, не имеют особого смысла в первые дни разработки больших моделей. Многие стартапы, такие как Zhipu AI и Baichuan Intelligent, поняли, что слепо следовать по стопам OpenAI не целесообразно, например, Zhipu AI разъяснил технический путь «не делать китайский GPT». Более того, в то время, когда открытый исходный код становится популярным и образует осаду, абсолютное технологическое превосходство OpenAI не кажется нерушимым.
Zhipu AI, Baichuan Intelligent упомянул, что суперприложения - это более широкий рынок, но также зона комфорта крупных модельных предприятий Китая, больше не остается на месте, например, человек, близкий к Zhipu AI, однажды сообщил новость в СМИ, команда Zhipu AI твердо определила маршрут 2B, нацеленный на информационный и инновационный рынок, и за 5 месяцев быстро расширила команду, с 200 до 500 человек, для последующего резерва персонала 2B.
На пути коммерциализации Baichuan Intelligent решила обратиться к экологии с открытым исходным кодом Llama2, а также начала итерацию небольшими шагами.
Невооруженным глазом видно, что всего за полгода Baichuan Intelligent и Zhipu AI прошли технологическую ничейную землю и вышли на стадию коммерциализации промышленного десанта. По сравнению с предпринимательским бумом ИИ 1.0, период шлифовки технологии составляет целых 3 года (2016-2019), и именно из-за препятствия в коммерческом посадке большое количество ИИ-компаний коллективно упадут в 2022 году и упадут до рассвета.
Извлекая уроки из предыдущего этапа, а также потому, что универсальность технологии больших моделей удобнее для приземления, стартапы, представленные Baichuan Intelligence и Zhipu AI, собирают войска и лошадей для подготовки технологий, продуктов и кадровых резервов для следующего этапа.
Однако первые выстрелы были слышны только во время марафона, и говорить о том, что исход был слишком ранним, было рано. Но, по крайней мере, первый этап трассы разложен, а после того, как цель ясна, конкуренция становится еще более терпеливой и настойчивой. То же самое касается Baichuan Intelligence, Zhipu AI или OpenAI.