Если вы посмотрите на сообщения СМИ о больших моделях каждый день, вы будете ослеплены разнообразием моделей и недолговечными пугающими приложениями, думая, что будущее моделей лежит в следующей универсальной модели. Таким образом, ИИ, похоже, является историей победы либо OpenAI, либо Anthropic.
Финансирование, которое было завершено с невероятной скоростью и объемом, похоже, подтверждает это восприятие.
Anthropic, который считается одним из крупнейших конкурентов OpenAI, находится в раунде финансирования в ежемесячном цикле в 2 миллиарда - 27 октября Google заявил, что инвестировал в него еще 2 миллиарда долларов, менее чем через месяц после того, как Amazon инвестировал в него 4 миллиарда долларов, а его модель Claude, которая конкурирует с такими функциями, как длина контекста, считается одним из самых сильных конкурентов для ChatGPT. В то же время OpenAI также собирает различные ресурсы, и за каждым его шагом стоят слухи о нем SoftBank, Microsoft и Apple.
Однако на самом деле это еще не все.
Для практиков другая сторона истории более глубока:
Очевидно, что лучше брать доллары тех инвесторов, у которых больше денег и меньше работы, однако все они выбирают крупные заводы один за другим, и даже крупные заводы, которые присматриваются к ним, только из-за одной вещи - у них есть возможности облачных вычислений. О вкладе OpenAI в Microsoft Azure говорилось слишком много раз на пути к успеху, и теперь Anthropic гарантирует себе поддержку облачных вычислений Google и Amazon одновременно, и заявила, что одной из важных целей финансирования является создание гарантии вычислительной мощности для себя для обучения моделей следующего поколения.
Это отличное свидетельство необходимости облака для больших моделей.
На конференции Apsara 31 октября серия данных из Alibaba Cloud говорила о том же.
Alibaba Cloud объявила о некоторых моделях, которые работают поверх ее сервисов, от собственной большой модели Tongyi до Baichuan Intelligence, Zhipu AI, Zero One Everything, Kunlun Wanwei, vivo, Фуданьского университета и т. д.
Эти основные модели в Китае также предоставляют услуги API через Alibaba Cloud, включая серию Tongyi, серию Baichuan, серию Zhipu AI ChatGLM, общую модель Jiang Ziya и т. д.
Эти модели догоняют топовый уровень одновременно, но также начинают наращивать собственные характеристики, среди которых одна из самых головных крупных модельных компаний Китая Baichuan Intelligence, установила в среднем 28 дней на итерацию версии рекорда большой модели, это 30 октября Последний релиз Baichuan2-192K стал самой длинной в мире поддержкой контекстного окна большой модели, может вводить 350 000 слов за раз, опережая Claude2-100K.
Все эти преимущества указывают на более практичное применение. Ван Сяочуань, генеральный директор Baichuan Intelligence, описал это как «на один шаг медленнее, чем в идеале, и на три шага быстрее на земле». Облачная инфраструктура, с другой стороны, предлагает быстрые возможности.
Ван Сяочуань (Wang Xiaochuan) отметил, что важной причиной ежемесячной итерации модели Байчуань является поддержка облачных вычислений. «Быстрая итерация и развертывание модели неотделимы от облачных вычислений, и Baichuan Intelligence и Alibaba Cloud провели углубленное сотрудничество. Совместными усилиями обеих сторон компания Baichuan успешно выполнила задачу обучения большой модели килокалории, эффективно снизив затраты на вывод модели и повысив эффективность развертывания модели. "
Еще одна причина, по которой важность облачных вычислений была упущена из виду, заключается в том, что сфера искусственного интеллекта была отвлечена «отсутствием карт для всех».
«Люди уделяют слишком много внимания графическим процессорам». Многие специалисты по крупным моделям говорили мне, что как вычислительная единица он действительно постоянно совершенствуется, но для решения проблемы ИИ в конечном итоге необходимо систематическое и оптимальное решение вычислительной мощности. Даже облако с момента своего создания решает проблему недостаточной прочности одного устройства.
«Только карта, только удивительная модель на бумаге, этого недостаточно, и, наконец, положитесь на облако, чтобы приземлиться, а затем реализовать идеал». — сказал он. Если внимательно навострить уши и прислушаться к «крикам» этих реальных участников на передовой модельной экологии, то можно услышать одно слово:
Облако!
То, как будет развиваться будущее ИИ, зависит от облака сегодня больше, чем когда-либо.
Новое облако
Но это точно не значит, что облачные вендоры, которые установили преимущество, могут лечь и выиграть.
Просто взгляните на то, что произошло после того, как Google и Microsoft недавно опубликовали свои отчеты о доходах в один и тот же день.
25 октября Google опубликовала отчет о доходах, который превзошел ожидания, увеличившись в годовом исчислении на 11%, а основной рекламный бизнес также увеличился на 9%. Но затем цена акций упала. Есть только одна причина, облачные вычисления выросли на 22%, но рынок считает, что этого недостаточно. В частности, финансовый отчет Microsoft, опубликованный в тот же день, показал, что ее подразделение интеллектуальных облаков стало крупнейшим источником дохода.
Впервые гиганты оказались на обочине с такими видами бизнеса, как реклама, о которой они когда-то говорили, потому что облачные вычисления считаются наблюдаемой метрикой по сравнению с прямым доходом, генерируемым моделями, которые все еще иллюзорны. За этим показателем стоит способность облачных вендоров адаптироваться к вызовам, которые приносит ИИ.
Даже AWS, занимающая первое место на рынке, чувствует давление, и инвестиции Amazon в Anthropic также произошли во время этих отчетов о доходах. Сообщается, что 3% выручки Microsoft Azure приходится на ИИ, а среди ее клиентов большое количество пользователей OpenAI, и AWS начинает делать акцент на своих сервисах для различных моделей. После того, как компания Anthropic, вложив 2 миллиарда, сразу же было объявлено, что LLM после модельной компании будет построена с использованием чипа ускорения обучения AWS Trainium и чипа логического вывода Inferentia. Кроме того, такие как новое кластерное решение, отмеченное в финансовом отчете Microsoft, и Bedrock, полностью управляемый сервис базовой модели для AWS, также делают акцент на собственной трансформации для новых потребностей в области ИИ.
«Столкнувшись с интеллектуальной эрой, Alibaba Cloud модернизирует свою систему облачных вычислений с помощью комплексных технологических инноваций, начиная с базовой вычислительной мощности и заканчивая платформой искусственного интеллекта и модельным сервисом». Чжоу Цзинжэнь, определяющий технический маршрут Alibaba Cloud, также дал свой ответ на конференции Apsara. Изменения, отраженные Alibaba Cloud на этот раз, решительные и основательные, от текстуры до ядра, все они трансформируются для ИИ.
Согласно предисловию Чжоу Цзинжэня, Alibaba Cloud сначала использовала большую модель для трансформации, и более 30 облачных продуктов были подключены к возможностям большой модели.
Например, DataWorks, платформа управления большими данными Alibaba Cloud, добавила новую интерактивную форму Copilot, которая позволяет пользователям генерировать SQL-операторы с вводом на естественном языке и автоматически выполнять соответствующие операции ETL данных, повышая общую эффективность разработки и анализа более чем на 30%.
Чжоу Цзинжэнь описал это как автономный режим вождения облачных вычислений, который значительно повысит эффективность и опыт разработчиков, использующих облако.
В то же время Alibaba Cloud также обновила свою платформу искусственного интеллекта PAI. Базовый уровень PAI использует сетевую архитектуру кластера искусственного интеллекта нового поколения HPN 7.0, поддерживает масштабируемое масштабирование кластеров до 100 000 карт, а коэффициент ускорения сверхкрупномасштабного распределенного обучения достигает 96%, что намного превышает отраслевой уровень. В больших задачах обучения моделей он может сэкономить более 50% вычислительных ресурсов, а производительность является ведущей в мире.
Эти профессиональные термины немного сложны, объясняются простыми кейсами клиентов, и Чжоу Цзиньжэнь также поделился некоторыми кейсами в тот же день: «Благодаря нашей платформе PAI это может помочь оптимизировать рассуждения, помочь Xiaohongshu сэкономить 30% затрат и действительно может способствовать быстрому росту бизнеса Xiaohongshu, а также различным потребностям бизнеса». "
Поставщики облачных услуг, в том числе Alibaba Cloud, по сути, разрабатывают новую инфраструктуру. Изменения, вызванные технологиями ИИ, такими как большие модели, являются всеобъемлющими, от нижнего уровня модели до идей для обучения, от требований к данным до интерактивного интерфейса, меняются и даже нуждаются в «переделке».
Отправной точкой всех трансформаций Alibaba Cloud является MaaS (модель как услуга), предложенная Чжоу Цзинжэнем (Zhou Jingren).
«Сама модель представляет собой высокоуровневую абстракцию данных и вычислений». — сказал Чжоу Цзиньжэнь в тот день в небольшом разговоре с нами.
«Например, раньше мы использовали больше данных из журналов или баз данных. Что это за модель? Модель — это обработанный набор данных, который является высокоинтеллектуальной абстракцией. Так что с этой точки зрения можно считать, что исходные данные – это более примитивный производственный материал, опирающийся на исходные вычислительные мощности. Сегодняшняя модель представляет собой уровень обработки, который является более абстрактным производственным элементом, основанным на сырье данных, и вы можете использовать такие производственные элементы для разработки бизнес-систем более высокой размерности. Раньше у нас была Инфраструктура, которая была производственным элементом, а сегодня модель также является производственным элементом. "
Эта новая инфраструктура, основанная на модели, требует более сложных системных возможностей, чем в прошлом.
В то время как порог для приложений ИИ становится все ниже и ниже, порог для обеспечения облачных вычислений, отвечающих потребностям новой эры ИИ, будет становиться все выше и выше. Очевидно, что для того, чтобы изучить эту новинку, вам нужно освоить базовую технологию облачных вычислений, и вам нужно иметь реальное представление о технологии больших моделей - вы знаете, что у вас есть, и вы знаете, что нужно вашим клиентам.
«Основываясь на накопленном нами опыте в области облачных вычислений, мы построили полноценную инфраструктуру искусственного интеллекта. Благодаря сегодняшней серии оптимизаций в области сети, хранения, планирования, компиляции, отказоустойчивости и т. д. Мы создали полноценную обучающую платформу для больших моделей ИИ. — сказал Чжоу Цзиньжэнь. В то же время, благодаря серии оптимизаций в сочетании с высокой эластичностью самого облака, мы можем предоставить вам очень полный сервис обучения моделей и логического вывода. "
В тот же день Alibaba Cloud также выпустила собственную модель 100-миллиардных параметров Tongyi Qianwen 2.0.
Tongyi Qianwen 2.0 добился большого прогресса в производительности и значительно улучшил свою способность понимать сложные инструкции, способность к литературному творчеству, способность к общей математике, память знаний, устойчивость к иллюзиям и т. д., а его всеобъемлющая производительность превзошла GPT-3.5, ускорившись, чтобы догнать GPT-4.
В то же время, официальный сайт модели Tongyi был полностью обновлен, добавлены функции мультимодального взаимодействия и плагина, которые позволяют пользователям взаимодействовать с Tongyi Qianwen 2.0 через картинки, а также вызывать более богатые новые возможности плагина.
Чжоу Цзиньжэнь сказал: «Tongyi Qianwen 2.0 более зрелый и простой в использовании».
Открыть, Открыть или Открыть
При такой всеобъемлющей трансформации, естественно, возникает вопрос о том, не станут ли в конечном итоге и модель, и инфраструктура ситуацией, когда ты одновременно и судья, и спортсмен.
Ответ, который дает Alibaba Cloud, — максимальная открытость.
Alibaba Cloud является первой технологической компанией в Китае, которая открыла исходный код для самостоятельно разработанных больших моделей, и в настоящее время Alibaba Cloud имеет версии Tongyi Qianwen 7B и 14B с открытым исходным кодом с более чем одним миллионом загрузок. На месте происшествия Чжоу Цзиньжэнь объявил, что модель Tongyi Qianwen 72B скоро будет с открытым исходным кодом, и она станет крупнейшей моделью с открытым исходным кодом в Китае.
На самом деле, такая открытость — это не то, что произойдет после ChatGPT. На конференции Apsara год назад Alibaba Cloud начала строить образцовое волшебное здание сообщества, по сути, первая партия открытого исходного кода на тот момент была собственной базовой моделью Alibaba Cloud. В то время план Moda состоял в том, чтобы использовать Alibaba Cloud для передачи вещей на дне коробки, чтобы побудить всех изменить закрытое состояние ИИ в прошлом и использовать открытость, чтобы сделать его действительно доступным для общественности.
Чжоу Цзиньжэнь сообщил, что на сегодняшний день сообщество собрало более 2300 моделей ИИ, привлекло 2,8 миллиона разработчиков ИИ, а количество загрузок моделей ИИ превысило 100 миллионов, что делает его крупнейшим и наиболее активным сообществом ИИ в Китае. Это достижение является самым прямым признанием его открытости внешнему миру.
Сегодня в Magic Community Baichuan Intelligence, Zhipu AI, Shanghai Artificial Intelligence Laboratory, IDEA Research Institute и т.д. открыли исходный код своих основных больших моделей, а Alibaba Cloud предоставляет разработчикам бесплатные вычислительные мощности GPU для «ранних последователей» больших моделей, которые на данный момент превысили 30 миллионов часов.
«Сегодня наша позиция заключается в том, чтобы обслуживать множество клиентов с различными потребностями». — сказал Чжоу Цзиньжэнь.
В экосистеме Alibaba Cloud есть суперкомпьютер, построенный совместно с Фуданьским университетом, который поддерживает обучение больших моделей с сотнями миллиардов параметров и входит в топ-15 в мире по общей вычислительной мощности. Вычислительный кластер, стоящий за ним, состоит из Jinsi No. 1 в кампусе Фудань и Qiewen No. 1 в дата-центре Alibaba Cloud в Уланкабе, расположенном в 1500 километрах от него.
vivo самостоятельно разработала большие модели, от вычислительной мощности, функций платформы, производительности обучения и т. д. до фреймворка оптимизации обучения платформы искусственного интеллекта AII Alibaba Cloud С точки зрения надзора SFT и тонкой настройки больших моделей и обучения с подкреплением, vivo и Alibaba Cloud сотрудничают для более эффективной итерации больших моделей.
Существует также популярная «Wonderful Duck Camera», для генерации фотографий которой требуется как минимум несколько тысяч GPU-серверов на пиковом уровне, а автономное развертывание нецелесообразно, а облачное развертывание может сэкономить много средств и времени для стартапов. Более того, такие приложения, как Miaoya, представляют собой тенденцию, согласно которой в будущем потребность в логических выводах будет перевешивать потребность в обучении, что только сделает облачные вычисления более важными для устойчивости сервисов ИИ.
При таком позиционировании большая модель Alibaba Cloud больше похожа на продолжение идеи, которую Alibaba всегда использовала в прошлом – лучшие практики. Его мышление заключается в том, что только после того, как он выполнит самые сложные задачи и протестирует свою инфраструктуру с его помощью, он сможет предоставить более надежные услуги и технологии внешнему миру. И все эти усилия в конечном итоге направлены на одну цель – способствовать индустриализации ИИ.
С этой целью Alibaba Cloud также выпустила Alibaba Cloud Bailian, универсальную платформу для разработки крупномасштабных модельных приложений. Alibaba Cloud — системный и открытый интегратор.
В Alibaba Cloud заявили, что на его основе разработчики могут за 5 минут разработать большое модельное приложение, а за несколько часов «доработать» корпоративную модель. После того, как он помог разработчикам выбрать наиболее подходящую модель, он также предоставляет различные методы тонкой настройки, такие как SFT и LoRA, что позволяет вам точно настроить вашу модель. После завершения обучения вы также можете развернуть его через Alibaba Cloud одним щелчком мыши. Разработка приложений также значительно упрощается, и пользователям доступны даже новейшие агенты и другие плагины.
«Сегодня каждое звено и каждая группа людей являются важной частью всей экосистемы разработчиков». — сказал Чжоу Цзиньжэнь.
«Наша цель — сделать Alibaba Cloud самым открытым облаком, и мы надеемся, что сегодня Alibaba Cloud сможет обслуживать не только один тип клиентов, но и все наши сегодняшние клиенты, все из которых упоминаются по-разному, смогут эффективно оказывать им поддержку в эпоху искусственного интеллекта, а также могут помочь им внедрять инновации и совершать прорывы в своих областях знаний. Это наша цель и отражение дизайна нашей продукции сегодня. "
В сегодняшнем «идеальном на шаг позади» живая экосистема моделей нуждается не только в облаке в фактической разработке, но и в том, что вдохновение облачными вычислениями для китайских технологических компаний также чрезвычайно важно для современных практиков ИИ и моделей.
Процесс развития облачных вычислений в Китае всегда имел символическое значение, то есть, когда у нас есть сильные таланты в области разработки технологий и самые обширные потребности в промышленном применении, как спонтанно понять лежащую в основе технологию. И когда вы находитесь в определенном технологическом невыгодном положении, такие возможности появятся только тогда, когда большая технологическая система полностью трансформируется.
Когда новая технологическая революция наступит снова, и лежащая в ее основе технология снова должна быть реконструирована, облачные вычисления станут гарантией и ценой китайской модели, чтобы продолжать бороться со своими передовыми конкурентами, а также источником вдохновения и предостережения. В то время как индустрия и приложения ИИ ускоряются, наличие собственной передовой технологической базы и формирование на ее основе открытых отношений взаимопомощи станет важным для совместного развития всей экосистемы, а также важно напомнить нам, как ухватиться за эту технологическую инновацию, и даже ожидается, что она станет преимуществом в этой конкуренции при постоянных усилиях.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Не смотрите только на большую модель, будущее ИИ зависит от облака, как никогда раньше
Первоисточник: Silicon Star People
**Облако! **
Если вы посмотрите на сообщения СМИ о больших моделях каждый день, вы будете ослеплены разнообразием моделей и недолговечными пугающими приложениями, думая, что будущее моделей лежит в следующей универсальной модели. Таким образом, ИИ, похоже, является историей победы либо OpenAI, либо Anthropic.
Финансирование, которое было завершено с невероятной скоростью и объемом, похоже, подтверждает это восприятие.
Anthropic, который считается одним из крупнейших конкурентов OpenAI, находится в раунде финансирования в ежемесячном цикле в 2 миллиарда - 27 октября Google заявил, что инвестировал в него еще 2 миллиарда долларов, менее чем через месяц после того, как Amazon инвестировал в него 4 миллиарда долларов, а его модель Claude, которая конкурирует с такими функциями, как длина контекста, считается одним из самых сильных конкурентов для ChatGPT. В то же время OpenAI также собирает различные ресурсы, и за каждым его шагом стоят слухи о нем SoftBank, Microsoft и Apple.
Однако на самом деле это еще не все.
Для практиков другая сторона истории более глубока:
Очевидно, что лучше брать доллары тех инвесторов, у которых больше денег и меньше работы, однако все они выбирают крупные заводы один за другим, и даже крупные заводы, которые присматриваются к ним, только из-за одной вещи - у них есть возможности облачных вычислений. О вкладе OpenAI в Microsoft Azure говорилось слишком много раз на пути к успеху, и теперь Anthropic гарантирует себе поддержку облачных вычислений Google и Amazon одновременно, и заявила, что одной из важных целей финансирования является создание гарантии вычислительной мощности для себя для обучения моделей следующего поколения.
Это отличное свидетельство необходимости облака для больших моделей.
Alibaba Cloud объявила о некоторых моделях, которые работают поверх ее сервисов, от собственной большой модели Tongyi до Baichuan Intelligence, Zhipu AI, Zero One Everything, Kunlun Wanwei, vivo, Фуданьского университета и т. д.
Эти основные модели в Китае также предоставляют услуги API через Alibaba Cloud, включая серию Tongyi, серию Baichuan, серию Zhipu AI ChatGLM, общую модель Jiang Ziya и т. д.
Эти модели догоняют топовый уровень одновременно, но также начинают наращивать собственные характеристики, среди которых одна из самых головных крупных модельных компаний Китая Baichuan Intelligence, установила в среднем 28 дней на итерацию версии рекорда большой модели, это 30 октября Последний релиз Baichuan2-192K стал самой длинной в мире поддержкой контекстного окна большой модели, может вводить 350 000 слов за раз, опережая Claude2-100K.
Все эти преимущества указывают на более практичное применение. Ван Сяочуань, генеральный директор Baichuan Intelligence, описал это как «на один шаг медленнее, чем в идеале, и на три шага быстрее на земле». Облачная инфраструктура, с другой стороны, предлагает быстрые возможности.
Ван Сяочуань (Wang Xiaochuan) отметил, что важной причиной ежемесячной итерации модели Байчуань является поддержка облачных вычислений. «Быстрая итерация и развертывание модели неотделимы от облачных вычислений, и Baichuan Intelligence и Alibaba Cloud провели углубленное сотрудничество. Совместными усилиями обеих сторон компания Baichuan успешно выполнила задачу обучения большой модели килокалории, эффективно снизив затраты на вывод модели и повысив эффективность развертывания модели. "
Еще одна причина, по которой важность облачных вычислений была упущена из виду, заключается в том, что сфера искусственного интеллекта была отвлечена «отсутствием карт для всех».
«Люди уделяют слишком много внимания графическим процессорам». Многие специалисты по крупным моделям говорили мне, что как вычислительная единица он действительно постоянно совершенствуется, но для решения проблемы ИИ в конечном итоге необходимо систематическое и оптимальное решение вычислительной мощности. Даже облако с момента своего создания решает проблему недостаточной прочности одного устройства.
«Только карта, только удивительная модель на бумаге, этого недостаточно, и, наконец, положитесь на облако, чтобы приземлиться, а затем реализовать идеал». — сказал он. Если внимательно навострить уши и прислушаться к «крикам» этих реальных участников на передовой модельной экологии, то можно услышать одно слово:
Облако!
То, как будет развиваться будущее ИИ, зависит от облака сегодня больше, чем когда-либо.
Новое облако
Но это точно не значит, что облачные вендоры, которые установили преимущество, могут лечь и выиграть.
Просто взгляните на то, что произошло после того, как Google и Microsoft недавно опубликовали свои отчеты о доходах в один и тот же день.
25 октября Google опубликовала отчет о доходах, который превзошел ожидания, увеличившись в годовом исчислении на 11%, а основной рекламный бизнес также увеличился на 9%. Но затем цена акций упала. Есть только одна причина, облачные вычисления выросли на 22%, но рынок считает, что этого недостаточно. В частности, финансовый отчет Microsoft, опубликованный в тот же день, показал, что ее подразделение интеллектуальных облаков стало крупнейшим источником дохода.
Впервые гиганты оказались на обочине с такими видами бизнеса, как реклама, о которой они когда-то говорили, потому что облачные вычисления считаются наблюдаемой метрикой по сравнению с прямым доходом, генерируемым моделями, которые все еще иллюзорны. За этим показателем стоит способность облачных вендоров адаптироваться к вызовам, которые приносит ИИ.
Даже AWS, занимающая первое место на рынке, чувствует давление, и инвестиции Amazon в Anthropic также произошли во время этих отчетов о доходах. Сообщается, что 3% выручки Microsoft Azure приходится на ИИ, а среди ее клиентов большое количество пользователей OpenAI, и AWS начинает делать акцент на своих сервисах для различных моделей. После того, как компания Anthropic, вложив 2 миллиарда, сразу же было объявлено, что LLM после модельной компании будет построена с использованием чипа ускорения обучения AWS Trainium и чипа логического вывода Inferentia. Кроме того, такие как новое кластерное решение, отмеченное в финансовом отчете Microsoft, и Bedrock, полностью управляемый сервис базовой модели для AWS, также делают акцент на собственной трансформации для новых потребностей в области ИИ.
Согласно предисловию Чжоу Цзинжэня, Alibaba Cloud сначала использовала большую модель для трансформации, и более 30 облачных продуктов были подключены к возможностям большой модели.
Например, DataWorks, платформа управления большими данными Alibaba Cloud, добавила новую интерактивную форму Copilot, которая позволяет пользователям генерировать SQL-операторы с вводом на естественном языке и автоматически выполнять соответствующие операции ETL данных, повышая общую эффективность разработки и анализа более чем на 30%.
Чжоу Цзинжэнь описал это как автономный режим вождения облачных вычислений, который значительно повысит эффективность и опыт разработчиков, использующих облако.
В то же время Alibaba Cloud также обновила свою платформу искусственного интеллекта PAI. Базовый уровень PAI использует сетевую архитектуру кластера искусственного интеллекта нового поколения HPN 7.0, поддерживает масштабируемое масштабирование кластеров до 100 000 карт, а коэффициент ускорения сверхкрупномасштабного распределенного обучения достигает 96%, что намного превышает отраслевой уровень. В больших задачах обучения моделей он может сэкономить более 50% вычислительных ресурсов, а производительность является ведущей в мире.
Эти профессиональные термины немного сложны, объясняются простыми кейсами клиентов, и Чжоу Цзиньжэнь также поделился некоторыми кейсами в тот же день: «Благодаря нашей платформе PAI это может помочь оптимизировать рассуждения, помочь Xiaohongshu сэкономить 30% затрат и действительно может способствовать быстрому росту бизнеса Xiaohongshu, а также различным потребностям бизнеса». "
Поставщики облачных услуг, в том числе Alibaba Cloud, по сути, разрабатывают новую инфраструктуру. Изменения, вызванные технологиями ИИ, такими как большие модели, являются всеобъемлющими, от нижнего уровня модели до идей для обучения, от требований к данным до интерактивного интерфейса, меняются и даже нуждаются в «переделке».
Отправной точкой всех трансформаций Alibaba Cloud является MaaS (модель как услуга), предложенная Чжоу Цзинжэнем (Zhou Jingren).
«Сама модель представляет собой высокоуровневую абстракцию данных и вычислений». — сказал Чжоу Цзиньжэнь в тот день в небольшом разговоре с нами.
«Например, раньше мы использовали больше данных из журналов или баз данных. Что это за модель? Модель — это обработанный набор данных, который является высокоинтеллектуальной абстракцией. Так что с этой точки зрения можно считать, что исходные данные – это более примитивный производственный материал, опирающийся на исходные вычислительные мощности. Сегодняшняя модель представляет собой уровень обработки, который является более абстрактным производственным элементом, основанным на сырье данных, и вы можете использовать такие производственные элементы для разработки бизнес-систем более высокой размерности. Раньше у нас была Инфраструктура, которая была производственным элементом, а сегодня модель также является производственным элементом. "
Эта новая инфраструктура, основанная на модели, требует более сложных системных возможностей, чем в прошлом.
В то время как порог для приложений ИИ становится все ниже и ниже, порог для обеспечения облачных вычислений, отвечающих потребностям новой эры ИИ, будет становиться все выше и выше. Очевидно, что для того, чтобы изучить эту новинку, вам нужно освоить базовую технологию облачных вычислений, и вам нужно иметь реальное представление о технологии больших моделей - вы знаете, что у вас есть, и вы знаете, что нужно вашим клиентам.
«Основываясь на накопленном нами опыте в области облачных вычислений, мы построили полноценную инфраструктуру искусственного интеллекта. Благодаря сегодняшней серии оптимизаций в области сети, хранения, планирования, компиляции, отказоустойчивости и т. д. Мы создали полноценную обучающую платформу для больших моделей ИИ. — сказал Чжоу Цзиньжэнь. В то же время, благодаря серии оптимизаций в сочетании с высокой эластичностью самого облака, мы можем предоставить вам очень полный сервис обучения моделей и логического вывода. "
В тот же день Alibaba Cloud также выпустила собственную модель 100-миллиардных параметров Tongyi Qianwen 2.0.
В то же время, официальный сайт модели Tongyi был полностью обновлен, добавлены функции мультимодального взаимодействия и плагина, которые позволяют пользователям взаимодействовать с Tongyi Qianwen 2.0 через картинки, а также вызывать более богатые новые возможности плагина.
Чжоу Цзиньжэнь сказал: «Tongyi Qianwen 2.0 более зрелый и простой в использовании».
Открыть, Открыть или Открыть
При такой всеобъемлющей трансформации, естественно, возникает вопрос о том, не станут ли в конечном итоге и модель, и инфраструктура ситуацией, когда ты одновременно и судья, и спортсмен.
Ответ, который дает Alibaba Cloud, — максимальная открытость.
Alibaba Cloud является первой технологической компанией в Китае, которая открыла исходный код для самостоятельно разработанных больших моделей, и в настоящее время Alibaba Cloud имеет версии Tongyi Qianwen 7B и 14B с открытым исходным кодом с более чем одним миллионом загрузок. На месте происшествия Чжоу Цзиньжэнь объявил, что модель Tongyi Qianwen 72B скоро будет с открытым исходным кодом, и она станет крупнейшей моделью с открытым исходным кодом в Китае.
На самом деле, такая открытость — это не то, что произойдет после ChatGPT. На конференции Apsara год назад Alibaba Cloud начала строить образцовое волшебное здание сообщества, по сути, первая партия открытого исходного кода на тот момент была собственной базовой моделью Alibaba Cloud. В то время план Moda состоял в том, чтобы использовать Alibaba Cloud для передачи вещей на дне коробки, чтобы побудить всех изменить закрытое состояние ИИ в прошлом и использовать открытость, чтобы сделать его действительно доступным для общественности.
Чжоу Цзиньжэнь сообщил, что на сегодняшний день сообщество собрало более 2300 моделей ИИ, привлекло 2,8 миллиона разработчиков ИИ, а количество загрузок моделей ИИ превысило 100 миллионов, что делает его крупнейшим и наиболее активным сообществом ИИ в Китае. Это достижение является самым прямым признанием его открытости внешнему миру.
«Сегодня наша позиция заключается в том, чтобы обслуживать множество клиентов с различными потребностями». — сказал Чжоу Цзиньжэнь.
В экосистеме Alibaba Cloud есть суперкомпьютер, построенный совместно с Фуданьским университетом, который поддерживает обучение больших моделей с сотнями миллиардов параметров и входит в топ-15 в мире по общей вычислительной мощности. Вычислительный кластер, стоящий за ним, состоит из Jinsi No. 1 в кампусе Фудань и Qiewen No. 1 в дата-центре Alibaba Cloud в Уланкабе, расположенном в 1500 километрах от него.
vivo самостоятельно разработала большие модели, от вычислительной мощности, функций платформы, производительности обучения и т. д. до фреймворка оптимизации обучения платформы искусственного интеллекта AII Alibaba Cloud С точки зрения надзора SFT и тонкой настройки больших моделей и обучения с подкреплением, vivo и Alibaba Cloud сотрудничают для более эффективной итерации больших моделей.
Существует также популярная «Wonderful Duck Camera», для генерации фотографий которой требуется как минимум несколько тысяч GPU-серверов на пиковом уровне, а автономное развертывание нецелесообразно, а облачное развертывание может сэкономить много средств и времени для стартапов. Более того, такие приложения, как Miaoya, представляют собой тенденцию, согласно которой в будущем потребность в логических выводах будет перевешивать потребность в обучении, что только сделает облачные вычисления более важными для устойчивости сервисов ИИ.
При таком позиционировании большая модель Alibaba Cloud больше похожа на продолжение идеи, которую Alibaba всегда использовала в прошлом – лучшие практики. Его мышление заключается в том, что только после того, как он выполнит самые сложные задачи и протестирует свою инфраструктуру с его помощью, он сможет предоставить более надежные услуги и технологии внешнему миру. И все эти усилия в конечном итоге направлены на одну цель – способствовать индустриализации ИИ.
С этой целью Alibaba Cloud также выпустила Alibaba Cloud Bailian, универсальную платформу для разработки крупномасштабных модельных приложений. Alibaba Cloud — системный и открытый интегратор.
«Сегодня каждое звено и каждая группа людей являются важной частью всей экосистемы разработчиков». — сказал Чжоу Цзиньжэнь.
«Наша цель — сделать Alibaba Cloud самым открытым облаком, и мы надеемся, что сегодня Alibaba Cloud сможет обслуживать не только один тип клиентов, но и все наши сегодняшние клиенты, все из которых упоминаются по-разному, смогут эффективно оказывать им поддержку в эпоху искусственного интеллекта, а также могут помочь им внедрять инновации и совершать прорывы в своих областях знаний. Это наша цель и отражение дизайна нашей продукции сегодня. "
В сегодняшнем «идеальном на шаг позади» живая экосистема моделей нуждается не только в облаке в фактической разработке, но и в том, что вдохновение облачными вычислениями для китайских технологических компаний также чрезвычайно важно для современных практиков ИИ и моделей.
Когда новая технологическая революция наступит снова, и лежащая в ее основе технология снова должна быть реконструирована, облачные вычисления станут гарантией и ценой китайской модели, чтобы продолжать бороться со своими передовыми конкурентами, а также источником вдохновения и предостережения. В то время как индустрия и приложения ИИ ускоряются, наличие собственной передовой технологической базы и формирование на ее основе открытых отношений взаимопомощи станет важным для совместного развития всей экосистемы, а также важно напомнить нам, как ухватиться за эту технологическую инновацию, и даже ожидается, что она станет преимуществом в этой конкуренции при постоянных усилиях.