Статья| Интеллектуальная теория относительности** (aixdlun)**
Автор | Е Юаньфэн
18,8 триллиона долларов США, что является общей стоимостью, которую рынок, по ожиданиям, будет генерировать интеллектуальная экономика, основанная на искусственном интеллекте, в 2030 году. Среди них качественные изменения в возможностях искусственного интеллекта, вызванные большими моделями, несомненно, станут важной движущей силой.
Под волной больших моделей внимание отрасли к любому аспекту тройки развития ИИ — вычислительной мощности, алгоритмам и данным — вышло на новый уровень. модели.
В этом процессе внимание отрасли к «данным» часто сосредотачивается на «количестве» + «качестве». Больший объем данных и более высокое качество данных могут способствовать лучшему обучению и эффекту применения больших моделей.
Однако, поскольку инновации в больших моделях требуют все более сложных данных, уже недостаточно сосредоточиться исключительно на «количестве» + «качестве» данных. Хранилище, которое может переносить данные и удовлетворять потребности больших моделей, также заслуживает внимания практиков в области больших моделей.
На только что состоявшейся конференции Huawei Connectivity Conference 2023 (HC 2023) компания Huawei систематически представила, как ее решения для хранения данных могут решить проблемы обучения и применения больших моделей, а также поддержать инновационный процесс больших моделей.
Действия Huawei панорамно демонстрируют суть разработки крупных моделей с точки зрения данных — крупномасштабную разработку «элементов данных» и то, как инновации в области хранения данных обеспечивают силу этой сути, помогая практикам крупных моделей лучше влиться в эпоху умной экономики.
Эпоха больших моделей — это эпоха элементов данных, и демонстрируется ценность хранилища как носителя.
Нет сомнений в том, что спрос на вычислительные мощности, алгоритмы и данные для больших моделей быстро растет.
Согласно статистике рыночных исследований, за последние пять лет параметры больших моделей увеличились в 2000 раз, требуемая вычислительная мощность увеличилась в 50 000 раз, потребность в хранении данных выросла в 100 000 раз, а связанные с этим требования к пропускной способности сети увеличились в 8000 раз.
Большие открытия, большие закрытия и большие требования требуют больших мощностей и инвестиций.
Однако с точки зрения инноваций на самом деле сложность как алгоритмов, так и вычислительной мощности снижается или сближается.
Что касается вычислительной мощности, которая является головной болью для многих компаний, хотя требуемая сумма велика, все это обеспечивается NVIDIA, Ascend и другими аппаратными ресурсами графических процессоров, что в основном зависит от инвестиций. Другими словами, пока имеется достаточный бюджет, вычислительные ресурсы могут быть предоставлены.
Что касается алгоритмов, хотя крупные производители продолжают настраивать и совершенствовать их, они обычно принимают инфраструктуру модели Transformer, которая разрабатывается на основе основных платформ разработки, таких как Pytorch, TensorFlow и MindSpore, и постепенно сближается.
В это время давление приходит к данным.
С углубленной разработкой больших моделей общий объем требований к данным уже перескочил с уровня TB на уровень PB, а требуемый «пул» становится все больше и больше; в то же время спрос на типы данных чрезвычайно велик. Богатая и модель одного текста. Помимо модальностей, мультимодальные данные, такие как изображения, видео и голоса, стремительно растут, а требования к данным становятся все более и более сложными.Все это проверяет пропускную способность хранилища и то, как для лучшей работы с вычислительными мощностями и алгоритмами во время обучения и применения.
За этот период возникло множество проблем, требующих решения с помощью хранения, в основном в том числе:
Небольшая производительность чтения файлов. Требования к данным больших моделей - это в основном большие объемы небольших файлов, таких как изображения и тексты.Один сервер AI может читать более 20 000 изображений в секунду, что часто приводит к низкой эффективности загрузки данных (аналогично действию копирования на персональном ПК). , что эквивалентно «Недостаточно места», папка, содержащая большое количество маленьких файлов, будет работать намного медленнее, чем один большой файл), что влияет на эффективность обучения больших моделей. В настоящее время производительность больших небольших файлов стала узким местом, а базовое требование для большой модели с триллионами параметров достигло 10 миллионов операций ввода-вывода в секунду.
Точка останова CheckPoint возобновляет обучение. Во время процесса обучения большой модели из-за различных потребностей, таких как настройка параметров, CheckPoint будет прерываться в неуказанные моменты времени, а затем перезапускаться для продолжения обучения (это требует времени и создает пробел в использовании ресурсов графического процессора). Это очень удобная возможность для моделей долгосрочного обучения, но частая настройка параметров предприятиями часто приводит к снижению использования графического процессора (в настоящее время в отрасли обычно прерывания происходят в среднем раз в два дня, а загрузка графического процессора составляет всего 40%), что Требуется хранилище.Только при высокой производительности чтения и записи больших файлов вы можете сократить время ожидания графического процессора и повысить эффективность использования дорогостоящих ресурсов.
Проблема «ИИ-галлюцинаций». Явление, заключающееся в том, что выходные результаты больших моделей «случайно сфабрикованы» и явно противоречат фактам, является очень неприятной проблемой в отрасли.Этот феномен самодовольства больших моделей называется «иллюзией искусственного интеллекта». Кажется, что это алгоритмическая проблема, но на самом деле в ходе исследований отрасль постепенно обнаружила, что ее решение требует постоянной «проверки» на уровне данных (в основном, относящейся к контекстной информации), что по сути требует, чтобы хранилище могло предоставлять Подобная система знаний «Энциклопедического словаря» служит «гиппокампом» большой модели, обеспечивающей точные отраслевые знания.
Видно, что на инновационном уровне решение проблем хранения, с которыми сталкиваются большие модели, может иметь приоритет над вычислительной мощностью и алгоритмами.
Этот момент фактически позволяет крупным моделям вернуться к своей сути, которая заключается в использовании моделей ИИ с более крупными параметрами для дальнейшего изучения ценности элементов данных и содействия трансформации и модернизации тысяч отраслей.
В настоящее время элементы данных стали основными ресурсами цифровой экономики и информационного общества и считаются еще одним важным фактором производства после земли, труда, капитала и технологий. Глубокое развитие ценности.
Процесс разработки больших моделей можно рассматривать как процесс, в котором элементы данных продолжают переходить от исходных значений к выходным значениям.
В этом процессе алгоритмы направляют движение вперед, к общим или конкретным отраслям. Когда вычислительная мощность в основном зависит от инвестиций, а алгоритмы постепенно сходятся, инновационная ценность хранилища как носителя элементов данных становится все более заметной.
Позвольте ценности элементов данных проявиться: системы хранения данных Huawei атакуют болевые точки во многих измерениях
Как решить проблемы с хранением данных?Высокопроизводительные продукты Huawei OceanStor A800 для хранения базы знаний и соответствующие решения имеют всесторонне ведущую эффективность обучения и продвижения в сценариях обучения и продвижения отраслевых моделей.Вообще говоря, они имеют четыре основные характеристики:
1. Чрезвычайно высокая общая производительность, соответствующая потребностям обучения на крупных моделях
Основным решением системы хранения данных Huawei является удовлетворение огромного спроса на обучающие данные больших моделей с точки зрения общей производительности, особенно требований к производительности чтения небольших файлов.
OceanStor A800 основан на инновационной архитектуре разделения ЧПУ. Он может достигать 24 миллионов операций ввода-вывода в секунду в одном кадре. Эффективность загрузки обучающего набора в четыре раза выше, чем в отрасли, а его производительность может быть линейно расширена в соответствии с потребностями клиента. Кроме того, распределенная файловая система OceanFS обеспечивает глобальную сбалансированную дисперсию, устраняя узкие места ЦП, обеспечивая максимальное повышение производительности для больших небольших файлов и удовлетворяя потребности в чтении большого количества небольших файлов.
Пока существует спрос на производительность, хранилище Huawei может «выдержать это», даже если оно «увеличится».
2. Оптимизация специальных способностей для удовлетворения конкретных потребностей, например обучение продолжению работы до точки останова
Как лучше обеспечить поддержку в особых обстоятельствах, таких как продолжение обучения в точке останова, — это задача, которую Huawei Storage должна одновременно решать на этапе обучения большой модели.
Благодаря совместной работе по управлению дисками и параллельной файловой системе NFS+ хранилище Huawei обеспечивает сверхвысокую пропускную способность 500 ГБ/с за один кадр и обеспечивает сверхбыстрое восстановление CheckPoint. Скорость возобновления обучения точек останова в три раза выше, чем в отрасли. Чтение и запись CheckPoint на уровне уровня может осуществляться от часов до минут (то есть среднее время восстановления больших моделей с триллионами параметров ускоряется с часов до минут), что сокращает дорогостоящее ожидание графического процессора.
Пока это необходимо для оптимизации больших моделей, клиенты могут смелее выполнять настройку параметров и другие операции.
Кроме того, его плоскость управления и контроля имеет возможности разделения ресурсов и унифицированного планирования, что также может сделать хранилище подходящим для различных бизнес-моделей.
Независимо от того, какую бизнес-модель разрабатывают клиенты, независимо от того, когда клиенты решают приостановить процесс, Huawei Storage сможет лучше с этим справиться.
3. Расширенные возможности реагирования для удовлетворения потребностей приложений с большими моделями в режиме реального времени
После завершения этапа обучения система хранения данных Huawei должна соответствовать строгим требованиям реагирования на данные на этапе применения.
В настоящее время на этапе применения большой модели благодаря встроенной базе векторных знаний (хранящей отраслевые знания в форме векторов) число запросов в секунду в хранилище Huawei достигло 250 000+, и компания смогла достичь отклика на уровне миллисекунд. С одной стороны, это может ускорить рассуждения, благодаря чему потребление ресурсов графического процессора в процессе приложения значительно снижается, что эффективно экономит затраты на реализацию - в настоящее время многие крупные модели потребляют огромные ресурсы на стадии открытого приложения, и некоторые компании перегружены; с другой стороны , «энциклопедический словарь» делает большие модели более точными. Отраслевые знания играют важную вспомогательную роль в уменьшении возникновения галлюцинаций ИИ и могут значительно повысить точность рассуждений.
4. Архитектурные инновации обеспечивают стабильность и надежность всей системы
Последнее и самое основное требование к хранилищу состоит в том, что какими бы характеристиками оно ни обладало, оно должно обеспечивать стабильную и надежную общую структуру, не вызывая проблем с безопасностью и не «срываясь с цепи».
Процесс Huawei Storage по решению ряда проблем с большими моделями данных также в определенной степени увеличил сложность решений и систем хранения.Однако в то же время Huawei не пожертвовала надежностью системы.Его инновационная полностью взаимосвязанная система Архитектура АА. Она может обеспечить 5 уровней всесторонней защиты и 6 девяток сверхвысокой надежности.
В результате надежность данных и стабильность обучения больших моделей гарантированы от начала до конца.
Тот, кто строит колеса, первым проходит долгий путь
Система хранения данных Huawei может решить проблемы, связанные с большими моделями данных. Основная причина кроется в долгосрочных инновационных исследованиях в области хранения данных.
Архитектура разделения ЧПУ OceanStor A800 использует преимущества передовых технологических инноваций в отрасли прямого чтения и записи данных на диск, позволяя напрямую подключать плоскость данных к диску и отделять ее от плоскости управления для достижения прямого ввода-вывода, тем самым сокращение операций ЦП во время чтения и записи данных, что значительно повышает производительность хранилища.
Фактически, компания Huawei уже давно прилагает технологические усилия в области хранения данных и добилась множества подобных передовых инноваций.
В настоящее время система хранения данных Huawei OceanStor имеет 12 центров исследований и разработок по всему миру, более 4000 сотрудников, занимающихся исследованиями и разработками, и более 3000 патентов. Ее продукция используется во многих областях, таких как высокопроизводительные решения для хранения данных NAS, решения для защиты от программ-вымогателей, решения для контейнерного хранения и виртуализация центров обработки данных, получившая широкое признание.
В более чем 150 странах мира системы хранения данных Huawei обслуживают более 25 000 клиентов, включая операторов, финансовую, правительственную, энергетическую, медицинскую, производственную, транспортную и другие отрасли.
Можно сказать, что возможности хранения, адаптированные к повышению ценности элементов данных и инновационным потребностям больших моделей, являются неизбежным результатом долговременной напряженной работы Huawei в области хранения данных - система хранения данных Huawei уже проделала хорошую работу по обеспечению данных. потребности многих месторождений (не только крупномасштабные модели. Модель) обеспечивает подготовку к сильной пропускной способности и синергии.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Большие модели углубляют ценность элементов данных: после алгоритмов и вычислительной мощности ценность носителей становится более заметной.
Статья| Интеллектуальная теория относительности** (aixdlun)**
Автор | Е Юаньфэн
18,8 триллиона долларов США, что является общей стоимостью, которую рынок, по ожиданиям, будет генерировать интеллектуальная экономика, основанная на искусственном интеллекте, в 2030 году. Среди них качественные изменения в возможностях искусственного интеллекта, вызванные большими моделями, несомненно, станут важной движущей силой.
Под волной больших моделей внимание отрасли к любому аспекту тройки развития ИИ — вычислительной мощности, алгоритмам и данным — вышло на новый уровень. модели.
В этом процессе внимание отрасли к «данным» часто сосредотачивается на «количестве» + «качестве». Больший объем данных и более высокое качество данных могут способствовать лучшему обучению и эффекту применения больших моделей.
Однако, поскольку инновации в больших моделях требуют все более сложных данных, уже недостаточно сосредоточиться исключительно на «количестве» + «качестве» данных. Хранилище, которое может переносить данные и удовлетворять потребности больших моделей, также заслуживает внимания практиков в области больших моделей.
На только что состоявшейся конференции Huawei Connectivity Conference 2023 (HC 2023) компания Huawei систематически представила, как ее решения для хранения данных могут решить проблемы обучения и применения больших моделей, а также поддержать инновационный процесс больших моделей.
Действия Huawei панорамно демонстрируют суть разработки крупных моделей с точки зрения данных — крупномасштабную разработку «элементов данных» и то, как инновации в области хранения данных обеспечивают силу этой сути, помогая практикам крупных моделей лучше влиться в эпоху умной экономики.
Эпоха больших моделей — это эпоха элементов данных, и демонстрируется ценность хранилища как носителя.
Нет сомнений в том, что спрос на вычислительные мощности, алгоритмы и данные для больших моделей быстро растет.
Согласно статистике рыночных исследований, за последние пять лет параметры больших моделей увеличились в 2000 раз, требуемая вычислительная мощность увеличилась в 50 000 раз, потребность в хранении данных выросла в 100 000 раз, а связанные с этим требования к пропускной способности сети увеличились в 8000 раз.
Большие открытия, большие закрытия и большие требования требуют больших мощностей и инвестиций.
Однако с точки зрения инноваций на самом деле сложность как алгоритмов, так и вычислительной мощности снижается или сближается.
Что касается вычислительной мощности, которая является головной болью для многих компаний, хотя требуемая сумма велика, все это обеспечивается NVIDIA, Ascend и другими аппаратными ресурсами графических процессоров, что в основном зависит от инвестиций. Другими словами, пока имеется достаточный бюджет, вычислительные ресурсы могут быть предоставлены.
Что касается алгоритмов, хотя крупные производители продолжают настраивать и совершенствовать их, они обычно принимают инфраструктуру модели Transformer, которая разрабатывается на основе основных платформ разработки, таких как Pytorch, TensorFlow и MindSpore, и постепенно сближается.
В это время давление приходит к данным.
С углубленной разработкой больших моделей общий объем требований к данным уже перескочил с уровня TB на уровень PB, а требуемый «пул» становится все больше и больше; в то же время спрос на типы данных чрезвычайно велик. Богатая и модель одного текста. Помимо модальностей, мультимодальные данные, такие как изображения, видео и голоса, стремительно растут, а требования к данным становятся все более и более сложными.Все это проверяет пропускную способность хранилища и то, как для лучшей работы с вычислительными мощностями и алгоритмами во время обучения и применения.
За этот период возникло множество проблем, требующих решения с помощью хранения, в основном в том числе:
Небольшая производительность чтения файлов. Требования к данным больших моделей - это в основном большие объемы небольших файлов, таких как изображения и тексты.Один сервер AI может читать более 20 000 изображений в секунду, что часто приводит к низкой эффективности загрузки данных (аналогично действию копирования на персональном ПК). , что эквивалентно «Недостаточно места», папка, содержащая большое количество маленьких файлов, будет работать намного медленнее, чем один большой файл), что влияет на эффективность обучения больших моделей. В настоящее время производительность больших небольших файлов стала узким местом, а базовое требование для большой модели с триллионами параметров достигло 10 миллионов операций ввода-вывода в секунду.
Точка останова CheckPoint возобновляет обучение. Во время процесса обучения большой модели из-за различных потребностей, таких как настройка параметров, CheckPoint будет прерываться в неуказанные моменты времени, а затем перезапускаться для продолжения обучения (это требует времени и создает пробел в использовании ресурсов графического процессора). Это очень удобная возможность для моделей долгосрочного обучения, но частая настройка параметров предприятиями часто приводит к снижению использования графического процессора (в настоящее время в отрасли обычно прерывания происходят в среднем раз в два дня, а загрузка графического процессора составляет всего 40%), что Требуется хранилище.Только при высокой производительности чтения и записи больших файлов вы можете сократить время ожидания графического процессора и повысить эффективность использования дорогостоящих ресурсов.
Проблема «ИИ-галлюцинаций». Явление, заключающееся в том, что выходные результаты больших моделей «случайно сфабрикованы» и явно противоречат фактам, является очень неприятной проблемой в отрасли.Этот феномен самодовольства больших моделей называется «иллюзией искусственного интеллекта». Кажется, что это алгоритмическая проблема, но на самом деле в ходе исследований отрасль постепенно обнаружила, что ее решение требует постоянной «проверки» на уровне данных (в основном, относящейся к контекстной информации), что по сути требует, чтобы хранилище могло предоставлять Подобная система знаний «Энциклопедического словаря» служит «гиппокампом» большой модели, обеспечивающей точные отраслевые знания.
Видно, что на инновационном уровне решение проблем хранения, с которыми сталкиваются большие модели, может иметь приоритет над вычислительной мощностью и алгоритмами.
Этот момент фактически позволяет крупным моделям вернуться к своей сути, которая заключается в использовании моделей ИИ с более крупными параметрами для дальнейшего изучения ценности элементов данных и содействия трансформации и модернизации тысяч отраслей.
В настоящее время элементы данных стали основными ресурсами цифровой экономики и информационного общества и считаются еще одним важным фактором производства после земли, труда, капитала и технологий. Глубокое развитие ценности.
Процесс разработки больших моделей можно рассматривать как процесс, в котором элементы данных продолжают переходить от исходных значений к выходным значениям.
В этом процессе алгоритмы направляют движение вперед, к общим или конкретным отраслям. Когда вычислительная мощность в основном зависит от инвестиций, а алгоритмы постепенно сходятся, инновационная ценность хранилища как носителя элементов данных становится все более заметной.
Позвольте ценности элементов данных проявиться: системы хранения данных Huawei атакуют болевые точки во многих измерениях
Как решить проблемы с хранением данных?Высокопроизводительные продукты Huawei OceanStor A800 для хранения базы знаний и соответствующие решения имеют всесторонне ведущую эффективность обучения и продвижения в сценариях обучения и продвижения отраслевых моделей.Вообще говоря, они имеют четыре основные характеристики:
1. Чрезвычайно высокая общая производительность, соответствующая потребностям обучения на крупных моделях
Основным решением системы хранения данных Huawei является удовлетворение огромного спроса на обучающие данные больших моделей с точки зрения общей производительности, особенно требований к производительности чтения небольших файлов.
OceanStor A800 основан на инновационной архитектуре разделения ЧПУ. Он может достигать 24 миллионов операций ввода-вывода в секунду в одном кадре. Эффективность загрузки обучающего набора в четыре раза выше, чем в отрасли, а его производительность может быть линейно расширена в соответствии с потребностями клиента. Кроме того, распределенная файловая система OceanFS обеспечивает глобальную сбалансированную дисперсию, устраняя узкие места ЦП, обеспечивая максимальное повышение производительности для больших небольших файлов и удовлетворяя потребности в чтении большого количества небольших файлов.
Пока существует спрос на производительность, хранилище Huawei может «выдержать это», даже если оно «увеличится».
2. Оптимизация специальных способностей для удовлетворения конкретных потребностей, например обучение продолжению работы до точки останова
Как лучше обеспечить поддержку в особых обстоятельствах, таких как продолжение обучения в точке останова, — это задача, которую Huawei Storage должна одновременно решать на этапе обучения большой модели.
Благодаря совместной работе по управлению дисками и параллельной файловой системе NFS+ хранилище Huawei обеспечивает сверхвысокую пропускную способность 500 ГБ/с за один кадр и обеспечивает сверхбыстрое восстановление CheckPoint. Скорость возобновления обучения точек останова в три раза выше, чем в отрасли. Чтение и запись CheckPoint на уровне уровня может осуществляться от часов до минут (то есть среднее время восстановления больших моделей с триллионами параметров ускоряется с часов до минут), что сокращает дорогостоящее ожидание графического процессора.
Пока это необходимо для оптимизации больших моделей, клиенты могут смелее выполнять настройку параметров и другие операции.
Кроме того, его плоскость управления и контроля имеет возможности разделения ресурсов и унифицированного планирования, что также может сделать хранилище подходящим для различных бизнес-моделей.
Независимо от того, какую бизнес-модель разрабатывают клиенты, независимо от того, когда клиенты решают приостановить процесс, Huawei Storage сможет лучше с этим справиться.
3. Расширенные возможности реагирования для удовлетворения потребностей приложений с большими моделями в режиме реального времени
После завершения этапа обучения система хранения данных Huawei должна соответствовать строгим требованиям реагирования на данные на этапе применения.
В настоящее время на этапе применения большой модели благодаря встроенной базе векторных знаний (хранящей отраслевые знания в форме векторов) число запросов в секунду в хранилище Huawei достигло 250 000+, и компания смогла достичь отклика на уровне миллисекунд. С одной стороны, это может ускорить рассуждения, благодаря чему потребление ресурсов графического процессора в процессе приложения значительно снижается, что эффективно экономит затраты на реализацию - в настоящее время многие крупные модели потребляют огромные ресурсы на стадии открытого приложения, и некоторые компании перегружены; с другой стороны , «энциклопедический словарь» делает большие модели более точными. Отраслевые знания играют важную вспомогательную роль в уменьшении возникновения галлюцинаций ИИ и могут значительно повысить точность рассуждений.
4. Архитектурные инновации обеспечивают стабильность и надежность всей системы
Последнее и самое основное требование к хранилищу состоит в том, что какими бы характеристиками оно ни обладало, оно должно обеспечивать стабильную и надежную общую структуру, не вызывая проблем с безопасностью и не «срываясь с цепи».
Процесс Huawei Storage по решению ряда проблем с большими моделями данных также в определенной степени увеличил сложность решений и систем хранения.Однако в то же время Huawei не пожертвовала надежностью системы.Его инновационная полностью взаимосвязанная система Архитектура АА. Она может обеспечить 5 уровней всесторонней защиты и 6 девяток сверхвысокой надежности.
В результате надежность данных и стабильность обучения больших моделей гарантированы от начала до конца.
Тот, кто строит колеса, первым проходит долгий путь
Система хранения данных Huawei может решить проблемы, связанные с большими моделями данных. Основная причина кроется в долгосрочных инновационных исследованиях в области хранения данных.
Архитектура разделения ЧПУ OceanStor A800 использует преимущества передовых технологических инноваций в отрасли прямого чтения и записи данных на диск, позволяя напрямую подключать плоскость данных к диску и отделять ее от плоскости управления для достижения прямого ввода-вывода, тем самым сокращение операций ЦП во время чтения и записи данных, что значительно повышает производительность хранилища.
Фактически, компания Huawei уже давно прилагает технологические усилия в области хранения данных и добилась множества подобных передовых инноваций.
В настоящее время система хранения данных Huawei OceanStor имеет 12 центров исследований и разработок по всему миру, более 4000 сотрудников, занимающихся исследованиями и разработками, и более 3000 патентов. Ее продукция используется во многих областях, таких как высокопроизводительные решения для хранения данных NAS, решения для защиты от программ-вымогателей, решения для контейнерного хранения и виртуализация центров обработки данных, получившая широкое признание.
В более чем 150 странах мира системы хранения данных Huawei обслуживают более 25 000 клиентов, включая операторов, финансовую, правительственную, энергетическую, медицинскую, производственную, транспортную и другие отрасли.
Можно сказать, что возможности хранения, адаптированные к повышению ценности элементов данных и инновационным потребностям больших моделей, являются неизбежным результатом долговременной напряженной работы Huawei в области хранения данных - система хранения данных Huawei уже проделала хорошую работу по обеспечению данных. потребности многих месторождений (не только крупномасштабные модели. Модель) обеспечивает подготовку к сильной пропускной способности и синергии.