18,8 трильйона доларів США — це загальна вартість, яку ринок очікує отримати від інтелектуальної економіки, керованої штучним інтелектом, у 2030 році. Серед них якісна зміна можливостей штучного інтелекту, викликана великими моделями, безсумнівно, стане важливою рушійною силою.
Під час хвилі великих моделей увага галузі до будь-якого виміру трійки розвитку штучного інтелекту – обчислювальної потужності, алгоритмів і даних – вийшла на новий рівень. моделі.
У цьому процесі увага промисловості до «даних» часто зосереджується на «кількості» + «якості». Більший обсяг даних і вища якість даних можуть сприяти кращому навчанню та застосуванню великих моделей. став консенсусом.
Однак, оскільки інновації великих моделей вимагають все більш і більш складних даних, тепер недостатньо зосереджуватися лише на «кількості» + «якості» даних. Сховище, яке може переносити дані та відповідати потребам великих моделей, також заслуговує на увагу. практиків у сфері великих моделей.
На щойно проведеній конференції Huawei Connectivity Conference 2023 (HC 2023) компанія Huawei систематично представила, як її рішення для зберігання даних можуть вирішити проблеми, пов’язані з навчанням і застосуванням великих моделей, а також підтримати інноваційний процес великих моделей.
Дії Huawei панорамно демонструють сутність розробки великої моделі з виміру даних — широкомасштабну розробку «елементів даних» і те, як інноваційні системи зберігання забезпечують потужність для цієї сутності, допомагаючи практикам великих моделей краще підключитися до ери розумної економіки.
Ера великих моделей — це ера елементів даних, і продемонстровано цінність сховища як носія.
Без сумніву, попит на обчислювальну потужність, алгоритми та дані для великих моделей швидко зростає.
Згідно зі статистикою маркетингових досліджень, за останні п’ять років параметри великих моделей зросли в 2000 разів, необхідна обчислювальна потужність зросла в 50 000 разів, попит на зберігання даних зріс у 100 000 разів, а пов’язані вимоги до пропускної здатності мережі зросла у 8000 разів.
Великі відкриття, великі закриття та великі вимоги вимагають великих потужностей та інвестицій.
Однак, з точки зору інновацій, складність як алгоритмів, так і обчислювальної потужності зменшується або зближується.
Що стосується обчислювальної потужності, яка є головним болем для багатьох компаній, хоча необхідна сума є великою, уся вона надходить від NVIDIA, Ascend та інших апаратних ресурсів GPU, які в основному залежать від інвестиційних витрат. Іншими словами, поки є достатній бюджет, обчислювальні ресурси можуть бути надані.
Що стосується алгоритмів, хоча основні виробники продовжують налаштовувати та ітерувати, вони, як правило, приймають інфраструктуру моделі Transformer і розвиваються на основі основних інфраструктур розробки, таких як Pytorch, TensorFlow, MindSpore тощо, які поступово зближуються.
У цей час тиск надходить на дані.
З поглибленим розвитком великих моделей загальний обсяг вимог до даних вже підскочив з рівня TB до рівня PB, а необхідний «пул» стає все більшим і більшим; в той же час попит на типи даних надзвичайно високий. rich, і модель єдиного тексту. На додаток до модальностей, багатомодальні дані, такі як зображення, відео та голоси, вибухають, а вимоги до даних стають дедалі складнішими.Все це перевіряє ємність зберігання та те, як краще працювати з обчислювальною потужністю та алгоритмами під час навчання та застосування.
Протягом цього періоду виникло багато проблем, які чекають подолання шляхом зберігання, в основному в тому числі:
Невелика продуктивність читання файлів. Вимоги до даних для великих моделей - це в основному великі обсяги невеликих файлів, таких як зображення та тексти.Один сервер штучного інтелекту може читати понад 20 000 зображень за секунду, що часто призводить до низької ефективності завантаження даних (подібно до дії копіювання на персональному ПК , що еквівалентно Недостатньо необхідного простору, папка, що містить велику кількість маленьких файлів, працюватиме набагато повільніше, ніж один великий файл), що впливає на ефективність навчання великих моделей. У цей час продуктивність великих малих файлів стала вузьким місцем, а базова вимога для великої моделі з трильйонами параметрів досягла 10 мільйонів IOPS.
Точка зупину CheckPoint відновлює навчання. Під час процесу навчання великої моделі через різні потреби, як-от налаштування параметрів, CheckPoint буде перервано в невизначені моменти часу, а потім перезапущено, щоб продовжити навчання (це потребує часу та створює розрив у використанні ресурсів GPU). Це дуже зручна можливість для довгострокових моделей навчання, але часте налаштування параметрів на підприємствах часто призводить до зниження використання графічного процесора (наразі індустрія зазвичай переривається в середньому раз на два дні, а використання графічного процесора становить лише 40%), що потрібне сховище Лише за допомогою високої продуктивності читання та запису великих файлів можна зменшити час очікування GPU та підвищити ефективність використання дорогих ресурсів.
Проблема «ШІ галюцинації». Феномен, коли вихідні результати великих моделей є "випадковим чином сфабрикованим" і, очевидно, суперечать фактам, є дуже неприємною проблемою в галузі. Це явище самовпевненості великих моделей називається "ілюзією ШІ". Здається, що це алгоритмічна проблема, але насправді індустрія поступово виявила під час дослідження, що її рішення потребує постійної «перевірки» на рівні даних (головним чином посилаючись на контекстну інформацію), яка, по суті, вимагає сховища, щоб забезпечити Подібна система знань «Encyclopedia Dictionary» служить «гіпокампом» великої моделі для надання точних галузевих знань.
Можна побачити, що на рівні інновацій вирішення проблем зберігання, з якими стикаються великі моделі, може мати пріоритет над обчислювальною потужністю та алгоритмами.
Цей момент фактично дозволяє великим моделям ще більше повернутися до своєї суті, яка полягає у використанні моделей ШІ з більшими параметрами для подальшого вивчення цінності елементів даних і сприяння трансформації та модернізації тисяч галузей.
Нині елементи даних стали основними ресурсами цифрової економіки та інформаційного суспільства та вважаються ще одним важливим фактором виробництва після землі, праці, капіталу та технологій.Незліченні інновації, включаючи великі моделі, базуються на елементах даних. Глибокий розвиток вартості.
Процес розробки великих моделей можна розглядати як процес, у якому елементи даних продовжують переміщатися від початкового до вихідного значення.
У цьому процесі алгоритми спрямовують напрямок із початку до загальних або конкретних галузей. Зростаюча обчислювальна потужність забезпечує потужну рушійну силу, а сховище забезпечує підтримку та можливості для співпраці. Коли обчислювальна потужність в основному залежить від інвестицій, а алгоритми поступово зближуються, інноваційна цінність сховища як носія елементів даних стає все більш помітною.
Нехай цінність елементів даних реалізується, сховище Huawei атакує больові точки в багатьох вимірах
Як вирішувати проблеми зі сховищем? Високопродуктивна база знань Huawei для зберігання продуктів OceanStor A800 і відповідні рішення мають найкращу ефективність навчання та підвищення ефективності в галузевих моделях навчання та сценаріїв просування. Загалом, вони мають чотири основні характеристики:
1. Надзвичайно висока загальна продуктивність, що відповідає потребам навчання великих моделей
Основним рішенням сховища Huawei є задоволення величезного попиту на навчальні дані великих моделей з точки зору загальної продуктивності, особливо попиту на швидкість читання невеликих файлів.
OceanStor A800 базується на інноваційній архітектурі розділення з ЧПК. Він може досягати 24 мільйонів операцій вводу-виводу в секунду в одному кадрі. Його ефективність завантаження навчального набору в чотири рази вища, ніж у промисловості, а його продуктивність можна лінійно розширити відповідно до потреб клієнтів. Крім того, розподілена файлова система OceanFS забезпечує глобальну збалансовану дисперсію, усуває вузькі місця процесора, забезпечуючи максимальне підвищення продуктивності великих малих файлів і задовольняючи потреби читання великої кількості маленьких файлів.
Поки є потреба в продуктивності, сховище Huawei може «витримати» це, навіть якщо воно «збільшено».
2. Оптимізуйте спеціальні здібності, щоб задовольнити конкретні потреби, як-от продовження тренінгу для досягнення точки зупинки
Як краще надати підтримку за особливих обставин, наприклад, продовження навчання в точці зупину, є проблемою, яку Huawei Storage має вирішити одночасно на етапі навчання великої моделі.
Завдяки спільному управлінню дисками та паралельній файловій системі NFS+ сховище Huawei забезпечує надвисоку пропускну здатність 500 ГБ/с в одному кадрі та забезпечує надшвидке відновлення CheckPoint.Швидкість відновлення навчання точці зупину втричі вища, ніж у галузі.ТБ Читання та запис на рівні CheckPoint може бути досягнуто з Він займає від годин до хвилин (тобто середній час відновлення великих моделей із трильйонами параметрів прискорюється з годин до хвилин), зменшуючи дороге очікування GPU.
Поки потрібно оптимізувати великі моделі, клієнти можуть більш сміливо виконувати налаштування параметрів та інші операції.
Крім того, його площина управління та контролю має можливості розподілу ресурсів + уніфікованого планування, що також може зробити сховище придатним для різних бізнес-моделей.
Незалежно від того, яку бізнес-модель розробляють клієнти, незалежно від того, коли клієнти вирішують призупинити процес, Huawei Storage може краще впоратися з цим.
3. Розширені можливості реагування для задоволення потреб у режимі реального часу великих модельних додатків
Після завершення етапу навчання Huawei Storage має задовольнити суворі вимоги щодо обробки даних на етапі застосування.
Зараз на стадії застосування великої моделі завдяки вбудованій векторній базі знань (зберігає галузеві знання у формі векторів) сховище Huawei досягло 250 000+ QPS, і йому вдалося досягти рівня відгуку в мілісекундах. З одного боку, це може прискорити міркування, завдяки чому споживання ресурсів графічного процесора під час процесу застосування значно зменшується, ефективно заощаджуючи витрати на реалізацію - наразі багато великих моделей споживають величезні ресурси на стадії відкритого застосування, і деякі компанії перевантажені; з іншого боку , «Енциклопедичний словник» робить великі моделі більш точними Знання галузі відіграють важливу допоміжну роль у зниженні появи галюцинацій штучного інтелекту та можуть значно покращити точність міркувань.
4. Архітектурні інновації забезпечують стабільність і надійність всієї системи
Остання і найосновніша вимога до сховища полягає в тому, що незалежно від того, які характеристики воно має, воно повинно забезпечувати стабільну та надійну загальну структуру, не створюючи проблем із безпекою чи «випадання з ланцюжка».
Процес Huawei Storage для вирішення ряду проблемних вимог до даних великої моделі також до певної міри збільшив складність рішень і систем зберігання даних. Проте, в той же час, Huawei не пожертвувала надійністю системи. Її інноваційна повністю взаємопов’язана система Архітектура АА забезпечує 5 рівнів всебічного захисту та 6 дев’яток надвисокої надійності.
У результаті надійність даних і стабільність навчання великих моделей гарантуються наскрізно.
Хто будує колеса, той першим проходить довгий шлях
Сховище Huawei може вирішити проблеми, пов’язані з великими моделями даних. Основна причина полягає в довгострокових інноваційних дослідженнях у сховищах.
Архітектура розділення з ЧПК OceanStor A800 використовує переваги передових технологічних інновацій прямого читання та запису даних на диск, що дозволяє напряму підключати площину даних до диска та відокремлювати її від площини керування для досягнення прямого введення-виведення. скорочення операцій ЦП під час читання та запису даних, значно покращує продуктивність зберігання.
Насправді Huawei протягом тривалого часу докладає технологічних зусиль у сфері зберігання даних і досягла багатьох подібних передових інновацій.
Наразі сховище Huawei OceanStor має 12 науково-дослідних центрів по всьому світу, понад 4000 співробітників R&D і понад 3000 патентів. Його продукти застосовуються в багатьох сферах, таких як високопродуктивні рішення для зберігання NAS, рішення для захисту від програм-вимагачів, рішення для зберігання контейнерів і віртуалізація центрів обробки даних, яка отримала широке визнання.
У більш ніж 150 країнах світу сховища Huawei обслуговують понад 25 000 клієнтів, включаючи операторів, фінансів, уряд, енергетику, медицину, виробництво, транспорт та інші галузі.
Можна сказати, що можливості зберігання, адаптовані до розвитку цінності елементів даних та інноваційних потреб великих моделей, є неминучим результатом тривалої наполегливої роботи Huawei над створенням системи зберігання даних. Сховище Huawei вже добре впоралося із забезпеченням даних. потреб багатьох галузей (не лише великомасштабних моделей). Модель) забезпечує підготовку до сильної пропускної здатності та синергії.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Великі моделі глибоко вивчають цінність елементів даних: після алгоритмів і обчислювальної потужності цінність носіїв пам’яті стає більш помітною
Стаття| Розумна теорія відносності** (aixdlun)**
Автор | Є Юаньфен
18,8 трильйона доларів США — це загальна вартість, яку ринок очікує отримати від інтелектуальної економіки, керованої штучним інтелектом, у 2030 році. Серед них якісна зміна можливостей штучного інтелекту, викликана великими моделями, безсумнівно, стане важливою рушійною силою.
Під час хвилі великих моделей увага галузі до будь-якого виміру трійки розвитку штучного інтелекту – обчислювальної потужності, алгоритмів і даних – вийшла на новий рівень. моделі.
У цьому процесі увага промисловості до «даних» часто зосереджується на «кількості» + «якості». Більший обсяг даних і вища якість даних можуть сприяти кращому навчанню та застосуванню великих моделей. став консенсусом.
Однак, оскільки інновації великих моделей вимагають все більш і більш складних даних, тепер недостатньо зосереджуватися лише на «кількості» + «якості» даних. Сховище, яке може переносити дані та відповідати потребам великих моделей, також заслуговує на увагу. практиків у сфері великих моделей.
На щойно проведеній конференції Huawei Connectivity Conference 2023 (HC 2023) компанія Huawei систематично представила, як її рішення для зберігання даних можуть вирішити проблеми, пов’язані з навчанням і застосуванням великих моделей, а також підтримати інноваційний процес великих моделей.
Дії Huawei панорамно демонструють сутність розробки великої моделі з виміру даних — широкомасштабну розробку «елементів даних» і те, як інноваційні системи зберігання забезпечують потужність для цієї сутності, допомагаючи практикам великих моделей краще підключитися до ери розумної економіки.
Ера великих моделей — це ера елементів даних, і продемонстровано цінність сховища як носія.
Без сумніву, попит на обчислювальну потужність, алгоритми та дані для великих моделей швидко зростає.
Згідно зі статистикою маркетингових досліджень, за останні п’ять років параметри великих моделей зросли в 2000 разів, необхідна обчислювальна потужність зросла в 50 000 разів, попит на зберігання даних зріс у 100 000 разів, а пов’язані вимоги до пропускної здатності мережі зросла у 8000 разів.
Великі відкриття, великі закриття та великі вимоги вимагають великих потужностей та інвестицій.
Однак, з точки зору інновацій, складність як алгоритмів, так і обчислювальної потужності зменшується або зближується.
Що стосується обчислювальної потужності, яка є головним болем для багатьох компаній, хоча необхідна сума є великою, уся вона надходить від NVIDIA, Ascend та інших апаратних ресурсів GPU, які в основному залежать від інвестиційних витрат. Іншими словами, поки є достатній бюджет, обчислювальні ресурси можуть бути надані.
Що стосується алгоритмів, хоча основні виробники продовжують налаштовувати та ітерувати, вони, як правило, приймають інфраструктуру моделі Transformer і розвиваються на основі основних інфраструктур розробки, таких як Pytorch, TensorFlow, MindSpore тощо, які поступово зближуються.
У цей час тиск надходить на дані.
З поглибленим розвитком великих моделей загальний обсяг вимог до даних вже підскочив з рівня TB до рівня PB, а необхідний «пул» стає все більшим і більшим; в той же час попит на типи даних надзвичайно високий. rich, і модель єдиного тексту. На додаток до модальностей, багатомодальні дані, такі як зображення, відео та голоси, вибухають, а вимоги до даних стають дедалі складнішими.Все це перевіряє ємність зберігання та те, як краще працювати з обчислювальною потужністю та алгоритмами під час навчання та застосування.
Протягом цього періоду виникло багато проблем, які чекають подолання шляхом зберігання, в основному в тому числі:
Невелика продуктивність читання файлів. Вимоги до даних для великих моделей - це в основному великі обсяги невеликих файлів, таких як зображення та тексти.Один сервер штучного інтелекту може читати понад 20 000 зображень за секунду, що часто призводить до низької ефективності завантаження даних (подібно до дії копіювання на персональному ПК , що еквівалентно Недостатньо необхідного простору, папка, що містить велику кількість маленьких файлів, працюватиме набагато повільніше, ніж один великий файл), що впливає на ефективність навчання великих моделей. У цей час продуктивність великих малих файлів стала вузьким місцем, а базова вимога для великої моделі з трильйонами параметрів досягла 10 мільйонів IOPS.
Точка зупину CheckPoint відновлює навчання. Під час процесу навчання великої моделі через різні потреби, як-от налаштування параметрів, CheckPoint буде перервано в невизначені моменти часу, а потім перезапущено, щоб продовжити навчання (це потребує часу та створює розрив у використанні ресурсів GPU). Це дуже зручна можливість для довгострокових моделей навчання, але часте налаштування параметрів на підприємствах часто призводить до зниження використання графічного процесора (наразі індустрія зазвичай переривається в середньому раз на два дні, а використання графічного процесора становить лише 40%), що потрібне сховище Лише за допомогою високої продуктивності читання та запису великих файлів можна зменшити час очікування GPU та підвищити ефективність використання дорогих ресурсів.
Проблема «ШІ галюцинації». Феномен, коли вихідні результати великих моделей є "випадковим чином сфабрикованим" і, очевидно, суперечать фактам, є дуже неприємною проблемою в галузі. Це явище самовпевненості великих моделей називається "ілюзією ШІ". Здається, що це алгоритмічна проблема, але насправді індустрія поступово виявила під час дослідження, що її рішення потребує постійної «перевірки» на рівні даних (головним чином посилаючись на контекстну інформацію), яка, по суті, вимагає сховища, щоб забезпечити Подібна система знань «Encyclopedia Dictionary» служить «гіпокампом» великої моделі для надання точних галузевих знань.
Можна побачити, що на рівні інновацій вирішення проблем зберігання, з якими стикаються великі моделі, може мати пріоритет над обчислювальною потужністю та алгоритмами.
Цей момент фактично дозволяє великим моделям ще більше повернутися до своєї суті, яка полягає у використанні моделей ШІ з більшими параметрами для подальшого вивчення цінності елементів даних і сприяння трансформації та модернізації тисяч галузей.
Нині елементи даних стали основними ресурсами цифрової економіки та інформаційного суспільства та вважаються ще одним важливим фактором виробництва після землі, праці, капіталу та технологій.Незліченні інновації, включаючи великі моделі, базуються на елементах даних. Глибокий розвиток вартості.
Процес розробки великих моделей можна розглядати як процес, у якому елементи даних продовжують переміщатися від початкового до вихідного значення.
У цьому процесі алгоритми спрямовують напрямок із початку до загальних або конкретних галузей. Зростаюча обчислювальна потужність забезпечує потужну рушійну силу, а сховище забезпечує підтримку та можливості для співпраці. Коли обчислювальна потужність в основному залежить від інвестицій, а алгоритми поступово зближуються, інноваційна цінність сховища як носія елементів даних стає все більш помітною.
Нехай цінність елементів даних реалізується, сховище Huawei атакує больові точки в багатьох вимірах
Як вирішувати проблеми зі сховищем? Високопродуктивна база знань Huawei для зберігання продуктів OceanStor A800 і відповідні рішення мають найкращу ефективність навчання та підвищення ефективності в галузевих моделях навчання та сценаріїв просування. Загалом, вони мають чотири основні характеристики:
1. Надзвичайно висока загальна продуктивність, що відповідає потребам навчання великих моделей
Основним рішенням сховища Huawei є задоволення величезного попиту на навчальні дані великих моделей з точки зору загальної продуктивності, особливо попиту на швидкість читання невеликих файлів.
OceanStor A800 базується на інноваційній архітектурі розділення з ЧПК. Він може досягати 24 мільйонів операцій вводу-виводу в секунду в одному кадрі. Його ефективність завантаження навчального набору в чотири рази вища, ніж у промисловості, а його продуктивність можна лінійно розширити відповідно до потреб клієнтів. Крім того, розподілена файлова система OceanFS забезпечує глобальну збалансовану дисперсію, усуває вузькі місця процесора, забезпечуючи максимальне підвищення продуктивності великих малих файлів і задовольняючи потреби читання великої кількості маленьких файлів.
Поки є потреба в продуктивності, сховище Huawei може «витримати» це, навіть якщо воно «збільшено».
2. Оптимізуйте спеціальні здібності, щоб задовольнити конкретні потреби, як-от продовження тренінгу для досягнення точки зупинки
Як краще надати підтримку за особливих обставин, наприклад, продовження навчання в точці зупину, є проблемою, яку Huawei Storage має вирішити одночасно на етапі навчання великої моделі.
Завдяки спільному управлінню дисками та паралельній файловій системі NFS+ сховище Huawei забезпечує надвисоку пропускну здатність 500 ГБ/с в одному кадрі та забезпечує надшвидке відновлення CheckPoint.Швидкість відновлення навчання точці зупину втричі вища, ніж у галузі.ТБ Читання та запис на рівні CheckPoint може бути досягнуто з Він займає від годин до хвилин (тобто середній час відновлення великих моделей із трильйонами параметрів прискорюється з годин до хвилин), зменшуючи дороге очікування GPU.
Поки потрібно оптимізувати великі моделі, клієнти можуть більш сміливо виконувати налаштування параметрів та інші операції.
Крім того, його площина управління та контролю має можливості розподілу ресурсів + уніфікованого планування, що також може зробити сховище придатним для різних бізнес-моделей.
Незалежно від того, яку бізнес-модель розробляють клієнти, незалежно від того, коли клієнти вирішують призупинити процес, Huawei Storage може краще впоратися з цим.
3. Розширені можливості реагування для задоволення потреб у режимі реального часу великих модельних додатків
Після завершення етапу навчання Huawei Storage має задовольнити суворі вимоги щодо обробки даних на етапі застосування.
Зараз на стадії застосування великої моделі завдяки вбудованій векторній базі знань (зберігає галузеві знання у формі векторів) сховище Huawei досягло 250 000+ QPS, і йому вдалося досягти рівня відгуку в мілісекундах. З одного боку, це може прискорити міркування, завдяки чому споживання ресурсів графічного процесора під час процесу застосування значно зменшується, ефективно заощаджуючи витрати на реалізацію - наразі багато великих моделей споживають величезні ресурси на стадії відкритого застосування, і деякі компанії перевантажені; з іншого боку , «Енциклопедичний словник» робить великі моделі більш точними Знання галузі відіграють важливу допоміжну роль у зниженні появи галюцинацій штучного інтелекту та можуть значно покращити точність міркувань.
4. Архітектурні інновації забезпечують стабільність і надійність всієї системи
Остання і найосновніша вимога до сховища полягає в тому, що незалежно від того, які характеристики воно має, воно повинно забезпечувати стабільну та надійну загальну структуру, не створюючи проблем із безпекою чи «випадання з ланцюжка».
Процес Huawei Storage для вирішення ряду проблемних вимог до даних великої моделі також до певної міри збільшив складність рішень і систем зберігання даних. Проте, в той же час, Huawei не пожертвувала надійністю системи. Її інноваційна повністю взаємопов’язана система Архітектура АА забезпечує 5 рівнів всебічного захисту та 6 дев’яток надвисокої надійності.
У результаті надійність даних і стабільність навчання великих моделей гарантуються наскрізно.
Хто будує колеса, той першим проходить довгий шлях
Сховище Huawei може вирішити проблеми, пов’язані з великими моделями даних. Основна причина полягає в довгострокових інноваційних дослідженнях у сховищах.
Архітектура розділення з ЧПК OceanStor A800 використовує переваги передових технологічних інновацій прямого читання та запису даних на диск, що дозволяє напряму підключати площину даних до диска та відокремлювати її від площини керування для досягнення прямого введення-виведення. скорочення операцій ЦП під час читання та запису даних, значно покращує продуктивність зберігання.
Насправді Huawei протягом тривалого часу докладає технологічних зусиль у сфері зберігання даних і досягла багатьох подібних передових інновацій.
Наразі сховище Huawei OceanStor має 12 науково-дослідних центрів по всьому світу, понад 4000 співробітників R&D і понад 3000 патентів. Його продукти застосовуються в багатьох сферах, таких як високопродуктивні рішення для зберігання NAS, рішення для захисту від програм-вимагачів, рішення для зберігання контейнерів і віртуалізація центрів обробки даних, яка отримала широке визнання.
У більш ніж 150 країнах світу сховища Huawei обслуговують понад 25 000 клієнтів, включаючи операторів, фінансів, уряд, енергетику, медицину, виробництво, транспорт та інші галузі.
Можна сказати, що можливості зберігання, адаптовані до розвитку цінності елементів даних та інноваційних потреб великих моделей, є неминучим результатом тривалої наполегливої роботи Huawei над створенням системи зберігання даних. Сховище Huawei вже добре впоралося із забезпеченням даних. потреб багатьох галузей (не лише великомасштабних моделей). Модель) забезпечує підготовку до сильної пропускної здатності та синергії.