Яка техніка може пережити хрещення часу і залишитися новою?
Відповідь можна підсумувати у формі «трилогії» — зростання, розвиток і широкомасштабне застосування, а також ще одна еволюційна ітерація цього процесу.
Взявши за основу історію, паровий двигун очолював першу промислову революцію. Коли він перетворився на двигун внутрішнього згоряння та став популярним, руйнівник другої промислової революції – сама електрика та різне пов’язане з нею обладнання були в зародковому стані. обладнання рухається до ітеративних інновацій у мікроелектроніці, різні паливні двигуни все ще вдосконалюються та популяризуються.
Судячи з цього правила, хоча великі мовні моделі (скорочено LLM) домінують у всіх ключових словах, пов’язаних зі штучним інтелектом, і привертають загальну увагу з моменту їх появи, це не означає, що «до LLM не було штучного інтелекту».
У той час як великі моделі користуються перевагою, старе покоління програм машинного навчання, які раніше спеціалізувалися на прийнятті рішень, а також «традиційні» програми глибокого навчання, які зосереджені на можливостях сприйняття, також не залишаються бездіяльними. Вони проходять через свій шум підлітковий вік і вступ до сталої та практичної практики.
Які докази?
Великий виробник мікросхем випустив серію практичних посібників зі штучного інтелекту, націлених на практику штучного інтелекту у виробництві та енергетиці, медицині, фінансах, транспорті та логістиці, а також освітніх галузях.
У цьогорічному оновленні Практичного посібника з логістики, транспорту та охорони здоров’я зі штучним інтелектом описано багато застосувань штучного інтелекту, які були або впроваджуються, а також те, як їх плавно розгорнути та повністю розкрити потенціал прискорення продуктивності. Звичайно, вони також використовуються в деяких знайомих головах Приклади застосування підприємств, що йдуть вглиб лінії фронту.
Тому штучний інтелект – це не лише великі моделі. Ера великих моделей ШІ також ≠ ера ШІ лише з великими моделями.
Зрілий ШІ вже запущено
Можливо, ви все ще не можете повірити, що технологія AI вже стоїть за навіть невеликою експрес-доставкою.
Правильно, і він майже залучений до всього процесу логістики: замовлення, доставка, сортування, перевантаження, розповсюдження... ШІ тепер має «керувати» всім.
Візьмемо як приклад класичну технологію OCR (оптичне розпізнавання символів). Її статус у «технічному світі» логістики можна назвати ключовим, що значно підвищує ефективність роботи.
Наприклад, коли відправник заповнює адресу та ідентифікаційну інформацію під час доставки, а склад електронної комерції перевіряє інформацію про відправлений продукт, OCR можна використовувати для досягнення введення одним клацанням миші.
Оскільки технологія штучного інтелекту стає все більш досконалою та її застосування поглиблюється, ця швидкість досягла «немає найшвидшого, тільки швидше».
Це стосується Yunda Express, з яким ми знайомі. Під час трисегментного процесу розпізнавання OCR спочатку сподівалися, що ШІ зможе досягти точності розпізнавання OCR у 95%.
В результаті нинішній ШІ «провчив Юнду урок»: не тільки точність злетіла майже до 98%, але й «впав» час: зі 130 мс до 114 мс.
△Результати тестування продуктивності базуються на тестах, проведених Yunda в жовтні 2022 р.
Більше того, розпізнавання OCR є лише невеликою частиною участі штучного інтелекту в галузі логістики. Подивіться на зображення, щоб відчути його силу зараз:
Що ж, штучний інтелект настільки всебічний, що не дивно, що швидкість вітчизняної логістики зростає.
Але друзі, це лише приклад штучного інтелекту, який прискорює розвиток тисяч галузей.Насправді наші щоденні подорожі також сповнені «аромату» ШІ.
Наприклад, технологія відеоаналізу AI може аналізувати умови дорожнього руху на автомагістралях у режимі реального часу.
Незалежно від того, чи йдеться про моніторинг транспортного потоку, розпізнавання номерних знаків транспортних засобів, попередження про аварії тощо, можна сказати, що AI має панорамний огляд усього.
Таким чином можна ефективно й точно контролювати дорожні умови.
Іншим прикладом є аеропорти. Камери з технологією штучного інтелекту також можуть точно ідентифікувати літаки, транспортні засоби, персонал і порушення кордону. Це забезпечує певну гарантію безпеки в зоні польоту.
……
З наведених вище прикладів невеликого використання неважко побачити, що «зрілий» штучний інтелект або ті популярні зіркові програми штучного інтелекту кілька років тому, можливо, не здавалися популярними, але вони насправді проникли в усі аспекти нашого життя, і їх Основна увага — це «зменшення витрат і підвищення ефективності».
Тож що стоїть за такою «економією та підвищенням ефективності»?
Не будь претензійним, просто дай відповідь——
У цьому допомагають платформи Intel, зокрема процесори Xeon®️ Scalable. Подібним чином виробник мікросхем, про якого ми згадували вище, також є Intel, і саме Intel надала практичні посібники зі штучного інтелекту для багатьох галузей.
Але те, що відкриває такі можливості, — це не просто процесор, а бонуси оптимізації на програмному рівні від Intel; іншими словами, це результат «інтеграції програмного та апаратного забезпечення».
Просто зведено до: масштабованих процесорів Xeon®️ і їх вбудованого прискорювача штучного інтелекту, а також серії фреймворків штучного інтелекту та програмного забезпечення для оптимізації, як-от OpenVINO™️ та oneAPI для допомоги.
Наразі на продуктивність додатків ШІ впливають лише два фактори: обчислювальна потужність і швидкість доступу до даних.
Кількість одиночних ядер ЦП в останніх масштабованих процесорах Xeon®️ четвертого покоління зросла до максимальної кількості 60 ядер. Певною мірою оптимізовано швидкість доступу до даних, розмір кешу на всіх рівнях, кількість каналів пам’яті, швидкість доступу до пам’яті і т. д. Крім того, технологія пам’яті з високою пропускною здатністю HBM також інтегрована в серію CPU Max.
Крім того, набір інструкцій центрального процесора також був оптимізований, а також вбудовані апаратні прискорювачі, такі як Intel®️ Advanced Matrix Extensions (Intel®️ AMX), який відповідає за обчислення матриці та прискорює робочі навантаження глибокого навчання.Це можна назвати C -біт додатків штучного інтелекту з прискоренням ЦП.
Це дещо схоже на Tensor Core у GPU.
AMX складається з двох частин: одна — це 2D-реєстровий файл розміром 1 Кб, а інша — модуль TMUL, який використовується для виконання інструкцій множення матриці. Він може підтримувати як типи даних INT8, так і BF16, і BF16 має кращу обчислювальну продуктивність, ніж FP32.
Завдяки набору інструкцій AMX продуктивність покращена у 8 разів або навіть вище, ніж набір інструкцій векторної нейронної мережі VNNI, вбудований у масштабований процесор Xeon®️ попереднього покоління.
На додаток до основної апаратної платформи, те, що насправді допомагає цим галузям впроваджувати практичні додатки штучного інтелекту, — це низка «власних», але не «приватних» програмних інструментів штучного інтелекту Intel.
Наприклад, прискорення OCR, згадане раніше, невід’ємне від оптимізації OpenVINO™️, яка усуває багато зайвих обчислень, необхідних для навчальної частини, і в основному підтримує частину висновків.
Це також оптимізована структура, створена спеціально для апаратного забезпечення Intel. Щоб завершити заміну оригінальної структури, потрібно лише 5 рядків коду.
Користувачі можуть оптимізувати робочі параметри OpenVINO™️ для різних бізнес-сценаріїв.
Завдяки такому поєднанню програмного та апаратного забезпечення Intel не тільки повністю розкриває обчислювальний потенціал центрального процесора, але й досягає продуктивності, близької до продуктивності графічного процесора в реальних сценаріях міркування.Це також має додаткові переваги, такі як низька вартість, низький поріг і простота використання.
Однак це лише оптимізація зрілих технологій штучного інтелекту на платформі Intel®️. Можливості Intel набагато більше, ніж це.
Це повернення до великої моделі.
Популярні великі моделі також прискорюються
Зараз великі мовні моделі розробляються великими технологічними компаніями по всьому світу. Зрештою, технологічне коло зараз розглядає це як тенденцію майбутнього розвитку.
Хоча порівняно з цими зрілими технологіями та додатками штучного інтелекту, він ще деякий віддалений від широкомасштабного впровадження, але його технологічне лідерство безсумнівне, і очікується, що навіть додатки штучного інтелекту «старшого покоління» будуть об’єднані з ним або трансформовані ним. Оновлено.
Як основний вихід обчислювальної потужності та прискорювач продуктивності додатків, Intel також готується до чорного дня на цій конкурентній арені та вже виклала свої плани.
Перш за все, незалежно від того, наскільки просунутою є велика модель, більше людей повинні використовувати її, щоб повністю усвідомити її цінність. Якщо ви хочете «пограти» в нього, вартість є давньою проблемою перед обличчям його величезного розміру.
Тому Intel представила вдосконалений «чарівний інструмент для зменшення ваги», який може зменшити велику мовну модель із мільярдом параметрів на 3/4 і підвищити її точність. , а також може ефективно покращити продуктивність висновків великих моделей на Intel. ®️ платформа.
Зокрема, використовується технологія SmoothQuant, яку Intel адаптує до власної платформи та впроваджує вдосконалення. Цей підхід інтегровано в Intel®️ Neural Compressor. Це бібліотека Python з відкритим вихідним кодом, яка містить ряд широко використовуваних методів стиснення моделей, таких як квантування, скорочення (розрідженість), дистиляція (вилучення знань) і пошук нейронної архітектури. Вона вже підтримує різноманітне апаратне забезпечення архітектури Intel®️ і сумісна з TensorFlow, базові фреймворки, такі як PyTorch, ONNX Runtime і MXNet.
По-друге, на апаратному рівні Intel також доклала певних зусиль.
Наприклад, нещодавно популярний ChatGLM-6B використовує вбудований процесор Intel®️ AMX четвертого покоління масштабованого процесора Xeon®️ для значного підвищення швидкості обчислення моделі; він використовує HBM, інтегрований із процесором серії Xeon®️ CPU Max щоб задовольнити потреби великих користувачів Велика пропускна здатність пам'яті потрібна для точного налаштування моделі.
△Архітектура технології Intel® AMX
Окрім ЦП, Intel також має спеціальну мікросхему прискорення глибокого навчання Habana®️ Gaudi®️2, яка може розгортати 8 карт прискорювачів (так звані Habana Processing Unit, також HPU) на одному сервері. Кожна карта має пам’ять До 96 GB, що забезпечує достатньо місця для великих моделей.
Таким чином, навіть мовна модель із 100 мільярдами рівнів, як-от BLOOMZ, із 176 мільярдами параметрів може контролювати затримку продуктивності до 3,7 секунди після оптимізації Intel. Для меншої моделі BLOOMZ-7B із 7 мільярдами параметрів затримка одного пристрою в Gaudi®️2 становить приблизно 37,21% від Gaudi®️ першого покоління; а коли кількість пристроїв збільшується до 8, цей відсоток ще більше падає до приблизно 24,33%.
△Результати тесту затримки висновку BLOOMZ для Gaudi®️2 і першого покоління Gaudi®️
Тоді на рівні програмного забезпечення для популярних великих мовних моделей, таких як ChatGLM, Intel також може оптимізувати їх, створивши модель стану OpenVINO™: стискаючи вагові коефіцієнти, щоб зменшити використання пропускної здатності пам’яті та підвищити швидкість висновку.
Це пряме відображення підходу Intel до «інтеграції програмного та апаратного забезпечення» у великих модельних додатках. Крім того, апаратне забезпечення більше не обмежується центральним процесором, але також є Gaudi®️, який може конкурувати з графічним процесором як у навчанні, так і в продуктивності висновків і вражає всіх з точки зору ефективності вартості.
Нарешті, з точки зору безпеки Intel також досягла «найкращого з обох світів»: надійне середовище виконання (TEE) на основі Intel®️ SGX/TDX може забезпечити безпечніше робоче середовище для великих моделей без зміни продуктивності.
Це «підхід до прискорення» Intel в епоху великих моделей ШІ.
Які ще зміни це принесе?
Дивлячись на розвиток технології штучного інтелекту, неважко виявити, що Intel реалізує дуже чіткий принцип: використання залишається за останнім словом. Навіть просто використовувати його в центрах обробки даних і на периферії недостатньо. Найкраще, щоб кожен комп’ютер і кожен інформаційний термінальний пристрій кожної людини мали можливість самостійно прискорювати програми штучного інтелекту, щоб бути задоволеним «ядром».
Тому Intel скоригувала свою інноваційну місію, щоб: додати можливості штучного інтелекту до різних апаратних продуктів, сприяти популяризації додатків штучного інтелекту за допомогою відкритих багатоархітектурних програмних рішень і сприяти зростанню «основної економіки».
«Підхід до прискорення» Intel не тільки дозволяє швидше впроваджувати та популяризувати технологію, але й сприяти прийняттю, інноваціям та змінам, прокладаючи шлях для наступного покоління технологічних змін.
Отже, чи має Intel кінцеву мету на цьому шляху?
Можливо, як було повторено та наголошено на Intel Innovation 2023: нехай ШІ буде скрізь (AI Everywhere).
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Ера великих моделей ШІ ≠ Ера ШІ лише з великими моделями
Автор丨 Джин Лей
Джерело丨Qubit QbitAI
Яка техніка може пережити хрещення часу і залишитися новою?
Відповідь можна підсумувати у формі «трилогії» — зростання, розвиток і широкомасштабне застосування, а також ще одна еволюційна ітерація цього процесу.
Взявши за основу історію, паровий двигун очолював першу промислову революцію. Коли він перетворився на двигун внутрішнього згоряння та став популярним, руйнівник другої промислової революції – сама електрика та різне пов’язане з нею обладнання були в зародковому стані. обладнання рухається до ітеративних інновацій у мікроелектроніці, різні паливні двигуни все ще вдосконалюються та популяризуються.
Судячи з цього правила, хоча великі мовні моделі (скорочено LLM) домінують у всіх ключових словах, пов’язаних зі штучним інтелектом, і привертають загальну увагу з моменту їх появи, це не означає, що «до LLM не було штучного інтелекту».
У той час як великі моделі користуються перевагою, старе покоління програм машинного навчання, які раніше спеціалізувалися на прийнятті рішень, а також «традиційні» програми глибокого навчання, які зосереджені на можливостях сприйняття, також не залишаються бездіяльними. Вони проходять через свій шум підлітковий вік і вступ до сталої та практичної практики.
Великий виробник мікросхем випустив серію практичних посібників зі штучного інтелекту, націлених на практику штучного інтелекту у виробництві та енергетиці, медицині, фінансах, транспорті та логістиці, а також освітніх галузях.
У цьогорічному оновленні Практичного посібника з логістики, транспорту та охорони здоров’я зі штучним інтелектом описано багато застосувань штучного інтелекту, які були або впроваджуються, а також те, як їх плавно розгорнути та повністю розкрити потенціал прискорення продуктивності. Звичайно, вони також використовуються в деяких знайомих головах Приклади застосування підприємств, що йдуть вглиб лінії фронту.
Тому штучний інтелект – це не лише великі моделі. Ера великих моделей ШІ також ≠ ера ШІ лише з великими моделями.
Зрілий ШІ вже запущено
Можливо, ви все ще не можете повірити, що технологія AI вже стоїть за навіть невеликою експрес-доставкою.
Правильно, і він майже залучений до всього процесу логістики: замовлення, доставка, сортування, перевантаження, розповсюдження... ШІ тепер має «керувати» всім.
Візьмемо як приклад класичну технологію OCR (оптичне розпізнавання символів). Її статус у «технічному світі» логістики можна назвати ключовим, що значно підвищує ефективність роботи.
Наприклад, коли відправник заповнює адресу та ідентифікаційну інформацію під час доставки, а склад електронної комерції перевіряє інформацію про відправлений продукт, OCR можна використовувати для досягнення введення одним клацанням миші.
Оскільки технологія штучного інтелекту стає все більш досконалою та її застосування поглиблюється, ця швидкість досягла «немає найшвидшого, тільки швидше».
В результаті нинішній ШІ «провчив Юнду урок»: не тільки точність злетіла майже до 98%, але й «впав» час: зі 130 мс до 114 мс.
Більше того, розпізнавання OCR є лише невеликою частиною участі штучного інтелекту в галузі логістики. Подивіться на зображення, щоб відчути його силу зараз:
Але друзі, це лише приклад штучного інтелекту, який прискорює розвиток тисяч галузей.Насправді наші щоденні подорожі також сповнені «аромату» ШІ.
Наприклад, технологія відеоаналізу AI може аналізувати умови дорожнього руху на автомагістралях у режимі реального часу.
Незалежно від того, чи йдеться про моніторинг транспортного потоку, розпізнавання номерних знаків транспортних засобів, попередження про аварії тощо, можна сказати, що AI має панорамний огляд усього.
Таким чином можна ефективно й точно контролювати дорожні умови.
Іншим прикладом є аеропорти. Камери з технологією штучного інтелекту також можуть точно ідентифікувати літаки, транспортні засоби, персонал і порушення кордону. Це забезпечує певну гарантію безпеки в зоні польоту.
……
З наведених вище прикладів невеликого використання неважко побачити, що «зрілий» штучний інтелект або ті популярні зіркові програми штучного інтелекту кілька років тому, можливо, не здавалися популярними, але вони насправді проникли в усі аспекти нашого життя, і їх Основна увага — це «зменшення витрат і підвищення ефективності».
Тож що стоїть за такою «економією та підвищенням ефективності»?
Не будь претензійним, просто дай відповідь——
У цьому допомагають платформи Intel, зокрема процесори Xeon®️ Scalable. Подібним чином виробник мікросхем, про якого ми згадували вище, також є Intel, і саме Intel надала практичні посібники зі штучного інтелекту для багатьох галузей.
Просто зведено до: масштабованих процесорів Xeon®️ і їх вбудованого прискорювача штучного інтелекту, а також серії фреймворків штучного інтелекту та програмного забезпечення для оптимізації, як-от OpenVINO™️ та oneAPI для допомоги.
Наразі на продуктивність додатків ШІ впливають лише два фактори: обчислювальна потужність і швидкість доступу до даних.
Кількість одиночних ядер ЦП в останніх масштабованих процесорах Xeon®️ четвертого покоління зросла до максимальної кількості 60 ядер. Певною мірою оптимізовано швидкість доступу до даних, розмір кешу на всіх рівнях, кількість каналів пам’яті, швидкість доступу до пам’яті і т. д. Крім того, технологія пам’яті з високою пропускною здатністю HBM також інтегрована в серію CPU Max.
Крім того, набір інструкцій центрального процесора також був оптимізований, а також вбудовані апаратні прискорювачі, такі як Intel®️ Advanced Matrix Extensions (Intel®️ AMX), який відповідає за обчислення матриці та прискорює робочі навантаження глибокого навчання.Це можна назвати C -біт додатків штучного інтелекту з прискоренням ЦП.
Це дещо схоже на Tensor Core у GPU.
AMX складається з двох частин: одна — це 2D-реєстровий файл розміром 1 Кб, а інша — модуль TMUL, який використовується для виконання інструкцій множення матриці. Він може підтримувати як типи даних INT8, так і BF16, і BF16 має кращу обчислювальну продуктивність, ніж FP32.
Завдяки набору інструкцій AMX продуктивність покращена у 8 разів або навіть вище, ніж набір інструкцій векторної нейронної мережі VNNI, вбудований у масштабований процесор Xeon®️ попереднього покоління.
На додаток до основної апаратної платформи, те, що насправді допомагає цим галузям впроваджувати практичні додатки штучного інтелекту, — це низка «власних», але не «приватних» програмних інструментів штучного інтелекту Intel.
Наприклад, прискорення OCR, згадане раніше, невід’ємне від оптимізації OpenVINO™️, яка усуває багато зайвих обчислень, необхідних для навчальної частини, і в основному підтримує частину висновків.
Це також оптимізована структура, створена спеціально для апаратного забезпечення Intel. Щоб завершити заміну оригінальної структури, потрібно лише 5 рядків коду.
Користувачі можуть оптимізувати робочі параметри OpenVINO™️ для різних бізнес-сценаріїв.
Завдяки такому поєднанню програмного та апаратного забезпечення Intel не тільки повністю розкриває обчислювальний потенціал центрального процесора, але й досягає продуктивності, близької до продуктивності графічного процесора в реальних сценаріях міркування.Це також має додаткові переваги, такі як низька вартість, низький поріг і простота використання.
Однак це лише оптимізація зрілих технологій штучного інтелекту на платформі Intel®️. Можливості Intel набагато більше, ніж це.
Це повернення до великої моделі.
Популярні великі моделі також прискорюються
Зараз великі мовні моделі розробляються великими технологічними компаніями по всьому світу. Зрештою, технологічне коло зараз розглядає це як тенденцію майбутнього розвитку.
Хоча порівняно з цими зрілими технологіями та додатками штучного інтелекту, він ще деякий віддалений від широкомасштабного впровадження, але його технологічне лідерство безсумнівне, і очікується, що навіть додатки штучного інтелекту «старшого покоління» будуть об’єднані з ним або трансформовані ним. Оновлено.
Як основний вихід обчислювальної потужності та прискорювач продуктивності додатків, Intel також готується до чорного дня на цій конкурентній арені та вже виклала свої плани.
Перш за все, незалежно від того, наскільки просунутою є велика модель, більше людей повинні використовувати її, щоб повністю усвідомити її цінність. Якщо ви хочете «пограти» в нього, вартість є давньою проблемою перед обличчям його величезного розміру.
Тому Intel представила вдосконалений «чарівний інструмент для зменшення ваги», який може зменшити велику мовну модель із мільярдом параметрів на 3/4 і підвищити її точність. , а також може ефективно покращити продуктивність висновків великих моделей на Intel. ®️ платформа.
По-друге, на апаратному рівні Intel також доклала певних зусиль.
Наприклад, нещодавно популярний ChatGLM-6B використовує вбудований процесор Intel®️ AMX четвертого покоління масштабованого процесора Xeon®️ для значного підвищення швидкості обчислення моделі; він використовує HBM, інтегрований із процесором серії Xeon®️ CPU Max щоб задовольнити потреби великих користувачів Велика пропускна здатність пам'яті потрібна для точного налаштування моделі.
Окрім ЦП, Intel також має спеціальну мікросхему прискорення глибокого навчання Habana®️ Gaudi®️2, яка може розгортати 8 карт прискорювачів (так звані Habana Processing Unit, також HPU) на одному сервері. Кожна карта має пам’ять До 96 GB, що забезпечує достатньо місця для великих моделей.
Таким чином, навіть мовна модель із 100 мільярдами рівнів, як-от BLOOMZ, із 176 мільярдами параметрів може контролювати затримку продуктивності до 3,7 секунди після оптимізації Intel. Для меншої моделі BLOOMZ-7B із 7 мільярдами параметрів затримка одного пристрою в Gaudi®️2 становить приблизно 37,21% від Gaudi®️ першого покоління; а коли кількість пристроїв збільшується до 8, цей відсоток ще більше падає до приблизно 24,33%.
Тоді на рівні програмного забезпечення для популярних великих мовних моделей, таких як ChatGLM, Intel також може оптимізувати їх, створивши модель стану OpenVINO™: стискаючи вагові коефіцієнти, щоб зменшити використання пропускної здатності пам’яті та підвищити швидкість висновку.
Це пряме відображення підходу Intel до «інтеграції програмного та апаратного забезпечення» у великих модельних додатках. Крім того, апаратне забезпечення більше не обмежується центральним процесором, але також є Gaudi®️, який може конкурувати з графічним процесором як у навчанні, так і в продуктивності висновків і вражає всіх з точки зору ефективності вартості.
Нарешті, з точки зору безпеки Intel також досягла «найкращого з обох світів»: надійне середовище виконання (TEE) на основі Intel®️ SGX/TDX може забезпечити безпечніше робоче середовище для великих моделей без зміни продуктивності.
Це «підхід до прискорення» Intel в епоху великих моделей ШІ.
Які ще зміни це принесе?
Дивлячись на розвиток технології штучного інтелекту, неважко виявити, що Intel реалізує дуже чіткий принцип: використання залишається за останнім словом. Навіть просто використовувати його в центрах обробки даних і на периферії недостатньо. Найкраще, щоб кожен комп’ютер і кожен інформаційний термінальний пристрій кожної людини мали можливість самостійно прискорювати програми штучного інтелекту, щоб бути задоволеним «ядром».
Тому Intel скоригувала свою інноваційну місію, щоб: додати можливості штучного інтелекту до різних апаратних продуктів, сприяти популяризації додатків штучного інтелекту за допомогою відкритих багатоархітектурних програмних рішень і сприяти зростанню «основної економіки».
«Підхід до прискорення» Intel не тільки дозволяє швидше впроваджувати та популяризувати технологію, але й сприяти прийняттю, інноваціям та змінам, прокладаючи шлях для наступного покоління технологічних змін.
Отже, чи має Intel кінцеву мету на цьому шляху?
Можливо, як було повторено та наголошено на Intel Innovation 2023: нехай ШІ буде скрізь (AI Everywhere).