この機能を提供するための主要なサポートは、Intel の OpenVINO です。これは、開発者にクライアントおよびエッジ プラットフォームの選択肢を提供する、Intel の AI 推論および展開ランタイム ツールのスイートです。これには、Meta の Llama 2 モデルなどの複数の生成 AI モデルを含む、オペレーティング システムとさまざまなクラウド ソリューション間の統合に最適化された事前トレーニングされたモデルが含まれています。
誰もが大型モデルを手に入れようと競う中、インテルは既存の利点から始めることを選択しました。そのためにキッシンジャーもAI PCという概念を提唱しており、これらのPCがPCからAI PCに変わるためにはIntelが必要不可欠である。インテルを成功させた広告スローガンを当てはめると、キッシンジャーは今回、AI PC と呼べるのはインテル・インサイドだけだと言いたいのだろう。
AI PC を実現できます。その背後にある対応プラットフォームは、開発コード名 Meteor Lake である Intel Core Ultra プロセッサです。PC 上での AI アクセラレーションとローカル推論のためのインテル初の統合ニューラル ネットワーク プロセッサ (NPU) が搭載されています。これはインテルの顧客ですこれは、エンド プロセッサのロードマップにおける重要なノードであり、初めて Foveros パッケージング テクノロジを使用し、NPU を内蔵し、独立したグラフィックス カード レベルの機能を備え、Intel 4 プロセス ノードを使用します。 12月14日に発売される。
インテルは、膨大な情報を盛り込んだ今回の記者会見で、AIを実現する「インフラ企業」として、AIの開発を目指す企業にとって、今日も避けては通れない存在であることを伝えたいと考えている。 AI の考えられるすべての側面において、たとえ一部が依然として「第 2 の選択肢」であっても、インテルはそこに立ってあなたを待っています。
288コアのチップ、4,000個のAIプロセッサを搭載したスーパーコンピュータ、インターネット接続を必要としない大型モデル…インテルが反撃する!
出典: シリコンスターピープル
著者: 王昭陽
2022年、Intelカンファレンスでのスピーチの前に、Intel CEOのパット・ゲルシンガー氏は舞台裏で腕立て伏せを行ったが、今年は基調講演の壇上で直接腕立て伏せを行った。
9月19日、サンノゼ コンベンション & エキシビション センターで、インテルをトップに戻したいと願うCEOはエネルギーに満ち溢れているように見えた。 90分間の基調講演中、ウォーミングアップを終えたキッシンジャーは、288コアチップの最新の進歩から、内部コード名でのみ発表できる4,000コアの一連の次世代チップに至るまで、さまざまな重要な発表を行った。 Gaudi2 で構成される世界トップ 15 のスーパーコンピューターから、新しいパッケージング技術、開発者向けクラウド プラットフォームの本格的な立ち上げまで、この講演には膨大な量の情報が含まれていました。
これらの開発はさまざまな側面をカバーしていますが、すべてが同じテーマ、つまり AI であることは明らかです。
Wi-Fi をオフにしてください
AI の波におけるインテルの独自の位置付けを示す瞬間を何千もの発表の中から見つけることができるとしたら、それは Rewind CEO の Dan Siroker 氏の登壇後のプレゼンテーションかもしれません。
これは注目の新興企業です。その製品はタイムマシンのようなものです。コンピュータにインストールすると、自分が行ったこと、見たことをすべて振り返り、AI で処理できるようになります。ゲルシンガー氏は、ネットワーキング ベースの GPT-4 機能で Rewind をどのように使用できるかをデモンストレーションした後、次のように尋ねました。
「Wi-Fi をオフにしてください。」
Wi-Fiをオフにした後、ダンはOpenVINOモードでLLaMaを選択し、オフラインの大型モデル状態に入りました。
彼は、キッシンジャーが先ほど話した話の中で言及された質問を入力した。「彼の好きな音は何ですか」。
リワインド氏は「孫娘が彼を『パパ』(おじいちゃん)と呼んでいる音だ」と答え、現場では拍手が巻き起こり、このモデルがオフラインでデータを処理する能力を利用できることを示した。
これらの端末マシンが非常に多数存在し、インターネットに接続せずに大規模なモデルを使用できることを想像してください。
この機能を提供するための主要なサポートは、Intel の OpenVINO です。これは、開発者にクライアントおよびエッジ プラットフォームの選択肢を提供する、Intel の AI 推論および展開ランタイム ツールのスイートです。これには、Meta の Llama 2 モデルなどの複数の生成 AI モデルを含む、オペレーティング システムとさまざまなクラウド ソリューション間の統合に最適化された事前トレーニングされたモデルが含まれています。
誰もが大型モデルを手に入れようと競う中、インテルは既存の利点から始めることを選択しました。そのためにキッシンジャーもAI PCという概念を提唱しており、これらのPCがPCからAI PCに変わるためにはIntelが必要不可欠である。インテルを成功させた広告スローガンを当てはめると、キッシンジャーは今回、AI PC と呼べるのはインテル・インサイドだけだと言いたいのだろう。
AI PC を実現できます。その背後にある対応プラットフォームは、開発コード名 Meteor Lake である Intel Core Ultra プロセッサです。PC 上での AI アクセラレーションとローカル推論のためのインテル初の統合ニューラル ネットワーク プロセッサ (NPU) が搭載されています。これはインテルの顧客ですこれは、エンド プロセッサのロードマップにおける重要なノードであり、初めて Foveros パッケージング テクノロジを使用し、NPU を内蔵し、独立したグラフィックス カード レベルの機能を備え、Intel 4 プロセス ノードを使用します。 12月14日に発売される。
後者のほうが緊急性が高いように思えるかもしれないが、そのためキッシンジャーが今回のカンファレンスで初めて展示のために掲げたアイテムはGPUでもCPUでもチップでもなく、Intel Developer Cloudのクーポンだったのだ。
パーセント記号はどこにでもあります
これら 2 つのことのいずれかを達成するには、エコシステム パートナーであろうと開発者であろうと、相手に好印象を与えるために自分の能力を使用する必要があります。
同社の業績は明らかにプレッシャーにさらされており、インテルが今回のカンファレンスでその自信を存分に示したいことがわかる。
したがって、カンファレンスでは、AI があらゆる場所に存在し、インテルがあらゆる場所に存在し、パーセント記号や倍数もあらゆる場所に存在します。
“1.09倍”
これは、NVIDIA H100 と比較した Gaudi2 の追い上げペースですが、H100 は、Gaudi2 と比較して、1.09 倍 (サーバー) および 1.28 倍 (オフライン) というわずかなパフォーマンスの利点しか示していません。彼らはまだ遅れをとっていますが、これほど近づいたことはすでに成果です。
「150%」
これは、5 ナノメートルの Gaudi3 と 7 ナノメートルの Gaudi2 の間の HBM 機能の向上です。
これらは、Intel Xeon CPU Max シリーズの GPT-J の MLPerf 結果であり、このテストに初めて提出され、99.9% の精度を達成した唯一の CPU です。このシリーズは最大 64 GB の高帯域幅を提供しますメモリ。
「240%」
これは、第 4 世代 Xeon と比較した 288 コアのエネルギー効率の高い E コア プロセッサ Sierra Forest と比較したワットあたりのパフォーマンスの向上であり、このプロセッサによりラック密度が 2.5 倍増加すると予想されています。
「90%」
これは、昨年の OpenVINO のダウンロードの増加率です。 ai.io や Fit:Match などの企業は、OpenVINO を使用してアプリケーションを高速化する方法を当日デモしました:ai.io は OpenVINO を使用してアスリートのパフォーマンスを評価し、Fit:Match は OpenVINO を使用して小売業界と健康業界に革命を起こし、消費者が自分に合う服を見つけられるようにしました。より良い。
データに加えて、キッシンジャーは多くの重要な協力関係も実証した。
その中には、マイクロソフトとキッシンジャー氏は近い将来に両社がCopilotで協力する予定であると述べたなど、長年同盟関係にある企業もあり、また、StabilityAIなどの最も注目を集めている新興企業の新しいグループもある。 , キッシンジャー氏は、大規模なAIスーパーコンピュータは完全にIntel Xeonプロセッサと4,000個のIntel Gaudi2アクセラレータを使用して構築され、Stability AIがその主要顧客であると発表した。
また、ユニバーサル コア高速インターコネクト オープン仕様 (UCIe) に基づくテスト チップ パッケージなど、強力な提携関係もいくつかあります。これには、インテル 3 プロセス ノードに基づくインテル UCIe IP チップだけでなく、 TSMC N3E プロセス ノードの IP コア パーティクル。これらのダイは、EMIB (Embedded Multi-die Interconnect Bridge) の高度なパッケージング技術によって相互接続されています。
ある起業家はSilicon Starsに対し、ゲルシンガー氏が彼らとコミュニケーションを取る際に最も尋ねたのはフィードバック、インテルの製品がどのように役立つのか、どの分野に改善が必要なのかだった、と語った。
本体はかなり低い位置に設置されています。
2024 年、2024 年、あるいは 2024 年!
これらの展開は最終的に、キッシンジャーが自ら設定した「4年5プロセスノード」計画という究極の基準を指し示している。
** キッシンジャー氏は、Intelの「4年間で5つのプロセスノード」計画は順調に進んでいると述べ、Intel 7は大規模な量産を達成し、Intel 4も量産準備が整い、Intel 3も2023年を目標に計画通り進んでいると語った。年の終わり。 Gelsinger は、Intel の強力な実行および配信能力を取り戻します。 **
基調講演中、ゲルシンガー氏は、インテル 20A プロセス ノードをベースにしたインテル Arrow Lake プロセッサのテスト チップの最初のバッチをデモンストレーションしました。 Arrow Lake は 2024 年にクライアント市場向けに発売される予定です。 Intel 20A は、PowerVia 裏面電源テクノロジと新しいオールラウンド ゲート トランジスタのリボン FET を適用する最初のプロセス ノードになります。これら 2 つのテクノロジーも使用する Intel 18A プロセス ノードも計画通りに進捗しており、2024 年後半には生産の準備が整う予定です。
**エッジ コンピューティング向けのネイティブ ソフトウェア開発を提供するプラットフォームである Strata も 2024 年に開始される予定です。これは、インテリジェント エッジおよびハイブリッド AI に必要なインフラストラクチャをスケールアウトし、インテルおよびサードパーティの垂直アプリケーションを単一のエコシステム内に統合する方法です。 **
また、多くの主要な製品計画に 2024 が含まれていることに気づくかもしれません。 4 か年計画の重要な年として、2024 年がインテルにとってどれほど重要であるかは言うまでもありません。
あるインテル幹部は、今年がこの世代、あるいは彼らのキャリアにおいて最も重要な年になるかもしれないとさえ私に語った。
「今年は当社自身の技術進歩とお客様の技術的準備が相互に適応し、重要な変化をもたらすでしょう。」
インテルは、膨大な情報を盛り込んだ今回の記者会見で、AIを実現する「インフラ企業」として、AIの開発を目指す企業にとって、今日も避けては通れない存在であることを伝えたいと考えている。 AI の考えられるすべての側面において、たとえ一部が依然として「第 2 の選択肢」であっても、インテルはそこに立ってあなたを待っています。
しかしインテルが外の世界にもっと知ってもらいたいのは、2024年までにインテルは「そこにいる」だけでは満足できなくなり、まさに反撃が始まっているということだ。