記事のソース: AI類人猿 *画像出典:Unbounded AIによって生成*Appleは最近、AI開発者にM3チップを提供し、MacBookで数十億のパラメータを持つ大規模なモデルをシームレスに操作できるようになりました。 Appleはブログ記事で、「最大128GBのRAMをサポートすることで、以前はラップトップでは実現できなかったワークフローが解き放たれる」と述べています。 "現在、14インチMacBook ProのみがM3、M3 Pro、およびM3 Maxチップをサポートしており、16インチMacBook ProはM3 ProおよびM3 Max構成のみをサポートしています。 Appleはまた、強化されたNeural Engineが、プライバシーを保護しながら強力な機械学習(ML)モデルを高速化するのに役立つと主張しています。開発者は、14インチのラップトップで最大のオープンソースLLM(1,800億個のパラメータを持つFalcon)を低品質で実行できるようになりました。ただし、ラップトップでオープンソースのLLMを実行することは新しいことではありません。 以前、AIの人たちもM1を試しました。 Invideoの共同創業者兼CTOであるAnshul Khandelwal氏は、MacBook(M1搭載)で650億パラメータのオープンソースLLMを実験しました。 今は週に1回くらいで全部変わるそうです。 「将来的には、すべての技術者がローカルLLMを持つようになるのは、そう遠い道のりではありません」と彼は付け加えます。Perplexity.ai の共同創業者兼 CEO である Aravind Srinivas は、MacBook がすべての M1 チップの FLOP に関して十分に強力になれば、誰もが MacBook と高速イントラネットを使用する大規模な組織を規制し、その存在を政府に報告する必要があると冗談を言った。 ## **AI ワークロードの M3** Appleは、M3シリーズのチップは現在、M2シリーズのチップよりも15%、M1シリーズのチップよりも60%高速であると主張しています。 明らかに、M2とM3の間には、パフォーマンスやその他の仕様の点で顕著な違いしかありません。 Appleの最新チップはコア数は同じですが、パフォーマンスと効率のコアのバランスが異なり(それぞれ6コア、8つのP、4つのE)、32GBではなく最大36GBのメモリをサポートします。M3チップは最大128GBのユニファイドメモリをサポートし、その前身であるM1およびM2チップと比較して容量が2倍になります。 この拡張されたメモリ容量は、大規模な言語モデルや複雑なアルゴリズムをトレーニングして実行するために大量のメモリリソースを必要とするAI/MLワークロードにとって特に重要です。強化されたNeural Engineと拡張されたメモリサポートに加えて、M3チップは再設計されたGPUアーキテクチャを特徴としています。このアーキテクチャは、優れたパフォーマンスと効率を実現するために構築されており、動的キャッシュ、メッシュ シェーディング、レイ トレーシングを組み合わせています。 これらの進歩は、AI/MLワークロードを高速化し、全体的なコンピューティング効率を最適化するために特別に設計されています。従来のGPUとは異なり、新しいM3は、ローカルメモリをリアルタイムで使用する「ダイナミックキャッシュ」を備えたGPUを搭載し、GPU使用率を向上させ、要求の厳しいプロフェッショナルアプリケーションやゲームのパフォーマンスを劇的に向上させます。 **GPUのパワーは、ゲーム開発者や、Photoshopや写真に関連するAIツールなどのグラフィックを多用するアプリケーションのユーザーにとって有益です。 Appleは、M1シリーズチップよりも最大2.5倍高速で、ハードウェアアクセラレーションによるグリッドシェーディングを備え、低消費電力でパフォーマンスを向上させると主張しています。 ## **Appleと世界** Appleだけでなく、AMD、Intel、Qualcomm、Nvidiaなども、ユーザーがラップトップやPCで大規模なAIワークロードを実行できるようにするエッジ機能の強化に多額の投資を行っています。例えば、AMDは最近、x86 WindowsノートPC用の初の組み込みAIエンジンと、このクラスで唯一の統合AIエンジンを搭載したAMD Ryzen AIを発表しました。一方、Intelは第14世代Meteor Lakeに期待を寄せています。 これは、高性能コアと低電力コアなどのさまざまなタイプのコアを組み合わせて、パフォーマンスと電力効率の最適なバランスを実現できるタイルアーキテクチャを備えた最初のIntelプロセッサです。最近、QualcommはSnapdragon X Eliteも発売しました。 同社のCEOであるCristiano Amonは、AppleのM2 Maxチップを凌駕し、同等のピークパフォーマンスと消費電力の30%削減を実現していると主張しています。 同時に、NVIDIAはエッジのユースケースに投資し、Armテクノロジーを使用してMicrosoftのWindowsオペレーティングシステムと互換性のあるCPUの設計に静かに取り組んでいます。AI開発者は、言語モデルをローカルで実行し、実験することが増えており、この分野がどのように発展するかを見るのは本当に魅力的です。 この分野の最新の進歩を考えると、Appleはゆっくりと、しかし確実にAI開発者にとって頼りになる選択肢になりつつあります。
Appleは、最大のオープンソースLLM(大規模言語モデル)を実行するAI開発者の新たなお気に入りになりました。
記事のソース: AI類人猿
Appleは最近、AI開発者にM3チップを提供し、MacBookで数十億のパラメータを持つ大規模なモデルをシームレスに操作できるようになりました。 Appleはブログ記事で、「最大128GBのRAMをサポートすることで、以前はラップトップでは実現できなかったワークフローが解き放たれる」と述べています。 "
現在、14インチMacBook ProのみがM3、M3 Pro、およびM3 Maxチップをサポートしており、16インチMacBook ProはM3 ProおよびM3 Max構成のみをサポートしています。 Appleはまた、強化されたNeural Engineが、プライバシーを保護しながら強力な機械学習(ML)モデルを高速化するのに役立つと主張しています。
開発者は、14インチのラップトップで最大のオープンソースLLM(1,800億個のパラメータを持つFalcon)を低品質で実行できるようになりました。
ただし、ラップトップでオープンソースのLLMを実行することは新しいことではありません。 以前、AIの人たちもM1を試しました。 Invideoの共同創業者兼CTOであるAnshul Khandelwal氏は、MacBook(M1搭載)で650億パラメータのオープンソースLLMを実験しました。 今は週に1回くらいで全部変わるそうです。 「将来的には、すべての技術者がローカルLLMを持つようになるのは、そう遠い道のりではありません」と彼は付け加えます。
Perplexity.ai の共同創業者兼 CEO である Aravind Srinivas は、MacBook がすべての M1 チップの FLOP に関して十分に強力になれば、誰もが MacBook と高速イントラネットを使用する大規模な組織を規制し、その存在を政府に報告する必要があると冗談を言った。
AI ワークロードの M3
Appleは、M3シリーズのチップは現在、M2シリーズのチップよりも15%、M1シリーズのチップよりも60%高速であると主張しています。 明らかに、M2とM3の間には、パフォーマンスやその他の仕様の点で顕著な違いしかありません。 Appleの最新チップはコア数は同じですが、パフォーマンスと効率のコアのバランスが異なり(それぞれ6コア、8つのP、4つのE)、32GBではなく最大36GBのメモリをサポートします。
M3チップは最大128GBのユニファイドメモリをサポートし、その前身であるM1およびM2チップと比較して容量が2倍になります。 この拡張されたメモリ容量は、大規模な言語モデルや複雑なアルゴリズムをトレーニングして実行するために大量のメモリリソースを必要とするAI/MLワークロードにとって特に重要です。
強化されたNeural Engineと拡張されたメモリサポートに加えて、M3チップは再設計されたGPUアーキテクチャを特徴としています。
このアーキテクチャは、優れたパフォーマンスと効率を実現するために構築されており、動的キャッシュ、メッシュ シェーディング、レイ トレーシングを組み合わせています。 これらの進歩は、AI/MLワークロードを高速化し、全体的なコンピューティング効率を最適化するために特別に設計されています。
従来のGPUとは異なり、新しいM3は、ローカルメモリをリアルタイムで使用する「ダイナミックキャッシュ」を備えたGPUを搭載し、GPU使用率を向上させ、要求の厳しいプロフェッショナルアプリケーションやゲームのパフォーマンスを劇的に向上させます。 **
GPUのパワーは、ゲーム開発者や、Photoshopや写真に関連するAIツールなどのグラフィックを多用するアプリケーションのユーザーにとって有益です。 Appleは、M1シリーズチップよりも最大2.5倍高速で、ハードウェアアクセラレーションによるグリッドシェーディングを備え、低消費電力でパフォーマンスを向上させると主張しています。
Appleと世界
Appleだけでなく、AMD、Intel、Qualcomm、Nvidiaなども、ユーザーがラップトップやPCで大規模なAIワークロードを実行できるようにするエッジ機能の強化に多額の投資を行っています。
例えば、AMDは最近、x86 WindowsノートPC用の初の組み込みAIエンジンと、このクラスで唯一の統合AIエンジンを搭載したAMD Ryzen AIを発表しました。
一方、Intelは第14世代Meteor Lakeに期待を寄せています。 これは、高性能コアと低電力コアなどのさまざまなタイプのコアを組み合わせて、パフォーマンスと電力効率の最適なバランスを実現できるタイルアーキテクチャを備えた最初のIntelプロセッサです。
最近、QualcommはSnapdragon X Eliteも発売しました。 同社のCEOであるCristiano Amonは、AppleのM2 Maxチップを凌駕し、同等のピークパフォーマンスと消費電力の30%削減を実現していると主張しています。 同時に、NVIDIAはエッジのユースケースに投資し、Armテクノロジーを使用してMicrosoftのWindowsオペレーティングシステムと互換性のあるCPUの設計に静かに取り組んでいます。
AI開発者は、言語モデルをローカルで実行し、実験することが増えており、この分野がどのように発展するかを見るのは本当に魅力的です。 この分野の最新の進歩を考えると、Appleはゆっくりと、しかし確実にAI開発者にとって頼りになる選択肢になりつつあります。