「秘密を漏らす人」募集! Appleはクラウドではなく携帯電話上で動作するAIモデルの開発を望んでいる

人工知能の潮流の中で、AIはあらゆるテクノロジー企業が口を開くキーワードとなっています。しかし、Apple は例外のようであることがわかりました。先週、Appleの第2四半期(2023会計年度第3四半期)決算後の電話会見で、Appleは依然としてAIに対する「自制」を維持した。

しかし、表面的な抑制だけでは AI 人材に対する Apple の需要を止めることはできません。おそらく Apple はすでに人材プールの拡大に着手しており、携帯電話上で動作する大規模な AI モデルの開発を開始している

8月6日、イギリスの『フィナンシャル・タイムズ』は、今年4月から7月にかけて発表されたアップルの採用情報によると、同社は「アップルと関連製品の将来に影響を与えると予想される大規模で長期的な研究プロジェクト」を行っていると伝えた。 。」

7 月中旬、Apple からの求人情報には、同社が「Apple デバイス上の推論エンジンに大規模な言語モデルを圧縮および高速化する機能を実装」するシニア ソフトウェア エンジニアを探していると記載されていました**。モバイル デバイスはクラウドではなく実行されます。 **

Appleが7月28日に発表した別の採用情報には、同社は「ポケットに入る携帯電話に最先端のベーシックモデルを搭載し、機械学習に基づいた新世代の機能体験をプライバシーの中で実現したい」と述べられていた。守る方法。」

英国の「フィナンシャル・タイムズ」紙の分析によると、 Apple の採用要件は、Apple の長年にわたる研究開発の方向性を明らかにしました - 既存の言語モデルを圧縮して、言語モデルを携帯電話上でより効率的に実行できるようにするというものです。雲

大手テクノロジー企業を最近退職したフランスの AI 起業家はフィナンシャル・タイムズに、Apple はパリの地元で AI 人材プールを拡大し、他の大手テクノロジー企業よりも多くの人材を採用したいと考えています: と語った。

Apple は現在、パリに小規模な AI 研究機関を持っていますが、最近 Meta から多くの研究者を採用し、チームをさらに拡大する計画を立てています。

Apple はかなり前から携帯電話上で動作する AI モデルの開発を始めていますか?

先週の電話会議でのクック氏の人工知能への関心は相変わらず低く、マイクロソフトやアルファベットなどの同業他社と比べてより異端者に見えた。

アナリストからの質問に対し、クック氏は Apple は長年にわたって生成人工知能やその他のモデルの研究開発に取り組んできたと述べました。

私たちは人工知能と機械学習を中核となる基盤テクノロジーとみなしています。これらは、当社が製造するほぼすべての製品に不可欠な部分です。 これは私たちにとって極めて重要です。 私たちは研究に基づいて、生成人工知能を含む人工知能と機械学習に数年間取り組んできました。

クック氏はまた、これらの技術は今後もアップル製品の進歩のために「責任を持って」使用されていくとし、アップルは「利用可能になったら発表する」傾向があるとも述べた。

事情に詳しい関係者2人によると、2020年にアップルはシアトルに本拠を置く人工知能スタートアップ企業Xnorの買収に約2億ドルを費やし、マイクロソフト、アマゾン、インテルなど他の大手企業の入札を破った。 Xnor の主な事業は、モバイル デバイス上で AI の大規模モデルを実行する方法を研究することです。

7 月中旬、ウォール街の報道で、Apple が独自の生成 AI ツールを開発しているとの報道があり、昨年、同社は Apple の機械学習開発を統合することを目的とした、Ajax** と呼ばれる大規模な言語モデルを構築するための独自のフレームワークを作成しました。 Apple は、Ajax の助けを借りて、ChatGPT に似たチャット ツール ヒューマン サービスを開発しました。これは、社内エンジニアによって Apple GPT と呼ばれています。

モバイル側の大型モデルの戦い

Apple の採用が「リーク」される前、Meta はモバイルのモックアップも検討していました。

7 月 19 日、クアルコムと Qualcomm からの最新の発表では、2024 年から Llama 2 が主力のスマートフォンと PC で実行できるようになることが示されました。

顧客、パートナー、開発者は、インテリジェントな仮想アシスタント、生産性アプリケーション、コンテンツ作成ツール、エンターテインメントなどのユースケースを構築でき、機内モードであっても、ネットワーク接続がない場所でも AI 機能を実行できます。 2024 年にスマートフォン、PC、VR/AR ヘッドセット、自動車などの端末上で Llama 2 などの生成 AI モデルを実行すると、開発者はクラウド コストを節約し、よりプライベートで信頼性が高く、パーソナライズされたエクスペリエンスをユーザーに提供できるようになります。

クアルコム テクノロジーズの上級副社長兼エッジ クラウド コンピューティング ソリューション ビジネスのゼネラル マネージャーであるドゥルガ マラディ氏は、生成人工知能を主流市場に効果的に推進するには、人工知能がクラウド端末とエッジ端末 (端末など) の両方で利用できる必要があると述べました。スマートフォン、ラップトップ、自動車、IoT 端末)。

クアルコムは、クラウドベースの大規模言語モデルと比較して、Llama 2のような大規模言語モデルをスマートフォンなどのデバイス上で実行するエッジクラウドコンピューティングには多くの利点があり、環境下で動作し、よりパーソナライズされたより安全なAIサービスを提供できると述べた。 **

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • 共有
コメント
0/400
コメントなし
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)