パラメータ数は700億! IBMがChatGPT風のオープンソースモデルLlama 2を提供

出典: AIGC オープン コミュニティ

画像ソース: Unbounded AI によって生成

IBMは8月10日、700億パラメータを持つオープンソースの大規模言語モデル「Llama 2」をwatsonx.aiとデータプラットフォームで提供すると公式Webサイトで発表した。 (無料トライアルのアドレス:

Llama 2 は ChatGPT に似た大規模言語モデルで、テクノロジーとソーシャルの巨人である Meta によって先月オープンソース化され、商業化が許可されました。 Llama 2 は Llama をベースに構築されており、70 億、130 億、700 億の 3 つのパラメータを持ち、さまざまな生成 AI 製品の開発に使用できます。現在、最も強力なオープンソースの大規模言語モデルの 1 つです。

watsonx.ai は、IBM の大規模言語モデルおよび生成 AI 開発プラットフォームである watsonx に属しており、事前トレーニング、微調整、データ検証、デプロイメント、および基本モデル開発のためのワンストップ開発プラットフォームを提供します。少し前まで、NASA は IBM と協力して、watsonx.ai プラットフォーム上で大規模な地理空間モデル Prithvi のトレーニングと微調整を行いました。

ChatGPT の人気が輪を超えて、オープンソース AI の大型モデルが出現して急速に発展し、毎日大量の製品が Hugging Face、GitHub、その他のオープンソース プラットフォームにアップロードされています。

しかし、中小企業や個人の開発者にとって、これらのモデルを効率的に使用および開発する方法は簡単ではありません。開発者が開発環境を簡素化し、開発効率を向上できるようにするために、IBM は watsonx.ai を開始しました。

watsonx.ai は主に、基本モデル、ヒント ラボ、データ サイエンス、MLOp、および Tuning Studio (近日公開) の 4 つの主要なブロックで構成されています。

基本モデル:モデルの選択とダウンロードを簡素化する機能で、ユーザーはwatsonx.aiのHugging Faceプラットフォーム上で人気のオープンソースAI大型モデル(今回提供されたLlama 2など)や、さまざまな用途やサイズのモデルに直接アクセスできます。 IBM のセルフトレーニング、アーキテクチャのモデル。

ヒント ラボ: 開発者がモデルの生成されたヒントをトレーニングし、微調整するのに役立ちます。テキストによる質問への回答、コンテンツの生成、要約、テキストの分類と抽出など、さまざまな自然言語処理の微調整は、ほんの数例を使用するか、データがなくても実行できます。

データ サイエンスと MLOp: さまざまな API、SDK、モデル ライブラリと接続することで、開発からデプロイに至る AI モデルのライフサイクル全体を自動化し、開発構成とリソースの接続を大幅に簡素化できます。

チューニング スタジオ: これは、ラベル付きデータを使用してベース モデルの精度とパフォーマンスを調整する素早い微調整機能です。この機能は、後続の watsonx.ai リリースで間もなく展開される予定です。

IBMは、企業による生成AIと大規模モデルの適用の加速をさらに支援するため、1,000人を超える生成AIの専門家を擁する「AIセンター・オブ・エクセレンス」を設立し、モデルの微調整などの開発をワンストップで提供できると述べた。 IBM は、ユーザーのプライバシーとデータのセキュリティを最優先に考え、安全で信頼性の高い AI サービスを提供します。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • 共有
コメント
0/400
コメントなし
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)