700億參數! IBM將提供類ChatGPT開源模型Llama 2

來源:AIGC開放社區

圖片來源:由無界AI生成

8月10日,IBM在官網宣布,將在watsonx.ai和數據平台中,提供700億參數開源大語言模型Llama 2。 (免費試用地址:

Llama 2是科技、社交巨頭Meta在上個月開源的一款類ChatGPT大語言模型並允許商業化。 Llama 2是在Llama基礎之上構建而成,擁有70億、130億和700億三種參數,可用於開發各種生成式AI產品,是目前最強開源大語言模型之一。

watsonx.ai隸屬於watsonx,是IBM的大語言模型、生成式AI開發平台,提供預訓練、微調、數據驗證、部署、基礎模型開發等一站式開發平台。前不久美國宇航局(NASA)便與IBM合作,在watsonx.ai平台中訓練、微調了地理空間大模型Prithvi。

隨著ChatGPT的火爆出圈,開源AI大模型如雨後春筍般飛速發展,每天都有大量產品上傳至Hugging Face、GitHub等開源平台中。

但如何高效使用、開發這些模型對於中小企業和個人開發者來說並不容易。為了幫助開發者們簡化開發環境、提升開發效率IBM推出了watsonx.ai。

watsonx.ai主要由基礎模型、提示實驗室、數據科學和MLOp和Tuning Studio(即將推出)四大塊組成。

基礎模型:該功能簡化了模型的選擇與下載,用戶可以在watsonx.ai直接訪問Hugging Face平台上的熱門開源AI大模型,例如,本次提供的Llama 2,以及IBM自訓練的不同用途、大小、架構的模型。

提示實驗室:可幫助開發者對模型的生成提示進行訓練和微調。只需要幾次示例甚至無需數據,就能完成一系列自然語言處理的微調,例如,文本問答、內容生成、摘要、文本分類和提取等。

數據科學和MLOp:通過與各種API、SDK和模型庫的連接,可自動化從開發到部署的整個AI模型生命週期,極大簡化了開發配置與資源連接。

Tuning Studio:這是一個快速微調功能,通過使用標記數據調整基礎模型的準確性和性能。該功能將很快在後續的watsonx.ai版本中推出。

IBM表示,為了進一步幫助企業加速應用生成式AI和大模型,組建了一個由1000多名專業的生成式AI專家的“AI卓越中心”,可提供模型微調、部署、維護等一站式開發,並且IBM會把用戶隱私、數據安全放在第一位,提供安全可靠的AI服務。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate APP
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)