斯坦福大學發佈 AI 基礎模型“透明度指標”,Llama 2 以 54% 居首但“不及格”

據 IT 之家 10 月 20 日報導,斯坦福大學日前發佈了 AI 基礎模型“透明度指標”,其中顯示指標最高的是 Meta 的 Lama 2,但相關“透明度”也只有 54%,因此研究人員認為,市面上幾乎所有 AI 模型,都“缺乏透明度”。

據悉,這一研究是由 HAI 基礎模型研究中心(CRFM)的負責人 Rishi Bommasani 所主導,調查了海外最流行的 10 款基礎模型。 Rishi Bommasani 認為,“缺乏透明度”一直是 AI 行業所面臨的問題,在具體模型“透明度指標”方面,IT 之家發現,相關評估內容主要圍繞“模型訓練數據集版權”、“訓練模型所用的運算資源”、“模型生成內容的可信度”、“模型自身能力”、“模型被誘導生成有害內容的風險”、“使用模型的使用者隱私性”等展開,共計 100 項。

最終調查情況顯示,Meta 的 Lama 2 以 54% 的透明度居冠,而 OpenAI 的 GPT-4 透明度只有 48%,谷歌的 PaLM 2 則以 40% 排名第五。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate APP
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)