🎉 #Gate Alpha 第三届积分狂欢节 & ES Launchpool# 聯合推廣任務上線!
本次活動總獎池:1,250 枚 ES
任務目標:推廣 Eclipse($ES)Launchpool 和 Alpha 第11期 $ES 專場
📄 詳情參考:
Launchpool 公告:https://www.gate.com/zh/announcements/article/46134
Alpha 第11期公告:https://www.gate.com/zh/announcements/article/46137
🧩【任務內容】
請圍繞 Launchpool 和 Alpha 第11期 活動進行內容創作,並曬出參與截圖。
📸【參與方式】
1️⃣ 帶上Tag #Gate Alpha 第三届积分狂欢节 & ES Launchpool# 發帖
2️⃣ 曬出以下任一截圖:
Launchpool 質押截圖(BTC / ETH / ES)
Alpha 交易頁面截圖(交易 ES)
3️⃣ 發布圖文內容,可參考以下方向(≥60字):
簡介 ES/Eclipse 項目亮點、代幣機制等基本信息
分享你對 ES 項目的觀點、前景判斷、挖礦體驗等
分析 Launchpool 挖礦 或 Alpha 積分玩法的策略和收益對比
🎁【獎勵說明】
評選內容質量最優的 10 位 Launchpool/Gate
國產語音對話大模型來了:李開復零一萬物參與,中英雙語多模態,開源可商用
來源:量子位
首個中英雙語的語音對話開源大模型來了!
這幾天,一篇關於語音-文本多模態大模型的論文出現在arXiv上,署名公司中出現了李開復旗下大模型公司01.ai——零一萬物的名字。
支持文本語音輸入,手機也可玩
據研究人員表示,LLaSM是第一個支持中英文雙語語音-文本多模態對話的開源可商用對話模型。
那麼,就來看看它的語音文本輸入和中英雙語能力如何。
首先來個中英文化碰撞,讓它用英文評價一下李白:
可以看出,模型思考一會後給出了非常中立的評價,也具備大模型的基本“端水常識”(手動狗頭)
我們試著用語音輸入“給我推荐一個菜譜吧”:
可以看到模型準確地輸出了一個“茄子芝士”的菜譜,就是不知道好不好吃。
不過,我們在嘗試的時候也發現,這個模型有時候會出bug。
例如有時候它並不能很好地“聽懂人話”。
要求輸出中英混合的內容,它會假裝看不懂並輸出英文:
不過分開的話,它的中英文表述能力還是不錯的。
那麼,這樣的模型究竟是怎麼實現的呢?
**做了個什麼新模型? **
從試玩來看,LLaSM主要有兩個特點:一個是支持中英輸入,另一個是語音文本雙輸入。
要做到這兩點,分別需要在架構和訓練數據上做一些調整。
架構上,LLaSM將當前的語音識別模型和大語言模型做了個整合。
LLaSM由三個部分構成,分別包括自動語音識別模型Whisper、模態適配器和大模型LLaMA。
其中,Whisper負責接收原始語音輸入,並輸出語音特徵的向量表示;模態適配器負責對齊語音和文本嵌入;LLaMA則負責理解語音和文本輸入的指令,並生成回复。
訓練數據上,研究人員整理出了一個包含19.9萬個對話和50.8萬個語音-文本樣本的數據集LLaSM-Audio-Instructions。
而在50.8萬個語音-文本樣本中,有8萬個中文語音樣本,42.8萬個英文語音樣本。
研究人員主要基於WizardLM、ShareGPT和GPT-4-LLM等數據集,通過文本轉語音技術,給這些數據集生成語音包,同時過濾掉無效對話。
不過,論文暫時沒有對比它和其他語音模型或文本模型的輸出效果。
作者介紹
這篇論文來自LinkSoul.AI、北京大學和零一萬物。
共同一作Yu Shu和Siwei Dong均來自LinkSoul.AI,此前曾經在北京智源人工智能研究院工作。
LinkSoul.AI是一家AI初創公司,之前推出過首個開源Llama 2的中文語言大模型。
演示站點: