🎉 #Gate Alpha 第三届积分狂欢节 & ES Launchpool# 聯合推廣任務上線!
本次活動總獎池:1,250 枚 ES
任務目標:推廣 Eclipse($ES)Launchpool 和 Alpha 第11期 $ES 專場
📄 詳情參考:
Launchpool 公告:https://www.gate.com/zh/announcements/article/46134
Alpha 第11期公告:https://www.gate.com/zh/announcements/article/46137
🧩【任務內容】
請圍繞 Launchpool 和 Alpha 第11期 活動進行內容創作,並曬出參與截圖。
📸【參與方式】
1️⃣ 帶上Tag #Gate Alpha 第三届积分狂欢节 & ES Launchpool# 發帖
2️⃣ 曬出以下任一截圖:
Launchpool 質押截圖(BTC / ETH / ES)
Alpha 交易頁面截圖(交易 ES)
3️⃣ 發布圖文內容,可參考以下方向(≥60字):
簡介 ES/Eclipse 項目亮點、代幣機制等基本信息
分享你對 ES 項目的觀點、前景判斷、挖礦體驗等
分析 Launchpool 挖礦 或 Alpha 積分玩法的策略和收益對比
🎁【獎勵說明】
評選內容質量最優的 10 位 Launchpool/Gate
打著“開源”旗號的AI大模型,可能會有一些陷阱?
ChatGPT 的問世,讓更多人開始有機會使用強大的人工智能(AI),但這個聊天機器人的內部運作機制仍是一個未公開的秘密。
因而, **近幾個月來,讓人工智能更加“開放”的相關工作似乎獲得了人們的更多關注。 **
今年5 月,有人洩露了Meta 公司的“Llama”模型,讓外界可以訪問其底層代碼以及決定其行為的模型權重等。今年7 月,Meta 又推出了功能更強大的模型Llama 2,聲稱供任何人下載、修改和重複使用。自此,Meta 的Llama 系列模型成為了許多公司、研究人員和人工智能業餘愛好者構建具有類似ChatGPT 功能的工具和應用程序的基礎。
**數十年來,開源方法使軟件的獲取變得更加民主、確保了透明度並提高了安全性,現在似乎也被認為可以對人工智能產生類似的影響。 **
**但這或許還遠遠不夠。 **
來自卡內基梅隆大學(Carnegie Mellon University)、AI Now 研究所(AI Now Institute)和Signal 基金會(Signal Foundation)的研究團隊,在一篇題為“Open (For Business): Big Tech, Concentrated Power, and the Political Economy of Open AI”的論文中,探討了“Llama 2”和其他以某種方式“開源”的人工智能模型的現實情況。 他們表示,打著“開源”旗號的模型可能會有一些“陷阱” 。
**這種程度的控制意味著Llama 2 可以為Meta 帶來重大的技術和戰略利益——例如,當外部公司在自己的應用程序中使用Llama 2 模型時,Meta 可以從有益的調整中獲益。 **
研究人員說,在普通開源許可下發布的模型,如非營利組織EleutherAI 的GPT Neo,開放程度更高。但這些項目很難與大型公司推出的模型競爭。
首先 ,訓練高級模型所需的數據往往是保密的; 其次 ,構建此類模型所需的軟件框架通常由大公司控制,最流行的兩個軟件框架TensorFlow 和Pytorch 分別由谷歌和Meta 維護; 再者 ,訓練大型人工智能模型所需的計算機能力也非一般開發人員或公司所能承擔,通常一次訓練需要數千萬或數億美元; *最後 * ,完善和改進這些模型所需的人力也大多是大公司才能獲得的資源。
因此,研究團隊認為, 從目前的趨勢來看,這項數十年來最重要的技術之一最終可能只會豐富和增強少數幾家公司的能力 ,其中包括OpenAI、微軟、Meta 和谷歌。如果人工智能真的是一項能改變世界的技術,而且能得到更廣泛的應用和普及,就能為全世界帶來最大的好處。
“我們的分析表明,(這種程度的)開源不僅不會使人工智能'民主化',” 該論文的作者之一Meredith Whittaker 告訴《連線》(Wired),“事實上,公司和機構可以而且已經利用“開源”技術來鞏固和擴大權力集中。”
進一步說,**即使是最開放的“開放”人工智能係統,其本身也不能確保人工智能的民主獲取或有意義的競爭,開放本身也不能解決監督和審查的問題。 **
Whittaker 補充說,開源應該成為亟需制定的人工智能法規的一個重要考慮因素,“我們確實亟需有意義的替代技術,來取代由大型壟斷企業定義和主導的技術——尤其是當人工智能係統被整合到醫療保健、金融、教育等具有特殊公共影響的高度敏感領域時。創造條件讓這種替代成為可能,是一個可以與反壟斷改革等監管運動共存甚至得到其支持的項目。”
研究團隊也表示, **除了製衡大公司的權力之外,讓人工智能更加開放對於釋放該技術的最佳潛力——同時避免其最壞的傾向——可能至關重要。 **
**如果我們想了解最先進的人工智能模型有多大能力,並降低部署和進一步發展可能帶來的風險,那麼最好向全世界的科學家開放這些模型。 **
正如“隱晦式安全”(security through obscurity)永遠無法真正保證代碼的安全運行一樣,對強大的人工智能模型的工作原理加以保護,也未必是一個最明智的做法。
參考鏈接: