🎉 #Gate Alpha 第三届积分狂欢节 & ES Launchpool# 联合推广任务上线!
本次活动总奖池:1,250 枚 ES
任务目标:推广 Eclipse($ES)Launchpool 和 Alpha 第11期 $ES 专场
📄 详情参考:
Launchpool 公告:https://www.gate.com/zh/announcements/article/46134
Alpha 第11期公告:https://www.gate.com/zh/announcements/article/46137
🧩【任务内容】
请围绕 Launchpool 和 Alpha 第11期 活动进行内容创作,并晒出参与截图。
📸【参与方式】
1️⃣ 带上Tag #Gate Alpha 第三届积分狂欢节 & ES Launchpool# 发帖
2️⃣ 晒出以下任一截图:
Launchpool 质押截图(BTC / ETH / ES)
Alpha 交易页面截图(交易 ES)
3️⃣ 发布图文内容,可参考以下方向(≥60字):
简介 ES/Eclipse 项目亮点、代币机制等基本信息
分享你对 ES 项目的观点、前景判断、挖矿体验等
分析 Launchpool 挖矿 或 Alpha 积分玩法的策略和收益对比
🎁【奖励说明】
评选内容质量最优的 10 位 Launchpool/Gate
打着“开源”旗号的AI大模型,可能会有一些陷阱?
ChatGPT 的问世,让更多人开始有机会使用强大的人工智能(AI),但这个聊天机器人的内部运作机制仍是一个未公开的秘密。
因而, 近几个月来,让人工智能更加“开放”的相关工作似乎获得了人们的更多关注。
今年 5 月,有人泄露了 Meta 公司的“Llama”模型,让外界可以访问其底层代码以及决定其行为的模型权重等。今年 7 月,Meta 又推出了功能更强大的模型 Llama 2,声称供任何人下载、修改和重复使用。自此,Meta 的 Llama 系列模型成为了许多公司、研究人员和人工智能业余爱好者构建具有类似 ChatGPT 功能的工具和应用程序的基础。
数十年来,开源方法使软件的获取变得更加民主、确保了透明度并提高了安全性,现在似乎也被认为可以对人工智能产生类似的影响。
但这或许还远远不够。
来自卡内基梅隆大学(Carnegie Mellon University)、AI Now 研究所(AI Now Institute)和 Signal 基金会(Signal Foundation)的研究团队,在一篇题为“Open (For Business): Big Tech, Concentrated Power, and the Political Economy of Open AI”的论文中,探讨了“Llama 2”和其他以某种方式“开源”的人工智能模型的现实情况。 他们表示,打着“开源”旗号的模型可能会有一些“陷阱” 。
这种程度的控制意味着 Llama 2 可以为 Meta 带来重大的技术和战略利益——例如,当外部公司在自己的应用程序中使用 Llama 2 模型时,Meta 可以从有益的调整中获益。
研究人员说,在普通开源许可下发布的模型,如非营利组织 EleutherAI 的 GPT Neo,开放程度更高。但这些项目很难与大型公司推出的模型竞争。
首先 ,训练高级模型所需的数据往往是保密的; 其次 ,构建此类模型所需的软件框架通常由大公司控制,最流行的两个软件框架 TensorFlow 和 Pytorch 分别由谷歌和 Meta 维护; 再者 ,训练大型人工智能模型所需的计算机能力也非一般开发人员或公司所能承担,通常一次训练需要数千万或数亿美元; 最后 ,完善和改进这些模型所需的人力也大多是大公司才能获得的资源。
因此,研究团队认为, 从目前的趋势来看,这项数十年来最重要的技术之一最终可能只会丰富和增强少数几家公司的能力 ,其中包括 OpenAI、微软、Meta 和谷歌。如果人工智能真的是一项能改变世界的技术,而且能得到更广泛的应用和普及,就能为全世界带来最大的好处。
“我们的分析表明,(这种程度的)开源不仅不会使人工智能‘民主化’,” 该论文的作者之一 Meredith Whittaker 告诉《连线》(Wired),“事实上,公司和机构可以而且已经利用“开源”技术来巩固和扩大权力集中。”
进一步说,即使是最开放的“开放”人工智能系统,其本身也不能确保人工智能的民主获取或有意义的竞争,开放本身也不能解决监督和审查的问题。
Whittaker 补充说,开源应该成为亟需制定的人工智能法规的一个重要考虑因素,“我们确实亟需有意义的替代技术,来取代由大型垄断企业定义和主导的技术——尤其是当人工智能系统被整合到医疗保健、金融、教育等具有特殊公共影响的高度敏感领域时。创造条件让这种替代成为可能,是一个可以与反垄断改革等监管运动共存甚至得到其支持的项目。”
研究团队也表示, 除了制衡大公司的权力之外,让人工智能更加开放对于释放该技术的最佳潜力——同时避免其最坏的倾向——可能至关重要。
如果我们想了解最先进的人工智能模型有多大能力,并降低部署和进一步发展可能带来的风险,那么最好向全世界的科学家开放这些模型。
正如“隐晦式安全”(security through obscurity)永远无法真正保证代码的安全运行一样,对强大的人工智能模型的工作原理加以保护,也未必是一个最明智的做法。
参考链接: