🎉 #Gate Alpha 第三届积分狂欢节 & ES Launchpool# 联合推广任务上线!
本次活动总奖池:1,250 枚 ES
任务目标:推广 Eclipse($ES)Launchpool 和 Alpha 第11期 $ES 专场
📄 详情参考:
Launchpool 公告:https://www.gate.com/zh/announcements/article/46134
Alpha 第11期公告:https://www.gate.com/zh/announcements/article/46137
🧩【任务内容】
请围绕 Launchpool 和 Alpha 第11期 活动进行内容创作,并晒出参与截图。
📸【参与方式】
1️⃣ 带上Tag #Gate Alpha 第三届积分狂欢节 & ES Launchpool# 发帖
2️⃣ 晒出以下任一截图:
Launchpool 质押截图(BTC / ETH / ES)
Alpha 交易页面截图(交易 ES)
3️⃣ 发布图文内容,可参考以下方向(≥60字):
简介 ES/Eclipse 项目亮点、代币机制等基本信息
分享你对 ES 项目的观点、前景判断、挖矿体验等
分析 Launchpool 挖矿 或 Alpha 积分玩法的策略和收益对比
🎁【奖励说明】
评选内容质量最优的 10 位 Launchpool/Gate
A16z宣布开源 AI 资助计划,首批支持8个开源人工智能社区
来源:阿法兔研究笔记
原标题:《A16Z 刚刚官宣支持8个开源人工智能社区》
A16Z相信,人工智能具有拯救世界的力量,而繁荣的开源生态系统,对于构建建设并实现这个未来,至关重要。
值得庆幸的是,开源生态系统正在逐步开始发展,大家现在看到的开源项目和模型,可以与闭源方案相媲美。数以百计的小型团队和个人,正在不断给这些开源模型做出贡献,从使这些模型更加有用、易用和高性能。
正是这些项目和付出,共同推动了开源AI技术的发展,并帮助更多人对新技术有了更深入、更全面的了解。
这些开源项目包括:
对基础 LLM 进行指令调整:instruction-tuning base LLMs
取消对 LLM 输出的审查:removing censorship from LLM outputs
为低功率机器优化模型:optimizing models for low-powered machines
为模型推理构建新颖的工具:building novel tooling for model inference
研究 LLM 的安全问题:researching LLM security issues;
等等,然而,这些项目背后的人员往往没有足够的资源来完成或长期保持他们的工作。这种情况,在AI领域比传统计算机基础设施领域更为严重,因为即使是对模型进行基本的 fine-tuning,也需要大量的 GPU 计算资源,尤其是当开源模型变得越来越大时。
**
**为了弥补这一资源缺口,A16Z今天宣布了 a16z 开源 AI 资助计划,A16Z将通过资助(而非投资或 SAFE 票据)的方式,为一小部分开源开发者提供支持,让他们有机会在没有经济回报压力的情况下继续工作。
这里公布了首批资助对象和资助项目:
Jon Durbin(Airoboros):instruction-tuning LLMs on synthetic data
**
**Eric Hartford:fine-tuning uncensored LLMs
**
**Jeremy Howard(fast.ai):fine-tuning foundation models for vertical applications
**
**Tom Jobbins(TheBloke):quantizing LLMs to run locally
**
**Woosuk Kwon和Zhuohan Li(vLLM):library for high-throughput LLM inference
**
**Nous Research:new fine-tuned language models akin to the Nous Hermes and Puffin series
obabooga:web UI and platform for local LLMs
**
**Teknium:synthetic data pipelines for LLM training
参考资料: