🎉 #Gate Alpha 第三届积分狂欢节 & ES Launchpool# 联合推广任务上线!
本次活动总奖池:1,250 枚 ES
任务目标:推广 Eclipse($ES)Launchpool 和 Alpha 第11期 $ES 专场
📄 详情参考:
Launchpool 公告:https://www.gate.com/zh/announcements/article/46134
Alpha 第11期公告:https://www.gate.com/zh/announcements/article/46137
🧩【任务内容】
请围绕 Launchpool 和 Alpha 第11期 活动进行内容创作,并晒出参与截图。
📸【参与方式】
1️⃣ 带上Tag #Gate Alpha 第三届积分狂欢节 & ES Launchpool# 发帖
2️⃣ 晒出以下任一截图:
Launchpool 质押截图(BTC / ETH / ES)
Alpha 交易页面截图(交易 ES)
3️⃣ 发布图文内容,可参考以下方向(≥60字):
简介 ES/Eclipse 项目亮点、代币机制等基本信息
分享你对 ES 项目的观点、前景判断、挖矿体验等
分析 Launchpool 挖矿 或 Alpha 积分玩法的策略和收益对比
🎁【奖励说明】
评选内容质量最优的 10 位 Launchpool/Gate
AI 大模型的下一步,或许是 Google 早年的那种便宜的方案
来源:王建硕
作者:王建硕
Google 早期的服务器的样子,这么多年在我脑子里,一直挥之不去,成为我对技术,对创业公司的理解的一个基准。
这是 2007 年,我在硅谷的计算机博物馆看到的一台:
在互联网初期,非常快,搜索就成为一个有用,有前途的事情。那个时候垄断的搜索引擎是 Lycos,AltaVista,InfoSeek 等等,像极了最近的各个大模型公司群雄争霸。
但是和现在的大模型公司类似的是,这些搜索公司用的是 Sun Micro 的系统,用的是 HP 等高端的服务器,稳定性一流,成本也惊人。当时运行搜索引擎可是个花大钱的生意。随着流量的不断攀升,成本也惊人的攀升。同时受到算力的限制,他们的搜索还是基本的检索,就是文字的反向索引表,搜索效果一般。
Google 最初想到了 PageRank 算法,就是根据其他网页的链接的权重来算网页的重要度。这个倒是一个不错的想法,但是实现起来需要非常大的算力,这个过程基本上和现在的大模型算文字的向量有点像。我想知道一个网页的权重,我就需要把全网看一遍,看哪些其他的网页指向这个网页,以及这些网页的权重,而这些网页的权重又要这样的逻辑算一遍,几乎是一个死循环一样的算力要求。
Google 的解决方案,就没有买当时唯一正确的主机厂商动辄几万美金一台的高端服务器,而就是在一张软木纸上,放上四小片主板,然后绑上硬盘,插上网卡,就结束了。
很显然这样的稳定性和厂商的主机相比是天壤之别。所以,Google 就用软件,做了Google File 分布的文件系统,让文件在多个地方重复写入,任何硬件坏了,数据就立刻可以在其他地方重建,以至于你冲过去随便砸坏几个「小电脑」都不影响。在加上自己的 MapReduce 的框架,把计算可以分布(map)在这些小电脑上计算,然后把结果汇总(Reduce),就可以把这么多电脑的算力加在一起,而不用一台或几台特别强大的电脑。
总之,经过这么一番折腾,Google 因为硬件便宜,算力足,存储便宜,这些才足以支撑 PageRank 这样的巨大的算力消耗,非常快就从 Stanford 的一个无名的小站,打败了当时的巨头,成为了今天的 Google。所以,从某种角度说,用软件换来的硬件的巨大的成本优势,是 Google 早期成功不可忽略的因素。
这段历史,是不是会对现在的 AI 格局有所启发呢?
用 Nvdia V100 的显卡堆出来的 OpenAI 的 ChatGPT 的模型,固然帮助我们完成了从没有到有,从看不到可能性到证明了可能性的第一步,就如同 Lycos 搭起来的昂贵的搜索引擎服务一样。但,是不是有 Google 这样的方式,用软件的方式疯狂的降低硬件成本的可能性呢?当然我们已经过了手工攒服务器的时代了,用电烙铁焊 GPU 似乎也不是靠谱的路子(Google 当年也用没有这么做,而是直接用的 Intel 奔腾II 的 CPU ),但是会不会有一些让人拍案叫绝的方案,可以大规模的降低成本呢?
我不是做大模型的, 并想不出来什么方案。但如果这样的方案存在,或许将极大的改变大模型行业的竞争壁格局。