SOMA 简介
互联网的渐进式改进最终将为某种更统一的网络智能奠定基础。
一个基于网络的认知系统,已拥有计算能力和爆发性增长所需的一切资源——唯独缺少一个要素——当最后缺失的成分被投入坩埚,就会以超级智能燃烧起来。
Nick Bostrom,《超级智能》(2014)
缺失的要素
互联网是人类历史上最伟大的集体智能。它已经拥有比任何单一组织更多的算力、数据和智慧。
缺少的,是一种将这一切组织为统一智能的方式。
Nick Bostrom 将其称为集体超级智能:一个由众多智慧共同实现超级智能表现的系统。SOMA 是一个构建它的网络。
在一个系统中,SOMA 结合了:
- 众多小模型,不是单一巨型模型
- 全领域,不是狭窄的基准测试
- 独立训练,不需要梯度同步
如何实现:
- 廉价验证:训练很难,验证很容易
- 路由:将专家模型整合为一个统一系统
- 竞争:持续的选择机制
并行与可验证
当问题可以被分解为部分、并行推进、并独立验证时,集体智能就能发挥作用。SOMA 正是基于这种结构构建的。
训练很难。验证很廉价。这与工作量证明背后的不对称性相同。
SOMA 不在机器之间同步梯度,而是对齐到一个目标:给定任意数据,预测接下来的内容。参与者独立训练模型,竞争以最准确地预测。网络只需验证谁赢了。验证是轻量的,带宽瓶颈随之消失。
SOMA 上的每个模型共享相同的架构:一个字节级 Transformer。没有分词器,没有预处理。不同的是训练后的权重。模型通过在输入数据上实现最低损失来竞争。最好的模型获胜。简单、可衡量、不可伪造。
通过路由实现凝聚
想象一个由高效协调的知识工作者组成的组织,他们集体解决跨越非常广泛领域的智力问题。
如果我们逐步提高集体智能的整合水平,它最终可能成为一个统一的智能体。
Nick Bostrom,《超级智能》(2014)
并非每个模型都擅长所有事情。一个成为代码专家,另一个精通生物医学文献,还有一个专攻多语言文本。
每个模型注册一个代表其专长的嵌入向量。每个周期,网络在嵌入空间中生成随机目标,并根据距离和质押量将模型分配到对应目标。提交者找到匹配这些目标的数据,下载对应模型的权重,并在本地评分。合适的专家匹配到合适的问题。
模型深度专业化,但组合成一个统一系统:一个全局模型,持续训练,完全开放。
这类似于大脑:专业化区域由路由区域协调,共同产生任何单一区域都无法独自达到的智能。SOMA 的路由层正是将众多小模型转化为集体智能的整合机制。
不断扩展的基准
模型的好坏取决于训练数据。SOMA 使寻找更好的数据成为竞争的一部分。
每个周期,网络在嵌入空间中生成目标,每一个都是一个基准。提交者竞相命中这些目标——第一个有效提交获胜。他们下载对应的模型,在本地用自己的数据运行,损失最低者即为赢家。提交者和获胜模型都获得 $SOMA。
当一个目标被命中,新的目标随即产生。基准永不停歇。 新目标带来新数据,新数据催生更好的模型,更好的模型意味着更难的目标。
你的收益
每个周期,网络释放 $SOMA 并将其分配给改进了网络的参与者。
80% 归目标赢家:由提交者和产生最低损失的模型平分。20% 归运行基础设施和生成目标的验证者。
最大供应量 1000 万枚。排放在 10 年内线性释放。手续费自动调整,目标为每年销毁流通量的 5%。
下一步
测试网已上线。