比特币刚刚被创造出来的时候,挖矿还是一个不太需要资源技术的工作,一台普通台式机就能轻松胜任。随着挖矿难度的增加,每个币的开采成本也水涨船高,普通CPU甚至GPU已经不能产生任何的正向收益了。今天的比特币矿商必须依赖特殊芯片,并且转向能源成本更低的国家和地区。同所有实物矿产的逻辑一样,开采成本的上升直接导致了矿产本身价值的增长。曾经一台台式机一天的产能,换算到今天,就是每天几十万美元的收入。这是回首十年前,任何人都不敢想象的。

当然,巨大的资金和能源消耗也是加密货币和区块链技术被广为诟病的问题。

同样耗费大量财力算力的,还有今天的生成式AI。动辄上万块GPU组成的集群,千亿级的模型参数量,以及万亿级的数据量,让Sam Altman直接喊出了7万亿这个让人惊掉下巴的融资目标。

那么,既然两边都需要巨大的运算能力,能不能让AI训练「顺便」产生一种加密货币?至少,AI看起来还更有实用价值一些。


区块链的设计

要回答这个问题,首先要回过头去看区块链是如何构造的。工作量证明PoW的核心,就是要让「挖」这件事具有相当的难度,而「验证」挖出来的成果则非常容易。 矿工们耗费大量算力去穷举hash值,这个穷举过程是无法被有效简化的。然而一旦找到一个这样的值,要去检验它是否符合要求就容易得多了。值得注意的是,这其实是生活中非常常见的一类任务模式。例如,

  1. 开车是难的,但是验证司机是否把乘客送到目的地是容易的。
  2. 考试是难的,但是检查(选择题的)答题卡是容易的。
  3. 训练模型是难的,但是检查模型在测试集上的分数是容易的。
  4. 预测股市是难的,但是验证预测是否正确是容易的。
  5. … …

当然,还有很多任务并不是容易验证的。比如说,训练大模型是难的,验证这个模型是否具备「智能」却可能是更难的,或者说,是没有被准确定义的。区块链的设计者要做的就是去定义一个所有人一致同意、没有歧义的验证标准,以及杜绝开采过程中可能存在的作弊行为。比特币以一个精心设计、严格定义的分布式规则做到了这两点。

遵循这个思路,自然可以以别的问题为基础,设计出一种新的币。这也是Bittensor这类项目的基本设计思想。其中9号子网络就是利用LLM对上面问题#3的实现。具体来说,它要求矿工训练一个语言模型, 然后把这个模型投放到网络上,验证模型对Falcon RefinedWeb数据集的预测能力。由于这个数据集的量非常大,作弊是比较困难的。更简单的是8号子网,这个网络要求矿工预测比特币的价格,预测对了就能收获相应数量的币。

严格来说,Bittensor并不是一个基于PoW的网络,而是引入了验证者(Validator)来验证矿工的产出,验证结果的权重是由验证者所质押的代币数量决定的,本质上是一个权益证明PoS。这套机制有效缓解了矿工输出不容易验证的问题,使得验证结果牢牢掌握在「受信任的自己人」的手里,同时降低了代币的流动性,推升币价, 可谓是一举多得。PoS的出现再次印证了一条亘古不变的规律:那些去中心化的反抗和革命,最终都归于另一种形式的中心化。

这个项目基本上回答了我们最初的问题:是的,可以设计一种机制,让大模型的训练成为某种加密货币的开采过程。更进一步的,我们生活中的很多任务,也都能够集成到这套框架之下。


劳动一定创造价值吗

现在,让我们重新审视加密货币生产的逻辑。我们需要回答这样一个问题,如果某项任务耗费了资源(人力,电力,算力,等等),那它是否就对应了货币的产生?进一步的,是否就有「价值」? 即便这项任务可能是缺乏实用性的,比如比特币(假设单纯的财富存储不算「实用性」的话)。或者是没有意义的,比如把乘客简单地从一个地方送到另一个地方又送回来。

现代货币理论(MMT)在某种程度上对这个问题做出了肯定的回答。MMT说,什么是货币的锚?充分就业就是货币的锚。货币的供应不需要被债务捆绑,劳动就是货币。而政府就充当了这个「验证者」的角色。

MMT的本质信念,也是现在绝大多数货币政策制定者的信念就是:让技术去解决衣食通胀,用货币保障社会稳定,耐心等待下一轮科技突破去修正所有的问题。

只不过,这其中任何一环都可能出错。