大数跨境
0
0

Proof of Causal Work 详解:如何给 AI 的贡献打分?

Proof of Causal Work 详解:如何给 AI 的贡献打分? DeAI科技观察
2025-11-11
2
导读:一、从学术引用到 AI 归因想象一篇发表在 Nature 上的突破性论文,它的参考文献列表可能包含 50 篇甚

一、从学术引用到 AI 归因

想象一篇发表在 Nature 上的突破性论文,它的参考文献列表可能包含 50 篇甚至更多的先前研究。但这里有一个问题:哪些文献真正帮助了这个发现?哪些只是礼节性引用?哪些是作者为了增加自己其他论文的引用数而刻意加入的?

学术界一直依赖引用计数作为影响力的代理指标,但所有人都知道这个系统的局限性。一篇方法论文可能被引用 10000 次,但其中真正读懂并应用了其核心思想的可能不到 10%。一个基础数据集可能对整个领域至关重要,但因为"太基础"反而被当作常识而不被引用。引用等于贡献吗?显然不是。

AI 网络面临着完全相同但复杂程度高出几个量级的问题。当一个 AI 模型完成一次推理任务时,背后可能有数百个数据集、数十个训练步骤、多轮微调、以及无数次的超参数调整。每个环节都声称自己"有贡献",但如何量化?如何验证?如何公平分配?

这正是 Proof of Causal Work 要解决的核心问题——不依赖主观判断或简单计数,而是通过数学和密码学方法,精确量化每个贡献在因果链条中的真实价值。

二、构建 AI 的因果地图

Hetu 协议的第一步,是为 AI 网络中的每个事件建立一个有向无环图,也就是 DAG。这个图的结构本身就蕴含了因果关系。

有向意味着事件有明确的时间顺序和依赖关系——数据集 A 必须先存在,才能被用于训练过程 B;训练完成的模型 C 才能执行推理任务 D。无环则防止了循环依赖——你不能声称自己的结果导致了自己的输入,这种逻辑悖论在因果图中是被禁止的。而图的结构则让我们可以追踪价值的流动路径,就像追踪河流的源头一样。

在 Hetu 的实践中,这个因果图包含四类基本事件。数据事件记录了数据集的上传、清洗、标注等操作;计算事件涵盖了训练步骤、推理执行、模型评估等算力消耗;模型事件追踪了权重更新、架构调整、微调等模型演化;应用事件则对应了 Agent 决策、任务完成、用户反馈等最终效用产生的时刻。

但仅仅记录事件还不够,更关键的是如何验证这些事件的真实性。这里 Hetu 采用了三层验证机制。首先是向量时钟,这是分布式系统中的经典方法,用于证明事件的偏序关系——如果事件 A 的向量时钟小于事件 B,那么 A 一定发生在 B 之前,即使它们在不同节点上执行。其次是 TEE 证明,利用可信执行环境(如 Intel SGX 或 AMD SEV)生成密码学证据,证明计算确实在可信硬件中执行,且未被篡改。最后是密码学收据,将输入和输出通过哈希函数绑定,任何人都可以验证"给定这个输入,确实产生了这个输出"。

举一个具体例子。假设你在训练一个医疗影像分类模型。数据集 A 包含 10000 张 X 光片,经过清洗步骤 B 后剩下 8000 张高质量样本。这 8000 张样本被用于训练过程 C,产生了初始模型 M1。同时,另一个数据集 F 包含了 2000 张罕见病例,经过微调步骤 G 后,模型升级为 M2。当 M2 用于推理任务 D 时,它成功诊断了一个罕见病例,产生了高价值结果 E。

在这个因果图中,数据集 A 和数据集 F 都对最终结果 E 有贡献,但贡献度是不同的。如果没有 A 的 8000 张基础样本,模型根本无法收敛;但如果没有 F 的罕见病例,模型可能在常见病上表现很好,却会在这个特定的罕见病诊断上失败。Shapley 值的数学框架,正是为了量化这种差异而设计的。

三、Shapley 值:边际贡献的精确计算

Shapley 值来自博弈论,由诺贝尔经济学奖得主 Lloyd Shapley 在 1953 年提出,用于解决"联盟合作中如何公平分配收益"的问题。其核心思想极其简洁:一个参与者的贡献,等于"有他和没他"在所有可能组合中的平均差异。

用一个简化的例子来说明。假设三个数据贡献者 A、B、C 合作训练一个模型,单独工作时,A 能让模型达到 60% 准确率,B 能达到 65%,C 只能达到 50%。但当他们组合时,出现了协同效应:A 和 B 一起工作能达到 85%,A 和 C 能达到 72%,B 和 C 能达到 75%,而三人合作能达到 92%。

在这种情况下,简单的"按比例分配"显然是不公平的。B 单独比 A 强,是否应该拿更多?但 A+B 的协同效应可能主要来自 A 的数据质量。Shapley 值的计算方法是,考虑所有可能的加入顺序。如果 A 第一个加入,他贡献了 60%;如果 A 在 B 之后加入,他让准确率从 65% 提升到 85%,贡献了 20%;如果 A 在 C 之后加入,他让准确率从 50% 提升到 72%,贡献了 22%。将所有排列组合的边际贡献求平均,就得到了 A 的 Shapley 值。

这个方法的数学美感在于,它满足四个公理性质:效率性(所有贡献加起来等于总价值)、对称性(贡献相同的参与者获得相同奖励)、虚拟性(零贡献者获得零奖励)、可加性(两个独立任务的总贡献等于各自贡献之和)。这些性质保证了分配的公平性,不依赖主观判断。

但 Shapley 值有一个致命缺陷:计算复杂度是阶乘级别的。对于 n 个参与者,需要评估 2 的 n 次方种组合。当 Hetu 网络中有数千个数据集、数万次计算事件时,精确计算在物理上是不可能的。

Hetu 的解决方案是 DAG-local Shapley 近似算法。核心思想是,不计算全局贡献,而是只计算因果图中的局部邻域。对于某个推理结果,我们只追溯与其直接或间接相关的前序事件——这通常是一个几十到几百个节点的子图,而非整个网络。其次,引入路径衰减机制,距离越远的贡献,权重越低。这符合直觉:一个 5 年前的基础数据集对今天的模型仍有价值,但不应该和昨天的微调数据平等对待。最后,利用边际效用增量作为评估标准——不是看"你做了什么",而是看"你让结果改善了多少"。如果某个数据集让模型的损失函数下降了 15%,这个 15% 就是可量化的边际效用。

在数学上,简化后的贡献分数可以表达为:对于因果图中的每一条从贡献事件到结果事件的路径,计算路径权重(基于事件类型)乘以局部边际效用(通过对比实验测量)再乘以衰减因子(基于时间和距离)。将所有路径的加权和作为最终的贡献分数。

这个近似算法的计算复杂度降至准线性级别,可以在实际网络中运行。Stanford 2024 年的一项研究表明,在 10000 节点的模拟网络中,DAG-local Shapley 与精确 Shapley 值的相关系数达到 0.94,同时计算时间从数月降至数秒。这种"足够公平"的近似,在工程实践中是可接受的。

四、从分数到奖励:多维度防作弊

计算出 Shapley 贡献分数只是第一步,如何将其转化为可靠的奖励分配,还需要额外的安全层。Hetu 设计了一个三维评分系统,确保只有真实且诚实的贡献才能获得奖励。

第一个维度是 Rank,即排名权重。这借鉴了 Google PageRank 的思想:不仅看你做了什么,还看谁依赖你。如果一个高质量的模型依赖了你的数据集,你的 Rank 就会提升;如果只有一些边缘化的、低质量的模型使用你的数据,你的 Rank 会相应降低。数学上,这可以通过矩阵运算来实现:Rank 等于权重矩阵乘以质押向量,经过多轮迭代收敛到稳定分布。这种递归定义防止了简单的数量堆积——你不能通过创建 1000 个垃圾数据集来提升权重,因为这些数据集不会被高 Rank 的节点依赖。

第二个维度是 Legitimacy,即合法性验证。这是一个二元开关:要么通过验证获得 1.0 的系数,要么失败后归零。验证包括多个方面:TEE 证明是否完整?数据来源是否可追溯?计算过程是否可以被独立复现?如果一个贡献声称"我用这个数据训练了模型",但无法提供 TEE 签名,或者数据哈希与链上记录不匹配,那么无论其 Shapley 分数多高,最终奖励都是零。这个机制确保了系统的密码学安全性。

第三个维度是 Connectivity,即连接性检查。这是为了防止"孤岛欺诈"攻击。想象一群串通的节点,他们互相引用、互相依赖,制造虚假的因果关系,试图获取奖励。Connectivity 要求你的贡献必须被"诚实的主网络"认可——具体来说,至少要有一定比例的质押权重连接到你。如果你只在一个孤立的子图中被依赖,而这个子图与大多数质押者维护的主链没有连接,那么你的 Connectivity 系数会接近零。这类似于比特币的"最长链规则",只不过这里判断的不是算力,而是质押支持的因果连接。

将三个维度综合,最终的奖励计算公式是:奖励等于 Rank 乘以 Legitimacy 乘以 Connectivity 再乘以网络的代币发行量。这个设计在博弈论上是自洽的:作弊成本(质押资本 + 计算成本)大于作弊收益(被孤立后的零奖励),诚实贡献是唯一的最优策略。

可以用一个图示来理解防御机制。诚实网络中,节点之间有密集的因果连接,高质量的贡献会获得高 Rank,所有节点都通过 TEE 验证,整体形成一个连通的强网络。而欺诈孤岛中,即使一群节点互相串通制造高 Shapley 分数,但因为它们与主网络的 Connectivity 接近零,无法获得实际奖励。这种多维度的防御,类似于 Google 对搜索引擎作弊的对抗——不是依赖单一指标,而是交叉验证多个信号。

五、技术边界与演进方向

PoCW 代表了区块链共识机制的一个重要探索方向:从证明资源消耗,转向证明价值创造。它首次实现了 AI 贡献的自动化、精确化量化,将"黑箱分配"升级为"算法公平"。这为构建大规模的去中心化 AI 协作经济奠定了技术基础。

但我们也必须清醒地认识到当前阶段的局限性。首先是计算开销,尽管 DAG-local Shapley 已经大幅降低了复杂度,但在网络规模达到百万级节点时,图维护和分数计算仍然是一个非平凡的挑战。Hetu 团队正在探索分层归因和异步更新等优化方案。其次是冷启动问题,当网络规模较小时,Connectivity 和 Rank 的统计意义有限,可能出现早期贡献者被过度或过低奖励的情况。这需要通过初始参数设置和渐进式调整来缓解。最后是长期演化的不确定性,算法中的衰减因子、权重矩阵、质押阈值等参数,都需要随着网络成熟度动态调整,这意味着需要一个有效的链上治理机制。

从投资研究的角度,PoCW 的意义不仅在于技术创新本身,更在于它开辟了一个新的设计空间。如果因果归因可以被可靠地自动化,那么不仅是 AI 领域,科学计算、内容创作、开源软件等所有涉及"知识产权归属模糊"的场景,都可能受益于类似的机制。这是一个潜在的基础设施层机会。


【声明】内容源于网络
0
0
DeAI科技观察
1234
内容 32
粉丝 0
DeAI科技观察 1234
总阅读234
粉丝0
内容32