大数跨境
0
0

Intersubjective Consensus:共识的第三种范式

Intersubjective Consensus:共识的第三种范式 DeAI科技观察
2025-11-17
7
导读:一、当真相无法被物理验证想象三个人站在一幅画前。

一、当真相无法被物理验证

想象三个人站在一幅画前。通过测量工具,他们可以确认画布尺寸是 100cm × 80cm——这是客观事实,可以被物理仪器验证,不依赖于观察者的主观判断。关于审美,A 认为这幅画充满张力,B 觉得混乱不堪,C 则完全无感——这是主观体验,三人各有各的真相,无法也不需要达成一致。

但当被问到"这是毕加索的作品吗"时,三人都点头同意。有趣的是,他们并没有亲眼见到毕加索作画,无法用物理方法验证签名的真实性(可能是赝品),甚至可能对毕加索的风格理解各不相同。他们达成的是一种"主体间共识"——基于共享的知识体系、可追溯的来源信息、以及艺术史学界的集体判断,他们认为这个归属判断是可信的。

这种共识既不是客观的(无法用尺子测量),也不是主观的(不是个人感受),而是介于两者之间的第三种状态。20 世纪现象学家胡塞尔和海德格尔深入研究了这种"主体间性"(Intersubjectivity),指出人类的大部分知识和协作都建立在这个层面——我们相信科学论文,不是因为我们重复了所有实验,而是因为我们信任同行评议的过程;我们接受法庭判决,不是因为我们亲历了案件,而是因为我们认可证据链和推理规则。

区块链技术诞生以来,一直在追求"客观共识"——让所有节点对同一账本状态达成一致,这对于金融交易和资产转移是完美的。但当我们进入 AI 时代,越来越多的问题无法用客观标准判断:一个生成的图像"质量好不好"?一个医疗诊断"可靠不可靠"?一段代码"优雅不优雅"?这些问题没有唯一正确答案,但又需要网络层面的协作和信任。

Hetu 协议提出的主体间共识(Intersubjective Consensus),正是为了解决这一 AI 时代的根本性矛盾。

二、三种共识的适用边界

理解主体间共识,需要先明确它与客观共识、主观共识的本质区别。

客观共识是区块链的经典模式。比特币网络中,所有节点对账本状态必须达成完全一致——区块高度、交易顺序、UTXO 集合,这些都是确定性的事实。验证方式是数学计算:给定输入,所有诚实节点必然得出相同输出,1 加 1 只能等于 2。这种共识的优势是数学上可证明、完全去信任、安全性极高,它完美适配了金融交易场景——你的账户余额必须是一个确定的数字,不能因观察者不同而变化。

但客观共识的局限性也很明显。它只能处理确定性问题,无法适应概率性系统。AI 模型的输出本质上是概率分布,同一个 prompt 在不同的随机种子下会产生不同结果。更根本的是,很多 AI 应用的价值判断本身就是主观的——一个客服机器人的回复是否"友好",一个艺术作品是否"有创意",这些无法用确定性算法验证。

主观共识走向了另一个极端。在社交网络中,每个用户看到的内容是不同的——你的 Twitter 时间线和我的完全不同,这是基于算法的个性化推荐。这种模式的优点是灵活、多元,能够适应个体差异。但它的问题同样严重:首先是无法协作,每个人活在自己的"信息茧房"中,缺乏共享的现实基础;其次是容易被操纵,平台可以通过黑箱算法控制用户看到什么;最后是无法形成网络共识,因为根本没有"共同标准"。

主体间共识试图在两者之间找到平衡点。它的核心不是让所有人对"结果"达成一致,而是对"过程"达成一致——我们可能对一个 AI 的输出有不同评价,但我们都认可这个输出是通过可验证的、透明的、诚实的过程产生的。

科学研究就是主体间共识的经典例子。当一篇论文发表在 Nature 上,我们不是因为"Nature 说的一定对"而相信它,而是因为我们信任同行评议的过程——至少三位相关领域的专家独立审阅了方法论、实验设计、数据分析,认为这个研究是可信的。我们可能对结论有不同解读,但我们都认可得出这个结论的过程是合理的。法庭审理也是如此,陪审团不是在寻找"客观真相"(很多案件根本不存在可观测的真相),而是在判断"基于现有证据链和推理规则,被告是否有罪的概率超过合理怀疑"。

Hetu 将这种哲学概念转化为技术实现。在评估一个 AI 模型的输出时,协议不问"这个输出对不对"(这往往没有客观答案),而是问"这个输出的产生过程是否可信"——使用的数据集可以追溯吗?训练过程可以复现吗?推理步骤有密码学证明吗?如果答案是肯定的,那么网络就对这个 AI 服务形成了主体间共识——即使不同用户对输出质量有不同评价,但他们都认可这是一个诚实的、可验证的服务。

三、PoCW:过程验证的技术架构

Proof of Causal Work 的设计哲学,正是主体间共识的具体实践。它的核心原则是:验证因果链,而非终点。

技术实现的第一层是事件的可验证性。在 Hetu 网络中,每一个计算事件(无论是数据上传、模型训练、还是推理执行)都必须包含五个关键组件。输入哈希记录了事件接收的数据,输出哈希记录了事件产生的结果,这两个哈希值将输入和输出密码学地绑定在一起——任何人都可以验证"给定这个输入,是否产生了这个输出"。TEE 证明则由可信执行环境生成,证明计算确实在硬件保护的安全区域内执行,未被篡改。向量时钟提供了分布式系统中的时间顺序保证,防止因果倒置。最后,节点的密码学签名是对以上所有信息的承诺,具有法律意义上的不可抵赖性。

第二层是因果链的可审计性。通过 DAG 结构,任何人都可以追溯"这个结果是怎么来的"。假设一个医疗诊断 AI 给出了某个建议,审计者可以沿着因果图回溯:这个建议基于哪个模型?模型使用了哪些训练数据?数据经过了哪些预处理步骤?每一步的输入、计算、输出是否一致?是否有 TEE 证明?这种可审计性不依赖于信任某个权威,而是基于密码学可验证的证据链。

更关键的是,这种审计可以被独立复现。如果怀疑某个事件造假,验证者可以在自己的 TEE 环境中重新执行相同的计算,对比结果。如果结果一致,造假的可能性就被排除;如果不一致,造假者的质押会被罚没。这种"可复现性"是科学方法论的核心,现在被引入了区块链共识。

第三层是共识的形成过程,这是主体间共识区别于客观共识的关键。在比特币网络中,所有全节点都必须验证所有交易——这保证了绝对的安全性,但代价是巨大的冗余。在 Hetu 网络中,不需要所有节点都执行一遍计算。流程是这样的:节点 A 声称"我执行了任务 X,产生了结果 Y",并提供密码学证明和 TEE 证明。其他节点首先验证"证明本身是否有效"——这是轻量级的,只需检查签名和哈希。然后,协议随机选择一定比例的节点(比如 10%)重新执行计算进行抽查。如果超过阈值(比如三分之二的抽查节点)确认结果一致,共识就形成了。

这种概率性验证在统计上是安全的。假设造假被发现的概率是 10%,罚没金额是收益的 100 倍,那么造假的期望收益是负的。随着网络规模增长,抽查比例可以降低(比如降至 1%),但经济威慑力保持不变。这比客观共识要求的"所有节点验证所有事件"效率高出数个量级。

用一个具体例子来说明。假设一个 AI 图像生成服务声称"基于你的 prompt,我生成了这张图片"。在客观共识模式下,我们需要问"这张图片质量好吗"——这没有标准答案,不同人会有不同判断。在主观共识模式下,每个用户自己决定喜不喜欢——但这无法形成网络层面的信任和协作。

在主体间共识模式下,AI 服务提供完整的因果链:输入 prompt 是什么、使用的模型版本、采样参数、随机种子、最终输出图片。验证者不判断"图片好不好",而是检查:prompt 的哈希是否与声称的一致?模型版本是否可追溯?计算过程是否有 TEE 证明?其他节点能否用相同参数复现相同结果?如果这些检查都通过,共识就形成了——我们认可这个生成过程是诚实的、透明的、可验证的。

至于图片质量,不同用户可以有不同评价。但关键在于,他们的评价是基于透明的过程信息做出的知情判断,而不是基于黑箱的盲目信任。这就是主体间共识的精髓:允许多样性,但保证过程透明;不强制唯一真相,但确保共享的验证标准。

四、从 AI 到更广泛的应用

主体间共识在 Hetu 中的应用远不止于单次推理验证,它实际上重构了整个 AI 价值网络的信任基础。

在模型评估场景中,"最好的模型"是一个主观判断——医疗领域的最优模型可能在金融领域表现糟糕,注重准确率的用户和注重速度的用户会有不同偏好。主体间共识不试图定义"最好",而是保证评估过程的公平性和透明性。所有参与评估的测试数据必须公开或可验证,评估指标的计算过程必须可复现,不同社区可以根据自己的标准选择模型,但评估过程是共享的、可审计的。这类似于学术界的 benchmark 排行榜,不同研究团队可能重视不同指标,但所有人都认可测试方法的有效性。

数据质量判断也是如此。什么是"高质量数据"?对于训练语言模型,可能是语法正确、信息密度高的文本;对于训练推荐系统,可能是用户行为轨迹的完整性和时效性。没有统一标准。但我们可以验证数据的来源和处理过程——这个数据集是从哪里采集的?经过了哪些清洗步骤?标注者的资质如何?处理脚本是否开源?基于这些过程信息,不同用户可以根据自己的需求判断是否采用这个数据集。

在 Agent 决策场景中,主体间共识的价值尤为明显。AI Agent 的决策可能基于数百个中间推理步骤、多个外部信息源、复杂的概率计算。我们无法保证"决策一定正确"——事实上,在不确定环境下,正确性本身就是一个概率概念。但我们可以验证"决策的推理过程是否透明":Agent 获取了哪些信息?这些信息的可信度如何?推理逻辑是否一致?是否考虑了已知的风险因素?如果这些过程都可验证,即使决策最终失败,我们也能判断是"运气不好"还是"推理缺陷",并据此调整信任度。

主体间共识的应用远超 AI 领域。在 DAO 治理中,提案投票的结果固然重要,但讨论过程的质量更为关键——参与讨论的人数、论证的深度、异议的处理方式,这些过程指标往往比最终的赞成/反对票数更能反映决策的合法性。在内容审核场景中,用户往往不是反对审核本身,而是反对审核的不透明——如果审核规则、决策逻辑、申诉流程都是公开可验证的,即使具体判罚有争议,系统的整体可信度也会提升。在科学研究中,这个原则更是根本——开源方法论、公开数据、可复现实验,这些"过程透明"的要求比结论本身更重要。

这些应用有一个共同特征:它们都处理的是"没有唯一正确答案,但需要集体协作"的问题。这正是主体间共识的适用域。

五、范式转移的深层意义

从技术哲学的角度看,主体间共识代表了区块链叙事的根本性转向。比特币白皮书开启的是一个"记录客观事实"的时代——区块链是一个不可篡改的账本,记录谁在什么时间拥有多少比特币。这种模式假设存在一个所有人都认同的客观现实,技术的任务是保证这个现实不被扭曲。

但 AI 时代的挑战是,越来越多的价值创造发生在"无法客观定义"的领域。一个 AI 生成的艺术品、一个智能合约的治理提案、一个内容审核决定——这些都不存在物理意义上的"对错",但我们仍然需要一个去中心化的、可信的协作框架。主体间共识将区块链的角色从"记录事实"转变为"验证过程",这是一个更深层次的抽象。

主体间性从一个晦涩的哲学概念,转化为可实现的技术架构,这本身就是一个思想史上的里程碑。胡塞尔在 1900 年代提出主体间性理论时,主要是为了解决现象学的哲学困境。一百多年后,TEE、零知识证明、DAG、博弈论等技术的组合,让这个抽象概念有了现实的技术承载。这类似于计算机科学将"图灵机"这个数学抽象转化为现实的硅基芯片。

但我们也必须承认未来的挑战。首先是治理问题——谁来定义"有效的验证过程"?如果对过程本身的标准存在分歧怎么办?这需要一个元层面的共识机制,可能涉及代币持有者投票、专家委员会、甚至多链并存的实验。其次是工程问题——验证过程本身是有成本的,如何在"充分验证"和"效率"之间找到最优点?随机抽查的比例、TEE 的计算开销、证明的存储成本,这些都需要根据网络规模动态调整。最后是激励问题——如何防止"多数暴政",即大多数人认可的过程就一定合理吗?少数派的异议如何被保护?这可能需要引入二次投票、流动民主等更复杂的机制。

从投资视角看,主体间共识的意义不仅在于 Hetu 这个具体项目,而在于它开辟了一个新的设计空间。如果这种范式被验证有效,它可能成为 Web3 处理"主观价值"的标准方案——不只是 AI,还有内容创作、游戏资产、社交网络、甚至物理世界的复杂决策。这是一个早期但具有范式转移潜力的结构性机会。



【声明】内容源于网络
0
0
DeAI科技观察
1234
内容 32
粉丝 0
DeAI科技观察 1234
总阅读242
粉丝0
内容32