一、GPT-4 背后的专家系统
关于 GPT-4 的架构,业界一直有一个流传甚广的传闻:它不是一个 1.76 万亿参数的单一巨型模型,而是由 8 个各约 220B 参数的专家模型组成的混合系统。这种架构被称为 MoE(Mixture of Experts,专家混合),其核心思想是,对于每一个输入请求,不需要激活所有参数,而是通过一个路由机制选择最相关的 2-3 个专家来处理。
MoE 的优势是显著的。在计算效率上,它只激活总参数量的 20-30%,大幅降低推理成本。在专业化程度上,不同专家可以针对不同类型的任务进行优化——一个专家擅长代码生成,另一个专精于创意写作,第三个专注于数学推理。这就像一家大型医院的专科门诊系统,患者不需要见到所有医生,而是通过分诊台被引导到最合适的专科。
但传统 MoE 有一个根本性限制:所有专家都属于同一个中心化平台。OpenAI 控制着 GPT-4 的所有 8 个专家,Google 控制着 Gemini 的专家网络,Anthropic 控制着 Claude 的内部组件。这种中心化架构不仅限制了专家的多样性,也让外部贡献者无法参与这个价值创造过程。
Hetu 的去中心化专家混合(dMoE)提出了一个根本性不同的范式:如果全球任何人都可以成为"专家",通过市场机制竞争流量和收益,会发生什么?这不再是一个技术架构问题,而是一个经济系统设计问题。
二、从封闭组件到开放市场
传统 MoE 的工作原理相对直接。系统包含两个核心组件:路由器和专家网络。路由器本质上是一个小型神经网络,它接收输入并计算每个专家的相关性得分,通常使用 softmax 函数将得分归一化为概率分布,然后选择概率最高的 K 个专家(Top-K 选择)。被选中的专家并行处理输入,输出结果按路由器给定的权重进行加权平均,形成最终响应。
这个机制的效率来自专业化分工。每个专家只需要在特定领域达到卓越,而不需要在所有领域都表现良好。比如在多语言翻译任务中,可能有一个专家专注于欧洲语系,另一个专精亚洲语言,第三个处理稀有语种。路由器学会识别输入的语言特征,将请求分发给最合适的专家。
Hetu dMoE 在这个基础上引入了市场化机制。在传统 MoE 中,专家的位置是固定的——它们都是同一个模型文件的组成部分,由同一家公司训练和维护。而在 dMoE 中,专家可以分布在全球任何地方,由不同的个人或组织独立运营。路由方式也从中心化算法转变为市场竞价结合质押权重的混合机制——专家不是被动等待分配,而是主动竞争流量。
激励结构的差异更为根本。传统 MoE 中,专家没有独立的激励——它们只是模型的内部组件,所有收益归平台所有。而在 dMoE 中,每个专家运营者根据其实际贡献获得 Token 奖励,形成了一个真实的经济闭环。准入机制也从许可制转向无许可制,任何人只要能通过技术验证(TEE 和密码学证明),就可以加入网络成为专家。
这种转变类似于 Uber 对出租车行业的改造。传统出租车公司有一个中央调度系统,决定哪辆车去接哪个乘客;而 Uber 创建了一个动态市场,司机和乘客通过价格信号和评分机制自主匹配。dMoE 对 AI 推理市场的改造遵循相同的逻辑——从内部调度到市场协调。
三、路由收据:价值流动的可验证轨迹
dMoE 的核心创新在于路由收据机制,它将每一次专家服务转化为链上可验证的价值交换记录。整个流程包含五个关键步骤。
第一步是请求到达。当一个用户或消费者发起 AI 任务请求时——比如一个复杂的技术文档翻译——这个请求会被标记上多个特征:语言对(英文到中文)、领域(区块链技术)、质量要求(术语准确性)、预算范围等。这些特征成为后续匹配的基础。
第二步是专家选择,这是 dMoE 最复杂也最关键的环节。选择不是随机的,而是基于多个维度的综合评估。历史表现是第一个考量因素——该专家在过去类似任务中的成功率、BLEU 或 ROUGE 评分、客户满意度等指标会被加权计算。质押权重是第二个因素,质押了更多 HETU 代币的专家在同等条件下有更高的被选中概率,这既是对服务质量的承诺,也是防御女巫攻击的经济屏障。价格竞争引入了市场效率,专家可以自主设置费率,在质量和成本之间形成帕累托前沿。负载均衡机制确保没有单个专家被过度拥塞或闲置,维持网络的整体效率。
第三步是执行与验证。被选中的专家在本地执行任务,但这个过程必须在 TEE(可信执行环境)中进行,生成密码学证明。这个证明包含了输入哈希、执行轨迹、输出哈希等信息,任何第三方都可以验证"给定这个输入,确实产生了这个输出",而无需访问实际的输入数据(保护隐私)或重新执行整个计算(节约成本)。
第四步是评估与收据生成。消费者收到结果后,会进行质量评估。对于翻译任务,这可能包括自动指标(BLEU 分数)和人工判断(术语准确性)。关键的创新在于"效用增益"的量化——相比基准方案(比如免费的机器翻译),这个专家的服务让任务成功率或质量提升了多少百分比。这个增益值会被记录在路由收据中,收据包含了消费者地址、专家地址、任务标识符、效用增益、支付费用、时间戳,以及双方的密码学签名。
第五步是权重更新。所有路由收据会被聚合形成一个市场权重矩阵 W,其中 W 在消费者 i 和专家 j 位置的数值,代表消费者 i 对专家 j 的累积依赖度。这个矩阵在每个 epoch(比如每 24 小时)更新一次。权重矩阵有三个关键作用:首先,它直接影响奖励分配,高权重专家在 HETU 代币发行中获得更大份额;其次,它优化未来的路由决策,历史表现好的专家会被优先推荐;第三,它构成了链上声誉系统,权重就是可验证的信誉积分。
这个闭环设计创造了一个自增强的飞轮效应:表现优秀的专家获得更高权重,更高权重带来更多流量,更多流量积累更多收据,更多收据进一步提升权重。但与此同时,市场竞争防止了垄断——如果现有专家提价或服务质量下降,新专家可以以更优的条件进入市场,通过几轮成功服务快速积累权重。
四、博弈论安全:经济激励的多层防御
任何去中心化系统都必须面对激励攻击的威胁。dMoE 通过多层防御机制,确保诚实服务是唯一的纳什均衡策略。
女巫攻击是去中心化网络的经典威胁——一个实体创建多个虚假身份,试图获得不成比例的影响力或收益。在 dMoE 中,防御来自两个方面:质押要求和身份成本。每个专家必须质押一定数量的 HETU 代币才能参与网络,这创造了真实的资本成本。更关键的是,质押不仅是准入门槛,还是持续的风险敞口——如果专家被发现作弊,质押会被罚没。这意味着创建 100 个专家身份需要 100 倍的资本,但收益并不会等比例增加(因为权重矩阵会分散流量)。
共谋欺诈是另一个潜在威胁——消费者和专家串通,互相给高分刷权重,然后从协议的代币发行中获利。这里的防御机制正是前一篇文章讨论的 Connectivity 检查。如果一群节点只在彼此之间交易,形成一个孤立的子图,而与主网络(由大多数诚实质押者维护)没有连接,那么他们的权重会被 Connectivity 系数大幅削减,最终奖励接近零。这类似于学术界对"互引小圈子"的识别——如果一组论文只引用彼此而不被外界引用,其影响因子会被算法降权。
偷工减料是更隐蔽的攻击——专家接受任务但不认真执行,随机返回结果或使用低质量的快捷方法。防御依赖于 TEE 证明和可复现性检查。TEE 证明确保计算过程可验证,但更重要的是随机审计机制:协议会随机选择一部分已完成的任务,由其他独立节点重新执行,对比结果。如果差异超过阈值,原始专家会被罚没质押并降低信誉。这种"抽查"机制在统计上是高效的——不需要验证每一个结果,只需要让作弊的期望收益小于惩罚的期望损失。
价格操纵是市场化系统的固有风险——如果少数专家形成垄断,他们可以人为抬高价格。dMoE 的防御是结构性的:无许可准入和低进入壁垒。任何人只要能提供符合质量标准的服务,就可以加入网络。如果现有专家抬价,新竞争者会看到套利机会,以更低价格进入市场。这种动态竞争机制类似于去中心化交易所,没有单一实体可以长期控制价格。
从博弈论角度,这些机制共同构成了一个激励相容的系统。诚实提供高质量服务的策略严格占优:专家获得持续的收益流、权重积累、声誉增值,以及质押本金的安全。而作弊的策略严格劣势:短期可能获得一些非法收益,但一旦被发现(概率随审计次数增加而趋近 1),就会面临质押罚没、信誉清零、未来收益归零的三重打击。这种不对称的收益风险比,从经济学上保证了诚实是最优策略。
五、市场潜力与演进路径
从市场规模看,AI 推理服务正在成为一个独立的万亿美元级市场。根据 Gartner 2024 年的预测,到 2030 年全球 AI 推理市场将达到 3500 亿美元,年复合增长率超过 35%。这个市场的核心价值链包括三个环节:算力提供(云服务商)、模型服务(API 提供商)、和价值分配(结算层)。dMoE 切入的正是价值分配这一层,它不生产算力也不训练模型,而是为去中心化的 AI 服务提供市场化的匹配和结算基础设施。
与现有云服务对比,差异是本质性的。AWS Lambda 或 Google Cloud Functions 提供了按调用付费的计算服务,但用户无法选择"谁来执行我的任务"——这是一个黑箱。你支付费用,得到结果,但不知道背后是哪个数据中心、哪个 GPU、哪个模型版本在处理你的请求。dMoE 则是一个透明的双边市场:消费者可以看到所有专家的历史表现、价格、质押情况,做出知情选择;专家可以看到所有待处理请求的特征和预算,主动竞争。这种透明性不仅提高了效率,也创造了新的信任机制——不是信任某个平台,而是信任密码学和市场竞争。
更重要的是,dMoE 开辟了一个新的价值捕获层。在传统 AI 服务中,OpenAI 或 Anthropic 捕获了几乎所有价值,底层的算力提供者(云服务商)和数据贡献者获得的是固定费用或买断合同。而在 dMoE 架构中,每个专家运营者都成为利益相关方,随着网络效用的增长,他们持有的权重和质押代币也会升值。这种从"租赁"到"所有权"的转变,可能释放出巨大的供给侧积极性。
从长期演进看,dMoE 只是 Hetu 三层架构中的推理层。下一步的扩展方向包括去中心化训练——将模型训练过程分解为可验证的增量步骤,每个贡献者根据其对模型改进的边际贡献获得奖励。数据市场是另一个关键扩展,当数据集可以通过因果图追踪其对模型表现的影响时,数据提供者可以获得持续的版税收入而非一次性出售。更前沿的应用是 Agent 协作网络,多个 AI Agent 可以通过 dMoE 机制组合各自的能力,完成单一 Agent 无法处理的复杂任务,而收益按照因果贡献自动分配。
从投资视角看,dMoE 代表的不是某个具体应用的机会,而是 AI 经济基础设施范式的潜在转折点。如果去中心化和市场化能够在效率上接近或超越中心化平台,那么价值捕获的逻辑将从"平台抽成"转向"协议使用费"。这是一个早期但值得持续关注的结构性变化。

