在全球人工智能基础设施高度集中、用户隐私面临挑战的背景下,一个由 TON 区块链支持的新型平台正在探索全新的计算路径:个人 GPU 共享 + AI 推理计算 + 加密货币激励。
在近日举办的 Blockchain Life 2025 大会上,Telegram 首席执行官 Pavel Durov 正式宣布推出名为 Cocoon(Confidential Compute Open Network) 的去中心化 AI 推理平台。该平台基于 The Open Network(TON)区块链,旨在通过全球用户的 GPU 网络提供隐私计算服务,并以加密资产作为回报机制,构建一个开放、公平的智能计算市场。
从集中式到用户驱动:AI 推理迎来“协作式算力”时代
M5芯片采用第三代3纳米工艺,在AI推理、图形处理和能效管理方面大幅领先前代M4。官方数据显示,其AI吞吐能力是M4的四倍,图形性能提升45%,并实现了更优的能耗比。这使得M5成为迄今为止苹果最强大的AI芯片,不仅可以本地运行Apple Intelligence的模型推理任务,还能支撑如《黑神话:悟空》这类重负载游戏的流畅运行。
在终端侧,本地化AI处理将成为未来操作系统和硬件演进的核心逻辑。M5的推出,直接标志着苹果已完成从传统消费级芯片厂商向“AI算力提供者”的转型。这一趋势对整个行业的冲击不容小觑,尤其是在边缘计算、隐私保护、离线AI生成等日益增长的用户需求面前,M5提供了一个足够强大的解法。
Telegram 生态加持,AI 能力或成为“下一代信息入口“
Cocoon 的另一个重大突破,是其将与 Telegram 社交平台深度融合。作为拥有超十亿用户的即时通讯应用,Telegram 将为 Cocoon 提供直接触达终端用户的渠道,让 AI 能力深入每一次对话、每一个指令。
TON 基金会首席执行官 Max Crown 表示:“Cocoon 代表了 TON 网络从通信工具向开放计算经济体的跃迁。它不仅提供 AI 基础设施,更可能重新定义数十亿用户与人工智能互动的方式。”
在这个新生态中,Telegram 将不再仅是信息传播平台,更可能成为 “AI 服务入口 + 分布式算力调度平台” 的混合体。借助其天然的网络效应,Cocoon 将拥有比以往任何 AI 项目都更快的冷启动能力。
打造“加密级”用户隐私保障
与其他分布式计算平台如 Akash Network、Render Network 相比,Cocoon 的独特优势在于其专注于“保密计算”——即使是提供算力的 GPU 拥有者,也无法访问或识别他们所执行的 AI 计算任务内容。
具体而言,用户的数据和输入始终处于加密状态,Cocoon 网络将通过硬件加密和安全多方计算(SMPC)等技术,确保在整个推理流程中数据不泄露,计算过程不可见,模型权重不可逆推。
这对于金融、医疗、社交等对数据隐私高度敏感的应用场景尤其关键。在中心化 AI 模型频频曝出“模型窃听”、“提示泄露”等争议事件之际,Cocoon 提供了一种以结构性方式规避风险的新范式。
构建去中心化 AI 市场机制
GPU 用户与开发者双赢
Cocoon 平台还引入了完全去中心化的资源定价机制:开发者在平台发起推理请求,GPU 节点根据资源供需自主设定价格,系统通过智能合约撮合双方。TON 的多链分片架构使其能够支持百万级别并发交易,保障交易效率和成本透明度。
据 AlphaTON Capital 表示,其已启动大规模投资计划,将在全球战略数据中心部署下一代高内存 GPU 设备,为包括 DeepSeek、Qwen 在内的先进模型提供支持。
这一体系为 GPU 用户开辟了新的收入来源,也为初创公司和开发者提供了比 AWS、Azure 更可负担的 AI 基础设施选择——真正实现了“算力平权”,推动 AI 推理从精英工具走向公众平台。
(图文来源自:谷歌及网络整理,侵删)
服务热线:010-8622 9776
品牌合作:pr@fitodata.com
商业合作:marketing@fitodata.com
官方网站:www.fitodata.com
#GPU #AIGC #LLM #智算服务 #算力租赁 #智算中心 #算力规模 #算力平台 #IB组网 #大模型 #算法优化服务 #算力组网服务 #算力平台规划服务 #训练平台 #NVIDIA #英伟达 #CUDA

