大数跨境

「日本最强AI」塌房了!扒开代码全是DeepSeek,日本网友集体破防

「日本最强AI」塌房了!扒开代码全是DeepSeek,日本网友集体破防 APPSO
2026-03-18
26
导读:不如再等等 DeepSeek V4

「日本最大」AI模型实为DeepSeek-V3微调版

「终于到日本用中国 AI 来冒充日本产 AI 的时代了」
日本乐天集团(Rakuten)在经济产业省GENIAC项目支持下,高调发布号称「日本最大、性能最强」的7000亿参数大模型Rakuten AI 3.0。
但开源社区迅速发现:该模型底层架构完全基于中国DeepSeek-V3,仅使用日文语料进行微调。
在Hugging Face平台公开的配置文件中,Rakuten AI 3.0明确标注架构源自DeepSeek V3。
其官方新闻稿却未提及DeepSeek,仅含糊表述为「融合开源社区精华」,易使公众误认为系日本自主研发成果。
更严重的是,乐天在开源时擅自删除DeepSeek原MIT协议文件;被社区指出后,才以「NOTICE」名义补回。
Hugging Face提交记录清晰显示相关修改行为。
日本网友普遍表示难以接受:动用政府补贴研发,实质仅为对国产模型的本地化微调;更有评论直言,“用DeepSeek本无不可,刻意隐瞒才真正失格。”

参数与性能:7000亿规模背后的真相

Rakuten AI 3.0是一款混合专家(MoE)模型,总参数约671B、激活37B——与DeepSeek-V3完全一致。乐天首席AI官Ting Cai称其为“数据、工程与创新架构在规模上的杰出结合”。
Ting Cai拥有美国石溪大学计算机科学本科背景,曾就职于Google、Apple及微软逾15年。其公开履历显示,18岁首次赴日,属移民政策强硬派。
据官方测试,该模型在日语文化理解、历史知识、研究生级推理、竞技数学及指令遵循等维度表现优异,显著领先当前多数日本本土模型。
但对比基准存在明显偏差:所选参照模型包括已下架的GPT-4o、仅1200亿参数的GPT OSS,以及ABEJA基于通义千问推出的QwQ 32b模型。
在GENIAC项目支持下,乐天获得大量算力资源。该项目初衷正是构建日本自主生成式AI生态,降低对外技术依赖。
凭借“日本最大参数规模”与“国家队”背景,Rakuten AI 3.0甫一发布即被寄予厚望。

“中国架构 + 日本微调”的行业常态

光环褪去迅速。当开发者查阅Hugging Face配置文件,“DeepSeek V3”字样赫然在列——技术本质即“中国底座+日文微调”。
DeepSeek提供经全球验证的高效架构与推理能力;乐天则依托本土优势,通过高质量日文语料完成适配,提升文化语境理解能力。
客观而言,基于成熟开源模型开展本地化微调,是业界通行做法。例如ABEJA QwQ 32b模型,直接沿用通义千问代号QwQ,未作遮掩。
《日经新闻》报道指出:日本前十大企业自研大模型中,有6个基于DeepSeek或Qwen二次开发。
若乐天坦承采用DeepSeek架构,此次发布至多被视为一次常规套壳升级,甚至可能借势传播;但选择刻意隐匿,则引发信任危机。

MIT协议被删:合规底线的失守

DeepSeek采用MIT开源协议——全球最宽松的主流协议之一:允许商用、修改、闭源,唯一强制要求是保留原始版权声明与许可声明。
而乐天不仅在新闻稿中对DeepSeek只字不提,更在代码库中直接移除MIT协议文件,并对外宣称采用Apache 2.0协议开源。
Apache 2.0虽同样商业友好,但条款更严谨,明确包含专利授权与责任免责机制,常见于大型企业构建自有开源生态场景。
乐天此举意图明显:抹去DeepSeek标识,冠以自有Apache协议,塑造“慷慨开源7000亿参数大模型”的日本AI领军形象。
此前热议的“欧洲版DeepSeek”“美国版DeepSeek”均未落地;乐天试图打造“日本版DeepSeek”,但在算力成本与技术积累双重压力下,既想复用中国AI的高性价比,又难舍“本土巨头”的叙事定位,终致进退失据。
与其仓促套壳,不如静待DeepSeek V4发布。
【声明】内容源于网络
0
0
APPSO
AI第一新媒体,「超级个体」的灵感指南。 #AIGC #智能设备 #独特应用 #Generative Al
内容 14583
粉丝 0
APPSO AI第一新媒体,「超级个体」的灵感指南。 #AIGC #智能设备 #独特应用 #Generative Al
总阅读186.5k
粉丝0
内容14.6k