「终于到日本用中国 AI 来冒充日本产 AI 的时代了」日本乐天集团(Rakuten)在经济产业省GENIAC项目支持下,高调发布号称「日本最大、性能最强」的7000亿参数大模型Rakuten AI 3.0。但开源社区迅速发现:该模型底层架构完全基于中国DeepSeek-V3,仅使用日文语料进行微调。在Hugging Face平台公开的配置文件中,Rakuten AI 3.0明确标注架构源自DeepSeek V3。其官方新闻稿却未提及DeepSeek,仅含糊表述为「融合开源社区精华」,易使公众误认为系日本自主研发成果。更严重的是,乐天在开源时擅自删除DeepSeek原MIT协议文件;被社区指出后,才以「NOTICE」名义补回。Hugging Face提交记录清晰显示相关修改行为。日本网友普遍表示难以接受:动用政府补贴研发,实质仅为对国产模型的本地化微调;更有评论直言,“用DeepSeek本无不可,刻意隐瞒才真正失格。”
参数与性能:7000亿规模背后的真相
Rakuten AI 3.0是一款混合专家(MoE)模型,总参数约671B、激活37B——与DeepSeek-V3完全一致。乐天首席AI官Ting Cai称其为“数据、工程与创新架构在规模上的杰出结合”。Ting Cai拥有美国石溪大学计算机科学本科背景,曾就职于Google、Apple及微软逾15年。其公开履历显示,18岁首次赴日,属移民政策强硬派。据官方测试,该模型在日语文化理解、历史知识、研究生级推理、竞技数学及指令遵循等维度表现优异,显著领先当前多数日本本土模型。但对比基准存在明显偏差:所选参照模型包括已下架的GPT-4o、仅1200亿参数的GPT OSS,以及ABEJA基于通义千问推出的QwQ 32b模型。在GENIAC项目支持下,乐天获得大量算力资源。该项目初衷正是构建日本自主生成式AI生态,降低对外技术依赖。凭借“日本最大参数规模”与“国家队”背景,Rakuten AI 3.0甫一发布即被寄予厚望。