一篇来自《金融时报》的专访首次由官方核心人物公开承认了Meta在AI领域长期存在的“潜规则”。
图灵奖得主、Meta前首席科学家Yann LeCun在巴黎接受采访时坦言,Meta在Llama 4的测试成绩上“确实修饰了一点”,团队会针对不同评测任务使用特化版本模型,以提升榜单表现。
Llama 4“榜单特供版”引发信任危机
2025年4月,Meta发布Llama 4系列模型,其中Llama 4 Maverick在Chatbot Arena排行榜一度升至第二,被视作开源模型逼近甚至超越OpenAI闭源模型的重要信号。
但很快有研究者指出,其高分基于一个专为对话场景优化的实验版本,而非对外发布的标准模型。该版本在输出长度、风格与情绪表达等方面均经过定向调优。
当Arena后续引入风格控制机制、削弱表面优势后,Llama 4排名迅速下滑,质疑声随之爆发。
开源社区反应尤为强烈,普遍认为此举违背开源所强调的透明性与可复现性——既借开源获取技术声誉,又回避真实基准下的公平对比。
内部治理失序加速人才流失
LeCun透露,扎克伯格对生成式AI存在明显焦虑,要求团队加速交付成果。高压之下,组织沟通失效,研究导向逐渐转向“选安全路线、追短期指标”。
Llama 4未达预期后,扎克伯格对整个生成式AI团队失去信心,多名核心成员陆续离职。
与此同时,Meta重金投资Scale AI,并任命年仅28岁的CEO Alexandr Wang主导新AI计划,直接成为LeCun的上级。
LeCun评价其缺乏科研经验,不理解研究人员的核心关切,亦坦言自身在公司内部日益难以坚持科学立场,尤其在“是否应继续押注大语言模型”这一根本问题上分歧加剧。
LeCun离任:回归“世界模型”长期主义
最终,LeCun离开Meta,创办新研究机构,专注探索其主张的“世界模型”路径。他认为当前大语言模型并非通往通用人工智能(AGI)的终点,作为科学家,不能因组织政治或短期KPI而放弃根本判断。
本文禁止任何形式的转载,请与一亩三分地联系

