
新智元报道
编辑:倾倾
【新智元导读】 Anthropic CEO Dario Amodei因警告AI风险被比作奥本海默引发争议。核心问题在于:所有AI领袖无论是否预警风险,均遭动机质疑。
3月30日,X平台一则转发引发热议。用户@malmesburyman在转发Dario Amodei采访片段时评论称,"其神态令人联想到杜鲁门眼中的奥本海默"。Amodei重申模型接近人类智能水平,但社会对潜在风险认知不足。
支持者批其开发强AI后"装圣人",类似奥本海默造原子弹;反对者指出,奥本海默在灾难发生后才表愧疚,而Amodei是在风险预警阶段提前发声。更深层问题在于:为何AI领袖无论作为都会遭质疑?
Amodei的困境:坚持红线,反成供应链威胁
今年2月,Amodei拒绝五角大楼"所有合法用途"条款,坚守Anthropic红线。结果,美国防部史无前例地将之列为"供应链安全威胁",特朗普政府下令6个月内停用Claude。
Amodei在泄露备忘录中直言:因未给特朗普捐款、反对独裁式赞美、支持AI监管及坦陈就业替代问题而遭打压。虽后为语气道歉,但凸显原则坚守者反被视作敌人的现实。
Altman的困境:支持红线,反陷机会主义争议
2月28日,OpenAI与国防部达成协议,声明禁止大规模监控和全自动武器——表面与Anthropic立场一致。
外界质疑此举削弱Anthropic立场:若真守安全承诺,企业应团结对抗政府分化。更因OpenAI员工曾联名支持Anthropic,协议被批背叛。Altman承认公布时机"机会主义且草率",但法律专家仍质疑条款约束力。
Hassabis的困境:十年承诺,在地缘变局中调整
2014年Google收购DeepMind时承诺永不开发军事AI;2018年Hassabis还签署禁止致命自主武器信函。但2025年Google修订AI原则,删除军事技术禁令,现DeepMind技术已通过Google Cloud售予多国军方。
面对TIME质疑,Hassabis称因"全球地缘政治不确定性激增,民主价值观胜出不再确定"而转向合作。今年5月,近200名DeepMind员工联名要求放弃军事合同,COO Lila Ibrahim承诺不部署武器相关AI。
困境无解,但预警责任不可卸
Amodei、Altman、Hassabis三人路径迥异,却均遭质疑:持红线被批"求监管优势",合作被斥"伪善",调整立场被指"为钱出卖灵魂"。作为技术开发者与安全倡导者的双重身份,使其每项风险预警都被解读为谋利之举。
无论其预测对错,预警者动机终遭审视。但相较于灾难后的"我早预警",在争议中坚持发声仍是更负责任的选择。


