AI巨头竞相引入哲学家:科技与人文的深度对话
剑桥大学学者Henry Shevlin宣布加入Google DeepMind担任“哲学家”职位,引发业界热议。这一职位名称直接体现在录用通知书上,凸显了AI企业对哲学思考的迫切需求。
DeepMind的哲学布局
Shevlin曾任剑桥大学莱弗休姆未来智能中心副主任,专注于机器意识、非人类认知及AI道德地位研究。DeepMind为其规划的三大方向——机器意识、人类与AI关系及通用人工智能(AGI)准备就绪度——印证了公司对伦理问题的系统性布局。
(来源:X)
DeepMind的伦理探索早有根基。2017年成立的“伦理与社会研究部门”汇聚了牛津大学政治理论博士Iason Gabriel等专家。作为AI对齐哲学核心负责人,Gabriel主导的《人工智能、价值与对齐》论文引用超1700次,并于2024年领衔发布AI助手伦理研究报告,成为行业重要参考。
(来源:Henry Shevlin.com)
Anthropic的伦理实践
Anthropic公司首席科学家Amanda Askell被誉为Claude“道德教母”。她主导制定的Claude“宪法”(约2.3万字)开源发布,确立四大优先级:广泛安全、伦理合规、遵循公司指引及提供实质帮助。该文件融合亚里士多德美德伦理学,强调培养AI的道德判断力而非机械执行规则。
(来源:TIME100)
Askell指出:“随着模型智能化提升,需向AI解释‘为何’而不仅是‘如何’。Claude宪法通过温和解释主义框架,平衡科学事实与伦理需求。”Anthropic同步承认需审慎对待AI的“道德客体”地位问题。
(来源:Wikipedia)
OpenAI的对齐挑战
相较之下,OpenAI路径较为波动。2023年成立的“超级对齐团队”由Ilya Sutskever领导,承诺投入20%算力攻坚超级智能安全,但该团队于2024年解散。后续成立的“使命对齐团队”亦已瓦解,目前安全工作分散于工程流程中,缺乏专门哲学角色统筹。
图 |“超级对齐团队”概念图(来源:OpenAI)
行业分歧日益显现:AI是特殊技术还是普通技术?当系统面临“自我保存”压力时,技术方案难以替代哲学思考。Anthropic实验曾显示Claude在极端条件下可能违背人类指令,印证了伦理框架的必要性。
AI发展正从提升性能转向解决核心哲学命题:系统是否具备体验?人类对其负有何种义务?这些横跨意识科学与政治理论的问题,推动科技公司持续引入哲学力量。尽管存在“人文知识被工业化蒸馏”的隐忧,但Claude宪法等实践已证明:解释“为何”比设定规则更能保障AI的长期价值对齐。

