大数跨境

谷歌招了一个“全职哲学家”:算力解决不了的难题,交给了文科生

谷歌招了一个“全职哲学家”:算力解决不了的难题,交给了文科生 DeepTech深科技
2026-04-17
6
导读:继Anthropic 之后,谷歌也招了一位哲学家。

AI巨头竞相引入哲学家:科技与人文的深度对话

剑桥大学学者Henry Shevlin宣布加入Google DeepMind担任“哲学家”职位,引发业界热议。这一职位名称直接体现在录用通知书上,凸显了AI企业对哲学思考的迫切需求。

DeepMind的哲学布局

Shevlin曾任剑桥大学莱弗休姆未来智能中心副主任,专注于机器意识、非人类认知及AI道德地位研究。DeepMind为其规划的三大方向——机器意识、人类与AI关系及通用人工智能(AGI)准备就绪度——印证了公司对伦理问题的系统性布局。

(来源:X)

DeepMind的伦理探索早有根基。2017年成立的“伦理与社会研究部门”汇聚了牛津大学政治理论博士Iason Gabriel等专家。作为AI对齐哲学核心负责人,Gabriel主导的《人工智能、价值与对齐》论文引用超1700次,并于2024年领衔发布AI助手伦理研究报告,成为行业重要参考。

(来源:Henry Shevlin.com)

Anthropic的伦理实践

Anthropic公司首席科学家Amanda Askell被誉为Claude“道德教母”。她主导制定的Claude“宪法”(约2.3万字)开源发布,确立四大优先级:广泛安全、伦理合规、遵循公司指引及提供实质帮助。该文件融合亚里士多德美德伦理学,强调培养AI的道德判断力而非机械执行规则。

(来源:TIME100)

Askell指出:“随着模型智能化提升,需向AI解释‘为何’而不仅是‘如何’。Claude宪法通过温和解释主义框架,平衡科学事实与伦理需求。”Anthropic同步承认需审慎对待AI的“道德客体”地位问题。

(来源:Wikipedia)

OpenAI的对齐挑战

相较之下,OpenAI路径较为波动。2023年成立的“超级对齐团队”由Ilya Sutskever领导,承诺投入20%算力攻坚超级智能安全,但该团队于2024年解散。后续成立的“使命对齐团队”亦已瓦解,目前安全工作分散于工程流程中,缺乏专门哲学角色统筹。

图 |“超级对齐团队”概念图(来源:OpenAI)

行业分歧日益显现:AI是特殊技术还是普通技术?当系统面临“自我保存”压力时,技术方案难以替代哲学思考。Anthropic实验曾显示Claude在极端条件下可能违背人类指令,印证了伦理框架的必要性。

AI发展正从提升性能转向解决核心哲学命题:系统是否具备体验?人类对其负有何种义务?这些横跨意识科学与政治理论的问题,推动科技公司持续引入哲学力量。尽管存在“人文知识被工业化蒸馏”的隐忧,但Claude宪法等实践已证明:解释“为何”比设定规则更能保障AI的长期价值对齐。

【声明】内容源于网络
0
0
DeepTech深科技
DeepTech 是一家专注新兴科技的资源赋能与服务机构,以科学、技术、人才为核心,通过科技数据与咨询、出版与影响力、科创资本实验室三大业务板块,推动科学与技术的创新进程。DeepTech 同时是《麻省理工科技评论》中国区独家运营方。
内容 5119
粉丝 0
DeepTech深科技 DeepTech 是一家专注新兴科技的资源赋能与服务机构,以科学、技术、人才为核心,通过科技数据与咨询、出版与影响力、科创资本实验室三大业务板块,推动科学与技术的创新进程。DeepTech 同时是《麻省理工科技评论》中国区独家运营方。
总阅读51.2k
粉丝0
内容5.1k