人工智能先驱李飞飞与他人合作撰写的一份新报告 敦促立法者在制定管理如何使用该技术的法规时,要预见到尚未想到的未来风险。
这份长达 41 页的报告是由加州联合政策工作组关于前沿人工智能模型发布的,此前,加州州长加文·纽瑟姆否决了该州最初的人工智能安全法案 SB 1047。去年,他否决了这项引起争议的立法,称立法者在试图制定更好的立法之前,需要对人工智能风险进行更广泛的评估。
李(见图)与卡内基国际和平基金会主席马里亚诺·弗洛伦蒂诺·奎利亚尔和加州大学伯克利分校计算机学院院长詹妮弗·图尔·查耶斯共同撰写了这份报告。他们在报告中强调,需要制定法规,以确保 OpenAI、Google LLC 和 Anthropic PBC 等公司正在构建的所谓“前沿模型”更加透明。
他们还敦促立法者考虑强制人工智能开发商公开发布其数据获取方法、安全措施和安全测试结果等信息。此外,该报告强调,需要对人工智能安全性和公司政策的第三方评估制定更严格的标准。报告还建议,人工智能公司还应为举报人提供保护。
该报告在发布之前已由众多人工智能行业利益相关者审查过,其中包括人工智能安全倡导者 Yoshua Bengio 和 Databricks Inc. 联合创始人 Ion Stoica,他们对最初的 SB 1047 法案持反对态度。
报告的一部分指出,目前关于人工智能可能被用于网络攻击和制造生物武器的“证据水平尚不明确”。作者写道,因此,任何人工智能政策都不仅要解决现有风险,还要解决如果没有采取足够的保护措施可能出现的未来风险。
他们用一个类比来强调这一点,指出没有人需要看到核武器爆炸才能预测其将造成的广泛伤害。报告指出:“如果那些推测最极端风险的人是对的——我们不确定他们是否正确——那么目前对前沿人工智能不采取行动的风险和成本极高。”
鉴于这种对未知的恐惧,合著者表示,政府应该在人工智能透明度方面实施双管齐下的战略,重点关注“信任但要核实”的概念。作为其中的一部分,人工智能开发人员及其员工应该有合法的方式报告任何可能带来安全风险的新进展,而不会受到法律诉讼的威胁。
值得注意的是,目前这份报告仍只是临时版本,完整版报告要到6月才会公布。报告并未支持任何具体立法,但其所强调的安全问题得到了专家们的一致好评。
例如,乔治梅森大学的人工智能研究员 Dean Ball 曾批评过 SB 1047 法案,并很高兴看到该法案被否决,他在 X 上发帖称,这对该行业来说是“有希望的一步”。与此同时,首先提出 SB 1047 法案的加州参议员 Scott Weiner 指出,该报告延续了他在流产的立法中最初提出的“关于人工智能治理的紧急对话”。
免责声明:
关注我们,一起探索AWM!
近期热点
2025-03-10
2025-03-07
2025-02-28




