大数跨境
0
0

【科技参考】“ChatGPT之父”为美国政府提出人工智能监管框架

【科技参考】“ChatGPT之父”为美国政府提出人工智能监管框架 科情智库
2023-10-07
2

科情智库


2023年5月16日,美国参议院司法小组委员会举行有关人工智能监管的第一次国会听证会。“ChatGPT之父”OpenAI首席执行官阿尔特曼在作证时指出,人工智能主要风险在于人工智能大模型,建议美国政府出台AI监管计划,包括制定许可制度、组建新的政府机构、创建大语言模型安全标准等内容。阿尔特曼还提出,政府在实施人工智能安全监管法规的同时,还要确保人们能够享受该技术带来的福祉。


2023年5月16日,美国参议院司法小组委员会举行人工智能监管第一次国会听证会,“ChatGPT之父”OpenAI首席执行官阿尔特曼出席作证。听证会上,阿尔特曼将人工智能技术对社会发展的未来影响力比喻为历史上曾广泛促进了知识传播的“印刷机”,但如果不能及时识别和管理其潜在风险,不但可能不会带来繁荣,未来该领域的技术突破还意味着人工智能将产生如原子弹般困扰人类的严重而可怕的后果。阿尔特曼指出,目前生成式人工智能令人们担心的问题主要是生成内容的准确性、被生成内容欺骗、虚假信息、隐私和影响就业等,可是一旦某一天超级强大的系统出现,人们所面对的风险层次就会完全不一样。他认为,如果功能超级强大的人工智能系统一旦出错,就可能错得非常严重,人工智能这个领域、这个技术和这个行业就会对世界造成重大伤害。OpenAI渴望能帮助政策制定者决定如何对人工智能进行监管。阿尔特曼认为,政府和行业需要共同努力来管理风险。这还将关系到美国能否持续保持在AI领域的领导地位。为此,阿尔特曼从国会立法者角度为美国政府提出了以下一些人工智能未来监管的治理建议。



/

/

人工智能技术需要一个新的治理框架

对于人工智能这样一项全新的技术,必须创造一个新的框架进行治理。

首先,在这个新框架中,人工智能公司、用户及相关企业都要为人工智能工具承担责任。美国于1996年颁布的第230条法律保护提供商和个人免于因他人在线发布非法内容承担重大法律责任,但230条并不适用于生成式人工智能。像OpenAI这样的人工智能公司必须要为其在世界上发布的工具承担很大责任,同时使用工具的用户也要承担责任,以及处于人工智能公司和最终消费者之间的企业也要承担责任。

其次,需要为内容创作者和内容所有者找到从AI技术中获益的新方式。应当使内容创作者和内容所有者对他们的创作如何被AI工具使用具有控制权。

最后,法律监管框架的原则是在实施安全监管与确保人民获得技术福祉之间取得平衡。防止监管减慢美国人工智能产业发展的速度,以至于被中国或其他国家超过。美国必须继续领导AI技术。



/

/

设立AI监管计划

建立许可制度。组建一个新的政府机构,负责给在关键阈值能力范围内的人工智能大模型颁发许可,并可以收回许可。确定阈值最简单的方法是根据计算量进行定义,可随更高效算法的出现不断改变。还可采用一种虽然更难实现但更准确的方式,即定义一些能力阈值,并由立法者决定能够执行X、Y或Z等操作的能力模型是否符合该许可管理制度。

创建大语言模型(LLM)安全标准。重点关注危险能力评估。LLM模型对外发布部署之前必须通过内部和外部安全测试,确保不能自我复制以及自行渗透到外部等。

要求对模型安全状况进行独立审查。除要求公司或机构提交自我审查,主要还需要由外部专家评定其模型是否符合所声明的安全阈值,以及涉及X或Y的性能比率等。

政府可以考虑把颁发许可与安全测试要求结合起来,并采取一些措施激励企业遵守这些针对人工智能的专门安全要求。



/

/

重点对掌握最前沿能力的大企业严格监管

为有效防范人工智能的风险并同时保证美国人工智能领域的创新活力,应对所要监管的活动、技术、工具和产品的范围设置不同的层次。监管的大方向应是针对OpenAI和谷歌这样规模的大公司进行超级严格的审查。人工智能的主要风险在于人工智能大模型。大模型的特点是集中化,而这对政府监管是有利的。因为由于所需资源巨大,能够训练真正前沿模型的公司数量并不多。政府需要真正密切关注的具有绝对前沿能力的公司数量越少,则控制风险的难度就越小。同时要避免监管法规阻碍到较小公司、开源模型和从事较小规模工作的研究人员的创新活动。必须为新的想法、新的公司以及独立研究人员留出余地和发挥空间从事他们想要做的事情,不能给他们施加像大公司那样大的监管负担。当然小公司也必须遵守相应规定,因为使用较小的模型也会造成巨大的伤害。



/

/

人工智能监管需要政府、企业和公众三方结合

阿尔特曼认为,人工智能监管需要通过三方结合共同推动:即企业正确行事、政府法律监管以及公众普及教育

从企业方面,无论政府的措施是怎样的,公司都应履行自身的责任。首先是确保模型安全。每次模型发布之前必须尽可能充分测试,实施安全和监控系统构建风险缓解措施,以应对现实世界中的滥用行为。其次是部署安全。要采取小心谨慎并且逐步的方式发布新的人工智能模型。实际上OpenAI的GPT-4模型在2022年10月之前就已经开发出来了,但公司没有直接发布,而是于11月首先发布了已经完成测试的低版本ChatGPT,然后花了6个多月时间对GPT-4进行安全评估测试和改进,并针对每个风险领域都开发了提高安全性的缓解手段,最后于2023年3月份才对外发布。

从公众方面,每个受技术影响的人都应该对人工智能如何进一步发展拥有发言权。然而人们需要时间来了解这项技术,以实现个人的知识更新。自去年11月以来,人们通过使用ChatGPT和GPT-4模型,在全球范围内掀起了关于生成式人工智能的一个空前的公开大讨论。新模型的使用使很多人开始真正了解这项新技术,获得关于人工智能技术的普及性教育,从而能够参与到深入讨论的热潮当中。而由于拥有了使用生成式人工智能模型工具的第一手经验,人们在进行相关讨论时再也不会像之前那样仅仅是“纸上谈兵”。由于人工智能的复杂以及快速发展特性,立法者应尽可能使所有利益相关者都能参与到对人工智能的监管治理进程中,以便于在制定和更新规则过程中尽可能广泛吸纳不同意见。

从政府方面,由于监管制度的更新需要时间,要求企业对生成式人工智能大模型的发布部署采用渐进迭代的方式应当成为一项重要法规。因为只有这样规定才能使专业人员和立法者有时间面对新的模型技术,理解它,发现它的局限性,从而知道围绕它需要什么样的法规,以及需要制定什么规则来确保它的安全使用。如果允许企业一下子就构建一个功能超级强大的人工智能系统,不对外公开,在完成后立即投放到世界上,则法规一定会跟不上监管的需求。要求企业渐进迭代发布部署的好处是:当一个人工智能系统仍然相对较弱尚且极不完善时,就让人们有机会体验到它们,接触到现实发生的情况,弄清楚从立法角度到底需要做什么才能使其更安全、更好用。阿尔特曼称,这是在历史上所见到的政府对像人工智能这样规模的新技术和产品进行监管能取得好的成效的唯一途径。因此,强制要求人工智能模型与现实世界产生渐进的互动非常必要。

作为人工智能顶级专家,阿尔特曼提出的治理思路对美国政策走向具有较大的影响力。5月18日,美国会参议员迈克尔·贝内特即提出立法提案为IT行业平台公司和人工智能建立一个新的监管机构。5月23日,拜登政府宣布了AI权利法案蓝图、人工智能风险管理框架、建立国家人工智能研究资源路线图、解决人工智能引发的国家安全问题等新措施。5月26日,白宫科技政策办公室发布信息征询书,向社会征求关于美国人工智能监管方法的意见。6月20日,美众议院两党议员提出《国家人工智能委员会法案》,支持组建国家人工智能委员会,帮助制定人工智能监管战略。


编译:中国科学技术信息研究所  黄宁燕  刘润生
审校:中国科学技术信息研究所  程如烟

来源:《科技参考》2023年第45期


推荐阅读 >

美国国家关键技术选择的组织过程和主要方法研究

项目型科研团队的执行特征分析

【国际能源领域动态监测】拜登政府拨款1亿美元将气候污染转化为可持续产品

【声明】内容源于网络
0
0
科情智库
宣传科技信息资源及科技情报研究成果,关注产业最新动态、发展热点和重大变革,为科技创新提供新媒体渠道。
内容 2085
粉丝 0
科情智库 宣传科技信息资源及科技情报研究成果,关注产业最新动态、发展热点和重大变革,为科技创新提供新媒体渠道。
总阅读251
粉丝0
内容2.1k