大数跨境
0
0

布鲁金斯学会:人工智能许可证不是答案,但它包含答案

布鲁金斯学会:人工智能许可证不是答案,但它包含答案 礼士蛮
2024-05-26
2
导读:关于人工智能许可证制度的讨论

布鲁金斯学会的这篇文章讨论了使用许可证制度作为应对人工智能技术所带来挑战的解决方案的局限性。文章强调,虽然许可证制度可能是一种常见的监管工具,但由于人工智能的独特性和监管人工智能系统的复杂性,它可能并不适合人工智能。在人工智能治理方面需要采取更加细致和灵活的方法,同时考虑人工智能技术的动态性质及其对社会的潜在影响。


许多人工智能技术的领先开发商现在已经接受了政府对其活动的监督,尽管他们早期一直是监管的强硬反对者。谷歌首席执行官桑达尔·皮查伊(Sundar Pichai)直言不讳地解释道:“人工智能太重要了,它必须得到监管。”

最最引人注目的监管拥护者是ChatGPT的创造者,OpenAI的首席执行官山姆·奥特曼(Sam Altman)。奥特曼先生呼吁国会建立“一个新的机构,为任何超过一定能力规模的工作颁发许可证,并可以收回许可证,确保符合安全标准。”微软总裁布拉德·史密斯(Brad Smith)不久后也发出了类似的声音。

然而,要有效监督大型语言模型 (large language models,LLM)仅靠许可证制度是不够的。如果许可证仅限于“超过一定能力规模的任何努力”,即微软、OpenAI、谷歌、Anthropic等“大型人工智能”公司和其他基础模型开发商的活动,许可证的作用便显得杯水车薪。除了这种不充分性,许可证本质上也是一种反竞争、反创新的手段,是在位者致富的工具。

依靠分配给大型人工智能的许可证,体现了门肯(H.L. Mencken)的经典格言:“对于每一个复杂的问题,都有一个明确、简单和错误的答案”。

然而,奥特曼和史密斯的提案中还包含另外的两个概念:建立一套新的标准和新的联邦机构来监督标准的制定和执行。这两个概念是人工智能监督取得成功的关键,也是人工智能未来符合公众利益的关键。

  1. 什么是许可证?

“许可证”一词源于拉丁语licet,licere,意为“允许”。这一概念最早可追溯到1217年修订的《大宪章》(Magna Carta),其中规定转让王室土地必须获得许可。三百年后的1552年,议会通过了《啤酒屋法》(Ale Houses Act),要求啤酒屋必须持有许可证,以此来控制“常见啤酒屋中的滥用和混乱状况”。

许可证的第一个现实意义在于它是一种排斥行为。如果没有经营许可证,法律上就禁止当事人从事经营活动。正如法律学者查尔斯·克拉克(Charles Clark)所解释的,该术语“指的是一个有形的事实,即许可人表示同意,从而为被许可人创造了一种法律特权”。在这方面,16世纪英国对经营啤酒屋的许可控制与21世纪对经营人工智能基础模型的能力许可本质上是相同的。

然而,比准入控制更有参考价值的是许可机构对接受者的期望。议会利用许可证制度解决啤酒屋滥用和混乱问题,确立了许可证持有人的责任,包括对使用经批准的场所的人的行为的期望。

许可证既授予了特权,也给这些公司施加了责任。对于那些提议为人工智能基础模型颁发许可证的人来说,授予排除权以保护竞争者无疑是很重要的。然而,对于公众利益来说,更重要的是确定对所有提供人工智能能力的人(而不仅仅是被许可人)的行为监管。

  1. 联邦许可证的现实

作为联邦通信委员会(Federal Communications Commission,FCC)主席(2013年至2017 年),我曾经负责过也许是最大的联邦许可项目。联邦通信委员会负责发放、监督和执行三百多万份电磁频谱使用许可证。这些许可证的使用范围包括无线电、电视、移动电话和卫星的电波使用,以及业余无线电和其他非商业应用。无线电频谱许可证旨在防止信号相互干扰,并为信号的使用制定可执行的标准。

然而,作为一种监管工具,频谱许可被证明是一种钝器,它优先考虑的是被许可人的权利,而不是对其行为进行有意义监督的工具。例如,广播许可证最初不仅被视为确保无干扰运行的一种方式,还被视为促进声音多样性、竞争和公平的一种方式。在广播业的要求下,这些期望逐渐被削弱,甚至被取消。频谱许可证已从保护公众利益的主要目的演变为保护那些有幸获得证书的企业的商业利益。

我所目睹的联邦许可活动是反竞争的,因为只有被选中的人才能参与;是反创新的,因为缺乏竞争;是通过建立准垄断而使在位者致富。在实践中,使用电波这一公共资产的权力创造了经济权力,从而产生了政治权力,而这种权力的行使是为了被许可人的利益。

然而,许可证较为简单。对于立法者来说,它是一个易于定义的解决方案,将最终责任归于他人。对于有幸获得这种许可证的公司来说,它提供了其他人无法获得的免死金牌(golden ticket)。然而,作为保护公共利益的工具,商业频谱许可证的经验表明,许可证制度不足以成为应对广泛的人工智能挑战的主要解决方案。

  1. 释放人工智能的猎犬

智能计算正在分化为“大人工智能”(Big AI)和“小人工智能”(Small AI)。大人工智能是数字巨头的专利,其大型语言模型专利也越来越强大。小人工智能则是其他许多人的专利,他们依赖于免费提供的开源大语言模型(LLM),这些模型更小、功能更弱,但更便宜,而且“足够好”,适用广泛。

使用许可证来管理“超过一定规模的活动”的人工智能模型,由于存在大量其他免费提供的人工智能模型(尽管能力较弱)而变得更加不切实际。这些开源人工智能模型意味着人工智能算法不像电波那样是稀缺商品。网上免费提供的开源大语言模型(LLM)社区不断壮大。例如,Meta Platforms就围绕着发布LLaMA模型供开源使用制定了公司战略。法国已将开源人工智能作为国家政策。这些以及其他多个开源开发者的活动确保了大语言模型随时可用且能够持续改进。

联邦频谱许可证方面的经验就是一个例子,说明现有技术是如何允许无许可证者在未经许可的情况下从事有许可证的活动。联邦通信委员会通过使用装备有先进无线电测向设备的车辆,四处搜寻在获得许可的电波区域内活动的非许可频谱用户,来处理非许可使用获得许可的电波的问题。这种无证使用中最恶劣的是“非法电台(Pirate Radio)”,因为建立一个电台既容易又便宜。

虽然盗版电台广播的功率和覆盖范围不如持证电台,但它们的功率仍然足以覆盖当地社区,干扰持证电台的运营。例如,当时我们关闭的过一个盗版电台,只不过是用一台普通的笔记本电脑给藏在布鲁克林一栋公寓阁楼里的现成无线电发射机供电。

由于开源人工智能模型的激增,盗版人工智能同样有可能出现。与非法电台一样,开源人工智能模型可能规模较小、功能较弱,但功能仍然很强。最重要的是,它们可以随时免费获得,从而提高了可用性。这些模型是“开放”的,这也意味着用户不仅能从基本功能中获益,还能为自己的目的访问和修改底层代码。

谷歌泄露的一封内部邮件就是开源人工智能的现实例证。在谈到开源模型的竞争威胁时,作者警告说:“我们没有护城河......培训和实验的准入门槛已经从一个大型研究机构的总产出下降到一个人、一个晚上和一台强悍的笔记本电脑。”

一个可随时免费获取的 大语言模型,其源代码可通过一台“强大的笔记本电脑”轻松实现特定目的,这给人工智能许可证所可能提供的保护带来了巨大的漏洞。

开源人工智能是一种有利于竞争和创新的变通办法,可应对大人工智能的技术和市场主导地位。然而,可以随意使用人工智能技术也是一把双刃剑。当然,开源模型可以随时免费提供,供人们修改,用于降低医学研究成本等有益于社会的活动。但考虑到同样的模型也可能被修改用于错误目的,这也令人恐惧。最近假视频和假音频的激增就是一个例子,说明了在开源世界中可能发生的事情。国家安全也因此受到牵连,正如Axios报道的那样“政府高官对任何人都可以编写代码的大型开源人工智能模型对国家安全的影响感到恐慌。”

  1. 建立期望

在设立“人工智能警长”之前,必须先决定什么是适当的行为。当奥特曼对国会说“我认为,如果这项技术出了问题,它可能会大错特错”时,他似乎是在把电脑控制世界末日的警告作为政策前提。他对立法者说:“我们希望与政府合作,防止这种情况发生。”

然而,与人工智能相关的问题将在假想的世界末日到来之前很久就决定我们的文明。正如人工智能先驱穆斯塔法·苏莱曼(Mustafa Suleyman)所言,“我们应该关注未来十年内将出现的近期实用能力,我相信这些能力是可以合理预测的”。

这种实用能力首先是“利用人工智能违反已经确立的行为规范”,如欺诈和歧视。使用人工智能进行欺诈或歧视并不需要新的政策,无论以何种方式实施,这种做法都是违法的。正如联邦贸易委员会(Federal Trade Commission)主席莉娜·汗(Lina Khan)明确指出的那样:“对于现行法律来说,人工智能没有豁免权”。

但是,人工智能的非传统影响呢?

人们对人工智能有两种迫切的担忧,这两种担忧都围绕着失去对技术控制的后果展开。第一种恐惧是人类失去对人工智能算法的控制,从而使它们可以做坏事。第二种担心是人类利用人工智能做坏事时失去控制。

对人工智能的监督必须着眼于减轻这两种不良后果。其中一些可以通过规定最强大模型的运行来实现,比如要求红队识别和处理潜在风险(正如拜登总统的人工智能行政令所表明的,这并不需要许可)。但大部分监管活动应集中在技术所带来的负面影响上。21 世纪的人工智能监管必须解决“滥用和失调”问题,就像16世纪对啤酒屋的监管一样。

如果列举行为的重要性足以成为颁发许可证的先决条件,那么建立这种行为预期对所有人工智能来说也应该是重要的。监管的目的是防止欺诈和歧视性的有害影响。无论大语言模型是否获得许可,对人工智能的监督同样需要注重结果。

历史告诉我们,技术的影响比突破性技术本身更为重要。带来社会变革的原因并非技术本身,而是技术带来的影响。在 21 世纪,人工智能技术的应用所产生的后果将最终推动新的社会和经济现实。我们如何应对这些后果,首先要为所有人工智能确立基于结果的行为预期。

  1. 制定人工智能标准

迄今为止,在数字时代,美国立法者在很大程度上避免了为监督新技术制定行为基础规则。这与上一次由技术驱动的大革命——工业革命——的政策反应不同,在工业革命中,政策制定者面对前所未有的挑战,制定了全新的解决方案。

与19世纪末20世纪初的《反托拉斯法》和《消费者保护法》相比,21世纪的做法是将保护个人隐私、抑制竞争、破坏真相和信任等数字效应的必要性掩盖在政策之下。人工智能扩大了这些不受监督的影响,增加了对私人权利的侵犯,集中了对大人工智能的控制。

在我们考虑人工智能的后果时,未能监督早期数字时代的影响应该是一个警示。正如《纽约时报》上所说:“社交媒体是人工智能与人类的第一次接触,人类输了”。

  1. “搔痒娃娃”

作为其频谱监督职责的一部分,FCC为任何发射射频 (radio frequency,RF) 信号的设备制定技术标准。这些标准的目的是防止这些活动对频谱使用产生不利影响。查看家中几乎所有的电器或电池供电设备,您都会看到联邦通信会员会认证印章。我最喜欢的是电池供电的儿童玩具“搔痒娃娃”(Tickle Me Elmo),一碰它就会咯咯笑,还会说话。由于这种功能会发射低功率射频信号,搔痒娃娃必须符合联邦通信委员会标准。

搔痒娃娃必须按照产品效果而非产品本身具体设计的标准运行。这种基于效果的规定在许多活动中都很常见。建筑规范标准规定了设计效果,如能源效率或抗震能力。食品安全标准防止污染和其他健康威胁等影响。金融业在会计、报告和消费者保护方面遵循基于效果的标准。在这些例子中,没有一个法规规定如何钉钉子、食品配方或投资决策;但它们都对这些决策的后果确立了基于效果的预期。

建立这种基于效果的标准需要有人或某个实体来确定这些效果是什么。在人工智能能力不断扩展的环境中,这样的努力需要持续关注。

  1. 谁制定规则?

奥特曼在“2024年世界经济论坛”达沃斯会议上说,“人工智能将不断改进,最终实现通用人工智能”。他将其与iPhone的进化史作类比,17年前,iPhone的首次迭代似乎令人惊叹,但如今已成为了遗物。他解释说,随着人工智能技术不断向前发展,今天的聊天机器人也将经历类似的发展历程。

“我们知道它即将到来,但不知道它是什么” 的观念使得标准的制定变得困难。利用现有的监管流程只会增加难度。

制定法规监督总是走钢丝。制定规则时走得太远,会阻碍创新和投资。如果走得不够远,保护措施就不足以遏制滥用。回顾我的工作经历,现有的法规和监管结构是为工业时代的现实而制定的,但往往不足以应对数字经济,尤其是人工智能带来的挑战。监管部门是时候应该像它所要监管的对象一样不断创新。人工智能应该成为这种创新思维背后的驱动力。

要对人工智能进行有意义的监督,首先要复刻使数字革命成为可能的技术。所有数字技术的核心都是行业制定的通用标准。例如,对人工智能至关重要的云计算,就是通过规定其计算机的构造和互操作性的标准来实现的。人工智能拥有多个由多方利益相关者合作制定的标准,涵盖互操作性、透明度、数据质量和系统可靠性等各种问题。为了推进标准进程,大型人工智能公司创建了前沿模式论坛,重点关注与安全、研究和解决重大社会问题有关的共同实践。

这种由行业开发的多方利益相关者流程的优势在于,它们足够灵活,能够产生与最新技术发展同步的成果。然而,这些标准中明显缺少有关标准化技术本身对个人和社会影响的政策。

为人工智能提供的效果制定行为标准需要政府、行业和民间社会的协调努力。对这一过程的监督需要一个新的联邦机构,该机构应在人工智能的开发和使用方面拥有适当的专业知识,有权为一个确定的目的建立多方利益相关者的合作路径,并据此执行进一步的许可计划。

  1. 三分之二的正确想法

奥特曼提出的“建立一个新机构,为任何超过一定能力规模的工作颁发许可证,并可以收回许可证,确保符合安全标准”的建议有三分之二是正确的。

是的,必须有标准来确定人工智能可接受的效果和操作。不仅是技术标准,而且是行为标准。是的,必须有一个专业的“警察”来监督这些标准的制定和执行。

但是,这些监督活动不应局限于少数几个生产“超过一定能力规模”的产品的开发商。数字技术的发展史已经证明,如果编写软件的人同时也制定软件的实施规则,就会产生不利影响。受新技术影响的人们必须在为所有人工智能提供商建立和执行广泛的公共利益责任方面拥有发言权。

【声明】内容源于网络
0
0
礼士蛮
只发干货
内容 88
粉丝 0
礼士蛮 只发干货
总阅读7
粉丝0
内容88