人工智能的发展和治理已经成为世界主要国家竞争的焦点。2023年6月28日,《法律与社会科学年刊》(Annual Review of Law and Social Science)在线发表了一篇名为《人工智能与全球治理:模式、理由、紧张局势》(AI and Global Governance: Modalities, Rationales, Tensions)的文章,对人工智能的内涵、治理模式和跨国协调等问题做了讨论,本文主要结合该文章予以解读。
人工智能的内涵
当我们谈论人工智能时,我们在谈论什么?即对于人工智能进行定义,明晰人工智能的内涵和外延。人工智能是一个新术语,人工智能一词指的是一种实践,是一种“应用科学和工程学科”。人工智能包括人工智能从业人员及其工作组织;这些技术的目的;以及其使用的社会、经济和政治结构。当我们谈论人工智能的全球治理时,我们关心的不是人工智能是什么(或应该是什么),而是建议对哪些技术和实践进行治理。
当我们治理人工智能时,我们在治理什么?全球范围内具有多种人工智能治理模式,包括公共、私人、非正式、正式和混合政策工具,其范围从行业标准到跨越多个领域的国际范围内制定的原则以及法律。实际上,这一类别的范围很广:包括国际条约中有关自动决策的法律;有关人工智能在医疗设备、警务和情报等国内部门使用的跨国制度;以及监管人工智能跨国使用的制度,例如在内容审核、国际冲突、人道主义响应和国际警务方面。同时,有关数字主权的问题正在以各种形式进入国际谈判。
AI的全球治理模式
道德准则和委员会发展方面。近年来,大型科技公司及其相关组织发布了大量的人工智能治理文件、成立了各种各样的治理理事会和多利益相关方机构。例如,Microsoft设立了人工智能、伦理与工程研究委员会(AI and ethics in engineering and research committee,简称Aether),以及负责任AI战略管理团队(Responsible AI Strategy in Engineering,简称RAISE)。此外,IBM设立人工智能伦理委员会,谷歌设立临时的外部伦理委员会——先进技术外部咨询委员会。亚马逊、苹果、谷歌、Facebook、IBM和Microsoft于2016年还共同成立了人工智能合作伙伴关系(PAI)。
行业治理方面。如今,超越道德原则的行业自治虽不完善,但仍具有影响力。目前,少数企业控制着促进人工智能系统训练的资源,包括物理资源(如连接廉价电力的大型图形处理单元集群)、联系资源(接触尖端研究人员群体、向大学教授支付高薪的能力)和信息资源(接触数据集、支付大量标签费用的资源以及用于收集和实验的实时系统)。市场上许多性能卓越的人工智能系统都是以云计算为前提的,这些新型平台式商业模式是以提供服务的形式进行销售的。这些模式以文本或图像分析或生成等领域的通用基础能力作为销售点,用户可以将其集成并定制到特定应用中。尽管用户可以根据自己的使用情况对模型进行微调,但他们很少拥有模型的完整副本,通常只能通过应用编程接口将其用作问答系统。这种人工智能能力的分布形式使平台有能力充当重要的治理决策者。只要理想的模型是独占的,它们的使用就会受到特定用途的限制。例如,谷歌将其名人识别面部分类系统的使用权限限定在媒体行业的白名单客户的范围内。一些评论家表示担心,如果模型开源,治理将变得困难或不可能,例如在处理没有隐形水印的文本之时,如何辨别其是否为人工制作这一方面就存在较大的难度。[1]
合同和许可证方面。另一种重要的、私人形式的人工智能系统跨国治理制度逐渐兴起,主要是使用合同条款来限制人工智能的使用及其产出。各种平台市场,如Hugging Face已经出现,用以促进开源人工智能系统的査询、分发和开发。然而,这些开源系统在具备易用性的同时也带来了一些风险问题,因为发布者缺乏制衡机制来防止它们应用于有争议的任务。作为解决该问题的回应,一些模型的开发者开始转向创建合同关系,不再将开源代码完全开放发布到公共领域,而是选择在知识产权框架下提供有条件的代码使用许可。在人工智能领域,负责任的 Al 许可证(Responsible Al Licenses,简称RAIL)倡议声称要增加“行为使用限制”条款。知识产权持有者将这种许可应用于稳定扩散模型(Stable Diffusion)[2],该模型尝试模拟Open Al专有的DALL-E 2[3]图像生成模型,以保证相似的图像生成效果。该许可附带的条件明确禁止用户将该模型用于以下用途:诽谤他人;提供医疗建议;用于执法或类似目的;用于广义上的歧视目的或具有歧视效果的目的;用于某些完全自动化的决策(基于数据保护法的规定);以及以可能造成身体或心理伤害的方式对个人进行剥削。(这些规则来自于欧盟委员会的《人工智能法》草案)
尽管这些合同条款并不完美,而且其中一些条款的措辞含糊不清(例如,借鉴了法律但没有引入相关的定义部分,或者没有明确规定诽谤或一般非法行为的司法管辖权)。[4]有效实施这些条款的最大障碍是合同具有相对性,只有知识产权人才能执行版权许可的附带条件。尽管人工智能系统的开发者可能相当了解该领域中数量有限的同行公司,并能够收集足够的信息以有效执行合同要求,但如果问题是围绕技术的使用而不是围绕其开发或者所谓的知识产权盗窃,那么在未来成功防止社会各类使用者滥用人工智能系统从事不符合合同目的的行为似乎不太可能。与此相关的是,以这种方式授权使用人工智能系统的开发者很可能没有能力发现和监管通用人工智能系统的大量用户,也没有足够的法律资源实现这种治理。我们可以设想另一种制度层面的执行机制,就像拥有许多开源软件版权的基金会已经制定了“面向社区”的执行原则。[5]
一些平台试图对模型的输出而非模型本身进行许可,以管理其在全球范围内的使用。OpenAl 是一家以其能够生成新颖文字和图像的模型而闻名的公司,该公司规定使用产品时不得从事某些主题的自动生成,例如描述“非法活动”、与政治人物有关或宣传“重大阴谋”的内容。OpenAl声称用户在法律允许的范围内拥有生成作品的所有权,如果违反了这些规定,OpenAI有权撤销向用户提供的许可(例如封号处理)。然而,基于知识产权的有效执法程度可能受到两个因素的限制:一是管辖权,二是制作系统提示所需的创造性技能或劳动力有限。[6]平台精心设计的这些提示可能会带来一定知识产权的保护性作用,但这似乎是一种有限的治理模式,因为精心设置的提示的复杂性并不一定可以降低潜在的知识产权侵权危害的风险。
标准方面。标准流程可以增强资源富集型企业的能力,但是成本也是重大阻碍。在网络领域,大型参与者采用标准流程可以迫使其他参与者采用相同的流程,事实上参与任何标准制定的机构都需要投入大量的人力资源。同时,成本会进一步限制问责制的构建与落实。许多与计算相关的标准都是由专业标准组织制定的,在这些组织中,标准制定过程不对非付费成员开放,最终的标准文件也是受到知识产权保护的,参与者往往需要花费数以百计的美元才能获得所需的一整套相互关联的规则。尽管如此,已经制定并投入使用的各类信息技术标准的成功促使一些自愿性标准组织寻求同样的方法来治理人工智能系统。最早出现的一套标准是IEEE P70xx系列。这些标准包括已发布的透明度标准(7001-2021)、在设计中考虑道德问题的流程(7000-2021)以及关于偏见和“道德驱动的引导”的标准(7003TM、7008TM)。
国际标准化组织(ISO)也通过2017年成立的ISO/IEC JTC 1/SC 42委员会制定了一系列标准,其中大部分的标准计划仍然正在制定中且未形成最终文本。这两个组织通常以会员制开展工作;保留所发布标准的版权;并通过直接授权访问或授权典型的私营国家标准机构(如美国国家标准协会(ANSI)、英国标准协会(BSI)或德国标准化协会(DIN))做本地化采标和翻译成本地语言发行来销售赚钱。与大多数标准机构不同,国家计量机构通常是公共实体,它们也一直致力于人工智能标准化工作,包括美国国家标准与技术研究院(NIST)和英国国家物理实验室(National Physical Laboratory),前者发布了人工智能风险管理框架,后者是英国人工智能标准中心(United Kingdom's Al Standards Hub)的合作伙伴。
各国政府在人工智能标准制定方面采取了两种广泛的方法,可将其分为混合型和共生型。混合型方法旨在激励私营标准符合法律的要求,如欧盟人工智能法案中提出的建议。共生方法是指以私营认证系统的方式加强其他治理系统的权威性和合法性;欧盟数据保护和网络安全法中的可选行业认证机制就是一个例子。与典型的网络标准相比,人工智能标准的监管轨迹似乎更像非计算标准化领域,如可持续产品或产品安全。
国际协议方面,围绕人工智能问题出现了一系列政府间标准和论坛。这些标准和原则包括经济合作与发展组织(OECD)关于人工智能的建议(OECD 2019)、联合国教科文组织关于人工智能伦理的建议(UNESCO 2021)以及G20人工智能原则(G20 2019)。
国内监管与域外监管的融合,随着从网络上爬取和使用文本和多媒体的便利化与频繁化发展,用于大规模生成模型训练的动荡日益加剧,因而对于生成模型的豁免正变得越来越重要。此类模型的个人用户是否被授予使用模型并输出结果的权利,或者这些输出结果是否不符合版权等保护条件,也会影响全球数据契约治理。此外,商业秘密法的国际轮廓也限制了监管机构对人工智能系统和数据集的审查,以及强调部署机构的透明度。
全球人工智能治理的基本原理和紧张局势
跨界治理问题方面,跨界全球治理也源于对跨界影响的关注。人工智能价值链类似于商品供应链。这意味着,例如,支持数据收集和培训的基础设施,可能会对那些使用这些数据的软件公司的劳动保护法规之外的国家的低薪工人造成长期伤害。近年来,关于数据标签伤害边缘化工人的跨境诉讼逐渐出现,如非政府组织Foxglove起诉Meta Platforms及其内罗毕前内容审核承包商Sama。与此同时,由于数据标签的“创伤性”要求,Sama切断了与人工智能模型公司Open Al 的联系。由于这种标签做法是高度非物质化、信息化和全球流动的,因此有观点认为,由此产生的治理问题必须在全球层面上加以解决。
但目前看来,全球治理体系的这些潜在合法理由,如防止有害行为避风港的形成,或开发其他地方限制的人工智能产品等,并没有在当前的努力中得到很好地体现。在这些潜在的框架中,全球治理是一项由国家主导的活动。尽管一些私营监管体系发挥了作用,例如构建可持续商品认证机制,但它们远远不能相互替代。
游说式治理方式方面,治理机制本身也可以发挥作用,在特定制度内以及考虑到不同制度之间的相互作用的情况下,促进行为体获得理想的政策选择和结果。人工智能治理真正涉及的问题不是技术性的,而是深层次的规范性和分配性问题,社会中由哪些行为体做出决策,谁来承担风险和错误,以及程序上和实质上的正义应该是什么样的。在事实不确定的情况下,不太可能达成共识。
在数字政策的其他领域也有类似的努力。在公众关注度更高、监管压力更大的环境下,监管在线内容的工作越来越多地由行业和行业主导的财团领头指导。一个特别值得注意的例子是监督委员会(oversight Board),这是由Meta创建和资助的一项倡议,该委员会向23名个人(包括知名学者、民间社会专家和前政治家)支付薪水,以审查该公司做出的一小部分的内容管理决策,并提出政策建议。在人工智能领域,PAI等机构也有一些类似的特点。通过创建一个表面上是多方利益相关者但实际上主要由行业领导和控制的政策论坛(由十人董事会创立,包括七名行业代表、一名学者、一名资助者和一名民间社会代表)的方式进行监管。强大的平台型跨国公司不仅可以寻求影响人工智能全球治理的议程,确保其符合自身的广泛利益,还可以公开(并向政策制定者)展示自己积极参与负责任且对社会有益的人工智能创新的深层问题。
将治理问题视为人工智能系统的特征本身就是一种选择,而且这种选择并不总是明确合适的。在诸如透明度等问题上,要将人工智能系统的不透明性与其使用的不可知性、用户的知识和培训、文档或代码的可用性、对其输出的监督或仅仅是其输入数据的人类可解释性区分开来并不容易。尽管有“黑盒子”的比喻,但许多黑盒子本身却深陷阴影之中,例如,商业模式或公共部门中承包商的不透明。即使是白色的盒子,在黑暗中看起来也是黑色的。歧视问题不能轻易与数据收集和再培训的动态过程或与人工智能系统输出相关的决策或措施的性质相分离。与特定任务相关的失败模式问题不能轻易与这些任务的问题框架相分离,其中一些任务可能根本不适合进行预测或自动化。责任问题既不能与社会技术过程相分离,也不能与积极的、批判性受众的需求相分离。
结论
如果想要构建一种全球人工智能治理制度,同时该制度是由一套相互重叠的跨国私人标准、最佳实践制定倡议以及国际组织颁布的规范性宣言和原则组成,所有这些都由多个司法管辖区的新法律框架和现有法律框架共同支撑,那么我们最好要从全球治理学术界二十多年的辩论中汲取经验,了解其他各行业相关制度的起源、影响和缺陷,包括那些与数字政策问题没有直接联系的行业。由于全球人工智能发展格局的特点是行业控制力和影响力非常高,因此解决私人权力问题至关重要。这些公司以及它们创建或参与的治理举措如何与监管工作互动?它们做出的非正式跨国治理形式的努力如何与它们在全球范围内的公共影响、游说和利益代表等更广泛的政治战略相互作用?由于人工智能所凸显的社会、经济和环境问题不仅仅是技术的结果,而是与许多更广泛且截然不同的系统纠缠在一起,因此框架问题至关重要。从人工智能的角度看问题会产生什么后果?通过人工智能的视角而非其他视角来看待有关歧视、问责、能源使用和隐私的全球对话,会使哪些其他潜在的全球以及其他治理形式靠边站?当国家、公司、利益集团和其他行动者就新兴技术进行讨论时,他们在为什么样的未来创造条件,并促成其成为现实?在这些未来中,那些没有参与讨论的参与者、社区、地区和利益集团会扮演什么样的角色或承担什么样的后果?这些问题都需要进一步思考。
[1] 隐形水印:隐形水印是指采用一定的算法,将数字标记嵌入到文本中,从而在该数字标记在不可见的前提下,实现对该文本的识别与溯源。
[2] Stable Diffusion模型是一种可以将文字转化为图像的扩散模型,能够在使用者输入任何文本的情况下,按照文本的要求生成照片般逼真的图像。
[3] DALL-E 2 是OpenAI公司开发的人工智能模型,可以根据自然语言的描述创造出逼真的图像和艺术作品。
[4] 以诽谤罪的司法管辖权举例来说,互联网时代下的诽谤问题往往会跨越多个地域,甚至会出现跨国的情形,对于互联网中诽谤纠纷的管辖权的规定仍然是存在模糊问题的。
[5] 面对纷繁复杂的算法代码的学习与共享的需求,对于海量算法代码的治理可以通过制定开源代码社区规则的方式对于用户使用开源代码社区中代码的行为进行规制,从而既保证了算法代码的共享运行效率,同时也能够起到有效的算法治理效果。
[6] 例如平台提示的算法设置技术存在局限性问题等。
撰稿 | 严嘉欢,清华大学智能法治研究院实习生
选题、指导、修改 | 刘云
编辑 | 朱正熙
注:本公众号原创文章的著作权均归属于清华大学智能法治研究院,需转载者请在本公众号后台留言或者发送申请至computational_law@tsinghua.edu.cn,申请需注明拟转载公众号/网站名称、主理者基本信息、拟转载的文章标题等基本信息。

