大数跨境
0
0

程雪军:超级人工智能平台算法歧视的系统治理机制

程雪军:超级人工智能平台算法歧视的系统治理机制 品牌出海Paul
2025-07-21
0
点击上方蓝字“广东省法学会”关注我们


作者简介

程雪军,同济大学法学院副教授,高级经济师,北京大学法学院访问学者。

内容提要

在人工智能时代背景下,超级人工智能平台算法歧视是一个复杂且重要的问题。无论超级人工智能平台算法系统如何先进,都无法脱离人类社会的数据偏见与算法程序不公正,在多个应用场景出现相应的算法歧视,并造成多种不良后果。针对超级人工智能平台算法歧视,可以从主体层面、主观层面、客观层面剖析算法歧视产生的原因:超级人工智能平台对个人与商业机构的算法歧视、超级人工智能平台的算法偏见或思维有限性、超级人工智能平台的数据与算法因素衍生歧视性。为维护平台经济的公平竞争与有序发展,我国有必要结合超级人工智能平台本土化发展情况,对其算法歧视问题构建系统治理机制:其一,在公权力规制层面,加强算法立法与审查监管;其二,在私权利自治层面,提升技术创新与算法伦理;其三,在社会力量监督层面,强化社会监督,促进算法公正。

全文首发在《法治社会》2025年第3期第49-61页。如需全文,欢迎扫码查看本文完整电子书,或在中国知网下载。敬请赐稿《法治社会》!

图片

关键词

超级人工智能平台 算法歧视 算法责任 算法伦理 系统治理机制

引用示例

程雪军:《超级人工智能平台算法歧视的系统治理机制》,载《法治社会》2025年第3期,第49-61页。

目录

一、问题的提出 


二、超级人工智能平台算法歧视的理论内涵

(一)超级人工智能平台算法歧视的概念界定 

(二)超级人工智能平台算法歧视类型及具体表现 


三、超级人工智能平台算法歧视产生的原因

(一)超级人工智能平台对个人与商业机构的算法歧视 

(二)超级人工智能平台的算法偏见或思维有限性 

(三) 超级人工智能平台的数据与算法因素衍生歧视性 


四、超级人工智能平台算法歧视的系统治理机制

(一)公权力规制:加强算法立法与审查监管 

(二)私权利自治:提升技术创新与算法伦理 

(三)社会力量监督:强化社会监督促进算法公正 


结语

图片
图片
图片


图片

一、问题的提出


长期以来,人类试图在“人”“物”“社会”三者当中取得三元平衡。如今,科技的发展、人工智能的出现打破了三元平衡的格局,促进人类社会逐步进入全新的“人”“物”“社会”与“人工智能”构筑的“四元社会”。人工智能由约翰·麦肯锡在1956 年率先界定,指的是依托计算机运用数学算法模仿人类的分析、推理和思维能力。人工智能的核心要素是算法,算法在人工智能发展中起着不可替代的作用,算法的优劣很大程度上可以决定人工智能水平,进而决定人类社会是处于弱人工智能时代、强人工智能时代还是超人工智能时代。

人工智能时代的重要议题是“人究竟如何控制机器”。诚然,人工智能技术给人类社会带来巨大福利,但其不确定性也引发了学术界的高度讨论。根据学术分析软件CiteSpace的原理及程序,以中国知网数据库的中文社会科学引文索引(CSSCI)来源期刊文献为主要数据来源,以“算法歧视”为关键词进行搜索,发现首篇论文出现在2017年5月,截至2024年12月底,共检索到260篇高水平论文。通过分析关键词共现图谱,可以发现算法歧视学术研究中,高频关键词包括人工智能(62次)、算法歧视(42次)、价格歧视(13次)、算法权力(12次)、人工智能算法(10次),缺乏从超级人工智能平台视角切入探求算法价格歧视系统治理机制的研究。第一,关于平台人工智能算法的学术研究。算法技术被平台深度应用后,大幅度提升了人工智能服务水平,具有显著的双维作用:一方面,算法技术助力现代服务业水平的进步,促进平台利用算法技术实现智能化转型;另一方面,算法技术具有阻碍人工智能稳定发展的破坏性作用,由于算法自身具有较高的不透明性和专业性,其正当性及伦理性基础常常难以被评估,此种特点也为思考算法伦理问题设置了较高的门槛。第二,关于平台算法歧视的学术研究。算法歧视并非人工智能时代出现的全新问题,它是社会歧视的另一种表达方式。在人工智能的服务场景中,算法歧视是指在算法设计、数据选择的过程中,整合、生产与分发内容时所产生的歧视。有些学者认为“算法黑箱”的存在导致了平台的算法歧视;有些学者认为平台算法歧视主要包括反垄断语境下的算法价格歧视(消费歧视)与平等权语境下的算法身份歧视。前者的重点在于平台滥用算法技术对消费者实施价格层面的歧视,尽管算法价格歧视不一定减损社会总福利,但是会抑制创新以及产生排挤与剥削效应,而且过度的算法价格歧视会带来排除限制竞争的垄断效果;后者的核心在于平台滥用算法技术对相对人实施的身份歧视,具体包含种族歧视、性别歧视、年龄歧视、地域歧视和职业歧视等。第三,关于平台算法歧视的治理机制研究。算法技术作为人工智能的灵魂,其引发的歧视问题冲击着当前的传统治理体系。平台算法歧视是算法治理的重要问题,它涉及技术、伦理及法律等多个层面。有些学者从法律层面出发,认为算法歧视具有算法偏见与算法不平等两副面孔,需要加强义务维度、价值维度、信任维度以及责任维度的法律规制;有些学者从短视频平台角度为切入点,强调对平台算法歧视采取敏捷治理,超越传统的回应式治理和集中式治理;还有一些学者提出,唯有对平台算法歧视善加综合治理,包括法律治理、伦理治理、科技治理、提升社会公众算法素养,才能为算法及其行业的健康发展创造良好的环境。此外,外交部2022年发布《中国关于加强人工智能伦理治理的立场文件》,积极倡导“以人为本”“智能向善”理念。尽管当前学术界对平台算法歧视做了启迪性研究,但是较少从超级人工智能平台视角切入,而且没有对算法歧视构建系统治理机制。

随着人工智能时代的到来,各类算法技术迅猛发展并深度应用于平台经济。如果平台算法系统高度依赖于具有人类偏见的数据与程序,那么机器学习将进一步强化人类偏见,引发相应的算法偏见与歧视问题。同理,超级人工智能平台作为平台经济的高阶形态,基于数据与算法的优势,将向其他经营者与消费者等实施算法歧视,对社会中的个体或群体造成妨害,带来巨大的外部成本,从而严重妨害正常的市场经济秩序与活动。因此,如何从理论上深入探讨超级人工智能平台算法歧视的基本内涵及技术路径,吸取域外国家治理算法歧视的经验,应用到我国超级人工智能平台场景,从而逐步构建超级人工智能平台算法歧视的系统治理机制,成为当前学术界亟待解决的重点问题。

图片

二、超级人工智能平台算法歧视的理论内涵

算法歧视被称为“看不见的不正义”。随着人工智能技术尤其是生成式人工智能(简称“生成式AI”)技术陆续融入社会经济领域,各种超级人工智能平台算法歧视现象频频发生。学术界逐步探索人工智能算法歧视治理的多种路径,但在探清算法歧视的法律规制路径之前,有必要对超级人工智能平台算法歧视进行概念界定并区分体系化类型,从而更好地厘清其理论内涵。

(一)超级人工智能平台算法歧视的概念界定

超级人工智能平台的技术基础是算法技术。什么是超级人工智能平台?《互联网平台分类分级指南(征求意见稿)》指出,按照用户规模、业务种类、经济体量与限制能力的标准,互联网平台被分为超级、大型与中小型互联网平台。同理,人工智能平台可分为超级、大型与中小型人工智能平台。其中,超级人工智能平台可被界定为兼具超大用户规模(年活跃用户数不得低于5亿人)、超广业务种类(核心业务种类不得低于两类)、超高经济体量(市值或估值不得低于10000亿元)、超强限制能力(超强的限制商户接触消费者的能力)的人工智能平台。在生成式AI的场景下,算法技术更先进,应用场景也更加复杂,超级人工智能平台可以利用其算法、算力与数据资源优势,运行事先设计好的、嵌入平台模型的代码程序,有效提升人工智能平台场景的综合效率。

迄今为止,算法歧视缺乏明确的通用释义,要想准确划清算法歧视的概念范围,需要从算法和歧视两方面入手。美国学者科尔曼在《算法导论》中指出:“算法多应用于数学与计算机科学领域,一般指解决某一特定问题而采取的有限且明确的操作步骤。”倘若将人工智能视为数据输入与数据输出的技术,那么,算法可视为将数据输入值转化为输出值的关键步骤。基于大数据节点的差异性,算法可分为两类:一是模型确定型算法,即把采集的数据用定义和设置好的模型完成数据分析,具有人工可替代性,结果可预测,因为每一个输入值都对应唯一确定的输出值。例如在学生申请奖学金的场景中,学校规定赋分奖项,并颁布评分细则,符合条件的申请者就可以依据细则算出总分,最终学校依据总分情况决定获得奖学金的学生名单。二是模型不确定型算法,即机器自动完成数据生成和模型选择工作。此类算法自主性高,具有学习能力,可以依据事实情况不断优化算法,其输出的结果不具有可预测性。例如在刑事司法的场景下,人工智能平台在积累了海量的再犯数据之后进行自主学习和深度分析,给出再犯风险评估和量刑建议。两种算法的可控性和风险性截然不同,人工智能算法歧视多指模型不确定型算法导致的歧视。学术界将歧视视为平等的对立面,即认为歧视侵犯了平等权。国际上积累了大量涉及歧视与平等权的案例,其中对歧视做了一定的认定与审查:其一,在歧视认定方面,国际人权法院指出认定歧视的关键在于存在差别对待,差别对待导致不良后果,差别对待的理由为法律所禁止;欧洲人权法院认为歧视是指在缺乏客观且合理依据的情况下,对处于相同情况的人给予不同的待遇。其二,在歧视审查方面,美国司法界认为歧视审查的核心是审查差别对待的存在性、理由、适用性及合理性。同理,超级人工智能平台算法歧视可视为超级人工智能平台在处理数据、做出决策或预测时,由于数据偏差、算法缺陷与反馈循环等因素,对某类群体实施歧视行为并造成不公平与不公正的结果。最常见的是针对同一情形,超级人工智能平台因为不同人输出不同的结果,抑或给两个相同或者相似条件的人差别很大的结果。

(二)超级人工智能平台算法歧视类型及具体表现

人工智能技术在商业、社会等领域已经获得广泛实践,进而也引起了法学界对商业与社会领域中“算法歧视”的广泛关注与热烈讨论。我国法学界使用算法歧视统摄人工智能的公正性论题,算法歧视概念框架实际纳入了两类构型相似但性质迥异的歧视,即反垄断语境下的算法价格歧视(消费歧视)与平等权语境下的算法身份歧视。一方面,反垄断语境下的算法价格歧视是算法在人工智能时代“杀熟”“欺生”的突出形态,其本质是经营者滥用人工智能技术,对不同的消费者从价格上实施差别待遇,从而排除、限制市场竞争。例如在电子商务领域,平台算法系统会根据海量的消费数据和浏览记录,对消费者进行差别定价,进而形成价格歧视。另一方面,算法身份歧视源于个人内心的偏见,超级人工智能平台将这种具有偏见的数据与理念嵌入算法程序之中,直接应用于具体场景(人脸识别场景、工作雇佣场景等),呈现出种族歧视、性别歧视、年龄歧视等诸多问题,严重侵犯当事人之间的平等权。总之,在人工智能的场景下,超级人工智能平台在社会经济中具有天然的数据与算法优势,平台上的用户所掌握的信息数量与质量远远落后于平台算法设计者与使用者,导致平台用户时常处于弱势的市场地位,因此成为算法歧视的受害者。

图片

三、超级人工智能平台算法歧视产生的原因

关于超级人工智能平台算法歧视产生的原因,需要从算法技术产生的全流程来分析。一般而言,算法产生的流程大体上可以分为先行阶段、开发阶段和应用阶段三个部分,开发阶段又可以分为输入环节、学习环节和输出环节。无论超级人工智能平台算法技术在先行阶段、开发阶段还是应用阶段,其算法歧视都离不开平台歧视的对象、平台既存偏见与算法决策的归类思维、算法运行的准自动化趋势,即平台算法歧视产生的关键原因在于法律主体、主观及客观因素。

(一)超级人工智能平台对个人与商业机构的算法歧视

超级人工智能平台领先者具备的强大计算能力、数据处理能力以及深度学习算法,使其在多个领域展现出了巨大的潜力和影响力,在平台经济领域形成了垄断性优势,集中体现为以下方面:首先,超级人工智能平台通常拥有先进的算法和计算能力,这使其在处理复杂任务时具有显著的优势。相较于其他传统平台,超级人工智能平台能够持续进行技术创新和优化,巩固其技术领先地位。其次,超级人工智能平台具有得天独厚的数据优势。数据是平台经济发展的核心要素,数据的积累是人工智能平台发展的关键因素之一。超级人工智能平台通过大规模的数据收集和处理,能够不断优化其模型并提高性能。而且,数据的规模和多样性使得这些平台在训练模型时具有更高的效率和准确性。最后,作为平台经济模式的重要组成部分,超级人工智能平台具有典型的平台优势。一方面,如果超级人工智能平台在某个领域取得了突破,它们往往能够迅速占领市场,形成用户黏性和品牌效应,而且这些平台通常具有强大的市场营销和渠道拓展能力,能够进一步巩固其市场地位;另一方面,超级人工智能平台具有网络效应,即用户数量越多,其平台的价值就越大。这种网络效应使得平台能够吸引更多的用户,形成良性循环。用户的参与和贡献进一步丰富了平台的数据和算法,提升了平台的整体性能。

超级人工智能平台可能产生对个人与商业机构的算法歧视。首先,超级人工智能平台对个人的算法歧视集中体现为以下领域:一是就业领域,超级人工智能平台可能会根据个人的姓名、性别、年龄、种族、毕业院校等因素产生歧视。比如,算法在学习过程中发现某一性别在某个职位上的历史任职比例较低,就可能在筛选简历时降低对该性别的评分,导致许多优秀人才因不符合算法设定的“模式”而失去机会。二是金融领域,银行等金融机构的超级人工智能平台在评估客户信用风险时,可能会因客户的居住区域、职业类型等因素产生歧视。居住在经济相对不发达地区的居民,即便有良好的信用记录和还款能力,也可能被判定为信用风险较高,从而难以获得贷款或需承担更高的利率。三是社交媒体和内容推荐领域,平台的算法会根据用户的浏览历史和个人信息进行内容推荐,可能会强化用户已有的观点和偏见,将用户局限在信息“茧房”中,影响用户对世界的全面了解,还可能加剧社会的分裂和对立。其次,超级人工智能平台对商业机构的算法歧视主要包括以下层面:一是市场竞争层面,在为商业机构提供服务时,可能基于机构的规模、所属行业、地域等因素进行差别对待。如大型企业更容易获得平台的推荐和流量支持,而小型初创企业则可能被忽视,即使它们的产品或服务具有创新性和竞争力。二是信用评估层面,在对商业机构进行信用评级或风险评估时,算法可能存在偏见。如果历史数据中某些行业或地区的企业曾出现过较多违约情况,即使当前的企业经营状况良好、信用记录优秀,也可能被算法给予较低的信用评级,导致其在获取融资、合作机会等方面面临困难。三是数据使用和分析层面,超级人工智能平台分析和使用数据时,可能会过度解读或误读某些商业机构的数据。例如,对于新兴行业的企业,由于其业务模式和数据特征与传统行业不同,平台算法可能无法准确理解和评估,从而给出不合理的分析结果和建议。

(二)超级人工智能平台的算法偏见或思维有限性

算法歧视是现实社会中早已存在的种种不平等、歧视与偏见在虚拟社会的缩影,算法本身的不透明性和专业性为算法歧视的监督设置了门槛,“算法黑箱”的存在让社会公众看到的只是结果而非决策过程,在算法应用场合中,很多人在不知情的情况下成为隐形歧视的靶向目标。超级人工智能平台的算法歧视以内置性编码凝视的形态展现,编码凝视是外界的固有偏见被嵌入到代码系统中,成为算法天生所有的偏见。

1. 超级人工智能平台具有内在的算法偏见

用计算机代码或数学逻辑式表达设计理念时,算法研发者可以自主选择数据规范、使用标准、输出形式,其较大的自由选用空间使得歧视嵌入算法成为可能,进而将算法研发者自身主观层面的偏见歧视转化为代码客观固化的歧视,进而侵犯到某些算法用户的合法权益。例如在2016年,“热门话题榜事件”让脸书公司陷入“新闻偏见门”风波,脸书公司对新闻趋势榜有相当大的裁量权,可以通过“注入工具”有目的地引导用户浏览他们认为重要且值得被关注的新闻,甚至把不符合管理者喜好的话题的排序后置。同时,用户的权利让渡让算法研发者可以更容易地嵌入偏见与歧视。例如,用户在使用人工智能产品时不可避免地会输入自己的个人信息数据,以运行算法程序,在此场景下,算法研发者与用户之间地位悬殊,用户只能在既定的规则与框架里选择执行,而算法研发者却能够依据其海量的数据来制定和解释规则。信息的极度不平等不对称造成权力失衡,使得算法研发者和用户之间的交易天然就是不平等的,所以算法研发者就有可能为了实现集团利益,凭借地位优势轻易地改变规则,嵌入歧视与偏见。此外,算法是人类现有规则的数字化表述,势必会受到超级人工智能平台的操控。在算法构建框架时,总是需要用到一些现有领域内的公式,而公式中的目标变量或者指标的选用与赋值都是人为设定的。超级人工智能平台总是会基于过往经验在一定的范围内选用数值,不会真的进行实地考察,因而数据的选用可能与现实生活中的实际情况产生偏差,而这些偏差可能会随着数据的不断累积和算法的不断重复被持续放大。例如,在劳动者就业的场景下,如果超级人工智能平台想利用人工智能算法来设计一个劳动力招聘应用程序,其中涉及大量的公式计算,公式中除了自变量,还会有大量的经验系数,经验系数就需要实地调研获得,但是有些经验系数在众多约束条件下只能得到一个区间,而不是确切的数值,此时就只能人为赋值(如对人力资本赋值),但不论如何取值都可能会与实际情况存在差距,这种误差最终会变成算法瑕疵,甚至是算法歧视,形成算法招聘场景下的性别歧视、年龄歧视、学历歧视、经验歧视等。

2. 超级人工智能平台的思维存在有限性

从主观层面看,尽管超级人工智能平台在研发算法时没有歧视或偏见之意,但无法穷尽所有的可能性,进而会造成算法逻辑过于绝对,最终导致对少数群体的算法歧视。在现实生活当中,人类除了会根据经验做出常规合理的决策之外,还会对一些偶然事件做出反常规的决策,这些反常规决策是人类根据特定情况做出的特有反应,不具有可预测性和规律性,因而难以被算法研发者考虑到,也不可能编写出相应代码。例如,在工作招聘场景下,招聘者经验上认为高学历的应聘者具有更强的工作能力,因此在招聘应用程序上,未达到学历标准的申请者简历就会被算法直接淘汰;而在线下面对面招聘的过程中,申请者可能会因为非凡的口才、极佳的应变能力、独到的见解或者是丰富的经验而破格录用,即使他的学历尚未达到硬性要求。这种人工决策与机器决策之间存在的差距永远都不可能消弭,算法研发者也不能穷尽所有的可能性对其进行分类细化,这就导致算法决策的歧视。此外,超级人工智能平台的数据选取不具有中立性。数据采集是进行超级人工智能平台算法训练之前的重要环节,数据的内容与质量会在很大程度上决定算法样本数据的完善程度,也会对算法的实际运行产生重要的影响。人们普遍认为机器决策相较于人工决策更加客观公正,原因是数据总是客观的、理性的,而人类本身总是主观的、感性的。然而,真实并不等于客观,即数据本身并非天然具有中立性。算法基于采集来的数据进行训练并且做出决策,如果超级人工智能平台收集来的数据就是偶然的、片面的甚至错误的,那么平台算法系统便会做出非代表性的、偏见的或者不精确的决策,而这样的决策通过大数据的传播、加工、共享变得难以矫正,最终导致某些数据主体的利益受损,构成相应的算法歧视:其一,数据样本的选择代表性不足。一些少数群体的数据在最终的图谱显示中会出现数据暗点,这是由于数据分布过于稀疏,体现不出代表性。例如对老年网民这一群体进行数据采集,截至2020年末,我国60岁及以上的老年人口数已达2.67亿,但同期老年网民人数仅为1.19亿。这意味着约1.48亿老年人没有在互联网上留下有效数据,这可能会对最终的数据选用及分析造成较大困扰。而现实生活中,每一个算法涉及的细分领域都会面对各种各样的“少数群体”,少数群体之间各有不同,但总体的数据样本数量又过少,无法形成群体规律性。面对此种多元、复杂的数据来源,基于运行成本最小化原则,算法会将这些特征不明显、数量过少的数据视为错误数据而选择剔除或者将这些离散的、零星的、毫无规律的数据归入类似的数据群当中。这种“技术逃避”会导致算法直接忽略掉少数群体,无法形成多样化的统计样本,最终这些数据无法对决策结果产生实际的影响,少数群体的利益无法得到保障。对于多数样本群,资源和算法将不断向样本数量足够多的数据群聚拢,从而形成强者愈强、弱者愈弱的“马太效应”。其二,数据样本质量可能存在问题。由于算法需要依靠数据的输入训练不断优化,所以数据的质量是算法性能高低、公平与否的重要保障。然而,由于数据的渠道来源比较广泛,无法有效地核实和筛选,导致数据的质量参差不齐。超级人工智能平台收集的数据集合当中会有遗漏、疏忽、造假、重复、失效的“脏数据”来污染整个数据样本,最终导致平台算法系统出现重大误解并因此造成算法歧视的后果。

(三) 超级人工智能平台的数据与算法因素衍生歧视性

从客观方面看,整个社会的价值体系会对算法歧视造成影响。算法并不是绝对公平与中立的数学运算或是科学活动,恰恰相反,算法的构建与社会背景、价值判断密不可分。算法总是蕴含着特定的社会伦理与价值立场,算法由人创造产生,体现人的思想意志,个体不可避免地受到群体观念的裹挟,无意识中产生算法歧视。总之,数据是算法运行的原料,两者是超级人工智能平台在市场竞争中成败的核心要素,同样也是超级人工智能平台算法歧视的客观因素。

首先,数据是超级人工智能平台创新发展的核心要素,倘若数据出现偏差、陈旧以及不完整,那么超级人工智能平台可能因为数据“误差”而导致算法歧视。(1)数据偏差:用于训练算法的数据可能存在偏差。如果数据集中某些群体的样本量过多或过少,算法可能会过度拟合或忽略某些特征,从而导致对不同群体的不公平对待。例如,在人脸识别算法中,如果训练数据中白人的样本占比过高,而其他种族的样本较少,那么算法在识别其他种族时可能会出现较高的错误率,这就形成了对此类种族的歧视。(2)数据陈旧:数据更新不及时也可能导致算法歧视。随着社会的发展,一些群体的特征和行为发生变化,如果数据没有及时更新,算法可能仍然依据过时的信息进行判断。比如,就业市场中某些新兴职业的出现,如果数据中没有及时反映这些职业的相关信息,算法在评估从事这些新兴职业的个人时,可能会给出不合理的评价。(3)数据不完整:数据缺失部分关键信息,同样引发超级人工智能平台的算法歧视。例如在信用评估数据中,如果缺乏某些地区或群体的完整经济状况信息,超级人工智能平台的算法程序在评估该地区或群体的信用风险时,可能会基于不完整的数据做出不准确的判断,导致对这部分人群或商业机构的歧视。

其次,超级人工智能平台的机器学习、深度学习等算法模型包含大量的参数和复杂的神经网络结构,具有高度的复杂性、缺陷性与局限性等。(1)算法技术的复杂性和不可解释性:算法技术具有不确定性和不可控制性,甚至连算法研发人员对输出结果也无法预测或控制。超级人工智能平台的算法模型极其复杂,非专业人员几乎不可能在短时间内了解算法的设计结构,对于其风险,更是难以发现与规避。这可能导致即使算法出现了歧视性的结果,也很难确切知道是哪些因素导致了这种歧视,以及如何去纠正。(2)算法技术的固有缺陷,容易导致算法歧视。比如,“算法黑箱”的出现阻隔了算法研发者对其的掌控。传统的机器学习是模式化的,通过特征值的提取推理得出最终的结果,其始终没有逃脱人类的思维,但是深度学习是通过剖析事物的原始特性进行总结归纳之后得出结果,类似于人类认知事物的过程,存在着我们无法洞悉的隐层,即“算法黑箱”。“算法黑箱”的自我解释性差,人类无从观察其做出决策的过程与逻辑,算法的运行过程由此变得神秘且模糊,进而在人类无法控制的“黑箱”当中将并无本质联系的数据构建起关联,带来隐形歧视。超级人工智能平台不会精通每一个领域,在开发某一个细分领域产品算法的时候,超级人工智能平台会在短时间内了解到这个行业普遍运行的规则和秩序,将其转化为代码,可能难以洞察或者深究其背后支撑它的价值规范。在这样的算法场景下,超级人工智能平台无法用代码详细精确地刻画出这个领域所有的规则,一些本身带有价值判断甚至歧视偏见的规则被研发者无意识地、不加审查地嵌入到了算法当中,最终导致算法歧视。(3)算法技术优化目标的局限性:算法通常是为了优化某个特定的目标而设计的,如提高预测准确率、降低成本等。然而,在追求这些目标的过程中,算法可能会忽视对公平性的考量。例如在招聘算法中,超级人工智能平台的算法程序可能过于关注筛选出符合传统标准的候选人,而忽略了对不同性别、种族等群体的公平。此外,算法在经过源代码构建、数据采集等准备阶段之后,就能够形成一个初步模型,通过训练数据和测试数据进行学习环节,而在机器学习环节当中又会衍生出大量的算法歧视:一方面,算法将关联关系与因果关系混为一谈。人工智能可以凭借其强大的算力分析数据,但又会陷入概率关联的困境,即只做分类归纳,忽视推导演绎的分析,因而平台算法系统能够分析出关联性但是无法证明因果关系。这种行为缺乏正当性,势必会对整个社会造成系统性的伤害。另一方面,算法可以通过数据挖掘自我学会歧视。卡利斯坎等使用内隐关联测试量化人类偏见时发现,在利用网络上常见的人类语言进行训练时,机器学习从文本语料库中自动推导的语义中包含了类似人类的偏见。科学家们忧虑的是如果机器学习一直在复制人们的偏见,然后反馈给人类,那么这样的反馈循环将会固化这些偏见,对伦理道德的尊重将会变得更加困难。

图片

四、超级人工智能平台算法歧视的系统治理机制

在人工智能时代为应对传统“政府中心规制”模式可能导致的法律规制失灵,对于超级人工智能平台算法歧视行为,我国需秉持“预防式”和“回应式”的治理理念,从单元化的法律规制走向多元化的系统治理,全面构建“公权力规制、私权利自治、社会力量监督”的系统治理机制。

(一)公权力规制:加强算法立法与审查监管

从国际立法实践来看,对算法的治理主要可以分为以算法问责为核心的公法治理路径和以数据保护为核心的私法治理路径。前者的主要代表国家是美国,后者的主要代表国家在欧洲地区。

在算法立法方面,美国的力度是最大的。美国的算法歧视规制路径重点在于对结果的审查,一旦发现有群体遭受不公,将会对有关主体进行问责。2014年美国首次将目光投向了算法歧视领域,发布了《大数据:抓住机遇,坚守价值》,2017年第一部有关算法歧视的法案《关于算法透明性与可问责性的声明》面世。美国不断完善对算法歧视方面的监管与规制,发布了一系列法规、条例与报告,包括《政府部门自动决策系统法案》(2017年)、《算法责任法案》(2019年)与《算法责任法案2.0》(2022年)。具言之,美国在平台算法歧视方面采取了公权力规制。作为一种公权力行使系统,人工智能的不当行使不仅可能导致私法责任,更可能导致公法责任,因此,美国构建了对超级人工智能平台的事前、事中、事后的全流程监管机制,包含立法规制、行政监管和司法审查。《算法责任法案》对“算法黑箱”、敏感数据等造成算法歧视的因素都做了相关规定,同时设置了高额的违规惩罚。与美国不同,欧洲国家选择以数据保护为中心,采取私法路径规制平台算法。最早关于个人数据保护的法律可追溯至1953年的《欧洲人权公约》,其第8条规定每个人都有使自己的私人和家庭生活、家庭和通信得到尊重的权利。欧盟法院在2014年司法实践中确立了被遗忘权。大数据时代的到来需要进一步扩大传统隐私权对个人数据保护的范围。2016年4月,第一部明文回应和规制算法歧视的立法——欧盟《通用数据保护条例》(简称GDPR)问世。GDPR的正文部分规定了对算法歧视的具体规制措施:基于数据清洁原则从源头上禁止数据决策过程建立在特殊类别人群的敏感数据之上,GDPR做到了真正保护数据主体的权利、自由和合法权益。但是,如果算法决策对数据主体产生重大影响,那么公权力主体需要适当介入。

当下人类社会仍然处于弱人工智能时代,因此难以建立完善的人工智能平台算法的法律规范,同时,算法的应用场景广泛,需要结合具体场域制定算法的规制路径。第一,我国从中央与地方层面强化了算法立法,促进平台算法系统的反歧视。一方面,国家制定相关法律,如个人信息保护法、数据安全法和电子商务法等,对算法歧视问题予以规制,在数据和算法的基本原则层面,强调平台算法歧视的法律治理。另一方面,各地区不断进行算法治理的改革试点,2021年《深圳经济特区数据条例》明确规定,禁止应用程序不全面授权就不允许使用及强制推荐广告等内容,给予平台用户更多的选择权,避免其囿于霸王条款,重视主体平等与意思自治;2022年《上海市促进人工智能产业发展条例》禁止相关主体开展人工智能研发和应用时提供因民族、种族、性别、年龄、职业和宗教信仰等因素歧视用户的产品和服务,禁止实施价格歧视或消费欺诈等行为。第二,在算法审查监管层面,我国可以对超级人工智能平台建立健全监管体系:一是设立专门监管机构,即通过构建独立的算法监管机构,配备专业的技术、法律、伦理等人才,负责对超级人工智能平台算法开展监管,确保平台算法设计、运行符合法律法规和道德标准。二是加强协同监管,即建立多部门协同监管机制,加强网信、工信、市场监管等部门间的沟通与协作,实现信息共享、联合执法,形成监管合力,避免出现监管空白或重叠。三是完善算法审查监管的配套制度,包括强化第三方评估与实施平台算法登记制度,前者通过引入专业的第三方评估机构,对平台算法的安全性、公平性、透明性等进行独立评估,评估结果作为监管决策的重要依据,提高监管的科学性和客观性;后者通过对平台实施算法登记制度,明确行政管理部门的管理职责与责任分配,以保证其审查、追踪、监督、问责等权力。超级人工智能平台算法登记备案有利于后期追责,同时,行政机关也要设立一定期限的算法排他权,以防止商业秘密的泄露损害平台企业的权益。

(二)私权利自治:提升技术创新与算法伦理

第一,超级人工智能平台应逐步提升技术创新,从技术上治理算法歧视。算法歧视是新兴技术风险代表,超级人工智能平台应更加关注算法歧视的问题,并且通过推进算法优化、模型完善等技术创新治理算法。目前国际上也涌现出了越来越多的预防算法风险的新技术,例如,谷歌研发的可以改进机器学习系统的“阈值分类器”,脸书公司发布的可以警告歧视判断的公平流动,这些新技术可以很好地审查出算法歧视的产生,并作出相应的调整,对风险做出及时有效的预判。我国超级人工智能平台需要不断加强自身的技术创新,以治理算法可能带来的歧视问题:(1)公平算法设计:研究和采用公平的算法设计方法,如公平感知的机器学习算法,通过在算法中引入公平性约束条件,使算法在决策过程中能够平等对待不同群体。(2)研发可解释性技术:积极应用和研发可解释性技术,如局部可解释的模型无关解释、深度泰勒分解等,使算法的决策过程和依据能够被人类理解,便于及时发现和纠正潜在的歧视问题。此外,超级人工智能平台可以尝试备受推崇的人工智能审计,结合自身平台的具体情况,通过使用机器学习本身系统性地检查原始的集群学习模型,以识别模型和训练数据中的偏见。

第二,超级人工智能平台在行业自律层面,应当将算法伦理嵌入算法应用。有必要搭建算法伦理准则的框架,加强算法研发人员的伦理规范,通过算法伦理规范来治理超级人工智能平台的算法歧视。当前国际上对于人工智能算法伦理的规定沿用了传统的生物伦理原则,分为五个维度:一是行善原则,包括增进人类福祉、社会利益、共同利益;二是不伤害原则,包括隐私、安全与正直;三是自治原则,包括自主、选择权及知情同意;四是正义原则,包括公平与不歧视;五是算法可解释原则,包括问责与透明。其中,前四项原则属于传统生物伦理原则,最后一项是人工智能的赋能原则。各国制定了法律条例对其进行具体化。欧盟发布了《可信赖人工智能的伦理准则》《通用数据保护条例》《数据战略》等相关法案,为人工智能的推行奠定了基础;中国发布了一系列文件建立本土化AI伦理规范,在保障技术稳健性、安全性和透明性的基础上,确保AI的可信可控。(1)在超级人工智能平台场景下,中国需要有条件地借鉴国际网络巨头对算法伦理自治的经验。例如,2016 年,微软提出了AI研发的六项核心设计原则,强调AI的算法透明、防范算法歧视、个人隐私保护、算法问责等内容。超级人工智能平台将算法伦理嵌入应用当中,形成算法行业自律,可以更好地治理平台算法系统在先行、开发与应用阶段出现的算法歧视问题。(2)加强算法从业人员的伦理规范。算法从业人员是算法的开发者,加强其伦理规范有利于从源头上遏制算法歧视问题的发生。一方面,参照国际人工智能伦理准则,从我国本土化算法伦理实际出发,明确算法从业人员的算法伦理要求,即制定针对超级人工智能平台算法从业人员的伦理准则,明确其在算法设计、开发、部署和维护过程中的伦理责任和义务。通常而言,这些算法伦理准则应涵盖算法公平性、透明度、可解释性、隐私保护等方面的要求,从而有效防范与制止算法歧视问题。另一方面,加强教育培训,普及算法伦理知识。无论是在高等教育阶段,还是职业培训阶段,都应当对算法从业人员加强算法伦理的教育和培训,使其具备基本的算法伦理素养和意识;通过案例分析与模拟演练等方式,让算法从业人员充分了解超级人工智能平台算法歧视和滥用的危害,使其具备算法公平正义的道德伦理价值感,并有效掌握防范平台算法歧视的应对策略和方法。

(三)社会力量监督:强化社会监督促进算法公正

超级人工智能平台算法歧视是在人工智能自动化决策中,利用数据与算法系统分析导致的对特定群体的不公正对待,这些不特定群体必然包括大多数的社会公众。超级人工智能平台算法歧视的社会力量监督是确保平台算法公平性和透明度的重要环节,为防范平台算法歧视与促进算法公正,我国有必要加强社会力量监督。

首先,提升社会公众的算法教育水平与意识。可以通过新闻媒体、教育机构等渠道普及人工智能和算法歧视的相关知识,提高公众的认知水平和参与度,逐步增强社会公众对超级人工智能平台算法歧视的敏感性,鼓励其在社会经济中关注并报告算法歧视问题,从社会力量上防范反垄断法下非平等权的算法价格歧视与民商法下平等权的算法身份歧视,促进平台算法公正。

其次,逐步构建用户群体的算法反馈机制。可以要求超级人工智能平台构建有效的用户反馈机制,允许用户群体在平台算法使用中报告遇到的算法歧视问题。超级人工智能平台对用户群体反馈的算法歧视问题,应当及时响应和处理,确保算法歧视问题得以妥善解决,从而尽快促进平台算法公正。

最后,在社会公众对平台算法技术具体使用过程中,平台算法技术作为算法使用者的“受动体”,通过对算法使用者道德行动与伦理实践的调节,将算法伦理潜能变为现实;算法使用者作为平台算法技术的“能动体”,通过平台算法技术应用与反馈,实现平台算法技术作为道德能动体的潜能。两者相辅相成、相互作用,共同防范与制止平台算法歧视。除了遵循平台算法的道德意向性“脚本”,实现预先嵌入的伦理价值之外,算法使用者应发挥自身的道德能动性,实现平台算法技术的“善用”。具言之,在超级人工智能平台算法的使用阶段,算法使用者具有主导地位,通过对他者、世界、平台算法以及自身责任的厘清与辨识,有效确认自身伦理道德“能动体”的地位,为算法伦理潜能的实现做好支撑。

图片

结语

目前人类社会正处于弱人工智能向强人工智能甚至超级人工智能快步迈进的时代,为最大可能地降低平台算法歧视的安全风险,需要在探清算法歧视的基础上,对其进行多方面的治理。各国对算法歧视的治理仍然处于摸索阶段,都在进行着不成熟的尝试。对于平台算法歧视的治理,都在回答“人如何控制机器”以及“机器如何服务人类”问题。

对于超级人工智能平台算法歧视产生的原因及其问题,我国需要从法律主体、主观方面、客观方面分析平台算法歧视的产生原因,从单元化的法律规制走向多元化的系统治理,全面构建超级人工智能平台算法歧视的系统治理机制:在公权力规制层面,加强算法立法与审查监管;在私权利自治层面,提升技术创新与算法伦理;在社会力量监督层面,强化社会监督促进算法公正。总之,在超级人工智能平台场景下,实现对平台算法歧视的系统治理既是数字法治建设的客观要求,也是夯实中国特色社会主义法治的应有之义。

(责任编辑:焱 垚)


来源| 法治社会期刊

广东省法学会

www.gdfxh.org.cn

长按二维码,即可关注

【声明】内容源于网络
0
0
品牌出海Paul
跨境分享屋 | 每日分享跨境精华
内容 43136
粉丝 1
品牌出海Paul 跨境分享屋 | 每日分享跨境精华
总阅读267.4k
粉丝1
内容43.1k