
作者:范维光、古骊翔
当前人工智能成为国际竞争的新焦点,各国纷纷出台文件支持,促进人工智能的发展,为了确保人工智能对经济和社会产生积极影响,同时限制其消极影响,人工智能伦理道德由此成为各国人工智能政策的核心内容之一。
1.欧美等发达国家
1)《欧盟机器人民事法律规则》
早在2015年1月,欧盟议会法律事务委员会(JURI)就决定成立一个工作小组,专门研究与机器人和人工智能发展相关的法律问题。2016年5月,法律事务委员会发布《就机器人民事法律规则向欧盟委员会提出立法建议的报告草案》;同年10月,正式发布《欧盟机器人民事法律规则》。此后,欧盟委员会将“人工智能和机器人的伦理标准等”纳入2018年欧盟立法工作的重点,要在人工智能和机器人领域呼吁高水平的数据保护、数字权利和道德标准,并成立了人工智能工作小组,就人工智能的发展和技术引发的道德问题制定指导方针。在此背景下,2018年3月,欧洲科学与新技术伦理组织发布《关于人工智能、机器人及“自主”系统的声明》,呼吁为人工智能、机器人和“自主”系统的设计、生产、使用和治理制定共同的、国际公认的道德和法律框架。
2)《可信赖的人工智能道德准则草案》
2018年12月18日,欧盟委员会公布了《可信赖的人工智能道德准则草案》(以下简称《准则草案》)。该《准则草案》构建了“可信赖人工智能”框架,为部署、开发和使用人工智能的企业、政府、研究机构、社会组织和个人提供了如何实现符合人类道德准则的“可信赖人工智能”的指南,并将建立一种机制,使以上各方在自愿的基础上正式认可该准则。欧盟委员会将编制人工智能道德准则作为2018年的工作重点,组建了人工智能高级专家小组负责准则的制定工作,专家小组由52名来自于Google、IBM、贝尔实验室、SAP、博世等领军企业,以及牛津大学、伯明翰大学等知名高校和若干社会组织的权威专家组成。
《准则草案》提出了实现“可信赖人工智能”的两个不可或缺的核心要素。
要素一:道德目的,AI的开发、部署和使用应以人为中心,尊重人类的尊严、平等和自由等基本权利,并遵守以下五个核心原则和相关价值观:
一是对公民和社会有益。AI应以增进个人和组织的福祉为宗旨。
二是不伤害人类。包括不能对公民产生生理和精神上的伤害,避免造成经济损失和不良社会影响,例如,避免算法或数据带来的偏见和歧视。
三是保证人类自主权。即人们应具有充分的自主决策权利,包括有权利选择是否接受AI提供的服务,以及有权利随时退出与AI的交互等。
四是AI的开发、使用和管理必须公平。例如,不同的群体应具有同等机会去享受AI产品和服务,AI对弱势群体应给予公正对待等。
五是可解释性原则。AI的技术开发和决策原理都应具有一定透明度,这是确保公民对AI产生信任的关键,个人和组织可要求开发者提供AI用于预测或决策时输入的参数和指令,以了解AI决策依据。
要素二:技术可靠,在拥有良好“道德目的”的同时,AI还应在技术方面稳健可靠,因为缺乏技术上的掌控也会造成无意的伤害。此外,AI应始终符合并遵守“道德目的”,这意味着“道德目的”中包含的每条需求细则的贯彻和实施,应贯穿于AI的全寿命周期,包括分析、设计、开发和使用等各个环节。可通过同时使用测试和验证等技术类方法,以及标准和规范等非技术类方法来实现这些需求细则,这些非技术类方法同样应是可靠的。
3)《通用数据保护条例》(GDPR)
GDPR是英文“General DataProtection Regulation”的缩写,通常翻译为“通用数据保护条例”。它由欧盟推出,目的在于遏制个人信息被滥用,保护个人隐私。
GDPR早在2016年4月就已经推出,但欧盟给了各大企业两年的缓冲时间,正式生效日期为2018年5月25日。目前欧盟有28个成员国,大约有5亿多人可以直接得到GDPR的保护。根据GDPR的规定,企业在收集、存储、使用个人信息上要取得用户的同意,用户对自己的个人数据有绝对的掌控权。
除了明确用户在个人信息上的安全,GDPR对企业在处理个人数据方面也做出了非常细致的规定。首先,企业在收集处理用户信息时需要事先征得同意,而且隐私条款需要以清晰、简洁、直白的语言或其他形式向用户说明。其次,GDPR对企业违法行为的惩处力度非常大,行为轻微的要罚款1000万欧元或全年营收的2%(两者取孰高值),行为严重的则要罚款2000万欧元或全年营收的4%(两者取孰高值)。
鉴于GDPR的条款非常细致和严苛,对一些中小企业来说,巨额罚款无异于灭顶之灾,即使是Amazon这样的科技巨头,营收的4%基本已经超过了净利润。此外,按照GDPR的规定,出现个人数据泄露后,企业要在72小时内向监管部门报告,企业还要配备熟悉GDPR条款的数据保护专员,和监管部门保持沟通。这项规定出台的直接原因应该是此前的Amazon、Facebook隐私泄露事件。
总体而言,GDPR是欧盟给企业打造的一顶严厉的紧箍咒,在保护个人信息安全方面,企业将会面对空前的压力。
2019年8月,瑞典数据监管机构(The SwedishData Inspection Authority,下称“DPA”)对当地一所高中开出第一张基于欧盟《通用数据保护条例》(GDPR)的罚单,金额为20万瑞典克朗(约合人民币14.8万元)。
据悉,该校使用人脸识别系统记录学生的出勤率,而瑞典DPA通过对系统试运行期间涉及的22名学生进行调查,最终认定学校董事会对学生个人信息的处理不符合GDPR的规定。瑞典DPA认为,在日常环境中对学生进行摄像监控等行为侵犯了学生的隐私。因为学校统计学生出勤率完全可以通过其他方式完成,而这些方式都比人脸识别技术对学生权益的侵害要小得多。
4)《2018加州消费者隐私法案》
美国加利福尼亚州(以下简称“加州”)议会于2018年7月通过了《2018加州消费者隐私法案》,由州长签署后正式成为一项保护消费者的新法。有媒体称,这是美国迄今“最严厉、最全面”的个人数据隐私保护法案。
该法案主要涉及两个方面,一是规定消费者对企业收集和管理其个人信息拥有更多控制权;二是对企业收集处理数据的方式划定了红线。法案规定,对于那些拥有5万名以上消费者信息的企业,消费者有权要求该企业披露其收集的信息类别和具体内容,包括企业收集哪些个人数据、收集目的、哪些第三方可获得使用这些数据等。消费者还有权要求企业删除所收集的个人信息。
对企业而言,法案规定企业要尊重消费者选择不出售个人数据的权利,不得通过拒绝给消费者提供商品或服务,或者通过对商品、服务收取不同的价格或者费率的方式,歧视消费者行使此项权利。此外,禁止企业在未经本人授权情况下出售16岁以下未成年人的个人资料,而对于未满13周岁的儿童,则需要获得其父母的许可。企业需要根据消费者要求,披露收集了哪些信息和删除了哪些相关数据等。若违反法案,企业将面临最高7500美元的民事处罚,以及向每位消费者支付最高750美元的赔偿金。
该法案引起了美国社会各界的关注。支持者认为这是历史性的一步,加州众议员周本立表示,美国许多企业的客户数据库出现严重信息泄露事件,引起全世界网民的重视和担忧。加州此次推出的新法在保护个人隐私方面迈出了历史性一步。加州参议员鲍勃·赫茨伯格称,该法案“不仅是加州,也是全美国人民迈出的一大步,将会在全国产生示范效应”。
当然,也不乏针对法案的反对声音。Google高级副总裁斯里达尔·拉马斯瓦米表示,法案的一些条款令人“难以理解”,企业需要考虑周全才能在用户隐私与合法商业需求之间保持平衡。代表Facebook、Amazon等大型互联网企业的公共政策游说团体“互联网联盟”以及加州商会、全国零售商联合会、全国广告商协会等机构纷纷亮出旗帜,明确表示反对。
加州是美国经济实力最强的州之一,拥有科技企业汇聚的硅谷,因此保护用户数据法案的通过具有较大示范效应。这部新法预计会于2020年1月1日开始实施。
2.中国
我国已经将人工智能伦理提上日程。2017年发布的《新一代人工智能发展规划》提出了中国的人工智能战略,制定促进人工智能发展的法律法规和伦理规范作为重要的保证措施被提了出来。在该文件中,伦理一词出现15次之多,足见我国对人工智能伦理的高度重视。
在个人信息保护上,我国目前已经积极开展了三个方面的工作:在立法方面,我国已经从不同层面制定出台了加强个人信息保护的法律法规;在标准支撑方面,在中央网信办指导下,全国信息安全标准化委员会将个人信息保护标准作为研究制定的重点,推动制定了各类标准;在专项治理方面,中央网信办、工业和信息化部、公安部、市场监管总局四部门联合开展了App违法违规收集使用个人信息专项治理行动,向其中100多家问题比较严重的App运营者发送了整改通知,督促其整改。
值得特别关注的是,《个人信息保护法》已经于近期纳入十三届全国人大常委会的立法规划。
1)全国人大讨论个人数据隐私保护
在十三届全国人大二次会议上,多位人大代表都表达了对个人数据的隐私保护担忧。
全国人大代表翁国星在提交的议案中表示,虽然大数据给整个社会及个人带来了难以估量的利益,但造成的个人信息泄露及隐私保护方面的危害已严重损害了信息所有者的合法权益,政府应加大大数据环境下个人隐私的保护。翁国星提出6条建议:一是完善相关法律法规。二是提高政府管理机构掌控能力。企业信息平台建设引入政府授权和数据追溯机制,通过技术性规制提升政府对社会的掌控能力。三是提升道德自律与监督。四是加强隐私权的技术保护。五是提高民众自我保护意识,发挥互联网+的监督作用。六是调整好发展与保护的平衡。技术发展导致企业收集、使用、披露的信息量呈现出爆炸式的增长,这反过来又推动了技术创新,产生重大的社会效益。政府必须下大力关注如何在发展与保护之间调整好平衡。
全国人大代表刘庆峰表示,在大数据时代,保障公民隐私不能靠相关部门拍脑袋,而要立法来保驾护航。大数据可以帮助政府维护公共安全,甚至在反恐中发挥巨大作用,但是不能因为要安全,就把用户隐私完全不顾,应该制定保护措施,来维护大数据时代的个人隐私。我国的宪法和一些法律法规中,也包括保护隐私的内容,但这些内容是支离破碎的,不够系统。刘庆峰建议参照美国,制定专门的个人隐私法案。
2)《儿童个人信息网络保护规定》
2019年8月23日,中央网信办正式发布《儿童个人信息网络保护规定》,明确任何组织和个人不得制作、发布、传播侵害儿童个人信息安全的信息,网络运营者收集、使用、转移、披露儿童个人信息的,应征得儿童监护人的同意等。据悉,这是我国第一部专门针对儿童个人信息网络保护的立法。规定将于2019年10月1日起施行。
此次《规定》中,“同意规则”和“最小原则”是两大亮点。根据“同意规则”,将儿童监护人明确同意作为基本前提,为儿童个人信息保护增添了一道坚固“安全锁”。根据“最小原则”,严格限定运营商的“帝王”权力,“不得收集与其提供的服务无关的儿童个人信息”、“不得超过实现其收集、使用目的所必需的期限”、“工作人员授权最小化”,体现了限制权力、增加权利的立法宗旨。
不仅如此,《规定》的另一大亮点,在于推行儿童个人信息的全生命周期网络保护。《规定》的内容,涵盖收集、存储、使用、转移、披露、删除等各个环节。儿童个人信息安全评估制度,堵住了“委托第三方处理儿童个人信息、向第三方转移儿童个人信息”的漏洞;儿童个人信息删除制度,明确5种情形下须删除儿童个人信息,以避免相关信息为不法分子所侵占。
3)《新一代人工智能治理原则——发展负责任的人工智能》
2019年3月,我国科技部成立了新一代人工智能治理专业委员会,其工作重点主要包括:建立组织架构和工作范式,明确工作定位和工作机制;全面开展人工智能治理方面政策体系、法律法规和伦理规范研究;坚持问题导向,突出重点,对标国际关切,特别是在数据垄断、算法歧视、智能滥用、深度造假、数据下毒、隐私保护、伦理道德、不平等智能操作及对社会结构影响等重点领域加强监测与研判;加强与地方、高校、企业相关人工智能平台的联系,形成人工智能治理工作网络。进一步扩大国际交流与合作,积极参与全球人工智能治理问题的研究,增强国际共识。
2019年6月17日,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出了人工智能治理的框架和行动指南。治理原则旨在更好协调人工智能发展与治理的关系,确保人工智能安全可控可靠,推动经济、社会及生态可持续发展,共建人类命运共同体。治理原则突出了发展负责任的人工智能这一主题,强调了和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理等八条原则。
其中,安全可控是指人工智能系统应不断提升透明性、可解释性、可靠性、可控性,逐步实现可审核、可监督、可追溯、可信赖。高度关注人工智能系统的安全,提高人工智能鲁棒性及抗干扰性,形成人工智能安全评估和管控能力。
而开放协作方面,鼓励跨学科、跨领域、跨地区、跨国界的交流合作,推动国际组织、政府部门、科研机构、教育机构、企业、社会组织、公众在人工智能发展与治理中的协调互动。开展国际对话与合作,在充分尊重各国人工智能治理原则和实践的前提下,推动形成具有广泛共识的国际人工智能治理框架和标准规范。
4)《App违法违规收集使用个人信息行为认定方法(征求意见稿)》
2019年5月,在中央网信办、工信部、公安部、市场监管总局指导下,App专项治理工作组起草了《App违法违规收集使用个人信息行为认定方法(征求意见稿)》并向公众征求意见,该意见稿中对App违法违规收集使用个人信息行为认定方法给出了7大类情形及具体情况:没有公开收集使用规则的情形;没有明示收集使用个人信息的目的、方式和范围的情形;未经同意收集使用个人信息的情形;违反必要性原则,收集与其提供的服务无关的个人信息的情形;未经同意向他人提供个人信息的情形;未按法律规定提供删除或更正个人信息功能的情形;侵犯未成年人在网络空间合法权益的情形。
随着人工智能发展的突飞猛进,社会各界人士对人工智能治理也秉持着不同的看法,看法大体上可以分为以下三大类。
1.人工智能使社会更美好的观点
不少人工智能行业的一线研究人员认为,人工智能的发展还远未到威胁人类的时刻,现在发展人工智能可以改善人类生活。
1)马克•扎克伯格(Facebook创始人)
Facebook创始人马克•扎克伯格始终认为,人工智能会为人类带来美好而非毁灭,并努力向世界证明这一点。
扎克伯格曾在一场Facebook Live中,公开批评马斯克所持的有关人工智能给我们的安全和幸福带来威胁的观点。他表示:“我坚持自己的观点,并对AI的未来感到十分乐观。那些反对者以及鼓吹末日场景的人,可能并非真的了解AI。这是非常消极的看法,是相当不负责任的。”扎克伯格还补充说:“在未来的5到10年里,AI将给我们的生活质量带来巨大改善。例如,AI已经开始帮助诊断疾病。”他还指出,无人驾驶汽车也是AI改善我们生活的一种方式。车祸依然是导致人们死亡的重要原因之一,如果你能用AI消除这些危险,那将是一个巨大的进步。无人驾驶技术正是特斯拉的卖点之一,且近期有关特斯拉无人驾驶系统引发车祸的报道屡有发生。扎克伯格最后表示:“每当我听到有人说AI会在未来伤害人们时,我是部分认同的。要知道,技术总是有利有弊的。你在开发它时需要小心,要知道你开发的是什么,如何使用它,但是对于主张放慢AI技术开发的人,我才真的认为他们的想法值得怀疑。”
2)Yann LeCun(深度学习奠基人之一,Facebook AI研究中心首席科学家)
Facebook人工智能研究中心首席科学家Yann LeCun是国际上深度学习领域最知名的专家之一,他认为,目前科学家及产业人员不遗余力的开发人工智能,是致力于让人类变得更好。人工智能是对人类智能的扩充。人类的进步离不开科技的发展,火、弓箭、农业的出现,并没有让人类衰败,反而让人类社会更加高效。人工智能不会取代人类工作,但会改变工作。最终而言,人工智能会让每个工作都更高效,但需要人类创造力、交互能力、情感智能的工作很长时间内都不会消失,科学、工程、艺术、手工制作等创造性工作还将继续保留。
3)周志华(南京大学教授,最具国际影响力的华人AI学者之一)
周志华教授主要从事人工智能、机器学习、数据挖掘领域的研究工作, 现任南京大学计算机软件新技术国家重点实验室常务副主任,他是入选人工智能相关的五大主流国际学会(ACM、AAAI、IEEE、AAAS、IAPR)Fellow的首位华人学者, 同时也是担任人工智能领域两大综合性顶级国际会议(IJCAI、AAAI)主席的首位华人学者, 在国际人工智能领域有重要影响力。
周志华教授认为,作为严肃科学的“人工智能”和影视科幻中的“人工智能”是两回事。举例来说“飞机有没有比鸟飞得更好”这个问题可能很难回答, 飞机虽然比鸟飞得更高更远, 但是可能没有鸟飞得灵活。人工智能也类似, 是人类为了更便捷的生活所造出更好用的工具, 仅此而已。事实上, 现实生活中人工智能技术早已无处不在, 无论手机语音交互、安全门禁系统还是实时交通调度等, 后面都是人工智能技术在做关键支撑。人工智能技术在很多方面能胜过人类, 这已经不是新鲜事,严肃的人工智能研究从来没想过要“威胁人”、“取代人”。这是一门科学, 做出来的东西都有理论上下限, 使用了什么技术, 能达到什么能力, 都是可控的。就像人们造出来飞机, 一定知道再怎么发展它也不会像真鸟一样能生蛋。
2.人工智能威胁论
近年来,一些悲观的媒体与专家开始担忧人工智能的高速发展将会对人类自身的生存产生威胁。持有这种观点的人士不在少数,其中较知名的有埃隆·马斯克、斯蒂芬·霍金等。
1)埃隆·马斯克(特斯拉创始人,硅谷“钢铁侠”)
硅谷“钢铁侠”埃隆·马斯克(Elon Musk)向来以满脑子的未来创意出名,他也一直对人工智能的发展持警惕的态度,他曾在接受采访时表达过这一观点:“人类面临的威胁并非来自杀手机器人,而是更加强大、更加集中化的人工智能。人工智能的关键在于,它们并不是机器人,而是一种计算机算法。机器人只是一堆传感器元件,而人工智能则构成了强大的网络。如果只是算法失控,人类和人工智能便可以携手加以控制。但一旦集中化的大型人工智能系统决意攻占世界,我们就无力阻止了。”
要求人类保持警惕的同时,马斯克又是人工智能技术的推动者,他本人是许多人工智能公司的投资人。例如,他参与投资了OpenAI和DeepMind。他本人曾表示,投资 DeepMind公司便是阻止人工智能扩张的途径之一。
2)斯蒂芬·霍金(著名物理学家,“宇宙之王”)
斯蒂芬·霍金是继牛顿和爱因斯坦之后最杰出的物理学家之一,被世人誉为“宇宙之王”。霍金的主要著作有《时间简史》、《果壳中的宇宙》,主要研究领域是宇宙论和黑洞。不过,近年来霍金在人工智能等领域的研究也值得关注。作为地球上少数有能力用数学公式精准描述和推导宇宙运行奥秘的人,霍金并不否认现代科技、商业发展中,人工智能所发挥的作用,而他担心的是人工智能和人类进化不对等的问题。
霍金认为,机器人和其他的人工智能设备也许会给人类带来巨大的好处,如果那些设备的设计非常成功,他说那将是人类历史上最大的事件。然而他同时也提醒说,人工智能也有可能是人类历史上最后的事件。早在2014年6月,霍金在美国HBO频道的“Last WeekTonight”节目上就曾表达过:“人工智能在并不遥远的未来可能会成为一个真正的危险。”而在2016年10月,剑桥大学“莱弗休姆的未来智能中心(LCFI)”正式投入使用,霍金在庆祝典礼上发表了演讲,LCFI的一项重要使命是要化解AI风险、破解AI难题。霍金在演讲中批评了人工智能的无节制发展,他认为,人工智能技术的确有希望带来巨大的福利,比如根除疾病和贫困,但是它同样也可能带来危险,比如强大的自主式武器,或者帮助少数人压迫多数人。
2017年3月,霍金在接受英国《泰晤士报》采访时再次发出警告,“人工智能进一步发展便可能会通过核战争或生物战争摧毁人类。人类需要利用逻辑和理性去控制未来可能出现的威胁”。
在2017年11月举办的第五届腾讯WE大会上,霍金以远程视频的形式亮相WE大会,并谈论了对人工智能的一些看法。在视频中霍金认为,人类很有可能会造出超级人工智能,这些人工智能程序能够全面超越人类,并有可能完全取代人类成为一种新的生命物种。霍金表示,“我担心人工智能将全面取代人类。如果有人能设计出计算机病毒,那么就会有人设计出能提升并复制自己的人工智能,这就会带来一种能够超越人类的全新生命形式。”
2017年12月13日,在长城会举办的“天工开悟,智行未来”活动中,霍金表示,现在还不能确定,人工智能的崛起对人类来说是好是坏,但可以确定的是,人类要竭尽全力,来保证人工智能的发展对于人类及环境有利。这可以说是公开报道中霍金最后一条关于人工智能的看法了,也可以说是最后的警告。
值得一提的是,马斯克还与霍金一起成立了防范人工智能联盟。马斯克参与投资的OpenAI和DeepMind两家公司都是这个联盟的成员,这个联盟致力于建立防范人工智能的道德伦理规范。
3.技术中立的观点
持这类观点的人认为,目前不需要担心人工智能威胁人类生存,但需要担心人工智能的发展导致的失业问题,以及考虑到未来的发展可能超出人类预期,现在就需要在伦理道德上对人工智能加以约束。
1)李开复(创新工场董事长兼首席执行官)
创新工场董事长兼首席执行官李开复一直是人工智能产业的积极推动者,在谈及人工智能带来的隐私安全、就业机会等一系列问题时,他表示为了防止最严重的数据滥用,需要制定相应的法规。但是,人们不应该只将人工智能带来的隐私问题视为一个监管问题,可尝试用“以子之矛攻己之盾”——用更好的技术解决技术带来的挑战,例如同态加密、联邦学习等技术。
他认为虽然人工智能技术的发展比想象的要快,但它只限于垂直领域,比如围棋、智慧治疗、自动驾驶,而人工智能的重大的技术突破则要比预想的来的晚。
对于伴随人工智能普及而发生的人类工作被取代问题,李开复也多次发表自己的见解——政府需要切实关注教育和培训,人们也需要在工作岗位中发挥自己的创造力和同情心——这是人们真正擅长的,也是机器人无法取代的。
2)张一鸣(今日头条创始人、CEO)
今日头条创始人、CEO张一鸣在2018年12月的今日头条AI大会中发表了演讲,其认为,AI正处在从实验室走向大规模商业化的早期阶段,很多人对它所带来的经济、法律、安全、伦理等问题开始担忧,比如AI可能会导致大规模失业;可能导致经济发展不平衡;可能会导致贫富差距加大;可能会完全颠覆包括精算、保险、金融等等传统行业;可能会让很多城市修改现行的交通法规。
但同时,张一鸣认为,很多风险才刚刚露出苗头,在这个和技术赛跑的时间窗口,应该从最早期开始将技术的研发和社会影响的研究同时推进,一家负责任的人工智能科技公司应该这样做。
3)吴恩达(知名AI科学家)
吴恩达曾在采访中,表达过对人工智能威胁论的不同看法:“我不研究如何防止人工智能变得邪恶,就像我不研究如何治理火星人口过剩一样。”吴恩达说,人工智能要发展到出现类似于意识的东西起码还需要几十年或者更久,与此同时,目前还有更为紧迫的问题,那就是机器学习带来计算机能力的提升正在取代长久以来人类从事的一些工作。这一趋势只会加速,吴恩达呼吁决策者准备好应对随之而来的社会经济后果。
1. 科技巨头成立Partnershipon AI
Partnership on AI是一个全球性非营利机构,由Google、Facebook、IBM、Amazon和Microsoft五大科技巨头在2016年9月28日共同成立,全称为Partnership onArtificial Intelligence to Benefit People and Society,其汇集了学者、研究人员、民间社会组织、人工智能领域企业等。2018年5月,英特尔、Salesforce、eBay、索尼、SAP、麦肯锡、Zalando和Cogitai等企业也纷纷加入该组织。除此之外,Partnership onAI成员中还有十数个非盈利机构,以此不断促进AI的持续研究。
Partnership on AI的4大核心愿景是:建立并分享最佳实践,提升公众认知水平,提供一套开放、包容的讨论与交流平台,以有益于社会为前提,发现并促进人工智能领域的理想新尝试。
Partnership on AI表示,为了支持“为民众与社会做出贡献”的使命,将推动研究、组织讨论、分享见解、提供思想引导,并与相关第三方开展协商、回应公众与媒体关切,同时整理教育材料以促进社会对包括机器认知、学习与自动推理等人工智能技术的理解。具体将采取的行动包括:
1)吸引专家:召集跨多个学科(包括但不限于心理学、哲学、经济学、金融学、社会学、公共政策以及法律)的专家定期参与讨论,并提供关于人工智能对社会影响的最新问题的指导性意见;
2)让利益相关方参与进来:召集人工智能用户、开发人员以及可能受到相关技术影响的行业代表(例如医疗保健、金融服务、运输、商业、制造、电信以及媒体等)参与探讨,共同支持人工智能技术在特定领域内的研究、开发与应用;
3)促进研究:为第三方客观研究提供设计、执行与财务支持,确保围绕人工智能建立起关于研究、应用与服务的符合道德规范、安全、公平、包容、信任且稳健的最佳实践。判定并鼓励这些领域中取得的重要成果。对人工智能领域内拥有光明前景的项目加以支持,将为人类及社会带来巨大收益;
4)提供学习资料:积极整理关于核心人工智能以及相关学科的当前及未来潜在研究与发展轨迹的信息资料。
2. IEEE发布《人工智能设计的伦理准则(第二版)》
2017年12月12日,电气电子工程师学会(IEEE)发布了《人工智能设计的伦理准则(第二版)》。新版人工智能伦理准则进一步丰富了伦理事项,涵盖一般原则、价值嵌入、研究和设计的伦理方法、强人工智能(AGI)和超人工智能(ASI)的安全、个人数据、自主武器、经济和人道主义问题、法律、情感计算、教育和知悉的政策、经典伦理问题、混合现实、福祉指标等13个方面,并针对这些伦理事项提出了具体的建议。比如在法律方面,认为当前技术发展还不足以赋予人工智能法律地位。这些建议可以给后续标准制定等政策工作提供参考。
3. 旷视成立人工智能伦理道德委员会
旷视科技在其最近提交至港交所的招股说明书中提到,公司意识到人工智能还面临许多需要认真解决的重大挑战,并坚信公司有责任确保其创新技术为社会带来正面影响,因此公司确定了使用人工智能技术时需遵循的六大核心原则:正当性、人的监督、技术可靠性和安全性、公平和多样性、责任可追溯、数据隐私保护。
为了确保核心原则的实施,公司制定了完善的配套制度,并且在董事会下设了人工智能道德委员会。人工智能道德委员会由三位董事及高级管理人员以及三位来自相关领域的外部专家组成,由董事长兼CEO担任主席,每名成员在会议决议时有一票表决权。
人工智能道德委员会主要负责解决人工智能道德相关事项,高级管理人员会向人工智能道德委员会介绍近期公司整体业务战略及计划、技术研发的方向、产品和解决方案开发及商业化的计划,内控制度及法律合规情况等。
旷视科技对其客户也提出了人工智能道德要求,在与客户签订协议时,旷视科技要求客户承诺不会将旷视科技的技术用于包括侵犯人权在内的任何非法或不当目的。
我们认为,在对待人工智能的态度上,要理性客观的看待。作为革命性的新技术,引发人们的怀疑甚至误解都是非常正常的,同时也没有人能准确预测技术未来发展所产生的结果,但新技术发展要遵循一定的伦理道德规范,不能触碰人类文明的底线。
人工智能治理要保持充分的开放性。人工智能技术发展与产业应用是全球高度协作的成果,其未来发展也依赖世界各国优势互补,合作共享。因此,在人工智能治理上也需要保持开放性,集合各国智慧与经验,实现有效的全球治理。
人工智能是一项跨学科、多领域、综合性极强的技术,那么其治理也必然需要各个学科、各个领域以及政府部门的共同参与,整合多学科力量,加强人工智能相关法律、伦理、社会问题研究。各个领域的人才需要积极展开合作,取长补短,发挥各自的优势,方能实现有效的治理。
完


