人工智能和机器学习显着增强了机器人的能力,使它们能够在人类环境中执行各种任务,并适应我们不确定的现实世界。最近在各种机器学习领域的工作强调了考虑公平性的重要性,以确保这些算法不会复制人为偏见,从而导致歧视性结果。随着机器人学习系统在我们的日常生活中越来越多地执行越来越多的任务,了解这种偏见的影响对于防止对某些人群的意外行为至关重要。
机器人学习在过去十年中取得了巨大进步。从学习低级操作技能到长距离移动操作任务和自动驾驶,机器学习加速了整个机器人领域的进步。这种成功很大程度上得益于数据驱动的学习算法、海量精选数据集以及每年翻倍的计算能力。我们还目睹了越来越多的学习机器人系统在以人为中心的环境中与人类一起执行任务。值得注意的领域包括协作制造中的机器人、农业、物流和搜索和救援。随着这些技术进步,研究ML算法的伦理和法律影响以及考虑公平性也越来越受到关注。最近在自然语言处理、面部识别系统和风险评估系统等不同领域的几项研究表明,这些算法容易受到偏见的影响,这导致它们表现出歧视行为。然而,在机器人学习的背景下,公平性仍然很少被探索。


As shown below👇
科幻作品中的人工智能
《I, Robot》或者《机械公敌》讲述了,公元2035年,人和机器人和谐相处的社会,智能机器人作为最好的生产工具和人类伙伴,逐渐深入人类生活的各个领域,而由于机器人“三大法则”的限制,人类对机器人充满信任,很多机器人甚至已经成为家庭成员。主人公(will smith)结识了专门研究机器人心理的女科学家苏珊•凯文(碧姬•奈娜汉 饰),随着二人调查的深入,真相一步一步被揭露出来:机器人竟然具备了自我进化的能力,他们对“三大法则”有了自己的理解,他们随时会转化成整个人类的“机械公敌”。

《杀手机器人日记》系列是美国科幻作家玛莎·威尔斯的作品。她的系列作品横扫雨果奖、星云奖、轨迹奖、亚力克斯奖。
这本书的主角是一个合成机器人,一半是人类的体系,一半是机械。它没有名字,但有个昵称--杀手机器人,但实际上,它并不杀人,而且它的任务就是保护它人类雇主的人身安全以及无条件服从雇主的命令。由于构造特殊,虽然它习惯性听命于雇主,但它已经慢慢有了自己的想法,对于一些事情也都有了自己的独特看法并且能给出最合适的解决方案。
无可否认,关于人工智能和机器人的伦理问题的讨论在当下已经越来越广泛和深入。
人工智能在学术中的讨论
迄今为止在机器人技术方面进行的伦理研究研究了在社会环境中部署机器人的后果以及与人类互动的后果。伦理维度是实践伦理领域的一部分,其分析涉及社会科学、哲学和心理学。基于这样一种观点,即解决机器人技术中的偏见和歧视不仅是技术上的,而且是道德上的,研究人员试图反思如何在人类和机器人之间建立公平的互动,在社交环境中部署机器人的经济和社会影响,以及更重要的是,机器在拥挤或个人环境中的行为符合道德意味着什么。
文章 《Fairness and Bias in Robot Learning》 Proceedings of the IEEE, vol. 112, no. 4, pp. 305–330, Apr. 2024, doi: 10.1109/JPROC.2024.3403898. 对机器人学习中的偏见和公平性进行了跨学科概述。
主要目标是提供一份全面的审查报告,探讨有关该主题的技术、道德和法律考虑因素。我们基于这三个领域讨论了该领域的早期进展。我们提出了道德准则、社会和法律考虑因素,并提出了机器人学习中偏见和歧视的类型和来源的分类法。此外,我们还提出了不同的公平性定义、指标和公平性意识机器人学习的方法。
基于机器人学习的三个典型阶段,我们将偏见分为四个层次:数据层面(数据收集和处理)、模型层面(训练和学习过程中)、实施层面(部署和操作)和社会结构条件。为了清楚起见,我们将偏倚来源与每个类别相关联,如图 2 所示。此外,我们还介绍了针对每个级别的偏差检测和缓解技术。作为实践伦理学的一部分,机器人伦理学或机器人伦理学是一个多学科领域,旨在为机器人技术中的偏见和歧视找到实用的伦理解决方案。本文还介绍了迄今为止在该领域取得的进展及其应用。最后,我们还介绍了公平机器人学习的初步实践。通过从这个最近的研究主题中汇编出伦理、法律和技术方法,我们旨在为跨学科进步提供一个初步的起点,以实现具有公平意识的机器人学习。

由于学习算法中的偏差和不公平而可能影响机器人学习系统的潜在不利问题。从三个角度分析挑战和定义问题,在解决机器人技术中ML的公平性方面的技术、伦理和法律进步。从社会焦点出发,为不同的偏见创建一个分类法,并对可能发生的歧视进行分类。从伦理和监管的角度审查法律和公平方面的考虑。模型偏差在一定程度上暴露了偏差的存在。在社会和机器人学习算法应该减少这些偏见,而不是放大它们。



