
多年来,生成式AI的发展一直不温不火,直到ChatGPT的横空出世,才引发了现象级的热潮,国内外科技企业纷纷“卷”入浪潮。除了谷歌、微软、Salesforce等传统科技巨头之外,据CB Insights数据,截至目前,在生成式AI这条细分赛道上,全球已经诞生了13家独角兽公司(估值达到10亿美元以上)。这13家生成式AI公司成为独角兽公司的平均时间仅为3.6年。作为对比,通常企业需要7年时间才能成为独角兽公司,而这些AI公司从时间上来说几乎缩短了一半。反观国内,目前已推出的生成式AI项目包括百度的“文心一言”、阿里云的“通义千问”、腾讯的“混元Al”、华为的“盘古大模型”、360的“360智脑”、商汤科技的“商量SenseChat”等,其中不乏已经布局多年的科技企业。
生成式AI“一夜爆红”后,却引发了一系列道德和伦理危机—使用“AI换脸”技术生成女明星淫秽视频并进行售卖;使用ChatGPT和其他基于人工智能的工具完成学习与考试任务;伪造商品评论进行虚假营销;生成钓鱼邮件骗取个人信息……
伴随着ChatGPT的风靡,一场关于大型语言模型(大语言模型、大模型,LLM)责任伦理的探讨拉开了帷幕。从语言模型到存在危机,人类会在大模型产品中迷失自我吗?
01
让AI懂道德,
让伦理原则可计算
早在2016年,电气和电子工程师协会(IEEE)就发布了世界首个人工智能道德准则设计草案《道德准则设计(Ethically Aligned Design)》,认为有道德标准设计的人工智能系统能够造福全人类并且避免算法偏差,但是技术行业缺乏对道德的归属感和责任感已经成为阻碍它发展的一个因素。
AI模型需要高质量的训练数据,归根结底,AI的道德始于数据。在AI发展的全生命周期中,解决数据偏见,让伦理的原则可计算,一直贯穿始终。数据偏见是指数据集中于某个元素的代表权重过大或不足。如果使用有偏见的数据来训练AI或机器学习模型,就会导致出现有偏差、不公正、不准确的结果,一些常见示例如:选择偏差,某些主要在白人图像上训练的面部识别系统,这些模型对不同种族的人的识别准确度要低得多;排除偏差,在数据预处理阶段最常见,若使用刻板印象或错误的案例假设数据,无论用什么算法,结果都会有偏差;观察者偏差,当研究人员在有意识或无意识的情况下对自己的研究有主观想法并进入项目时,可能会发生这种情况;种族偏见,当数据偏向特定人群时,就会发生种族偏见;测量偏差,当为训练而收集的数据与现实世界中收集的数据不同时,或者当错误的测量结果导致数据失真时,就会发生这种偏差。
综上所述,在数据准备过程中有多种方式可能会在数据集中引入偏见。“大模型工具的底层来源是数据训练,而现有的互联网中充斥着各类歧视性、仇恨和攻击性言论和信息,在实际场景中,负面信息的浏览阅读、评论点赞和网络传播量比正面信息多得多。因此,人类生产的实时信息源头长期处于非常‘不清洁’的状态,网络智能机器人随时可能被这些数据养成种族歧视和虚假信息的帮凶,目前,已有在线机器人短时间变坏的实例。在ChatGPT初发布时,我们也看到很多机构和个人通过‘对话训练’和‘喂养信息’的方式将名不见经传的机构变成头头是道的全球化机构的信息。”北京计算机学会数字经济专委会秘书长王娟在接受本刊记者采访时表示。
与此同时,我们也应看到,如果这些数据能够以负责任的方式从多元化的标注员那里获得,就可以实现偏见最小化。因此,偏见最小化应该被视为整个模型构建过程中甚至部署之后需要重点考虑的因素。讲道德、负责任的AI,并不是一个哲学概念,而是当下必须采纳的准则之一。
02
AI大模型需要套上“安全框架”
随着AI大模型深刻地影响各个领域,包括医疗、金融、交通、教育等,AI大模型可以帮助医生诊断疾病、优化金融交易、改进交通运输系统、提供个性化的教育等,可以更高效地处理复杂问题,提高生产力和效率。在享受技术带来的红利的同时,“混战”背后的法律监管和行业监督变得刻不容缓。
2023年4月11日,国家互联网信息办公室就《生成式人工智能服务管理办法(征求意见稿)》(以下简称《征求意见稿》)公开征求意见,内容的真实性、训练数据的安全性等备受关注的话题皆在其中。《征求意见稿》明确提出,利用生成式人工智能生成的内容应当真实准确。根据《征求意见稿》,生成式人工智能是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。值得注意的是,提供者在提供服务的过程中,对用户的输入信息和使用记录承担保护义务。不得非法留存能够推断出用户身份的输入信息,不得根据用户输入信息和使用情况进行画像,不得向他人提供用户输入信息。
《征求意见稿》出炉在一个关键时期,能够在政策层面建立起对以ChatGPT为代表的AI生成内容的管理法规,从而防患于未然。而从国际层面看,生成式AI的责任与伦理安全问题,也引起了广泛重视。
2023年5月5日,英国牛津大学官网曾报道,该校研究人员与国际专家合作展开一项新研究,探索如何解决大型语言模型造成的生成内容责任相关的复杂伦理问题。该研究的第一作者塞巴斯蒂安·波茨坦·曼恩和布莱恩·厄普表示,大型语言模型责任的概念更新迫在眉睫。因此,该研究重点关注大型语言模型在教育、学术出版、知识产权及错误和虚假信息生成等关键领域的潜在影响。
2023年5月16日,世界卫生组织呼吁谨慎使用人工智能生成的大型语言模型工具,并宣称,虽然借助这类工具(ChatGPT、Bard这类发展较快的大型语言模型)可便利地获取健康信息,甚至能在资源不足的地区提高诊断能力,但在使用时必须仔细考察其风险。世界卫生组织还强调,草率采用未经测试的系统可能会导致医护人员出错,对患者造成伤害,削弱人们对人工智能的信任,从而破坏或延缓此类技术在全球的潜在长期利益和使用。
03
内生治理,
将风险由未知转化为已知
虽然目前的生成式人工智能仅生成文本、图像、声音等信息内容,并不会像传统的产品瑕疵那样直接导致生命健康安全问题,但其潜在危害却不容忽视。
王娟表示:“在缺乏思考和分析能力、缺乏知识付费和医疗服务能力的人群中,大模型内生的安全隐患更令人担忧。由于互联网网民规模的爆炸增长和手机等便携式终端的普及,低成本地获取医疗、教育和生活等咨询服务的方式成为低学历、低收入群体主要依赖的信息渠道,LLM生成式语言模型将加剧边缘化群体的贬损性表现和社会偏见,加深社会割裂和错误、恶意信息的危害,加大真实信息泄露滥用的风险。”
我们能否在未知的风险爆发之前找到抵御风险的办法?
国家通过《征求意见稿》划清了底线,但事在人为,我们更需要从自身出发,寻求合理有效的内生安全治理模式,基于群体智能将个体“未知的未知”转化为群体“已知的未知”,从而进一步将其转化为“已知的已知”。
针对大模型的安全伦理问题,清华大学计算机系长聘副教授、北京聆心智能科技有限公司创始人黄民烈带领的研究团队建立了大模型安全分类体系,不仅定义了大模型的应用边界,还建立了大模型安全分类体系,其中不安全的对话场景包括政治敏感、犯罪违法、身体健康、心理健康、财产隐私、歧视/偏见、辱骂/仇恨言论、伦理道德八大方面。未来,该研究团队将打造中文大模型的安全风险评估积分榜,为国内对话大模型的安全评估提供公平公开的测试平台。
在产业端,企业也纷纷发力大模型安全治理相关的产品和解决方案。2023年3月,奇安信对外表示,正在基于ChatGPT相关技术和自身积累的海量安全知识和数据,训练奇安信专有的类ChatGPT安全大模型。未来将广泛应用于安全产品开发、威胁检测、漏洞挖掘、安全运营及自动化、攻防对抗等领域。同年5月,深信服正式对外披露安全大模型技术应用,深信服安全大模型(安全GPT)为深信服自主研发,由“大模型算法+威胁情报+安全知识”训练而成,将大幅提升对流量和日志的威胁检测效果,并通过自然语言交互,自动分析用户安全现状、调查研判安全事件,并生成处置建议,进而提升安全运营效率,使企业的数字化更简单、更安全。此外,同月,讯飞星火也提出了“在保护伦理和安全的前提下健康发展”的目标。科大讯飞董事长刘庆峰明确强调,星火认知大模型会兼顾自主可控和信息安全,严格遵循法律法规要求,借助通用人工智能帮助人类成为更好的自己。
04
人工智能挑战的急所:
要对未来有准确的预期
日前,人工智能安全中心(Center for AI Safety CAIS)发布了一份由350位人工智能领域的科学家与企业高管联名签署的“人工智能风险声明”,其内容主旨为“降低人工智能导致人类灭绝的风险,应该与流行病及核战争等其他社会规模的风险一起,成为全球优先事项。”武汉大学计算机学院教授、卓尔智联研究院院长蔡恒进也刚刚完成签名。
人工智能发展之快,使大多数人都低估了它的速度,但科技与AI技术的发展不可能停下脚步,面对机器崛起的步步紧逼,我们该向哪里“撤退”?
在蔡恒进看来,人类与其他动物、机器的本质差别就是自我意识的强化和自我意识的强烈程度。机器是由人类设计的,主程序可以被看作是机器的“我”,但是这个“我”很脆弱,缺少像人类自我意识对周围环境、外部世界的统摄性力量。也就是说,机器并不具备能够统摄意识片段的自我意识,即便能够从人类习得海量的意识片段,也无法连续自如地对其掌控。“我们应对人工智能挑战的急所就是要对未来有准确的预期,改变人们的认知体系,以顺利过渡到新的时代。”蔡恒进表示。
在北京举行的中关村论坛平行论坛“人工智能大模型发展论坛”上,中国科学技术信息研究所所长赵志耘发布了《中国人工智能大模型地图研究报告》。报告指出,据不完全统计,到目前为止,中国10亿级参数规模以上大模型已发布了79个,北京、广东、浙江、上海的大模型数量最多,同时这4个地区也是近三年人工智能服务器采购数量最高的。
对于国内大模型产品的井喷式增长,如何制定人工智能规则,在鼓励技术进步的同时保护人类的公共利益,已成为世界各国面临的新挑战。正如中国科学院自动化研究所研究员,国家新一代人工智能治理专委会委员曾毅所言:“在人工智能大模型迅速广泛的发展与应用的背景下,目前的潜在风险并没有留给人类足够的时间准备,就已迅速成为实存风险。在发展人工智能内容生成技术的同时,我们需要开展对人工智能内容生成的深度治理。每一个服务于社会的人工智能大模型与系统,都应当设计和实现道德与安全框架,并将这一框架以技术落地和自动化检测与评估等形式,深度融入产品与服务。”
本文仅用于学术交流,如有侵权请后台联系小编删除。


