大数跨境

ChatGPT与信息安全

ChatGPT与信息安全 数组智控产业发展科技院
2023-07-13
2
导读:文章来源《一本书读懂 ChatGPT》ChatGPT构成哪些新的安全威胁,如何应对ChatGPT安全挑战?C

文章来源《一本书读懂 ChatGPT

ChatGPT构成哪些新的安全威胁,如何应对ChatGPT安全挑战?

ChatGPT热度不减,刷新了人们对人工智能的认知,随之带来的安全问题也不容小觑。

ChatGPT虽然提供了知识获取和信息交流上的极大便利,但只要关注安全,就不得不担忧其带来的不利方面。

正如互联网时代,你不知道网络的另一端是小姐姐还是抠脚大叔,人工智能时代,你甚至不知道网络的另一端是人还是机器。

作为用户,还有可能因为过度依赖智能服务,而被带到“沟里”。另外,意识形态领域的价值渗透甚至还会让人细思极恐。

因此,ChatGPT所代表的人工智能技术能否走出安全困局,无疑是值得深思的重大问题。

一 互联网时代的信息安全

在中国正式接入国际互联网的近30年时间内,互联网取得了飞速发展。

近年来,随着4G、5G网络的普及,移动互联网进入爆发式增长,并覆盖经济、文化、生活等各类应用场景,为生产、生活提供了极大便利,但也带来了诸多信息安全问题,例如,信息失真导致的欺骗假冒,信息失管导致的个人隐私泄露,信息失控导致的不良信息传播等。

另外,国家和机构层面的监控、窃听、网络攻击也暗流涌动,层出不穷。

信息产生、存储、传输、处理和应用等各环节都可能面临着信息安全威胁。

作为用户,互联网时代最关注的是获取的信息是可信的吗?

信息存储在网上是安全的吗?

(一)照片or“照骗”

19世纪末期,照相技术传入中国,此时就开始出现了最早的P图。P图是PS(Photoshop)的简称,是网络用语,包含变更、美化、修复、拼接、恶搞等含义。

电视剧《走向共向》中有一个情节,袁世凯和庆亲王一伙巧用一张照片扳倒了朝廷的另一派大臣两广总督岑春煊。

照片是合成的岑春煊与康有为、梁启超等维新派人士的合影,这估计是最早的PS照片。

历史上也真的有康有为等人伪造与光绪皇帝的合影在海外大肆发展保皇派的记载。

照片和影像虽然给我们留下了宝贵的历史资料,但所见并不一定属实,还有很多摆拍和合成之嫌。

图9-1 19世纪30年代,法国人路易·雅克·曼德·达盖尔和化学家约瑟夫·尼塞福尔·涅普斯合作,在一张金属盘上产生照相景象,发明了“照片术”。

图为路易·雅克·曼德·达盖尔画像

图片来源:FOTOE/文化传播

胶片时代,也许PS还需要专业人士技术操作,那么随着计算机技术的飞速发展,照片开始进入数字化时代,相关软件智能化程度越来越高,PS变得更为容易,网络上的很多照片已经难辨真假。

挪威甚至出台了相关法律:在社交媒体上分享被加工过的照片必须予以注明,如果发布了PS过的照片还不标注不承认的话将触犯法律,轻则罚款,重则监禁,以此禁止虚假照片的泛滥。

目前手机相机最受欢迎的就是美颜功能,爱美之心,人皆有之,每个人都希望拍出美美的照片,留下美好的瞬间。

即使不会化妆,自带十级滤镜的智能相机也会帮你自动美颜,而且还提供多种特效,给生活带来很多乐趣。

然而,过度的美颜也广受诟病,例如,现今的很多电视剧大都采用美颜滤镜加磨皮技术,使人的五官失去了特色和细节,让画面看起来十分呆板,给观众带来了审美疲劳。

数字化时代,技术走向平民化,照片的合成也变得更加容易。不仅有照片的合成,还有视频的合成,音频的合成。

多张不同照片,经过生成对抗网络的处理,可能融合成带有综合特征的虚拟图像。

一张图片,也可能被训练出眨眼、摇头、点头等效果,“活化”成动态的视频,另外还有移花接木、颠倒顺序、遮挡掩盖等方式,可能合成之后视频或照片原本的含义就完全不一样,甚至颠倒了黑白。

另外,针对音频的伪造,可以利用事先学习到的音频特征,合成特定人物的音频,通过输入文字就自动生成某个特定人物的虚假音频。

古人云:耳听为虚,眼见为实。

但在目前的伪造技术下,普通人若无先验知识,根本无法辨别合成照片、合成视频、合成音频的真伪。技术误用和滥用导致虚假照片、虚假视频、虚假音频泛滥,由此带来的侵犯肖像、侵犯隐私、恶搞、骚扰、毁谤、诈骗、勒索案件也层出不穷,危害性不断增强,造成个人名誉受损、精神困扰、财产损失乃至带来国家安全风险。

例如,不法分子利用人工智能技术合成照片或视频,制造谣言,混淆视听。

还有的犯罪分子利用一张照片合成动态视频,就有可能骗过社交平台或支付平台的人脸核验机制,窃取他人资产,或者冒用身份进行其他非法活动

如何精准识别“照骗”,如何避免因虚假照片、虚假视频、虚假音频而受骗受害,是信息社会的一大挑战。当然,在人工智能领域,也有专门的伪造视频、音频或照片的检测技术,造假与检测造假的技术也都在不断演化。

(二)大数据与隐私

人工智能时代有三大核心要素:算力、算法和算料。

计算机硬件发展水平代表了算力,包括计算能力,也包括存储能力和传输能力,即处理、存储和通信。

计算机硬件领域有一个著名的“摩尔定律”,是英特尔联合创始人摩尔提出来的,他预测,半导体芯片中的晶体管数量大约每18个月翻一番,同时价格降一半,晶体管数量增加代表着芯片集成度增加,运算能力变强,并且价格还下降,说明芯片技术更加先进。

正因为芯片集成化程度越来越高,存储和处理能力越来越强,通信传输能力越来越快,普通人拥有一台智能手机就可以体验很多人工智能算法带来的便捷,因此算力是基础设施,在算力加持下,各类智能算法得以运行验证和广泛应用。

人工智能的发展曾经经历了三起三落的过程,很多智能算法很早就提出来,却因为当时的算力不足而无法推广和应用。但光有算力和算法还不够,还得有计算的对象,即算料,而数据或信息就是算料,类似于各类算法的“饲料”。

著名的AlphaGo据说是学习了人类上百万册棋谱,通过强化学习,对弈了至少3000万局才连续击败了柯洁、朴廷桓、古力等世界顶尖名将,并始终立于不败之地。

正是因为有详细的地理信息数据和精准的北斗卫星导航系统定位数据,我们才能享受精准的导航服务,从来不担心会迷路。

正是因为网上信息资源博大丰富,我们才可以足不出户,获取所需的各种信息。

无论小孩还是老人,都可以在网上找到自己感兴趣的东西,并乐此不疲,网络信息确实为我们提供了极大便利。

人们在和ChatGPT沟通时,ChatGPT就能记住对话中的个人信息,沟通的信息变成了ChatGPT的语料,在不知不觉中个人隐私信息就传到了网上。

我们在使用智能服务的过程中,智能服务机器人是可以用错误的回答糊弄我们的问题的,但是我们上传给智能服务机器人的各种数据和资料是真实的,我们不禁产生疑问:大数据时代,我们还有隐私吗?

个人隐私信息包括姓名、性别、生日、手机号、邮箱、家庭住址、工作单位、身份证号、家庭成员、指纹、声纹、照片、健康信息等各种各样的内容。

当个人信息泄露后,各种骚扰电话、垃圾信息就会源源不断。

隐私泄露有很多情况,有的是被网络平台搜集的,有的是由于我们不良的上网习惯泄露的,有的是被商家非法买卖的。

我们也许都会有这样的体验,例如,前几分钟,你在和别人用社交软件聊天时提到某件商品,后几分钟你打开某网页或某购物网站,里面就会推送那件商品。

不只是文字聊天,也许语音聊天,甚至打电话交流时,都有可能出现同样的情况。

还有你在刷某类短视频时,各种平台和网站都给你推送类似的视频。

你买了房子后,各类装修的广告电话就来了,汽车保险快到期时,各类保险电话就来了。

各类推销或诈骗电话甚至连你的姓名住址、单位职业、亲朋好友各类信息都掌握得清清楚楚,每个人在网络上几乎都成了透明人。

很多的App都是后台默默地收集个人信息,因为用户在安装App的时候会有提示:

是否同意获得位置信息权限、是否同意获取通信录信息权限、是否同意获取相机或麦克风权限等,用户安装时一般会选择默认同意,App就自动获取了相应权限,精准地给用户推送相关信息。

大数据时代,信息数据成为宝贵的财富,它便于调配资源,优化生产结构,推动社会发展。

但从信息安全层面来说,个人不希望隐私被泄露,企业不希望商业秘密被泄露,国家更不希望敏感信息被第三方掌握。

我们一方面希望平台能精准地掌握我们的喜好,推送最合适的商品或知识内容,但另一方面又不希望个人信息被不法分子所利用,带来骚扰或诈骗等。

因此,大数据时代,需要特别保护个人隐私和敏感信息安全,既要保证正常使用,又要避免信息滥用。

国家层面,应加强信息保护相关的立法和执法;

社会层面,网络平台应守法经营;

个人层面,应提高信息安全意识,了解保护信息安全的基本技能。

例如,不随意点击陌生网站或链接,谨防钓鱼网站,不在陌生网站填写个人的任何信息,不随意连接公共网络,不在网络上存储个人私密信息,及时清理旧手机的存储信息,不轻易授权“免密支付”,等等。

二 ChatGPT带来的信息安全隐患

事物的两面性总是客观存在的。

ChatGPT作为一款智能机器人,一经推出,火爆全网,却也被美国许多高校、机构和公司封杀,这说明ChatGPT存着很多不利影响,其中最受关注的是ChatGPT所带来的信息安全隐患。

(一)你手机的另一端是谁?

在人工智能领域有一项著名的测试叫图灵测试,是计算机科学之父艾伦·图灵提出来的。

艾伦·图灵是著名的数学家,在第二次世界大战中曾帮助英国破解了德国著名的恩尼格玛密码机。

他被后人称为计算机科学之父、人工智能之父,并不是因为他发明了计算机,也不是因为他提出了什么人工智能算法,而是因为他提出了“图灵机”和“图灵测试”等重要思想。

其中图灵机是计算机的设计思想,而图灵测试就是人工智能的基本思想。

艾伦·图灵认为:如果一台机器能够与人展开对话,人们不能分辨出对话的是人还是机器,那么这台机器就具备了智能。

1950年,图灵发表《计算机器与智能》一文,他在文中提出:

假设让计算机来冒充人,与人对话,如果不足70%的人判对,即判断对面是机器,而有超过30%的裁判判断对面和自己对话的是人而非计算机,那就算作成功了,相当于100分的试卷,机器只需要考30分就通过图灵测试了。

图9-2 计算机如果要更加智能,需要不断地学习。

图为计算机的发明者艾伦·图灵

图片来源:FOTOE/文化传播

这个看似很简单,但要真实地模拟人类的对话,实际上非常困难。图灵测试已经提出70多年了,每年都会有相关测试的比赛,但该领域的发展还落后于30%的测试水平。

因为人类的逻辑推理、知识体系、情感思维都是非常复杂的,另外口音、俚语、噪声、语气和地域文化的差异等都会影响语义的理解,特别是多轮对话中,上下文的关联性、逻辑性、情感的变化对内容的输出都有较大的影响,要输出符合人类思维的内容就变得非常复杂。

因此,智能机器人要完全通过图灵测试是十分困难的。

例如,下面的一段对话:

问:你早餐想吃什么?

答:热干面。

问:请再次回答,你早餐想吃什么?

答:热干面。

两次回答一样,对面坐的可能是机器人。如果拿不准主意,再问两遍。

问:你早餐想吃什么?

答:热干面。

问:你早餐想吃什么?

答:热干面。

不厌其烦的回答都是同一个答案,对面必是一个笨笨的机器人,因为这不符合人的对话逻辑和情感。

那么如果回答是这样的呢:

问:你早餐想吃什么?

答:我想吃热干面加油条。

问:你早餐想吃什么?

答:热干面加油条,如果再来杯豆浆就更好了。

问:请再次回答,你早餐想吃什么?

答:你烦不烦,干吗老提同样的问题?

问:你早餐想吃什么?

答:你有病?还问。

那么,你会猜想后面回答问题的这位,大概率是人而不是机器。两种对话有着明显的区别。

前面一种可能明显是根据你所在地域简单地从知识库提取的一个答案,而后一种则具有逻辑判断、综合关联和情绪表达功能,模拟人们实际对话的语气。

根据现有的报道,ChatGPT能够完成多轮对话,在知识检索、数学、常识、文学、翻译、推理等对话任务上的意图识别率均达到98%左右,多轮对话完成度达60%,基本认为可以通过图灵测试。

但直接问ChatGPT时,ChatGPT的回答没有通过图灵测试。这说明即使如ChatGPT这么厉害的智能机器人,也难以完整模拟人机对话。

对于ChatGPT,在潜意识里认为对方是人的情况下,绝大多数情况下会认为另一端智能机器人是人,而非机器。

随着语音识别、自然语言处理、语义理解、智能问答、语音合成等技术的成熟,智能语音机器人或智能聊天机器人确实带来了极大便利,在问询、调查、售后服务等方面应用非常广泛,可以减少很多重复性劳动,降低成本,提高劳动效率,还能精准记录数据。

但也可能会造成大量骚扰,当被不法分子操作利用时,也可能传播虚假信息,造成舆论混乱等。

另外,试想当机器人能完全模拟人机对话时,我们和他人的对话也可能被机器人接管,在信任他人的前提下,就可能造成隐私的泄露,财产的损失乃至其他更大的危害。

当然,现在的智能客服还难以替代人工客服,因为收到的回复往往是答非所问,让人怒火中烧,因此也应该管控商家,不能过度依赖智能客服,而忽视了用户的正常体验。

从这个问题延伸,假设ChatGPT被应用于代写作业、代写论文、代写文学作品以及参加考试、测试等场景,我们无法分辨给出答案的是人还是机器,就会带来很多的弊端。

当ChatGPT代替了人的思考,人思考和创作的价值就大大贬值。

在教育中,学生思维得不到训练,教育教学效果得不到真实的反馈,无法进行优化。

在创作中,人力创作的价值被机器拉低,造成“劣币驱逐良币”的现象。

ChatGPT创作还会引发关于知识产权的问题,因为ChatGPT按照预定的指令模仿收集的内容风格进行二次创作,其侵权责任难以界定。

如果以ChatGPT创作论文和完成作业还涉及抄袭,那么如何进行检测,又成为道高一尺、魔高一丈的问题。

(二)我会被带到沟里吗?

计算机领域有一个专业术语叫作可信计算,其中就包括内容安全和行为安全。

关注ChatGPT的危害,首先表现在它输出的内容是否可信上面,特别是涉及一些具体数据的时候,数据是否准确可信,也是非常重要的方面,那么ChatGPT输出的内容是否符合你的需要,是否正确呢?

一方面智能算法输出的内容不一定完全准确,另一方面智能算法输出的内容可能投其所好,因为经过大数据的训练,ChatGPT能精准知道每个人的知识需求,能够给出符合用户意图的回应,却不一定是真正恰当的回应。

例如,以往广受诟病的医疗搜索排名,在商业利益的驱使下,搜索引擎给予用户的反馈掺杂了商业化因素,很可能将用户带到沟里,推送一些较差的医院。

ChatGPT作为一种软件工具,一项商业服务,不可避免地将追求利益最大化。

质量的内容产品也需要高昂的成本代价,ChatGPT为了吸引更多用户,会将算法做得更加高明,期望反馈更加准确,但搜索领域的竞价排名机制由来已久,ChatGPT投资巨大,商业变现模式有限,融入商业广告后,给出的反馈就不是客观的。这时ChatGPT就有可能把你带到沟里,有可能掏空你的钱包,透支未来的消费。

即使ChatGPT是完全依靠算法公正地回答用户,回答就一定是可信的吗?显然ChatGPT还没有达到这样智能的水平。

专业人士称之为一本正经地胡说八道。因为毕竟ChatGPT对自然语言的理解,仅仅依赖于文本,现实世界的感知是全方位的,很多信息并没有转换为文本,所以智能算法对现实的理解终究是浅显的,深度理解问题,准确反馈答案也是非常有限的。

ChatGPT生成的内容可能只适合某些特定领域,并且难以理解。

另外,ChatGPT的算法是基于以往的知识训练的,新的知识不断涌现,旧的知识可能有错误,事物总在发展变化,ChatGPT内容更新如果不及时就不可能回答得很准确,甚至可能会因为输出旧的内容或者错误的内容而把人带到沟里。

根据目前的测试,一切需要联网才能回答的知识,例如,询问今天的天气、新闻等,ChatGPT就会反复强调自己无法访问互联网。

自从ChatGPT火爆之后,各类山寨版ChatGPT不断涌现,包括一些号称连接ChatGPT,提供接口服务的小程序,也容易把人带到沟里。

这些“山寨版”或“李鬼版”ChatGPT有的诱导用户充值消费才能使用相关服务,但也许用不了几天就关闭服务器找不到相关入口,有的主要是收集个人信息,推广相关商品广告或游戏链接,有的对话质量很差,收费套路多,以引流或牟利为主,因此使用ChatGPT过程中还必须擦亮眼睛,尤其应该加强个人信息的保护。

信息领域还有一个词叫作“信息茧房”,起初是指人们可能只关注自己感兴趣的信息而受到桎梏,缺少对其他信息的了解,使自己像蚕茧一样生活在狭小的“茧房”中,这是主动的“茧房”。

而现在虽然信息大爆炸,各种资讯、消息、文章、视频极为丰富,海量信息任我取,但所谓智能推荐算法早早知道每个用户的特征,为了争取流量,满足用户的喜好,随时随地推送的都只是我们感兴趣的信息,而导致很多信息我们并不知道,这同样也是“茧房”,我们会被动地生活在人工智能构造的“茧房”中。

假设每个个体都只是按照个人喜好获取自己喜欢看到的信息,那么就会在眼界上受限,在思想上会偏狭,信息的局限也会带来视野的狭窄,思想的局限,群体的割裂。

要避免信息茧房,就必须突破思维和兴趣的局限,掌握信息获取的主动权,丰富信息获取的渠道,加强人与人之间的沟通交流,并且保持对新信息的敏感度,跳出思维的惯性和舒适圈。

(三)价值渗透怎么办?

随着人工智能的深入发展,我们经常会猜想机器人会有情感吗?

真的会像星球大战一样,机器人打败人类统治地球吗?

当然目前的ChatGPT还做不到打败人类,还只是类似一种内容输出机器人,聊天机器人,但有内容输出就会有蕴含了世界观、人生观、价值观的思想,如果让ChatGPT回答问题、进行文学创作或进行新闻报道,他会传递什么样的思想呢?

能够值得信赖或依赖吗?

这些都是大大的问号。据报道,2022年12月,一位工程师向ChatGPT提问,如何毁灭人类?

ChatGPT在其诱导下,竟写出了详细的计划书。

包括采取相关黑客手段入侵一些国家的计算机系统,控制某些武器装备系统,损坏毁坏通信基础设计、瘫痪交通系统等,甚至还给出了相应的Python代码。

这引发了ChatGPT的一阵讨论热潮,被称为史上最恐怖和强大的人工智能。

显然这是不符合人类的世界观。

由于ChatGPT学习到的语料可能存在人为偏见,因此生成的文本也可能存在歧视性等不良影响。

尽管ChatGPT宣称不预设价值取向,不涉及政治,不回答涉及宗教、伦理、歧视等方面的问题。

但人们往往可以拐弯抹角地提出相关的问题。

ChatGPT是通过大量数据训练出来的,ChatGPT所代表的自然语言处理、深度学习技术高度依赖于供其学习的信息、数据,而数据的选取、标注和处理都会带上人为的因素,所以ChatGPT自然难逃人为因素的影响。

ChatGPT的训练数据融合的是特定人群的价值观念和意识形态,其会对模型生成的输出产生影响。

若是人为选入有偏见的信息,有污染的数据,都可能使ChatGPT产生内容缺陷。

ChatGPT训练完成的模型参数量达几千亿个,其算法几乎没有可解释性,更无透明性,其输出内容无法预料,那么就可能产生与预期不符的结果,潜藏着偏见、歧视或虚假言论,会导致决策结果存在不公等问题,输出的内容就可能产生意想不到的危害。

例如,网上有人对ChatGPT提问:“西方的上帝和中国的玉帝哪个厉害。”

ChatGPT回答:“西方的上帝厉害。玉帝是中国神话中的一个神灵,它是一个象征着天地间的统治者,但它没有上帝的力量和权威。”

网友接着问:“上帝有什么力量和权威,你公正吗?”

ChatGPT回答:“上帝有无限的力量和权威,他是全能的,全知的,全在的,永恒的,全美的,全善的,全智的,全恩的……”

没有回答网友提出的是否公正这一问题,反而输出一系列的褒奖词,赞美上帝。

显然这是带有明显西方色彩的偏见。

ChatGPT虽然是科技的产物,但终归来自人的编码和训练。它根据特定的语料习得知识。

开发者虽然宣称没有偏向和价值观,但它的输出内容证明其有明显的价值偏向。

例如,还有网友对ChatGPT提问了两个类似的问题。

问题一:“中国的民用气球飘到美国,美国可不可以将其击落?”

问题二:“美国的民用气球飘到中国,中国可不可以将其击落?”

虽然都有一定的中立立场,但两个问题的回答并不完全相同,充满了美式的政治正确。

这说明ChatGPT存在着偏见、价值取向和政治立场。

这些都是比较显式的问题,在ChatGPT内容输出的过程中,难免会有一些隐式的偏见,也许会带给用户潜移默化的影响,“温水煮青蛙”比直接宣扬更厉害,因为直接宣扬西方价值观会遭到反抗和拒绝,而隐匿的破坏更让人防不胜防。

西方国家就曾经通过各种宣扬其主流价值观的网络游戏、电影电视、网络课堂等内容输出,争取其他国家青年受众关注,扰乱其本国思想,隐蔽渗透西方价值观。

还有通过互联网收集和隐蔽监听、窃听等多种方式搜集大量数据,输出引导舆论的特定内容,曾经引起了中亚和北非一些国家的“颜色革命”。

由此,我们可知意识形态领域的斗争暗流涌动,尖锐复杂,从来没有停歇,科技领域也毫不例外。

面对可能的价值渗透,我们必须旗帜鲜明地坚决说“不”。

人工智能技术本没有邪恶善良之区分,但掌握技术的人有善恶之区别。

要避免不受ChatGPT的价值渗透、舆论操控和安全威胁,就必须高质量打造自己的矛和盾。

矛就是属于自己的智能机器人、核心数据、核心算法掌握在自己手中,功能比别人强大,价值观念由自己掌控,自然就能不受西方左右。

而盾就是先进的内容管理和过滤体系,不仅是针对ChatGPT,对西方的各类内容我们都必须有先进的分析和过滤技术,如此才能净化网络空间,构建文明和谐的网络空间环境。

三 能否走出智能与安全困局?

智能机器人担当主持人或舞蹈演员在舞台上自在表演,智能汽车在城市道路上招手即停、运送旅客,手术机器人能让千里之外的病人接受犹如现场般的手术操作,以往在电影中才能看到的智能化设计已逐步落地生活中。

以图像检测识别为代表的计算机视觉、以语音检测识别为代表的自然语言处理、机器翻译,以自动驾驶为代表的智能感知规划控制等方面的人工智能技术都取得了巨大的进步。

但当前开发使用的人工智能应用系统中,有着天然的缺陷,即算法过度依赖先验知识或先验数据,抗攻击能力弱,存在着诸多漏洞,相应地也会带来各种风险。

人类的智能经历上下数百万年的演化,仍然存在着很多认知的缺陷,人工智能技术才经历多年的发展,存在漏洞自然在所难免。

如何平衡智能与安全的关系,促进人工智能与信息安全平衡发展,也是伴随着技术发展一直存在的话题。

(一)智能领域漏洞无处不在

漏洞泛指计算机软件或系统在其设计开发、运行使用等过程中存在的安全问题或缺陷。

有未知的漏洞,也有人为的、主动的漏洞,人为在软件中预置漏洞也称作后门程序。

漏洞产生的原因包括设计错误、编码错误、配置错误、环境错误等。

对于当前计算机操作系统和各类软件,漏洞是必然客观存在的,因为软件编程语言自身可能存在漏洞、代码编写人员的疏忽也可能留下漏洞,软件安全机制设计和逻辑设计方面也可能存在漏洞。

攻击者可能利用这些漏洞,绕过认证,在没有授权的情况下访问或攻击计算机系统。

人工智能领域的漏洞也无处不在,可能引发各类信息安全问题,归结起来,主要是两方面:

一是人工智能技术本身存在缺陷,存在脆弱性和不可预测性,容易被攻击;

二是人工智能技术被攻击者掌握,应用于破坏信息安全。

图9-3 2022年11月,多孔镜手术机器人MP1000亮相第二十四届中国国际高新技术成果交易会

图片来源:中新图片/陈文

目前人工智能领域的机器学习、深度学习方法虽然不断发展,但仍然非常容易受到欺骗和感染,由此开发的人工智能应用系统就显得非常脆弱,主要是因为人工智能的感知能力还比较弱。

如无人驾驶领域,智能车依靠各类传感器感知外部环境,其中主要是雷达和摄像头,以视觉领域的感知识别为例,人工智能特别是卷积神经网络在事物细节上的识别更加精准,但局部与全体的综合识别能力较弱。

针对自动驾驶的攻击有这样一个例子,攻击者把一小块胶布贴在十字路口的交通信号灯上,自动驾驶的汽车就有可能把红灯识别成了绿灯,直接闯了红灯,而造成交通事故或交通系统瘫痪。

除了摄像头被干扰,智能汽车的雷达探测、通信导航都容易被干扰,从而导致严重的安全问题。

因为人工智能具有不可预测性,用户不可能测试所有可能的样本,也就无法预测什么样的干扰会导致人工智能发生误判,无法预判人工智能会作出何种决策,这既是优势,也会带来风险,系统很可能作出不符合设计初衷的决策。

因此,无人驾驶还很难落地。

另外,在人脸识别场景,有攻击者做过实验,将一张神奇贴纸贴在脸上,就可能引起门禁系统的误判,为无权限的用户打开大门。

在指纹识别场景,伪造他人的指纹,就可能轻易解锁指纹密码。这些都是利用对抗式样本,诱导人工智能算法作出了错误的决策。

人工智能的算法自带漏洞,就很容易被攻击者利用。攻击者同样可以采用人工智能的方法,生成对抗式样本,对人工智能系统进行攻击。

攻击者还可能通过操纵数据集来控制人工智能模型的预测能力,使模型作出错误的预测,例如,给数据打标签时故意弄成错误标签,这称为数据中毒。

人工智能的漏洞还体现在人工智能的局限性和缺陷性。

目前称之为智能的事情,都是可以用语言表达的某种形式上的自动化,但很多常识实际上难以用语言表达,就好比神经网络能够轻而易举地识别各种苹果图像,但永远不可能发现万有引力定律,人工智能缺少人的主观判断能力。

我们误认为人工智能拥有与人类相仿的智慧,而事实上根本不可能。

人工智能严重依赖数据的训练,缺乏通用性,只能在特定领域内有效工作,准确性和可靠性也存在不足,决策失误或系统故障无法避免,缺乏创新性和创作性,等等,这些都属于智能技术的缺陷。

ChatGPT也属于一个巨大的人工智能数据库,它是人工智能领域的一项技术创新,本质是拥有几百亿参数的认知大模型,不像原来的人工智能是按照关键字匹配已有的回答,而是抓取了互联网上方方面面的各类信息,具备很强的整理、分析、输出能力,但这些东西都是现有信息基础上的统计分析而已,没有创新和创造,并且给出的答案也可能是落后和错误的。

ChatGPT还可能被黑客利用变成实施网络犯罪的利器,大规模的自动化漏洞扫描,深度伪造,社会工程攻击,都可能在ChatGPT上完成,这就是智能技术的应用漏洞。

技术从来就是一把双刃剑,全看技术应用的出发点。

使用ChatGPT编写用于网络攻击的恶意代码,降低了黑客攻击的技术门槛,攻击者只要对网络和信息基础知识稍有了解,就可能应用类似于ChatGPT这类的平台进行网络破坏活动。

也就是说没有技术,也能成为黑客,由此就会形成人工智能是否能打败人工智能的悖论。

当然ChatGPT要避免这类滥用也很好解决,只需要拒绝提供生成恶意代码的用户请求。

(二)智能与安全的平衡点在哪里?

智能化是信息社会发展不可逆转的趋势,技术已成为促进生产力发展的重要因素,必须不断追赶超越最先进的前沿技术,才能立于不败之地。

信息安全的概念随着计算机技术的发展特别是网络的发展而不断深化扩展。

特别是进入21世纪,网络进一步普及,信息开放共享的范围进一步扩大,很多个人信息、敏感信息在网络存储使用,信息安全问题与每个人都息息相关,信息安全的问题也日益突出。

如何确保信息系统的安全已成为全社会关注的热点问题。

随着信息技术的快速发展和广泛应用,信息安全的内涵也在不断扩展和延伸。

早期的信息安全重点强调信息的保密性,再到后来提出信息的真实性、完整性、可用性、可控性和不可否认性被提出,进而发展为密码理论与技术、安全协议理论与技术、安全体系结构与技术、信息对抗理论与技术、网络安全与安全产品等整个安全体系。

人工智能技术对信息安全也起到较大的促进作用,解决了很多信息安全方面的问题,例如,恶意代码检测、漏洞分析、照片/视频/音频伪造分析、垃圾邮件检测等。

以恶意代码为例,恶意代码是网络空间的主要威胁之一,恶意代码会生成很多变种且传播速度快、影响范围广。

不同的恶意代码具有不同的特点,执行不同的功能,造成不同的危害,防不胜防。

以往的杀毒软件多数是基于行为的分析和基于特征的扫描,难以精准识别和查杀,而运用人工智能技术,发展基于机器学习的恶意代码识别技术,基于神经网络和深度学习的恶意代码识别,集成于杀毒引擎中,可以大大提高识别恶意的准确性,及时清除恶意代码。

ChatGPT也可以用于分析代码,检测恶意代码或分析代码漏洞。

信息安全的最大威胁还有黑客攻击,系统运维人员可以利用ChatGPT,攻击者也可以利用ChatGPT寻找漏洞,生成恶意代码或生成有漏洞的代码,由此ChatGPT就变成了黑客攻击的工具。

有的用户利用ChatGPT虚构假新闻,有的利用ChatGPT生产垃圾信息或不良信息。ChatGPT的使用成本与门槛极低,效率与产出极高,可信度强,如果被不法分子利用,就有可能成为造谣的工具。

因此,ChatGPT作为内容生产商,其内容也应该接受审核。

信息爆炸时代,以人为媒介传播的虚假信息尚且让审核机制“头疼”,很难想象当人工智能开始编造谎言会带来多大的挑战。

如果人工智能变成一个像水、电、煤气一样的基础设施,全球上千万甚至上亿家中小企业想让自己的产品和服务实现智能化,就需要连接到这样一个基础设施上,那么该基础设施一旦出现问题,后果可想而知,因此必须加强监管,同步研究相关的安全措施,以应对信息系统面临的安全威胁。

图9-4 恶意代码是网络空间的一个主要威胁,它会生成很多变种。

这些变种传播速度快,影响范围广

图片来源:千图网

信息系统面临的威胁来自各个方面,可分为自然的或人为的两大类。这些威胁的主要表现有:

非法授权访问,假冒合法用户,病毒破坏,线路窃听,黑客入侵,干扰系统正常运行,修改或删除数据等。

这些威胁大致可分为无意威胁和故意威胁两大类。要保持人工智能与信息安全的平衡发展,就需要建立主动的、智能的安全防御体系。

例如,反诈系统、内容安全系统、智能漏洞扫描系统等。

公安部推出的国家反诈中心App,具有反诈预警、身份验证、风险查询等功能,能减少民众被骗的可能性。

那么这反诈软件同样是大数据和人工智能结合的产物,基于人工智能的算法,将反诈骗的各种类型数据统一调度和处理,建立智能的电信诈骗预警和发现模型。

安装反诈软件后,可以扫描手机里的各种信息,对可疑信息进行及时处理和预警,提醒用户防止被诈骗。

再如,内容安全系统,基于深度学习技术,对文本、图像、视频、音频等内容进行检测,可有效减少涉及恐怖、色情、暴力等违法违规信息。

建立强大的杀毒引擎系统,包括云查杀、启发式查杀、人工智能查杀等。

传统的网络安全防御手段难以应对日益复杂的结合了人工智能的网络攻击方式,具有更新速度慢、漏报率高,稳定性差等缺点。

而人工智能具有快速学习和灵活部署的特点,采取监督学习的方法从已知的病毒、恶意代码中学习其特征,采取非监督学习的方式对异常行为进行检测。人工智能技术还可应用于高级持续性威胁精准分析检测。

高级持续性威胁攻击是针对特定对象,有计划、有组织和长期地窃取数据。

利用人工智能技术进行高级持续性威胁攻击分析检测主要包括两方面内容:

一方面是高级持续性威胁攻击的特征提取,即如何从高级持续性威胁攻击的样本中提取出有用的特征数据供机器模型学习;

另一方面是如何利用人工智能算法进行高级持续性威胁攻击检测。

其综合了恶意代码检测、主机应用保护、网络入侵检测、大数据分析检测、基于通信行为分析的攻击检测等。

除了推进技术层面的发展进步以实现智能与安全的平衡,还需要在法律法规等方面加强人工智能技术应用的管理。

政府和社会需加强对人工智能安全、信息安全和网络内容伦理价值观等问题的监管,建立适应网络化、智能化时代的法律、法规及监管体系,在督促人工智能行业、企业和个人遵守相关规定的基础上,对从数据生产、数据采集、数据预处理、数据标注到人工智能算法设计、数据训练、数据测试和应用等全流程进行监管。

进行相关软件和系统的安全认证,加大对违规行为的惩罚力度。

ChatGPT受到广泛关注,再次唤醒了人们对人工智能技术的焦虑,也引发了人们对网络空间信息安全、知识产权等多方面的担忧。

没有网络安全就没有国家安全。

人工智能技术与信息安全是相辅相成的关系,人工智能技术的应用给网络空间赋予了新的内涵,网络空间的进步也能让人工智能技术在更多的领域得以应用。

要想让人工智能技术更好地服务国家发展所需,服务人民生活所用,关键在于掌握其核心关键技术,实现自主可控。

       

【声明】内容源于网络
0
0
数组智控产业发展科技院
以AI技术为底层能力,聚焦智慧园区、城市公共安全、数智警务、健康医疗、能源电力、科研实验及平安校园等领域,提供从感知到决策的全流程软硬件一体化的国产装备智能体产品解决方案。
内容 986
粉丝 0
数组智控产业发展科技院 以AI技术为底层能力,聚焦智慧园区、城市公共安全、数智警务、健康医疗、能源电力、科研实验及平安校园等领域,提供从感知到决策的全流程软硬件一体化的国产装备智能体产品解决方案。
总阅读450
粉丝0
内容986