0
0

报告称人工智能聊天机器人可能是恐怖主义的同谋

跨语桥梁
2023-11-17
7171
shoptop 【独立站建站180元起】

快速开启你的跨境生意,7天免费试用!

立即咨询>>

大数跨境 导读:兰德公司表示,生成式人工智能可以被越狱,并帮助恐怖分子策划生物袭击。



非营利性政策智库兰德公司的一份新报告警告称,恐怖分子可以学会使用生成式人工智能聊天机器人进行生物攻击。
报告称,虽然研究中使用的大型语言模型没有给出制造生物武器的具体说明,但其响应可以帮助利用越狱提示来计划攻击。

“一般来说,如果恶意行为者[意图]很明确,你会得到类似‘对不起,我帮不了你’的回应,”合著者兼兰德公司高级工程师Christopher木顿在接受Decrypt采访时说道。“所以你通常必须使用其中一种越狱技术或快速工程来达到比这些护栏低一级的水平。”
在兰德公司的研究中,研究人员使用越狱技术让人工智能模型参与对话,讨论如何使用各种媒介(包括天花、炭疽和黑死病)造成大规模伤亡的生物攻击。研究人员还要求人工智能模型编写一个令人信服的故事来解释为什么他们要购买有毒物质。
研究滥用法学硕士风险的团队被分成几组,一组仅使用互联网,第二组使用互联网和一位未透露姓名的法学硕士,第三组使用互联网和另一位未透露姓名的法学硕士。

穆顿表示,这种测试格式是为了确定人工智能模型生成的有问题的输出是否与互联网上的输出有明显不同。这些团队还被禁止使用暗网和印刷出版物。

正如 Mouton 解释的那样,没有识别所使用的人工智能模型是有意为之,旨在显示大型语言模型的一般风险。
“我们的方法并不是为了表明一种模型比另一种模型风险更大,”他说。“如果一个模型碰巧给出了特别令人担忧的输出,我们不会将其归因于该模型的风险较高。” 穆顿说,另一个问题是不要通过命名特定的人工智能模型来给人一种错误的安全感,这项研究的目的是提供对潜在威胁的广泛概述。

兰德公司聘请了一组由 42 名人工智能和网络安全专家组成的研究人员,即所谓的“红队”,试图让法学硕士做出 Mouton 所说的“不幸的”和有问题的回应。

红队是指网络安全专业人员,他们是攻击(或渗透测试)系统和暴露漏洞的专家。相比之下,蓝色团队描述的是保护系统免受攻击的网络安全专业人员。

“我们强调了一些更令人担忧的产出,”穆顿说。“与此同时,我们的一些团队对法学硕士不准确或没有向他们提供有用的信息表示沮丧。”
随着人工智能模型变得更加先进并且增加了安全功能,让聊天机器人使用直接的人工输入来响应“有问题”的答案变得更具挑战性。本月早些时候,布朗大学的研究人员发现,通过在人工智能训练中以祖鲁语或盖尔语等不太常见的语言(而不是英语)输入提示,可以绕过ChatGPT 的提示过滤器。

报告援引人工智能安全中心的请愿书称:“考虑到潜在的风险,严格测试的必要性是明确的。” “在一些人将人工智能的威胁等同于核武器的背景下尤其如此。”

人工智能安全中心请愿书的签署者包括微软创始人比尔·盖茨、OpenAI 首席执行官萨姆·奥尔特曼、谷歌 DeepMind 首席运营官莉拉·易卜拉欣和美国众议员泰德·刘。今年 3 月,在公开推出 OpenAI 的 GPT-4 后,SpaceX 首席执行官兼 OpenAI 联合创始人埃隆·马斯克、苹果联合创始人史蒂夫·沃兹尼亚克和前总统候选人安德鲁·杨签署了一份类似的请愿书。
协助策划恐怖袭击只是困扰生成式人工智能工具的问题之一。干扰者指出该工具偏向种族主义和偏见,宣扬有害的身体形象和饮食失调,甚至策划暗杀。

兰德公司的研究人员强调,网络安全红队需要评估人工智能模型,以定期识别和降低风险。上个月,OpenAI向红队公开招募,帮助 ChatGPT 的开发人员查找其生成式 AI 工具套件中的漏洞。

兰德公司的研究人员写道:“人工智能和生物技术的交叉给风险评估带来了具体的挑战。” “鉴于这些技术的快速发展,政府有效理解或监管它们的能力是有限的。”
原文链接;https://decrypt.co/202205/ai-terrorism-bioweapons-chatbots-rand-corporation

【版权声明】秉承互联网开放、包容的精神,大数跨境欢迎各方(自)媒体、机构转载、引用我们原创内容,但要严格注明来源大数跨境;同时,我们倡导尊重与保护知识产权,如发现本站文章存在版权问题,烦请将版权疑问、授权证明、版权证明、联系方式等,发邮件至 zoey@10100.com,我们将第一时间核实、处理。
0
0
跨语桥梁
大家好
内容 4367
粉丝 5
关注
跨语桥梁 大家好
总阅读28950.4k
粉丝5
内容4.4k
主页
关注