
本期资讯聚焦于人工智能(AI)的安全与治理议题,精心搜集了一系列热门话题和深度报道。我们的目标是为您提供一个全面的视角,帮助您深入理解AI技术所带来的风险挑战以及相应的治理策略。该资讯主要探讨AI安全与治理,涵盖国际合作、企业责任、技术创新和政策制定。旨在提供最新动态,启发思考与创新,共促技术与社会价值和谐发展。
AI安理资讯(5月)
AI安全问题的多方面关注:新华网报道了人工智能带来的安全问题,包括AI模型的数据获取、数据训练以及应用上线运营全过程,并强调了AI本体安全、应用安全和衍生安全的重要性
AI安全监管的进展:美国在AI领域的安全监管迈出关键步伐,新成立的AI安全委员会将由OpenAI、英伟达、微软和Alphabet等科技公司的首席执行官领衔,共同探讨如何在美国的关键基础设施中安全地使用AI。

C3安全大会·2024的召开:5月18日,C3安全大会在中国南京召开,主题为“安全AI未来”,旨在探索AI+时代的数字安全之道,并开拓高质量增长新赛道。

第二届人工智能安全峰会:5月21日至22日,在韩国首尔举行的第二届人工智能安全峰会上,来自北美、亚洲、欧洲和中东地区的15家顶级人工智能公司签署了前沿人工智能安全承诺,旨在确保AI模型的安全性和负责任的治理。
全球科技公司的安全承诺:在首尔峰会期间,包括亚马逊、微软、Meta、谷歌、Anthropic、OpenAI、特斯拉创始人马斯克建立的xAI、法国的Mistral AI、韩国的三星电子、Naver、阿联酋的G42、TII以及中国的智谱AI等16家全球领先的科技公司签署了“前沿AI安全承诺”,致力于确保其AI模型的安全性,并实施负责任的治理
全球AI安全报告:一份由30多个国家的专家支持的全球AI安全报告显示,AI技术可能带来的风险,包括劳动力市场冲击、黑客攻击或生物攻击,以及社会对AI失去控制等问题。
国际专家呼吁加强AI风险管理:发表于《科学》杂志的一份专家共识文章中,25位世界顶尖AI科学家呼吁全世界应对AI风险采取更强有力的行动,包括建立快速行动的AI监管机构,并为这些机构提供资金。
谷歌DeepMind推出AI前沿安全框架:谷歌DeepMind推出了一套前沿安全框架,旨在主动识别未来可能造成严重伤害的AI能力,并建立检测和减轻它们的机制。
OpenAI安全团队变动:OpenAI面临了安全团队成员的连续离职,包括AI策略研究员Gretchen Krueger和首席科学家Ilya Sutskever等,引发了外界对OpenAI安全问题决策过程的质疑。
美国参议院AI立法进展:美国参议院AI工作组发布了《推动美国在AI领域的创新:参议院AI政策路线图》,提出了鼓励性政策,包括每年划拨320亿美元的研发经费,但未具体提及风险治理措施。
欧盟理事会批准《人工智能法案》:5月21日,欧盟理事会正式批准《人工智能法案》,对AI应用进行风险评估和分类,并制定相应的监管措施。

中美人工智能政府间对话首次会议:5月14日,在瑞士日内瓦举行的中美人工智能政府间对话首次会议上,双方就人工智能科技风险、全球治理等问题进行了深入交流。

当地时间2024年5月14日,中美人工智能政府间对话首次会议在瑞士日内瓦举行。图源:“宽广太平洋”
《先进人工智能安全国际科学报告:中期报告》发布:由图灵奖得主Yoshua Bengio牵头,75位顶尖人工智能专家共同参与的报告发布,对通用型人工智能的迅速发展进行了科学评估,并为政策制定者和公众提供了基于科学的、最新的理解。
全球AI安全报告:一份由30多个国家的专家支持的全球AI安全报告指出,AI技术可能带来的风险,包括劳动力市场冲击、黑客攻击或生物攻击,以及社会对AI失去控制等问题。
科学家的紧急呼吁:发表于《科学》杂志的一份专家共识文章中,25位世界顶尖AI科学家呼吁全世界应对AI风险采取更强有力的行动。他们强调了AI安全研究的严重匮乏,并建议各国政府建立快速行动的AI监管机构,为这些机构提供资金。
往期内容
AI数智源,公众号:Al数智源5月AI榜单丨国内体验“黑”榜,留给百度的时间真的不多了
AI数智源,公众号:Al数智源5月AI榜单丨全球总榜(更新第三周数据)
AI数智源,公众号:Al数智源5月AI榜单丨国内总榜(更新第三周数据)
将我们设为星标🌟,获取更AI资讯

