生成式人工智能如何影响美国大选?政策应对框架解析
随着2024年美国总统大选临近,生成式AI在政治广告中的应用引发广泛关注。本文基于布鲁金斯学会报告,探讨AI对选举的潜在风险及公共政策应对路径。
生成式人工智能(GenAI)正逐步介入政治竞选环节。2024年美国总统大选将成为GenAI广泛普及后的首次大选,其在政治广告中的应用日益增多,虚假图像、视频和文本可能误导选民、放大偏见,甚至破坏选举公正。然而,美国目前缺乏有效法律与监管机制应对这一挑战。
北卡罗来纳大学教堂山分校技术政策中心近期发布报告指出,尽管学术界普遍认为政治广告本身对公众认知的影响有限,且尚无充分证据表明GenAI显著增强了这种影响,但在低关注度、小规模选举中,AI生成内容仍可能产生实质性干扰——因候选人曝光度低、监督薄弱,虚假信息更易传播。
北卡罗来纳大学教堂山分校实景(图源:搜狐)
当前政策讨论聚焦于强制水印、使用声明或禁止欺骗性AI内容,但研究显示这些措施效果有限。报告建议,应从“选举危害”而非“技术本身”出发制定公共政策,并推动相关实证研究。
首先,应明确打击选民压制行为。目前联邦层面尚无禁止选民压制的法律,部分州也存在立法空白,亟需补足。
其次,政府应为司法部民权司提供充足资源,以应对利用AI进行歧视或权利剥夺的行为,确保民权法规有效执行。
第三,地方与州政府应加大高质量信息供给。通过GenAI技术规模化生产准确内容,可有效稀释虚假信息的传播空间,提升公众辨别能力。
第四,推广数字素养教育。资助数字素养项目,帮助公众识别深度伪造、篡改图像等合成内容,增强对在线信息的批判性认知。
第五,联邦选举委员会(FEC)应发挥引导作用,发布政治广告中AI使用指南,重点防范算法偏见,并推动行业规范形成。
芝加哥市长候选人保罗·瓦拉斯遭遇深度伪造广告,被错误描述政治立场(图源:Getty Images)
此外,应加强研究支持,评估GenAI在政治广告中的实际影响及干预措施的有效性,探索追责机制的可行性。同时提升透明度,要求公布跨平台政治广告档案,并强制竞选方披露广告供应商与支出明细,便于媒体与研究人员监督。
GenAI生成的美国前总统特朗普图像(图源:Pixabay)
面对AI带来的不确定性,需尽快建立政策框架,降低风险,弥补认知盲区。技术创新应服务于民主进程,而非成为其威胁。
作者:马特-佩罗尔特(杜克大学科技政策中心主任)、J. 斯科特-巴布瓦-布伦南(杜克大学科技政策中心高级政策助理)
本文原载于2023年12月11日布鲁金斯学会,译者周宇笛,审校黄紫蓝。
免责声明:本文观点仅代表作者个人,不代表发布机构立场。

