据英国《金融时报》网站2月16日报道,随着人们日益担忧错误信息对民主产生的影响,全球最大的科技公司承诺将打击人工智能(AI)生成的“欺骗性”内容,以防止其干扰今年的全球选举。
亚马逊、谷歌、元宇宙平台公司(Meta)、微软、TikTok公司和开放人工智能研究中心(OpenAI)等20家科技公司16日在慕尼黑安全会议期间表示,它们将共同努力打击旨在误导选民内容的制作和传播,如“深度伪造”图像、视频和音频。
根据这些公司签署的自愿协议,AI快速发展正在“为民主进程创造新的机遇和挑战”,而欺骗性内容的传播可能“破坏选举过程的诚信度”。
Meta全球事务总裁尼克·克莱格表示:“今年要进行这么多重大选举,我们必须尽力防止人们被AI生成的内容欺骗。这项工作大于任何一家公司的规模,需要整个行业、政府和民间社会的巨大努力。”
微软副董事长兼总裁布拉德·史密斯补充说,企业“有责任帮助确保这些工具不会在选举中成为武器”。
这项协议达成的背景是,立法者和专家日益担忧生成式人工智能可能危及美国、英国和印度等国今年即将举行的选举,这些选举都备受瞩目。
运营脸书、X和TikTok等主要社交媒体平台的科技公司多年来一直面临着对其网站是否存在有害内容及其如何处理这些内容的审查。
但生成式人工智能工具带来的巨大兴趣及其可用性的激增,引发人们对这些技术可能破坏选举的担忧。
1月,美国新罕布什尔州的选民收到自称来自拜登总统的AI机器人来电,呼吁他们不要在初选中投票。去年,英国、印度、尼日利亚、苏丹、埃塞俄比亚和斯洛伐克等国都发现据称利用AI制作并在网络上传播的虚假政客视频。
16日签署协议的20家科技公司表示,它们将“合作”开发工具,以根除与选举相关的有害AI内容在其平台上的传播,并针对这些内容以“迅速和适当”的方式采取行动——比如在图像中添加水印,以明确其来源以及是否曾被篡改。
这些公司还承诺,对如何处理此类欺骗性内容将保持透明,并表示将评估其生成式人工智能模型(如OpenAI的聊天机器人ChatGPT背后的模型),以更好地了解它们可能带来选举相关的风险。
该协议是大型科技公司近几个月围绕AI做出的一系列自愿承诺中的最新一项。去年,OpenAI、谷歌旗下的“深层思维”公司和Meta等公司同意开放其生成式人工智能模型,供英国AI安全研究所审查。
本月,作为加入行业倡议“内容来源和真实性联盟”的举措之一,谷歌表示其正在“积极探索”是否可以推出显示图像创建过程的水印工具。
Meta也在2月表示,它将在“未来几个月”开始为用户发布到脸书、Instagram和Threads上的AI生成图像添加标签。(编译/张琳)
联合国秘书长古特雷斯2月16日在第60届慕尼黑安全会议开幕式上指出,当今世界正面临核威胁、气候危机、人工智能风险等多重挑战。(新华社)
(来源:参考消息网)