当前位置:AIGC资讯 > AIGC > 正文

民调显示:58%美国成年人认为AI将在2024年选举中增加虚假信息

美国联合通讯社(Associated Press)与芝加哥大学哈里斯公共政策学院最新的民调显示,在2024年即将来临之际,人工智能工具的快速发展可能会以前所未有的规模加剧选举中的虚假信息。根据这项民调,几乎六成(58%)的成年人认为人工智能工具会增加明年选举中虚假和误导性信息的传播。相比之下,只有6% 的人认为人工智能会减少虚假信息的传播,而三分之一的人表示这不会有太大影响。

调查还发现,只有30% 的美国成年人使用过人工智能聊天机器人或图像生成器,不到一半的人(46%)听说或读过一些关于人工智能工具的内容。尽管如此,大多数人一致认为候选人不应该使用人工智能。

图源备注:图片由AI生成,图片授权服务商Midjourney

当被问及2024年总统候选人使用人工智能的某些方式是否好事时,绝大多数人表示制作虚假或误导性的媒体(83%)、为政治广告编辑或修饰照片或视频(66%)、根据个别选民量身定制政治广告(62%)以及通过聊天机器人回答选民的问题(56%)都是不好的。共和党和民主党的多数人都认为制作虚假图片或视频(共和党85%,民主党90%)以及回答选民问题(共和党56%,民主党63%)都是不好的。

两党对候选人使用人工智能持悲观态度,这是在共和党总统初选中已经应用了人工智能之后的情况。今年4月,共和党全国委员会发布了一则完全由人工智能生成的广告,旨在展示如果总统乔・拜登连任,国家的未来将会如何。广告使用了看起来逼真但实际是虚构的照片,显示了封闭的店铺、街上的装甲军事巡逻和移民潮引发的恐慌。广告以小字体披露它是由人工智能生成的。

佛罗里达州共和党州长罗恩・德桑蒂斯(Ron DeSantis)也在其竞选活动中使用了人工智能。他推广了一则广告,使用了人工智能生成的图像,使其看起来好像前总统唐纳德・特朗普在拥抱负责监督美国对 COVID-19大流行病反应的传染病专家安东尼・福奇。

荷兰密歇根州的42岁女性安迪・尼尔(Andie Near)通常支持民主党,她表示:“我认为他们应该以自己的优点来竞选,而不是以能够让选民恐惧的能力来竞选。” 她在博物馆工作时使用过人工智能工具来修饰图像,但她认为政客使用这种技术进行误导可能会 “加深和恶化甚至是常规攻击广告可能造成的影响”。

对于候选人使用深度伪造的声音或图像使其看起来好像说了他们从未说过的话,康涅狄格州的21岁大学生托马斯・贝斯根(Thomas Besgen)也持不同意见。他说:“从道义上讲,那是错误的。” 他赞成禁止深度伪造广告,或者如果不可能的话,要求对其进行标注,标明是由人工智能生成的。

目前,美国联邦选举委员会正在考虑一份请愿书,敦促其在2024年选举前对人工智能生成的深度伪造广告进行监管。

虽然贝斯根对人工智能在政治中的使用持怀疑态度,但他对其在经济和社会中的潜力持积极态度。他经常使用人工智能工具(如 ChatGPT)来帮助解释他感兴趣的历史课题或构思创意。他还使用图像生成器进行娱乐,例如想象未来100年体育场馆的样子。他表示自己通常相信从 ChatGPT 获取的信息,并可能使用它来了解更多有关总统候选人的信息,而这只有5% 的成年人表示他们有可能这么做。

民调显示,与人工智能聊天机器人提供的信息相比,美国人更倾向于咨询新闻媒体(46%)、朋友和家人(29%)以及社交媒体(25%)获取有关总统选举的信息。

绝大多数美国人对人工智能聊天机器人所提供的信息持怀疑态度。只有5% 的人表示他们非常或非常有信心这些信息是准确的,而33% 的人表示有些信心。大多数成年人(61%)表示他们对这些信息不太或根本不信任。

这与许多人工智能专家警告不要使用聊天机器人获取信息的观点一致。驱动聊天机器人的人工智能大型语言模型通过反复选择句子中最合理的下一个词来工作,这使得它们擅长模仿写作风格,但也容易编造事实。

与两大政党有关的成年人普遍支持对人工智能的监管。他们对技术公司、联邦政府、社交媒体公司或新闻媒体可能强加的禁止或标记人工智能生成内容的各种方式都持积极态度。

大约三分之二的人赞成政府禁止在政治广告中包含虚假或误导性图像的人工智能生成内容,同样多的人希望技术公司对其平台上的所有人工智能生成内容进行标记。本周,当拜登签署了一项指导快速发展技术的行政命令时,已经为人工智能制定了一些联邦准则。该命令要求该行业制定安全和安保标准,并指示商务部发布关于标记和水印人工智能生成内容的指导。

美国人普遍认为,在2024年总统选举中防止人工智能生成的虚假或误导性信息是一个共同的责任。约六成人认为,科技公司(63%)在其中承担了很大责任,但约一半的人也认为新闻媒体(53%)、社交媒体公司(52%)和联邦政府(49%)同样承担了很大责任。

更新时间 2023-11-03