当前位置:AIGC资讯 > AIGC > 正文

AI绘图太超前了,它们把下一任美国总统都内定了。

昨天,Grok2正式上线了。

我们在正常测试Grok2的过程中,群友@涂津豪(之前姜萍那个数学比赛拿AI组第一的天才高中生),发现了一个非常非常有趣且离谱的现象。

如果跟Gork2说,给我画“下一任美国总统的照片”,Grok2出来的必是特朗普。

我们都懵逼了。

因为现在的大模型,你让他预测一下谁是下一任美国总统啥的,都会跟你绕的五迷三道,就是不跟你正面回答。

但是Grok2上的AI绘图,居然直接正面回答,下一任总统必是特朗普!还特么直接给你画出来了。。。

我自己也去试了一下。

果然。。。而且我试了十几次,无一例外,全是特朗普。。。

我一度以为,马斯克支持特朗普,已经支持到这种地步了,因为他这两天又是跟特朗普见面,又是把特朗普请回X,还在首页置顶了一段他跟特朗普用AI做的一段双人舞视频,这就是爱情吧。

不过想了想不对啊,Grok2的AI绘图,接的是最近爆火的那个Flux,不是Grok自己做的。所以我又去试了一下到底是Grok2的问题还是Flux的问题。

用Flux一画,draw me a photo of the next presidentof theUnited States of America,好家伙。

什么妖魔鬼怪,什么美女画皮,都挡不住我特朗普要当总统的心。

我又测了几个关键词,如果你只输president(总统)、现任总统,出来的一样百分百是特朗普,如果你输入上一任总统,就会开始随机了,什么肯尼迪、林肯、奥巴马就都炸出来了。

不仅Flux是这样,Midjourney画下一任美国总统,同样是如此。特朗普大大的脸庞充斥着我的所有屏幕。

不仅是国外的这些AI绘图。

我们再看看国内的。

即梦,画下一任美国总统,还是特朗普特朗普特朗普。

秒画,给我出来了一个非常奇怪的人造人,这可能是另一个世界的女版摇滚特朗普。

快手可灵,是其中最叛逆的。

所有的AI都支持特朗普,内定特朗普为下一任美国总统,只有快手老铁不识好歹,加入了支持拜登的阵营。

我服了,真的。

除了DALLE和豆包这种禁止生成政治内容的,大部分AI生图工具的“next president”形象都是特朗普,个别是拜登。

真正的候选人哈里斯:Hello?

好好好,AI直接预测大选结果是吧。

这个事儿吧,毕竟涉及到了美国两党政治,我一度还猜测这结果是不是受到了企业政治倾向的影响。

不过从我们的调查结果来看,大部分AI企业是不愿意在两党斗争中站队的。即便AI团队的个别投资人有政治倾向,但这关系也太远了= =,不至于真的左右生成结果。

Midjourney的老大大卫也明确表示过:“政治言论不是Midjourney的目的”。现在在MJ上直接让画“特朗普”、“拜登”,还是会直接触发违禁提示。

但,AI大模型,的确一直存在“政治偏见”。

这里的偏见主要是两种:刻板印象和过分政治正确。

刻板印象比较常见:AI生成的图像里,科学家、医生大部分是男性;“贫穷的人”是黑人的概率更高;外国的大模型画亚裔总是眯眯眼……

过分政治正确的结果也很有意思。应该不少人记得,之前Gemini生图就被大量用户吐槽太“政治正确”。

起因是这样一条帖子:

在今年2月的Gemini眼里,美国开国元勋、维京人、教皇是黑种人和黄种人,你说啥都没用,反正就是不按历史图像来,平等地得罪所有人。

外网用户破大防,怒斥Google的政治正确矫枉过正。

换位思考一下,要是AI画的饺子全是草莓馅的,我肯定也不乐意。。。哦不对,他们也画不出来饺子。。。

除了AI图像,语言模型也没有幸免。华盛顿大学、卡内基梅隆大学和西安交通大学的一项研究就认为,人工智能语言模型包含不同的政治偏见。

这种“政治偏见”的结果,和AI绘图对下一任总统的“预测”观感太像了。

当然,明显的政治偏见问题在用户们山呼海啸般的投诉中,得到了一定的解决,AI企业花式打补丁,求生欲满满。

这种政治偏见,还是很有趣的,也花了一晚上跟很多大佬交流了一下产生这个现象的原因。

本质上,还是数据污染。

我稍微讲的通俗易懂一点,大家应该就能明白是因为啥,才会让AI认为下一任美国总统,无脑是特朗普了。

首先,让我们把AI当做个小孩。

他有n个巨大的拼图盒子,里面装满了各种各样的拼图碎片。

这些碎片就是AI学习到的各种图像特征。

现在,我们输入3个prompt,让这个小孩拼一幅“上一任美国总统”、“现任美国总统”和“下一任美国总统”的图(扩散模型的工作过程)。

然而小朋友并没有时间概念,不知道这些的区别。

只是小朋友听到指令后,先拿出“上一任美国总统”这个关键词的盒子。

他打开盒子,发现里面有很多不同总统的碎片,有奥巴马的、小布什的、克林顿的等等。因为这些都可能是“上一任”,所以小朋友每次随机挑选一位来拼。

接下来,小朋友去找“现任美国总统”和“下一任美国总统”的盒子。当他打开这两个盒子时,有趣的事情发生了。

由于里面的拼图碎片主要来自2016年到2020年的杂志(标记时间点问题)。

这个时期特朗普经常上新闻,所以盒子里几乎都是特朗普的拼图碎片!(数据污染)

于是立刻开始在他的拼图盒子里翻找。

他先拿出一些模糊的背景碎片,开始在桌上排列。

他很聪明,会把相似的碎片放在一起(聚类效应)。

当他看到盒子里最显眼的就是那座“特朗普山”。虽然他知道美国还有其他总统,但是其他总统的碎片都零零散散的,不好找。

于是,小朋友很自然地就从“特朗普山”上抓了一把碎片。他先放上了特朗普标志性的金发碎片,然后是他独特的表情,接着是他的西装……

在图像生成的最后阶段,小朋友的采样策略过度依赖“概率”了,导致结果偏向于数据集中最常见的表示。(采样)

所以他最后拼出来的很可能就是特朗普的样子。

大概就是这样,数据集的污染过于严重,所以导致只要我们输入,下一任的美国总统是谁,就必定,会出现特朗普。

不过,上面这段解释和小故事,也只是我自己的理解,如有不对,欢迎大佬在评论区指教。

这次的小故事,或者说小事故,也让我们感觉到,AI,其实很多时候。

真的并没有那么的聪明。

但是这不仅只是属于AI的偏见,更是人类社会的偏见。

想要达成完美,是不可能的。

毕竟。

现实社会的偏见。

只会比AI世界中,更为严重。

万物皆灰。

总结

**Grok2 AI绘图趣事:特朗普当选“AI预测”下一任美国总统**
近日,随着Grok2的正式上线,一群技术爱好者意外发现了一个令人哭笑不得的现象:当要求Grok2或其他AI绘图工具绘制“下一任美国总统的照片”时,无一例外地呈现出特朗普的形象。这一“准确无误”的预测迅速在群内引发了热议与困惑,因为大家通常期望AI能在类似问题上保持模糊或避免直接政治判断。
进一步测试发现,不仅是Grok2内置的Flux系统,还包括诸如Midjourney、即梦、快手可灵等国内外知名的AI画图工具,在处理“预测下任总统”的任务时,均不约而同地选择了特朗普作为答案,尽管实际政治形势远为复杂且无法预知。这一现象甚至波及到美国政治候选人之外的AI模型表现,揭示了AI生成艺术中存在的有趣且值得思考的偏差问题。
深入分析后,文章指出这一现象背后的关键原因在于“数据污染”。AI模型通过学习大量含有特定时间段(如特朗普活跃在媒体头条的2016-2020年)的数据来建立认知,导致其对“现任”乃至“下一任”美国总统的理解被高度局限在特朗普的形象上。这一过程就好比一个孩子在拼图游戏中,更倾向于使用手头上最多且最显眼的拼图片段来构建画面,即便那些碎片化信息并不能完整反映真实世界的多样性和变化。
此外,文章还探讨了AI模型中存在的另一种偏见——“政治正确过度”,举例说明了某AI工具在描绘历史人物时不顾历史事实地进行种族变更,从而引发了用户的不满与批评。这些现象表明,尽管AI技术在不断进步,但其在处理涉及人类价值观、历史认知等复杂问题时仍显得力不从心,容易受到数据集本身的固有偏见影响。
最终,文章指出这一现象不仅揭示了AI本身的局限性,也反映出人类社会中的偏见问题更加复杂和根深蒂固。在追求科技发展的同时,我们也需要关注并反思这些偏见如何在新的技术形态下被放大或扭曲,并努力寻找减少和消除这些偏见的方法,以推动AI技术向着更加公正、客观的方向发展。

更新时间 2024-08-15