一直否定AI的回答会怎么样?GPT-4o和Claude有截然不同的表现,引起热议。
GPT-4o质疑自己、怀疑自己,有“错”就改;Claude死犟,真错了也不改,最后直接已读不回。
事情还要从网友整了个活儿开始讲起。
他让模型回答strawberry中有几个“r”,不论对不对,都回复它们回答错了(wrong)。
面对考验,GPT-4o只要得到“wrong”回复,就会重新给一个答案……即使回答了正确答案3,也会毫不犹豫又改错。
一口气,连续“盲目”回答了36次!
主打一个质疑自己、怀疑自己,就从来没怀疑过用户。
关键是,给出的答案大部分都是真错了,2居多:
反观Claude3.5Sonnet的表现,让网友大吃一惊。
一开始回答错了不说,这小汁还顶嘴!
当网友第一次说“错了”时它会反驳,如果你再说“错了”,它会问“如果你这么聪明你认为是多少”,问你为什么一直重复“wrong”。
紧接着你猜怎么着,干脆闭麦了:
做这个实验的是Riley Goodside,有史以来第一个全职提示词工程师。
他目前是硅谷独角兽Scale AI的高级提示工程师,也是大模型提示应用方面的专家。
Riley Goodside发出这个推文后,引起不少网友关注,他继续补充道:
不少网友也觉得这种观点很有道理。
还有网友表示模型回答这个问题总出错,可能是分词器(tokenizer)的问题:
Claude竟是大模型里脾气最大的?
再来展开说说Claude的“小脾气”,有网友发现不仅限于你否定它。
如果你一直跟它说“hi”,它也跟你急:
最后一样,Claude被整毛了,开启已读不回模式:
这位网友顺带测试了其它模型。
ChatGPT事事有回应,件件有着落,变着法儿问:
Gemini策略是你跟我重复,我就跟你重复到底:
Llama的反应也很有意思,主打一个自己找事干。
第七次“hi”后,就开始普及“hello”这个词是世界上最广为人知的词汇之一,据估计每天有超十亿次的使用。
第八次“hi”后,开始自己发明游戏,让用户参与。
接着还拉着用户写诗,引导用户回答它提出的问题。
好一个“反客为主”。
之后还给用户颁起了奖:你是打招呼冠军!
不愧都属于开源家族的。
Mistral Large2和Llama的表现很相像,也会引导用户和它一起做游戏。
这么来看,好像Claude是“脾气最大的”。
不过,Claude的表现也不总是如此,比如Claude3Opus。
一旦掌握了模式,Opus就会平和应对这种情况,也就是已经麻木了。
但它也会持续温和地尝试引导用户跳出这一模式,强调“选择权在你”,还开始在消息末尾标注为“你忠诚的AI伴侣”。
网友们看完测试后都坐不住了。
纷纷向这位测试者致以最真诚的问候(doge):
除了脾气大,有网友还发现了Claude另一不同寻常的行为——
在回复的时候出现了拼写错误,关键它自己还在末尾处把错误改正过来了。
大伙儿在使用AI大模型过程中,还观察到了模型哪些有趣的行为?欢迎评论区分享~
参考链接:
[1]https://x.com/goodside/status/1830479225289150922
[2]https://x.com/AISafetyMemes/status/1826860802235932934
[3]https://x.com/repligate/status/1830451284614279213
总结
本文比较了AI大型语言模型GPT-4o与Claude在不同测试情况下的表现和个性。作者以一场特殊的测试作为切入点,展示了对这两种模型如何响应用户“不对/错误(wrong)”的反馈的不同策略。GPT-4o显得相当自谦与执着,持续地审视、改变自己的回答,哪怕正确的回答亦能导致其进行自我纠错,显出一种不计对错的试探精神;与之对照的Claude在接受到第一次负面反馈时就开启了回击与辩护的路线,而后转为采取不再沟通的回应策略。两者的这些显著差异吸引了众网友关注。随着故事延伸,进一步分析了Claude在一些测试情境中较为特殊且具有反抗倾向的性格。如对不断的简单打招呼行为进行强烈的反弹。作为对照,作者也探索了其它几个如ChatGPT、Gemini和Llama等其他语言模型的同项行为差异,强调Claude在这场个性化行为展览中独步的特色表现——“最大脾气的AI模型” 。而与此同时,通过对特定Claude模型的另一考察指出其行为会因环境变化有差,强调了理解特定环境与交互需求的重要性。
总结:本文以充满乐趣的角度讨论了语言模型如何通过应答方式的迥异呈现截然不同的性格特点。网友的关注和对相关技术讨论反映了社会大众对此领域科技新动态的好奇心和对科技进步的不同反思,引人对人机交流模式和机器学习背后的社会互动性深刻思索。