-
ChatGPT攻陷学术期刊,垃圾论文泛滥成灾!「带头大哥」竟是印度学者
ChatGPT参与写稿和审稿,已成当下国际顶会、期刊的常态。 在一些同行评审的科学期刊中,一些「机器语」的出现,早已不足为奇。 可以说,全球学术圈,早已被LLM加持的AI工具攻陷! 几个月前,爱思唯尔旗下期刊中的一篇论文,在「介绍」中的第一句,就暴露出了...
-
ChatGPT也在评审你的顶会投稿,斯坦福新研究捅了马蜂窝,“这下闭环了”
尴了个大尬! 人们还在嘲讽有人用ChatGPT写论文忘了删掉“狐狸尾巴”,另一边审稿人也被曝出用ChatGPT写同行评论了。 而且,还是来自ICLR、NeurIPS等顶会的那种。 来自斯坦福的学者对一些顶级AI会议(如ICLR、NeurIPS、CoRL...
-
报告:ChatGPT 撰写的近期AI会议同行评审高达 17%
最近的一项研究揭示了一个重要发现:2023-2024年顶级人工智能会议的同行评审中可能包含大量来自 ChatGPT 等模型的 AI 生成内容。 图源备注:图片由AI生成,图片授权服务商Midjourney 研究人员利用一种新颖的统计技术,估计了大量文档中...
-
GPT-4「荣升」AI顶会同行评审专家?斯坦福最新研究:ICLR/NeurIPS等竟有16.9%评审是ChatGPT生成
LLM在飞速进步的同时,人类也越来越难以区分LLM生成的文本与人工编写的内容,甚至分辨能力与随机器不相上下。 这加大了未经证实的生成文本可以伪装成权威、基于证据的写作的风险。 尽管在个例上难以察觉,但由于LLM的输出趋于一致性,这种趋势可能会放大语料库级...
-
全球学术圈险被ChatGPT论文攻陷!知名出版商紧急撤稿,AI插图笑翻网友
学术圈,已经抵御不住LLM的入侵了! 最近,世界知名出版集团爱思唯尔旗下的几篇论文接连被质疑。 比如下面这篇锂电池的论文,在「介绍」部分的第一句,就暴露了可疑的痕迹—— 「当然可以,这里是您的主题可能需要的介绍」。 一开口就是老ChatGPT了。 图片...
-
aigc查重高怎么降?七大策略助你攻克学术难题
大家好,小发猫降ai今天来聊聊aigc查重高怎么降?七大策略助你攻克学术难题,希望能给大家提供一点参考。降ai辅写 以下是针对论文AI辅写率高的情况,提供一些修改建议和技巧,可以借助此类工具: 还有: aigc查重高怎么降?七大策略助你攻克学...
-
全球最强模型Claude 3颠覆物理/化学!2小时破解博士一年实验成果,网友惊呼:科研不存在了
Claude 3,还在不断创造奇迹。 发布还没几天,就有越来越多的博士发现,自己手里还没发表过的研究成果,居然都被Claude 3给破解了?! 化学博士发现,自己要做一年实验的研究,Claude 3俩小时就给出了方案,还比原方案更简洁,而且成本只花5美...
-
Midjourney尴尬亮相学术界:为生物学论文配图,错得好离谱!围观网友嘲讽拉满
有人用Midjourney给生物学论文配图,画得漏洞百出,结果还一路顺畅成功发表??? 比如下面这幅Figure 1,就被大家“一起来找茬”,轻易找出了5处不符合现实的情况。 这里小卖个关子,究竟有哪五处错误,我们放在本文文末揭晓(doge)。 更令人...
-
德克萨斯州大学将建立学术界最大之一的生成式AI中心
德克萨斯州奥斯汀 - 德克萨斯大学奥斯汀分校(UT)正在建立一个学术界最强大的人工智能中心,以引领研究并为广泛的合作伙伴提供世界一流的人工智能基础设施。 图源备注:图片由AI生成,图片授权服务商Midjourney UT正在启动生成式人工智能中心,该中心...
-
推翻Transformer奠基之作疑被拒收,ICLR评审遭质疑!网友大呼黑幕,LeCun自曝类似经历
去年12月,CMU和普林斯顿的2位研究者发布了Mamba架构,瞬间引起AI社区震动! 结果,这篇被众人看好有望「颠覆Transformer霸权」的论文,今天竟曝出疑似被顶会拒收?! 今早,康奈尔大学副教授Sasha Rush最先发现,这篇有望成为奠基之作...
-
顶流Mamba竟遭ICLR拒稿,学者集体破防变小丑,LeCun都看不下去了
一项ICLR拒稿结果让AI研究者集体破防,纷纷刷起小丑符号。 争议论文为Transformer架构挑战者Mamba,开创了大模型的一个新流派。发布两个月不到,后续研究MoE版本、多模态版本等都已跟上。 但面对ICRL给出的结果,康奈尔副教授Alexand...
-
终于,NLP顶会ACL投稿不用匿名了
对于自然语言处理领域的研究人员,最近有一条好消息。 近日,计算语言学协会年会(ACL)正式宣布,该系列会议论文投稿已取消匿名期,同时允许作者在投稿期间宣传自身工作。新规定直接适用于下一个审稿周期。 今年的 ACL 是第 62 届,将于 2024 年 8...
-
ChatGPT在图灵测试研究中败给上世纪60年代的计算机程序 ELIZA
近日,加利福尼亚大学圣迭戈分校的研究人员进行了一项有趣的实验,将上世纪60年代的计算机程序ELIZA与现代AI聊天机器人ChatGPT进行了图灵测试比较。该研究引发了对OpenAI的尴尬评价,认为ELIZA在这一测试中表现得更为出色。 图灵测试是评估计算机...
-
ChatGPT泄露私人信息漏洞曝光,攻击方法轻松且成本极低
一组由Google DeepMind科学家领导的研究人员成功利用巧妙方法,让OpenAI的ChatGPT揭示个人电话号码和电子邮件地址。这一攻击的成功表明ChatGPT的训练数据中可能包含大量私人信息,有可能不可预测地泄露出来。 图源备注:图片由AI生成...
-
DeepMind发现,AI代理可以通过模仿人类和其他动物进行社会学习
Google DeepMind的机器学习研究团队最近宣布,他们成功证明了人工智能(AI)代理可以通过社会学习的方式获取技能,类似于人类和其他动物的学习过程。这一成果被认为是在人工智能领域的重大突破,为实现人工通用智能迈出了一步。 研究团队由Google D...
-
谷歌 DeepMind 团队研究显示 AI 能够通过社会学习过程获得技能
谷歌 DeepMind 的机器学习研究团队声称,他们已经证明人工智能可以通过类似于人类和其他动物的社会学习过程来获取技能。 社会学习——即一个个体通过模仿另一个个体来获取技能和知识——对于人类以及大部分动物界的发展过程至关重要。DeepMind 团队声称...
-
物理学家证明人类生活在「矩阵」之中?宇宙是「模拟系统」,多系统证实信息演化趋向稳定
有物理学家已经证实,人类其实就生活在矩阵空间之中!? 听起来如此玄幻的说法,真的能被科学证明? 朴茨茅斯大学物理学副教授,信息论专家,Melvin Vopson在他的新论文中提出: 证明人类生活在一个模拟世界的假设的证据,可能隐藏在信息基本法则之中——例...
-
研究显示 ChatGPT 可为科学假说生成虚假数据集,对学术诚信造成威胁
11 月 24 日消息,据《自然》杂志当地时间周三报道,本月初发表在《美国医学会眼科学杂志》上的一篇论文中,作者使用了聊天机器人 GPT-4 和高级数据分析工具 ADA 创建了一个虚假的临床试验数据集,从而支持一个“未经证实”的科学主张。 IT之家注:...
-
受八位合著者举报,引爆物理圈的室温超导论文被Nature撤稿,一作正接受调查
经历了大起大落,室温超导的喧嚣终于在 2023 年底告一段落。 11 月 7 日,《Nature》杂志宣布,撤回今年 3 月 Ranga Dias 团队发表的室温超导论文。 对于在过去一年数次引爆物理圈的室温超导领域来说,这是一次新的打击。 人们或许还...
-
对比GPU,使用FPGA创建神经网络
当代的CPU按照一维方式进行计算,顺序执行指令,并将算法分解为逐条加载和执行的指令。然而,未来的计算发展趋势表明,我们将越来越多地依赖硬件加速器来支持并行执行,这将成为计算的常态。这种发展趋势将统一算法和硬件结构的利用,从而实现更快、更高效的解决方案。...
-
50张图“毒倒”Stable Diffusion,汽车和牛都分不清了
艺术家对AI侵权的反击来了—— 在画作里“投毒”,AI用了就会“中毒”出故障。 投毒工具由芝加哥大学团队打造,名为Nightshade,可以对画中像素添加隐形更改。 被下毒的画一旦被非法抓取成为训练数据被AI吃掉,模型就会生成混乱。 甚至还可能会破坏DA...
-
Nightshade:艺术家全新反击工具,可用损坏训练数据“毒害”AI模型
自 ChatGPT 几乎一年前登场以来,生成式人工智能(AI)进入了高速发展的时代,但反对声音也逐渐增强。许多艺术家、娱乐人士、表演者甚至唱片公司已经对AI公司提起了诉讼,其中一些诉讼涉及 ChatGPT 制造商 OpenAI,原因是这些新工具背后的“秘密...