-
RLHF与AlphaGo核心技术强强联合,UW/Meta让文本生成能力再上新台阶
在一项最新的研究中,来自 UW 和 Meta 的研究者提出了一种新的解码算法,将 AlphaGo 采用的蒙特卡洛树搜索算法(Monte-Carlo Tree Search, MCTS)应用到经过近端策略优化(Proximal Policy Optimiz...
-
GraphAlign:通过图匹配增强多模态3D目标检测的准确特征对齐
本文经自动驾驶之心公众号授权转载,转载请联系出处。 原标题:GraphAlign: Enhancing Accurate Feature Alignment by Graph matching for Multi-Modal 3D Object Det...
-
吃“有毒”数据,大模型反而更听话了!来自港科大&华为诺亚方舟实验室
现在,大模型也学会“吃一堑,长一智”了。 来自香港科技大学和华为诺亚方舟实验室的最新研究发现: 相比于一味规避“有毒”数据,以毒攻毒,干脆给大模型喂点错误文本,再让模型剖析、反思出错的原因,反而能够让模型真正理解“错在哪儿了”,进而避免胡说八道。 具体...
-
用于自动驾驶赛车的多模态传感器融合和目标跟踪
本文经自动驾驶之心公众号授权转载,转载请联系出处。 原标题:Multi-Modal Sensor Fusion and Object Tracking for Autonomous Racing 论文链接:https://arxiv.org/pdf/23...
-
AI视野:高通发布骁龙X Elite芯片;AutoGPT获1200万美元融资;AI社交产品Airchat火了;百度Comate智能代码助手上线SaaS版本
???AI新鲜事 高通发布骁龙X Elite芯片 电脑可运行130亿参数大模型 高通发布骁龙X Elite芯片,成为全球性能最强的CPU,能在PC上运行130亿参数的大模型,实现离线AI应用。 爆火智能体项目AutoGPT获1200万美元融资 Auto...
-
可令 AI 模型“输入狗生成猫”,黑客展示为训练数据集“下毒”的 Nightshade 工具
10 月 25 日消息,AI 大模型训练数据源版权问题一直是一个令业界头疼的问题,日前有黑客展示了一款名为 Nightshade 的工具,该工具可在不破坏观感的情况下轻微修改图片,若有 AI 模型在训练时使用了这些被“下毒”的图片,模型生图结果便会被毁...
-
LeCun又双叒唱衰自回归LLM:GPT-4的推理能力非常有限,有两篇论文为证
「任何认为自动回归式 LLM 已经接近人类水平的 AI,或者仅仅需要扩大规模就能达到人类水平的人,都必须读一读这个。AR-LLM 的推理和规划能力非常有限,要解决这个问题,并不是把它们变大、用更多数据进行训练就能解决的。」 一直以来,图灵奖得主 Yan...
-
北大数学课引入AI助教Brainiac Buddy 基于GPT-4开发
北大数学课引入AI助教,为学生和老师提供更好的学习和教学体验。这个AI助教名为Brainiac Buddy,基于GPT-4开发,能够帮助学生理解课程内容,解答问题,以及提供学习支持。董彬是这个AI助教的创始人,他是北京国际数学研究中心教授兼国际机器学习研究...
-
多模态神经网络SALMONN 能够理解声音世界的AI模型
SALMONN是一个多模态神经网络,能够直接处理和理解包括语音、音频事件和音乐在内的一般音频输入,并在多种语音和音频任务上取得竞争性表现。 论文地址:https://arxiv.org/pdf/2310.13289v1.pdf SALMONN采用了两个互...
-
UniPAD:自动驾驶通用预训练范式来了!
本文经自动驾驶之心公众号授权转载,转载请联系出处。 UNIPAD:自动驾驶通用预训练范式 原标题:UNIPAD: A UNIVERSAL PRE-TRAINING PARADIGM FOR AUTONOMOUS DRIVING 论文链接:https:/...
-
最高20倍!压缩ChatGPT等模型文本提示,极大节省AI算力
在长文本场景中,ChatGPT等大语言模型经常面临更高算力成本、更长的延迟以及更差的性能。为了解决这三大难题,微软开源了LongLLMLingua。 据悉,LongLLMLingua的核心技术原理是将“文本提示”实现最高20倍的极限压缩,同时又可以准确评估...
-
陶哲轩疯狂安利Copilot:它帮我完成了一页纸证明,甚至能猜出我后面的过程
继给GPT-4“代言”之后,Copilot也被陶哲轩疯狂安利。 他直言,在编程时,Copilot能直接预测出他下一步要做什么。 有了Copilot之后,研究做起来也更方便了,陶哲轩也用它辅助自己完成了最新的研究成果。 陶哲轩说,这次的论文中,有关这一部...
-
让大模型看图比打字管用!NeurIPS 2023新研究提出多模态查询方法,准确率提升7.8%
大模型“识图”能力都这么强了,为啥还老找错东西? 例如,把长得不太像的蝙蝠和拍子搞混,又或是认不出一些数据集中的稀有鱼类…… 这是因为,我们让大模型“找东西”时,往往输入的是文本。 如果描述有歧义或太偏门,像是“bat”(蝙蝠还是拍子?)或“魔鳉”(Cy...
-
「解释一切」图像概念解释器来了,港科大团队出品
你是否好奇当一个黑盒深度神经网络 (DNN 预测下图的时候,图中哪个部分对于输出预测为「击球手」的帮助最大? 香港科技大学团队最新的 NeurIPS2023 研究成果给出了他们的答案。 论文:https://arxiv.org/abs/2305....
-
4k窗口长度就能读长文,陈丹琦高徒联手Meta推出大模型记忆力增强新方法
只有4k窗口长度的大模型,也能阅读大段文本了! 普林斯顿的华人博士生的一项最新成果,成功“突破”了大模型窗口长度的限制。 不仅能回答各种问题,而且整个实现的过程全靠prompt就能完成,不需要任何的额外训练。 研究团队创建了一种名为MemWalker的...
-
Meta普林斯顿提出LLM上下文终极解决方案!让模型化身自主智能体,自行读取上下文节点树
到底什么才是LLM长上下文模型的终极解决方案? 最近由普林斯顿大学和Meta AI的研究者提出了一种解决方案,将LLM视为一个交互式智能体,让它决定如何通过迭代提示来读取文本。 论文地址:https://arxiv.org/abs/2310.05029...
-
HiLM-D:自动驾驶多模态大语言模型玩出花了
本文经自动驾驶之心公众号授权转载,转载请联系出处。 笔者个人的一些思考 不得不说,最近大模型在学术界火起来了,基于图文匹配的CLIP预训练模型成为近年来在多模态研究领域的经典之作。除此之外,大语言模型的蓬勃发展也进一步为多模态带来了性能提升。自动驾驶领...
-
用GPT-4训练机器人,英伟达最新Agent开源:任务越复杂越拿手
量子位 | 公众号 QbitAI 训练机器人,AI比人类更拿手! 英伟达最新AI AgentEureka,用GPT-4生成奖励函数,结果教会机器人完成了三十多个复杂任务。 比如,快速转个笔,打开抽屉和柜子、抛球和接球。 尤其是转笔这个技能,要知道靠人类逐...
-
全新视觉提示方法SoM 让GPT-4V看的更准、分的更细
研究人员推出了一种新的视觉提示方法 Set-of-Mark(SoM),它可以让 OpenAI 多模态大模型 GPT-4V 在视觉内容理解方面有了质的提升。GPT-4V 是一种基于 GPT-4的多模态模型,可以同时处理文本和图像,并生成多种类型的输出。 然而...
-
在视觉提示中加入「标记」,微软等让GPT-4V看的更准、分的更细
最近一段时间,我们见证了大型语言模型(LLM)的显著进步。特别是,生成式预训练 Transformer 或 GPT 的发布引领了业界和学术界的多项突破。自 GPT-4发布以来,大型多模态模型 (LMM 引起了研究界越来越多的兴趣,许多工作致力于构建多模态...
-
机器人学会转笔、盘核桃了!GPT-4加持,任务越复杂,表现越优秀
大数据文摘出品 家人们,继人工智能(AI)攻占象棋、围棋、Dota之后,转笔这一技能也被 AI 机器人学会了。 上面这个笔转的贼溜的机器人,得益于名叫Eureka的智能体(Agent),是来自英伟达、宾夕法尼亚大学、加州理工学院和得克萨斯大学奥斯汀分...
-
DeepMind:大模型又曝重大缺陷,无法自我纠正推理,除非提前得知正确答案
大语言模型又一项重大缺陷被DeepMind曝光! LLM无法纠正自己推理中的错误。 「Self-Correction」作为一种让模型修正自己回答的技术,在很多类型的任务中都能明显改进模型的输出质量。 但是最近,谷歌DeepMind和UIUC的研究人员却发...
-
LLaMA2上下文长度暴涨至100万tokens,只需调整1个超参数
只需微调一下,大模型支持上下文大小就能从1.6万tokens延长至100万?! 还是在只有70亿参数的LLaMA 2上。 要知道,即使是当前最火的Claude 2和GPT-4,支持上下文长度也不过10万和3.2万,超出这个范围大模型就会开始胡言乱语、记不...
-
马斯克xAI首个研究成果发布!创始成员杨格&姚班校友共同一作
马斯克的xAI,首项公开研究成果来了! 共同一作之一,正是xAI创始成员、丘成桐弟子杨格(Greg Yang)。 此前,杨格就曾公开表示,自己在xAI的研究方向是“Math for AI”和“AI for Math”。 其中一项重点就是延续他此前的研究:...
-
参数少近一半,性能逼近谷歌Minerva,又一个数学大模型开源了
如今,在各种文本混合数据上训练出来的语言模型会显示出非常通用的语言理解和生成能力,可以作为基础模型适应各种应用。开放式对话或指令跟踪等应用要求在整个自然文本分布中实现均衡的性能,因此更倾向于通用模型。 不过如果想要在某一领域(如医学、金融或科学)内最大限...
-
斯坦福公开十大主流模型透明度!Llama 2位列第一,GPT-4透明差,LeCun炮轰:盈利完全理解
GPT-4、Llama等基础模型(FM)相继诞生,已成为当前生成式AI的引擎。 尽管这些FM的社会影响力不断增大,但透明度反而下降。 GPT-4官宣后,OpenAI公布的技术报告中,并未提及关键信息。包括谷歌PaLM,以及其他闭源模型也是如此。 每个人...