-
OpenAI o1式思维链,开源模型也可以有,成功案例来了
北京时间9月13日午夜,OpenAI 发布了推理性能强大的 ο1系列模型。之后,各路研究者一直在尝试挖掘 ο1卓越性能背后的技术并尝试复现它。当然,OpenAI 也想了一些方法来抑制窥探,比如有多名用户声称曾试图诱导 ο1模型公布其思维过程,然后收到了 O...
-
思维链被推翻!纽约大学新研究:大模型推理步骤或可省略
纽约大学的最新研究对当前流行的思维链(Chain-of-Thought,CoT)技术提出了挑战,该技术原本被认为能够提升大模型的推理能力。研究显示,使用省略号代替具体的推理步骤,模型的推理结果并没有显著差异,这意味着增加计算量而非推理步骤本身可能是提升性能...
-
飞浆AI studio人工智能课程学习(1)-大模型时代&优质Prompt
文章目录 大模型时代&优质Prompt Al生成技术价值概览 开始构建你的优质prompt 近十年深度学习模型主要更迭 为什么大模型能够有如此强大的表现力 大模型与Prompt 例1: 画一幅画,呆萌的小猫躺在大泡泡中 例2:请生成...
-
谷歌AI研究提出 SpatialVLM:一种数据合成和预训练机制,以增强视觉语言模型 VLM 空间推理能力
谷歌AI研究团队最近提出了SpatialVLM,这是一种旨在增强视觉语言模型(VLMs)空间推理能力的创新系统。 尽管先进的模型如GPT-4V在人工智能驱动任务中取得了显著进展,但它们在空间推理方面仍存在显著局限。空间推理涉及理解物体在三维空间中的位置以及...
-
扩散模型更懂复杂提示词!Pika北大斯坦福开源新框架,利用LLM提升理解力
Pika北大斯坦福联手,开源最新文本-图像生成/编辑框架! 无需额外训练,即可让扩散模型拥有更强提示词理解能力。 面对超长、超复杂提示词,准确性更高、细节把控更强,而且生成图片更加自然。 效果超越最强图像生成模型Dall·E 3和SDXL。 比如要求图片...
-
大模型“藏毒”:“后门”触发,猝不及防!
撰稿 | 言征 出品 | 51CTO技术栈(微信号:blog51cto) 跟大模型会产生幻觉相比,更可怕的事情来了,最新的一项研究证明:在用户不知情的情况下,最初觉得很得力的大模型助手,将化身“间谍”,产生破坏性代码。 具体来讲,一组研究人员对LL...
-
大模型伪装「潜伏特工」学会欺骗!OpenAI劲敌重磅研究震惊马斯克
不要教LLM学会骗人!不要教LLM学会骗人!不要教LLM学会骗人! 因为后果可能会很严重,甚至超出人类的想象。 最近,AI初创公司Anthropic的研究表明,一旦LLM学会了人类教授的欺骗行为,它们就会在训练和评估的过程中隐藏自己,并在使用时偷偷输出恶...
-
摸底谷歌Gemini:CMU全面测评,Gemini Pro不敌GPT 3.5 Turbo
前段时间,谷歌发布了对标 OpenAI GPT 模型的竞品 ——Gemini。这个大模型共有三个版本 ——Ultra(能力最强)、Pro 和 Nano。研究团队公布的测试结果显示,Ultra 版本在许多任务中优于 GPT4,而 Pro 版本与 GPT-3...
-
首个「创造式任务」基准来了!北大清华联手发布Creative Agents:专为想象力而生!
近年来,许多研究通过训练服从自然语言指令的智能体,让智能体具有了解决各种开放式任务的能力。 例如,SayCan[1]利用语言模型实现了根据语言描述解决各种室内机器人任务的智能体,Steve-1[2]训练端到端的策略实现了能够在《我的世界》(Minecra...
-
GPT-4在医学问题上击败了专业调优的 MedPaLM 2 模型
在研究中,微软的研究人员展示了GPT-4在医学知识测试中的卓越表现,特别是当结合先进的提示工程技术时,其性能超过了专业调整的MedPaLM2。 研究结果显示,相较于费时费力的调优和模型训练,将更有效的提示工程应用于主流通用模型可能是实现更准确结果的更好途径...
-
一个提示,让Llama 2准确率飙至80.3%?Meta提出全新注意力机制S2A,大幅降低模型幻觉
2023的科技界,可以说是被大模型抢尽了风头(虚假的室温超导除外)。 我们经历了和LLM对话,见证了它们逐渐进入各个领域,甚至开始感受到威胁。 这一切,仅仅发生在一年之内。 当然了,基于大语言模型的原理,它诞生之时就有的一些毛病到现在也没有完全改正。 比...
-
微软推出 “从错误中学习” 模型训练法,号称可“模仿人类学习过程,改善 AI 推理能力”
IT之家 11 月 7 日消息,微软亚洲研究院联合北京大学、西安交通大学等高校,提出了一项名为“从错误中学习(Learning from Mistake,LeMA)”的 AI 训练方法,号称可以通过模仿人类学习知识的过程,来改进 AI 推理能力。 当下...
-
给大模型评分的基准靠谱吗?Anthropic来了次大评估
现阶段,大多数围绕人工智能 (AI)对社会影响的讨论可归结为 AI 系统的某些属性,例如真实性、公平性、滥用的可能性等。但现在面临的问题是,许多研究人员并没有完全意识到建立稳健可靠的模型评估是多么困难。当今许多现有的评估套件在各个方面的表现都很有限。 A...
-
Agent 应用于提示工程
如果Agent模仿了人类在现实世界中的操作方式,那么,能否应用于提示工程即Prompt Engingeering 呢? 从LLM到Prompt Engineering 大型语言模型(LLM 是一种基于Transformer的模型,已经在一个巨大的语料库或...
-
港大等发布GraphGPT:1/50微调参数,准确率提升10倍!无需超长token,LLM也能读懂图结构
图神经网络(Graph Neural Networks)已经成为分析和学习图结构数据的强大框架,推动了社交网络分析、推荐系统和生物网络分析等多个领域的进步。 图神经网络的主要优势在于它们能够捕获图数据中固有的结构信息和依赖关系。利用消息传递和聚合机制,图...
-
参数少近一半,性能逼近谷歌Minerva,又一个数学大模型开源了
如今,在各种文本混合数据上训练出来的语言模型会显示出非常通用的语言理解和生成能力,可以作为基础模型适应各种应用。开放式对话或指令跟踪等应用要求在整个自然文本分布中实现均衡的性能,因此更倾向于通用模型。 不过如果想要在某一领域(如医学、金融或科学)内最大限...