-
英伟达推出 AI 系统 Eureka,可令机器人执行转笔传球等复杂工作
10 月 23 日消息,英伟达日前公布了一个名为 Eureka 的 AI 系统,该系统以 OpenAI 的 GPT-4 为基础,能够让机器人执行例如“转笔”、“开抽屉”、“拿剪刀”、“双手互传球”等 30 多种复杂动作。 IT之家经过查询得知,英伟达研...
-
百度大模型加持,元宇宙竟然还能「卷」出新玩法!AI一键作画、智能NPC秒回
【新智元导读】元宇宙,竟然还能卷出新玩法?这次,乘着大模型的快车,百度又在元宇宙里开启了不一样的极致体验。 乘着大模型的浪潮,元宇宙再度升级! 2023年的元宇宙看似冷静,实则回归理性,当营销噱头与泡沫一一褪去,留存下来的,都是真正的玩家。 就在前不久,无...
-
用GPT-4训练机器人,英伟达最新Agent开源:任务越复杂越拿手
量子位 | 公众号 QbitAI 训练机器人,AI比人类更拿手! 英伟达最新AI AgentEureka,用GPT-4生成奖励函数,结果教会机器人完成了三十多个复杂任务。 比如,快速转个笔,打开抽屉和柜子、抛球和接球。 尤其是转笔这个技能,要知道靠人类逐...
-
全新视觉提示方法SoM 让GPT-4V看的更准、分的更细
研究人员推出了一种新的视觉提示方法 Set-of-Mark(SoM),它可以让 OpenAI 多模态大模型 GPT-4V 在视觉内容理解方面有了质的提升。GPT-4V 是一种基于 GPT-4的多模态模型,可以同时处理文本和图像,并生成多种类型的输出。 然而...
-
AI视野:WPS AI宣布接入WPS Mac版;爱奇艺推出AI搜索;苹果计划明年推出生成式AI功能;DALL-E3易受越狱攻击
???AI应用 爱奇艺推出AI搜索 将生成式AI技术应用于剧情搜索等场景 爱奇艺升级AI搜索,区别于传统搜索第一步只能搜到片名,升级后的爱奇艺AI搜索主打让观众在搜索环节便能一键直达心仪内容。 WPS AI 宣布接入 WPS Mac 版 提供内容生成等功...
-
在视觉提示中加入「标记」,微软等让GPT-4V看的更准、分的更细
最近一段时间,我们见证了大型语言模型(LLM)的显著进步。特别是,生成式预训练 Transformer 或 GPT 的发布引领了业界和学术界的多项突破。自 GPT-4发布以来,大型多模态模型 (LMM 引起了研究界越来越多的兴趣,许多工作致力于构建多模态...
-
智谱 AI“超 25 亿融资”的背后
这几天,“大模型”圈里最令人津津乐道的可能就是两家大模型创业公司分别宣布自己今年的融资额度——百川智能获得3亿美元的融资,估值跃升成为独角兽企业;智谱 AI 获得超过25亿人民币的融资,百亿人民币估值令人瞩目。 百川与小米的联手得到了业界内的广泛关注,而雷...
-
机器人学会转笔、盘核桃了!GPT-4加持,任务越复杂,表现越优秀
大数据文摘出品 家人们,继人工智能(AI)攻占象棋、围棋、Dota之后,转笔这一技能也被 AI 机器人学会了。 上面这个笔转的贼溜的机器人,得益于名叫Eureka的智能体(Agent),是来自英伟达、宾夕法尼亚大学、加州理工学院和得克萨斯大学奥斯汀分...
-
DeepMind:大模型又曝重大缺陷,无法自我纠正推理,除非提前得知正确答案
大语言模型又一项重大缺陷被DeepMind曝光! LLM无法纠正自己推理中的错误。 「Self-Correction」作为一种让模型修正自己回答的技术,在很多类型的任务中都能明显改进模型的输出质量。 但是最近,谷歌DeepMind和UIUC的研究人员却发...
-
斯坦福大学发布 AI 基础模型“透明度指标”,Llama 2 以 54% 居首但“不及格”
10 月 20 日消息,斯坦福大学日前发布了 AI 基础模型“透明度指标”,其中显示指标最高的是 Meta 的 Lama 2,但相关“透明度”也只有 54%,因此研究人员认为,市面上几乎所有 AI 模型,都“缺乏透明度”。 据悉,这一研究是由 HAI...
-
有了GPT-4之后,机器人把转笔、盘核桃都学会了
在学习方面,GPT-4 是一个厉害的学生。在消化了大量人类数据后,它掌握了各门知识,甚至在聊天中能给数学家陶哲轩带来启发。 与此同时,它也成为了一名优秀的老师,而且不光是教书本知识,还能教机器人转笔。 这个机器人名叫 Eureka,是来自英伟达、宾夕法...
-
一段话让模型自曝「系统提示词」!ChatGPT、Bing无一幸免
ChatGPT语音对话,发布即惊艳全网—— 凭借表达自然流畅,嘎嘎乱杀一众AI对话产品。 而现在,其背后秘诀——系统提示词居然被人扒了出来! 原来对话过程中,ChatGPT要遵循下面这么多规则: 使用自然、对话性强、清晰易懂的语言,比如短句、简单词...
-
LLaMA2上下文长度暴涨至100万tokens,只需调整1个超参数
只需微调一下,大模型支持上下文大小就能从1.6万tokens延长至100万?! 还是在只有70亿参数的LLaMA 2上。 要知道,即使是当前最火的Claude 2和GPT-4,支持上下文长度也不过10万和3.2万,超出这个范围大模型就会开始胡言乱语、记不...
-
马斯克xAI首个研究成果发布!创始成员杨格&姚班校友共同一作
马斯克的xAI,首项公开研究成果来了! 共同一作之一,正是xAI创始成员、丘成桐弟子杨格(Greg Yang)。 此前,杨格就曾公开表示,自己在xAI的研究方向是“Math for AI”和“AI for Math”。 其中一项重点就是延续他此前的研究:...
-
评论能力强于GPT-4,上交开源13B评估大模型Auto-J
随着生成式人工智能技术的快速发展,确保大模型与人类价值(意图)对齐(Alignment)已经成为行业的重要挑战。 虽然模型的对齐至关重要,但目前的评估方法往往存在局限性,这也让开发者往往困惑:大模型对齐程度如何?这不仅制约了对齐技术的进一步发展,也引发了...
-
斯坦福公开十大主流模型透明度!Llama 2位列第一,GPT-4透明差,LeCun炮轰:盈利完全理解
GPT-4、Llama等基础模型(FM)相继诞生,已成为当前生成式AI的引擎。 尽管这些FM的社会影响力不断增大,但透明度反而下降。 GPT-4官宣后,OpenAI公布的技术报告中,并未提及关键信息。包括谷歌PaLM,以及其他闭源模型也是如此。 每个人...