-
DeepMind:大模型又曝重大缺陷,无法自我纠正推理,除非提前得知正确答案
大语言模型又一项重大缺陷被DeepMind曝光! LLM无法纠正自己推理中的错误。 「Self-Correction」作为一种让模型修正自己回答的技术,在很多类型的任务中都能明显改进模型的输出质量。 但是最近,谷歌DeepMind和UIUC的研究人员却发...
-
AMD Ryzen AI 暂仅支持 Windows,Linux 系统有望后续支持
10 月 22 日消息,最新的 AMD Ryzen 7040 系列笔记本电脑配备了基于 Xilinx IP 的专用 AI 引擎,名为“Ryzen AI”,可以加速 PyTorch 和 TensorFlow 等机器学习框架的运行。不过目前这个 Ryz...
-
阿里达摩院发布业内首个遥感 AI 大模型,号称可识别近百种地物分类
10 月 20 日消息,据达摩院 DAMO 官方公众号发文显示,阿里达摩院今天发布业内首个遥感 AI 大模型(AIE-SEG),号称“率先在遥感领域实现了图像分割的任务统一”、“一个模型实现‘万物零样本’的快速提取”,并可识别农田、水域、建筑物等近百种...
-
斯坦福大学推出开源运动捕捉应用 OpenCap:利用手机快速收集数据,成本仅为传统 1%
10 月 20 日消息,据斯坦福大学官方新闻稿,研究人员日前创建了一个名为 OpenCap 的开源“运动捕捉”应用。 该应用搭建在两台“经过校准”的 iPhone 之上,主要用于搜集人体运动数据,之后通过 AI 进行快速分析并得出相关数据,据称成本仅为“...
-
斯坦福大学发布 AI 基础模型“透明度指标”,Llama 2 以 54% 居首但“不及格”
10 月 20 日消息,斯坦福大学日前发布了 AI 基础模型“透明度指标”,其中显示指标最高的是 Meta 的 Lama 2,但相关“透明度”也只有 54%,因此研究人员认为,市面上几乎所有 AI 模型,都“缺乏透明度”。 据悉,这一研究是由 HAI...
-
有了GPT-4之后,机器人把转笔、盘核桃都学会了
在学习方面,GPT-4 是一个厉害的学生。在消化了大量人类数据后,它掌握了各门知识,甚至在聊天中能给数学家陶哲轩带来启发。 与此同时,它也成为了一名优秀的老师,而且不光是教书本知识,还能教机器人转笔。 这个机器人名叫 Eureka,是来自英伟达、宾夕法...
-
LLaMA2上下文长度暴涨至100万tokens,只需调整1个超参数
只需微调一下,大模型支持上下文大小就能从1.6万tokens延长至100万?! 还是在只有70亿参数的LLaMA 2上。 要知道,即使是当前最火的Claude 2和GPT-4,支持上下文长度也不过10万和3.2万,超出这个范围大模型就会开始胡言乱语、记不...
-
评论能力强于GPT-4,上交开源13B评估大模型Auto-J
随着生成式人工智能技术的快速发展,确保大模型与人类价值(意图)对齐(Alignment)已经成为行业的重要挑战。 虽然模型的对齐至关重要,但目前的评估方法往往存在局限性,这也让开发者往往困惑:大模型对齐程度如何?这不仅制约了对齐技术的进一步发展,也引发了...