-
LLaMA长度外推高性价比trick:线性插值法及相关改进源码阅读及相关记录
前言 最近,开源了可商用的llama2,支持长度相比llama1的1024,拓展到了4096长度,然而,相比GPT-4、Claude-2等支持的长度,llama的长度外推显得尤为重要,本文记录了三种网络开源的RoPE改进方式及相关源码的阅读。 关于长...
-
大模型「幻觉」,看这一篇就够了
大模型“幻觉”,终于有系统综述了! 一口气49页,详细阐述了幻觉定义、分类、导致幻觉的原因,还有检测幻觉、减轻幻觉的方法。 这篇最新综述来自哈工大和华为,一po出就在网上火得不行: 具体来说,文中用一套新的范畴框架来定义模型幻觉,并将其分为事实性幻觉、...
-
GPT、Llama等大模型存在「逆转诅咒」,这个bug该如何缓解?
来自中国人民大学的研究者将 Llama 等因果语言模型所遭遇的 “逆转诅咒” 归咎于 next-token prediction + causal language model 的本质缺陷,并发现 GLM 采用的自回归填空的训练方法对这种 “逆转诅咒”...
-
230页长文,涵盖5大科学领域,微软团队使用GPT-4探索LLM对科学发现的影响
前不久,微软 DeepSpeed 团队启动了一个名为 DeepSpeed4Science 的新计划,旨在通过 AI 系统优化技术实现科学发现。 11 月 13 日,微软团队在 arXiv 预印平台发表题为《大型语言模型对科学发现的影响:使用 GPT-4...
-
13B模型全方位碾压GPT-4?这背后有什么猫腻
一个参数量为 13B 的模型竟然打败了顶流 GPT-4?就像下图所展示的,并且为了确保结果的有效性,这项测试还遵循了 OpenAI 的数据去污方法,更关键的是没有发现数据污染的证据。 如果你细细查看图中的模型,发现只要带有「rephraser」这个单词...
-
解决LLaMA、BERT等部署难题:首个4-bit浮点量化LLM来了
大语言模型 (LLM 压缩一直备受关注,后训练量化(Post-training Quantization 是其中一种常用算法,但是现有 PTQ 方法大多数都是 integer 量化,且当比特数低于 8 时,量化后模型的准确率会下降非常多。想较于 In...
-
让Stable Diffusion一秒出图!清华硕士加速神器爆火,已有公司接入
AI图像生成,已经进入了秒速级别,只要4步推理就能完成绘制,最快更是能在1秒之内完成。 现在,清华大学联合HuggingFace的研究人员,推出了全新的绘图模型加速模块。 作者给出的体验版当中,点击生成按钮后,模型只用了几秒钟就绘制出了4张清晰的图像。...
-
LCM-LoRA是什么?它如何让实时生成 AI 艺术成为现实
生成 AI 艺术已经成为新技术中最有趣和受欢迎的应用之一,例如 Stable Diffusion 和 Midjourney 等模型已经吸引了数百万用户的使用,此外,OpenAI 还在今年秋季将其 DALL-E3图像生成模型直接集成到其流行的 ChatGPT...
-
whisper部署与使用
介绍 whisper介绍 Whisper由OpenAI发布于2022/9/21相较于ChatGPT(2022/11/30 早了两个半月。虽然影响力无法匹敌ChatGPT,但是其内在价值仍不可忽视。 Whisper的核心功能是语音识别,对应生活中可以...
-
昇腾CANN 7.0 黑科技:大模型推理部署技术解密
本文分享自华为云社区《昇腾CANN 7.0 黑科技:大模型推理部署技术解密》,作者:昇腾CANN。 近期,随着生成式AI、大模型进入公众视野,越来越多的人意识到抓住AI的爆发就是抓住未来智能化变革的契机。AI基础设施如何快速部署使用,以及如何提升推理性能...
-
AI视野:微软推自主研发AI芯片Maia100;WPS AI开启公测;OPPO发布安第斯大模型AndesGPT;DeepMind发布新模型Mirasol3B
???AI新鲜事 微软正式宣布其首款人工智能芯片 Maia100 微软宣布推出首款自主研发的AI芯片Maia100,旨在训练大型语言模型,并推出基于Arm架构的通用计算芯片Cobalt100,以优化云计算工作负载。 金山办公WPS AI开启公测,小米14...
-
ChatGPT代码生成飙升10%!北大华人一作:细化prompt,大幅改进大模型代码能力
在大模型时代,高质量的代码生成已经强大到,让人惊叹。 从通过HumEval中67%测试的GPT-4,到近来各种开源大模型,比如CodeLlama,有望成为码农编码利器。 然而,现实中,程序员们不会精炼表达需求,因此误导、限制了LLM生成优秀代码的能力。...
-
AIGC周报|让AI来画《海贼王》;苹果限制员工使用ChatGPT;李彦宏:不担心大模型会让工作消失
AIGC(AI Generated Content)即人工智能生成内容。近期爆火的 AI 聊天机器人 ChatGPT,以及 Dall·E 2、Stable Diffusion 等文生图模型,都属于 AIGC 的典型案例,它们通过借鉴现有的、人类创造的内容来...
-
实时文生图速度提升5-10倍,清华LCM/LCM-LoRA爆火,浏览超百万
文生图、图生图已经不是什么新鲜事。但在使用这些工具的过程中,我们发现它们通常运行缓慢,导致我们要等一段时间才能拿到生成结果。 但最近,一种名叫「LCM」的模型改变了这种情况,它甚至能做到实时的连续生图。 图源:https://twitter.com/...
-
微软用GPT-4V解读视频,看懂电影还能讲给盲人听,1小时不是问题
世界各地的人们每天都会创造大量视频,包括用户直播的内容、短视频、电影、体育比赛、广告等等。 视频是一种多功能媒介,可以通过文本、视觉和音频等多种模态传递信息和内容。如果可以开发出能学习多模态数据的方法,就能帮助人们设计出具备强大能力的认知机器 —— 它不...
-
Agent4Rec来了!大模型智能体构成推荐系统模拟器,模拟真实用户交互行为
一直以来,推荐系统领域面临模型线上线下效果差距大的痛点问题,昂贵的线上 A/B 测试成本使得广大研究人员望而却步,也造成学术界的推荐系统研究与工业界的实际应用间的巨大割裂。随着大语言模型展现出类人的逻辑推理和理解能力,基于大语言模型的智能体(Agent)...
-
北大全新「机械手」算法:辅助花式抓杯子,GTX 1650实现150fps推断
手是人类与世界交互的重要部分,手的缺失(如上肢残障)会大大影响人类的正常生活。 北京大学董豪团队通过将扩散模型和强化学习结合,使机械手能根据人手腕部的移动轨迹,自适应的抓取物体的不同部位,满足人类多样化的抓取需求,目前该工作已被NeurIPS 2023接...
-
S-LoRA:一个GPU运行数千大模型成为可能
一般来说,大语言模型的部署都会采用「预训练 — 然后微调」的模式。但是,当针对众多任务(如个性化助手)对 base 模型进行微调时,训练和服务成本会变得非常高昂。低秩适配(LowRank Adaptation,LoRA)是一种参数效率高的微调方法,通常用...
-
LLM幻觉问题全梳理!哈工大团队50页综述重磅发布
幻觉,老朋友了。 自打LLM进入我们的视野,幻觉问题就一直是一道坎,困扰着无数开发人员。 当然,有关大语言模型幻觉的问题已经有了无数研究。 最近,来自哈工大和华为的团队发表了一篇50页的大综述,对有关LLM幻觉问题的最新进展来了一个全面而深入的概述。 这...
-
令人惊艳的ChatGPT项目,AIGC也太猛了
自从 ChatGPT、Stable Diffusion 发布以来,各种相关开源项目百花齐放,着实让人应接不暇。 今天,我将着重挑选几个优质的开源项目,对我们的日常工作、学习生活,都会有很大的帮助。 今天整理分享给大家,希望对你有所帮助。...
-
NeRF与自动驾驶的前世今生,近10篇论文汇总!
神经辐射场(Neural Radiance Fields)自2020年被提出以来,相关论文数量呈指数增长,不但成为了三维重建的重要分支方向,也逐渐作为自动驾驶重要工具活跃在研究前沿。 NeRF这两年异军突起,主要因为它跳过了传统CV重建pipeline的...
-
研究人员开发过滤器处理不安全的AI生成图像
近年来,AI图像生成器因其便捷性而变得异常受欢迎,但也引发了一系列问题。在CISPA Helmholtz信息安全中心的研究中,研究员Yiting Qu探讨了这些图像生成器中存在的不安全图像问题,并提出了一种用于解决此问题的过滤器。 她一篇论文中指出,用户...
-
中文版开源Llama 2同时有了语言、多模态大模型,完全可商用
可以说,AI 初创公司 LinkSoul.Al 的这些开源项目让海外开源大模型在国内的普及和推广速度与国际几乎保持了一致。 7 月 19 日,Meta 终于发布了免费可商用版本 Llama 2,让开源大模型领域的格局发生了巨大变化。 Llama 2 模...
-
Stable Diffusion 原理介绍与源码分析(二、DDPM、DDIM、PLMS算法分析)
Stable Diffusion 原理介绍与源码分析(二、DDPM、DDIM、PLMS) 文章目录 Stable Diffusion 原理介绍与源码分析(二、DDPM、DDIM、PLMS) 系列文章 前言(与正文无关,可忽略) 总览...
-
UNC斯坦福等曝光GPT-4V意外漏洞,被人类哄骗数出8个葫芦娃!LeCun和Jim Fan震惊了
GPT-4V诞生后,惊艳的多模态能力让网友惊呼连连,连OpenAI总裁Greg Brockman都不断在X上安利。 不过,最近大家发现,只要打乱布局,GPT-4V就会被曾经解决的著名计算机视觉难题——「吉娃娃还是松饼」,再次难倒…… UCSC教授Xin...
-
LoRAShear:微软在LLM修剪和知识恢复方面的最新研究
LoRAShear是微软为优化语言模型模型(llm 和保存知识而开发的一种新方法。它可以进行结构性修剪,减少计算需求并提高效率。 LHSPG技术( Lora Half-Space Projected Gradient)支持渐进式结构化剪枝和动态知识恢复...
-
详解超强ResNet变体NFNet:抛弃归一化后,性能却达到了最强!
本文经自动驾驶之心公众号授权转载,转载请联系出处。 从上古时期一直到今天,Batch Norm (BN 一直都是视觉骨干架构里面很重要的一个环节。BN 使得研究人员可以训练更深的网络,并在训练集和测试集上实现更高的精度。Batch Norm 还可以平...
-
LLaMA系列 | LLaMA和LLaMA-2精简总结
文章目录 1、LLaMA 1.1、模型结构 1.2、训练方式 1.3、结论 2、LLaMA-2 2.1、相比LLaMA1的升级 2.3、模型结构 2.3.1、MHA, MQA, GQA区别与联系 2.4、训练方式 1、L...
-
谷歌DeepMind给AGI划等级,猜猜ChatGPT在哪个位置
我们到底该如何定义 AGI(通用人工智能)?如果你要求 100 位 AI 专家进行解答,你可能会得到 100 个相关但不同的定义。 现阶段,AGI 是 AI 研究中一个重要且存在争议的概念,有研究者认为 AGI 已经出现在最新一代大语言模型(LLM)中;...
-
语言作“纽带”,拳打脚踢各模态,超越Imagebind
北大联合腾讯打造了一个多模态15边形战士! 以语言为中心,“拳打脚踢”视频、音频、深度、红外理解等各模态。 具体来说,研究人员提出了一个叫做LanguageBind的多模态预训练框架。 用语言作为与其它模态之间的纽带,冻结语言编码器,然后用对比学习方法...
-
斯坦福提出对比偏好学习:无需强化学习即可从人类反馈中学习
在模型与人类意图对齐方面,根据人类反馈的强化学习(RLHF)已经成为一大流行范式。通常来说,RLHF 算法的工作过程分为两个阶段:一、使用人类偏好学习一个奖励函数;二、通过使用强化学习优化所学习的奖励来对齐模型。 RLHF 范式假定人类偏好的分布遵照奖励...
-
GPT-4比你更会问问题:让大模型自主复述,打破与人类对话的壁垒
在最新的人工智能领域动态中,人工生成的提示(prompt)质量对大语言模型(LLM)的响应精度有着决定性影响。OpenAI 提出的建议指出,精确、详细且具体的问题对于这些大语言模型的表现至关重要。然而,普通用户是否能够确保他们的问题对于 LLM 来说足够...
-
能跟「猫主子」聊天了!生成式AI带来的全面革命:最快五年内破译第一种动物语言
所罗门能够与动物交流并不是因为他拥有魔法物品,而是因为他有观察的天赋。 ——康拉德・劳伦兹《所罗门王的指环》 在《狮子王》、《疯狂动物城》等以动物为中心的作品中,作者...
-
调用百度文心AI作画API实现中文-图像跨模态生成
作者介绍 乔冠华,女,西安工程大学电子信息学院,2020级硕士研究生,张宏伟人工智能课题组。 研究方向:机器视觉与人工智能。 电子邮件:1078914066@qq.com 一.文心AI作画API介绍 1. 文心AI作画 文心ERNIE-...
-
Text-to-SQL小白入门(五)开源最强代码大模型Code Llama
摘要 本文介绍了Code Llama大模型的基本概括,包含了论文的摘要、结果、结论以及核心方法,对于了解和实践Code Llama有一定帮助。 论文概述 上一篇介绍了指令进化大模型WizardLM,留了一个坑,补上Code Llama论文学习,...
-
AIGC技术周报|为文生图模型提供“参考”;交互式prompt系统:让文生图模型更懂你
AIGC通过借鉴现有的、人类创造的内容来快速完成内容创作。ChatGPT、Bard等AI聊天机器人以及Dall·E 2、Stable Diffusion等文生图模型都属于AIGC的典型案例。「AIGC技术周报」将为你带来最新的paper、博客等前瞻性研究。...
-
【网安AIGC专题10.11】2 ILF利用人类编写的 自然语言反馈 来训练代码生成模型:自动化反馈生成+多步反馈合并+处理多错误反馈+CODEGEN -M ONO 6.1 B model
Improving Code Generation by Training with Natural Language Feedback 写在最前面 主要工作 启发 背景介绍 应用 现有工作的不足 Motivation动机 方法 ILF...
-
[大模型] LLaMA系列大模型调研与整理-llama/alpaca/lora(部分)
文章目录 LLaMA大模型及其衍生模型 1. LLaMA 2. stanford_alpaca 3. ChatDoctor 4. alpaca-lora 5. Chinese-LLaMA-Alpaca 6. BELLE 大模型综述 A Su...
-
[LLM+AIGC] 01.应用篇之中文ChatGPT初探及利用ChatGPT润色论文对比浅析(文心一言 | 讯飞星火)
近年来,人工智能技术火热发展,尤其是OpenAI在2022年11月30日发布ChatGPT聊天机器人程序,其使用了Transformer神经网络架构(GPT-3.5),能够基于在预训练阶段所见的模式、统计规律和知识来生成回答,还能根据聊天的上下文进行互动,...
-
AIGC图像分辨率太低?快来试试像素感知扩散超分模型,你想要的细节都在这里
FaceChain写真开源项目插播: 最新 FaceChain支持多人合照写真、上百种单人写真风格,项目信息汇总:ModelScope 魔搭社区 。 github开源直达(觉得有趣的点个star哈。):GitHub - mo...
-
语音识别模型whisper的参数说明
一、whisper简介: Whisper是一种通用的语音识别模型。它是在各种音频的大型数据集上训练的,也是一个多任务模型,可以执行多语言语音识别、语音翻译和语言识别。 二、whisper的参数 1、-h, --help 查看whisper的参数...
-
LLM:LLaMA模型和微调的Alpaca模型
LLaMA模型 简单了解[LeCun狂赞:600刀GPT-3.5平替! 斯坦福70亿参数「羊驼」爆火,LLaMA杀疯了] 论文原文:https://arxiv.org/abs/2302.13971v1 预训练数据 模型架构 模型就是用的tra...
-
微软推出 FP8 混合精度训练框架:比 BF16 快 64%,内存占用少 42%
11 月 10 日消息,大语言模型(LLM)快速崛起,在语言生成和理解方面表现出光明的前景,影响超越了语言领域,延伸到逻辑、数学、物理学等领域。 不过想要解锁这些“非凡能量”,需要付出高额的代价,例如训练 540B 模型,需要 Project PaL...
-
让AI模型成为GTA五星玩家,基于视觉的可编程智能体Octopus来了
电子游戏已经成为如今现实世界的模拟舞台,展现出无限可能。以游戏《侠盗猎车手》(GTA)为例,在 GTA 的世界里,玩家可以以第一人称视角,在洛圣都(游戏虚拟城市 当中经历丰富多彩的生活。然而,既然人类玩家能够在洛圣都里尽情遨游完成若干任务,我们是否也能有一...
-
文本生成高精准3D模型,北京智源AI研究院等出品—3D-GPT
北京智源AI研究院、牛津大学、澳大利亚国立大学联合发布了一项研究—3D-GPT,通过文本问答方式就能创建高精准3D模型。 据悉,3D-GPT使用了大语言模型的多任务推理能力,通过任务调度代理、概念化代理和建模代理三大模块,简化了3D建模的开发流程实现技术民...
-
各种文字生成图片的AIGC模型(openAI、谷歌、stable、Midjourney等)
1 前言 AIGC,全名“AI generated content”,又称生成式AI,意为人工智能生成内容。例如AI文本续写,文字转图像的AI图、视频等。 本文主要描述文字生成图片的模型。而且目前扩散模型(Diffusion Models)流行,所以下...
-
大模型走捷径「刷榜」?数据污染问题值得重视
生成式 AI 元年,大家的工作节奏快了一大截。 特别是,今年大家都在努力卷大模型:最近国内外科技巨头、创业公司都在轮番推出大模型,发布会一开,个个都是重大突破,每一家都是刷新了重要 Benchmark 榜单,要么排第一,要么第一梯队。 在兴奋于技术进展速...
-
用语言对齐多模态信息,北大腾讯等提出LanguageBind,刷新多个榜单
在现代社会,信息传递和交流不再局限于单一模态。我们生活在一个多模态的世界里,声音、视频、文字和深度图等模态信息相互交织,共同构成了我们丰富的感知体验。这种多模态的信息交互不仅存在于人类社会的沟通中,同样也是机器理解世界所必须面对的挑战。 如何让机器像人类...
-
大模型勇闯洛圣都,加封「GTA五星好市民」!南洋理工、清华等发布视觉可编程智能体Octopus:打游戏、做家务全能干
随着游戏制作技术的不断发展,电子游戏已然成为现实世界的模拟舞台。 以游戏《侠盗猎车手》(GTA)为例,在GTA的世界里,玩家可以以第一人称视角,在洛圣都(游戏虚拟城市)当中经历丰富多彩的生活。 然而,既然人类玩家能够在洛圣都里尽情遨游完成若干任务,我们...
-
谨防大模型基准评估陷阱!测试集乱入预训练,模型变傻
最新研究警告,大型模型在基准评估中可能面临潜在危害,原因是测试集中的数据可能意外进入预训练过程。这项研究由中国人民大学信息学院、高瓴人工智能学院和伊利诺伊大学厄巴纳-香槟分校的学者联合进行。 研究发现,由于预训练语料包含大量公开文本,而评估基准建立在这些信...