-
AIGC的初识
🌞欢迎来到自然语言处理的世界 🌈博客主页:卿云阁 💌欢迎关注🎉点赞👍收藏⭐️留言📝 🌟本文由卿云阁原创! 📆首发时间:🌹2023年12月26日🌹 ✉️希望可以和大家一起完成进阶之路! 🙏作者水平很有限,如果发现错误,请留言轰炸哦!万分...
-
大模型部署手记(10)LLaMa2+Chinese-LLaMA-Plus-7B+Windows+llama.cpp+中英文对话
1.简介: 组织机构:Meta(Facebook) 代码仓:GitHub - facebookresearch/llama: Inference code for LLaMA models 模型:llama-2-7b、llama-2-7b-chat(...
-
AIGC专栏2——Stable Diffusion结构解析-以文本生成图像(文生图,txt2img)为例
AIGC专栏2——Stable Diffusion结构解析-以文本生成图像(文生图,txt2img)为例 学习前言 源码下载地址 网络构建 一、什么是Stable Diffusion(SD) 二、Stable Diffusion的组成 三、生...
-
李飞飞、吴恩达开年对话:AI 寒冬、2024新突破、智能体、企业AI
在人工智能发展史上,2023 已经成为非常值得纪念的一年。在这一年,OpenAI 引领的 AI 大模型浪潮席卷了整个科技领域,把实用的 AI 工具送到了每个人手里。但与此同时,人工智能的发展也引起了广泛的讨论和争议,尤其在其商业应用和未来发展前景方面。...
-
AIGC内容分享(二十):「AI视频生成」技术核心基础知识和模型应用
目录 何为AI视频? 一、技术发展概况 二、代表模型及应用 三、仍存在许多技术难点 何为AI视频? 「AI视频」通常指的是由人工智能(AI)技术生成或处理的视频。这可能包括使用深度学习、计算机视觉和其他相关技术来改善视频的质...
-
LCM-LoRA:通用stable diffusion 加速模块!2023.11.13顶会论文速递!
整理:AI算法与图像处理 欢迎关注公众号 AI算法与图像处理,获取更多干货: 推荐 微信交流群现已有2000+从业人员交流群,欢迎进群交流学习,微信:nvshenj125 B站最新成果demo分享地址:https://s...
-
AIGC中的视觉生成文献整理
文章目录 文件夹文献总览 图像生成技术 视频生成技术 Video Generation with Text Condition Video Generation with other Conditions Video Editing 生成模...
-
AIGC的底层核心结构Transformer是如何彻底改变NLP游戏规则的?OJAC近屿智能带你一探究竟
Look!👀我们的大模型商业化落地产品 📖更多AI资讯请👉🏾关注 Free三天集训营助教在线为您火热答疑👩🏼🏫 没有Transformer,就没有NLP的突破,听起来有些夸张,但事实确实如此。什么是Transformer?Transforme...
-
Stable Diffusion1.5网络结构-超详细原创
目录 1 Unet 1.0 介绍 1.1详细整体结构 1.2 缩小版整体结构 1.3 时间步编码 1.4 CrossAttnDownBlock2D 1.4.1 ResnetBlock2D 1.4.2 Transformer2DModel...
-
被OpenAI、Mistral AI带火的MoE是怎么回事?一文贯通专家混合架构部署
选自 HuggingFace 博客 编译:赵阳 专家混合 (MoE) 是 LLM 中常用的一种技术,旨在提高其效率和准确性。这种方法的工作原理是将复杂的任务划分为更小、更易于管理的子任务,每个子任务都由专门的迷你模型或「专家」处理。 早些时候,有人爆料...
-
ChatGPT和文心一言哪个更好用?
ChatGPT和文心一言都是基于深度学习技术的自然语言处理模型,它们各自具有优势和局限性,需要根据具体需求进行选择。以下是两者的比较: 算力:ChatGPT由OpenAI开发,具有强大的文本生成能力和语言理解能力,其训练数据集规模和模型规模都非常大,...
-
Bard!谷歌对 ChatGPT 的最强反击,悄咪咪的支持中文了!
“ ChatGPT、Bard,哪个是更好的AI人工智能大语言模型。” 01 — ChatGPT 这么火,而且这款产品是 OpenAI 以谷歌的大模型架构 transformer 为基础迭代的。谷歌自然不甘落后,早在3月份推出自家的人...
-
Stable Diffusion 源码解析(1)
参考1:https://blog.csdn.net/Eric_1993/article/details/129393890 参考2:https://zhuanlan.zhihu.com/p/613337342 1.StableDiff...
-
[NLP]LLaMA与LLamMA2解读
摘要 Meta最近提出了LLaMA(开放和高效的基础语言模型 模型参数包括从7B到65B等多个版本。最值得注意的是,LLaMA-13B的性能优于GPT-3,而体积却小了10倍以上,LLaMA-65B与Chinchilla-70B和PaLM-540B具有竞...
-
stable diffusion(1): webui的本地部署(windows)
一、前言 是的,现在是202308月份了,网上已经有很多打包好的工具,或者直接进一个web就能用SD的功能,但是我们作为程序员,就应该去躺坑,这样做也是为了能够有更多自主操作的空间。 像其他AI一样,先出结果才是王道,所以先不直接搞SD源码或者命令行,...
-
【多模态】14、Segment Anything | Meta 推出超强悍可分割一切的模型 SAM
文章目录 一、Intruduction 二、Segment Anything Task 三、Segment Anything Model 四、Segment Anything Data Engine 五、Segment Anything Dat...
-
AIGC、ChatGPT、GPT系列?我的认识
AIGC(AI generated content),新型内容生产方式。AIGC是利用人工智能技术来生成内容,也就是,它可以用输入数据生成相同或不同类型的内容,比如输入文字、生成文字,输入文字、生成图像等。 GPT-3是生成型的预训练变换模型,是...
-
AI游戏设计的半年度复盘;大模型+智能音箱再起波澜;昇思大模型技术公开课第2期;出海注册经验分享;如何使用LoRA微调Llama 2 | ShowMeAI日报
👀日报&周刊合集 | 🎡生产力工具与行业应用大全 | 🧡 点赞关注评论拜托啦! 🔥 进步or毁灭:Nature 调研显示 1600+ 科学家对AI的割裂态度 国际顶级期刊 Nature 最近一项调研很有意思,全球 1600 多名科...
-
AIGC大模型之——以文生图介绍
一、什么是以文生图? 以文生图是AIGC ( AI Generated Content )框架中的一个关键技术,通过文字描述,将文字转化为图像并展示出来。以文生图具有白动化程度高、精度高、可扩展性强、可定制化等优势,具有广泛的应用前景,可以...
-
小扎All in 开源AGI:正训练Llama 3,年底将有35万块H100
小扎宣布新目标:All in 开源AGI。 不错,小扎又All in了,正是OpenAI谷歌必争之地。 不过在AGI之前,着重强调了是Open Sourse(开源)的。 图片 此举受到不少好评,一如此前LIama系列大模型开源之时。 图片 图片 不过此次...
-
视觉Mamba来了:速度提升2.8倍,内存能省87%
号称「全面包围 Transformer」的 Mamba,推出不到两个月就有了高性能的视觉版。 本周四,来自华中科技大学、地平线、智源人工智能研究院等机构的研究者提出了 Vision Mamba(Vim)。 论文地址:https://arxiv.or...
-
最近读的AIGC相关论文思路解读
AIGC之SD可控生成论文阅读记录 提示:本博客是作者本人最近对AIGC领域相关论文调研后,临时记录所用,所有观点都是来自作者本人局限理解,以及个人思考,不代表对。如果你也正好看过相关文章,发现作者的想法和思路有问题,欢迎评论区留言指正! 既然是论...
-
ICLR'24无图新思路!LaneSegNet:基于车道分段感知的地图学习
写在前面&笔者的个人理解 地图作为自动驾驶系统下游应用的关键信息,通常以车道或中心线表示。然而,现有的地图学习文献主要集中在检测基于几何的车道或感知中心线的拓扑关系。这两种方法都忽略了车道线与中心线的内在关系,即车道线绑定中心线。虽然在一个模型中...
-
WidthFormer:实时自动驾驶!助力基于Transformer的BEV方案量产
本文经自动驾驶之心公众号授权转载,转载请联系出处。 写在前面&行业理解 基于BEV的transformer方案今年量产的主要方案,transformer结构和CNN相比,特征提取能力更强,但需要较多的算力,这也是为什么许多车上都是1~2颗orin...
-
常见大模型对比[ChatGPT(智能聊天机器人)、Newbing(必应)、Bard(巴德)、讯飞星火认知大模型(SparkDesk)、ChatGLM-6B]
目录 1 引言 2 选取常见的大模型作为对比项 2.1什么是大模型 2.2 常见大模型 3 相关的大模型介绍和功能 3.1 ChatGPT 3.1.1 ChatGPT的介绍 3.1.2 ChatGPT的原理 3.1.3 ChatGPT的特...
-
如何使用ChatGPT + Midjourney批量生成图片
我们都知道,视觉内容对于一个内容创作者来说非常重要。但是,对于没有设计技能的人来说,制作视觉内容可能是一项很困难的任务。不过,随着人工智能技术的不断进步,我们可以使用一些AI工具来帮助我们创建视觉内容,例如使用ChatGPT和Midjourney批量生成图...
-
AI绘画与多模态原理解析:从CLIP到DALLE1/2、DALLE 3、Stable Diffusion、SDXL Turbo、LCM
前言 终于开写本CV多模态系列的核心主题:stable diffusion相关的了,为何执着于想写这个stable diffusion呢,源于三点 去年stable diffusion和midjourney很火的时候,就想写,因为经常被刷屏,但那会时...
-
AIGC学习笔记(1)——AI大模型提示词工程师
文章目录 AI大模型提示词工程师 1 Prompt工程之原理 1.1 AIGC的发展和产业前景 前言 AIGC时代的到来 发展趋势和应用展望 1.2 大模型的类型和特点 大模型的对比 上手 特点 1.3 大模型技术原理和发展 成语...
-
AIGC系列之:ControlNet原理及论文解读
《Adding Conditional Control to Text-to-Image Diffusion Models》 目录 1.背景介绍 2.原理详解 2.1 Controlnet 2.2 用于Stable Diffusion的Contr...
-
LLaMA Pro: Progressive LLaMA with Block Expansion
Q: 这篇论文试图解决什么问题? A: 这篇论文试图解决大型语言模型(LLMs)在特定领域(如编程、数学、生物医学或金融)能力不足的问题。尽管LLMs在多种现实世界任务中表现出色,但在某些特定领域仍然存在局限性,这阻碍了开发通用语言代理以应用于更广泛场景...
-
Stable Diffusion WebUI 本地部署
前言 系统windows10,显卡NVIDIA RTX 2060s,分享一下stable diffusion webui 本地部署过程以及遇到的问题。其中一些环境已搭建或者软件已安装过的,可以直接跳过。 步骤 1. 安装git git下载地址...
-
RoSA: 一种新的大模型参数高效微调方法
随着语言模型不断扩展到前所未有的规模,对下游任务的所有参数进行微调变得非常昂贵,PEFT方法已成为自然语言处理领域的研究热点。PEFT方法将微调限制在一小部分参数中,以很小的计算成本实现自然语言理解任务的最先进性能。 (RoSA 是一种新的PEFT技术...
-
最强AI手机选天玑!联发科天玑9300拿下终端、芯片双AI榜一
快科技1月18日消息,AI Benchmark发布了终端AI性能排行榜和芯片AI性能排行榜。 其中联发科天玑9300拿下终端、芯片双榜一,堪称最强AI手机芯片。 根据榜单,前三名OPPO Find X7、vivo X100 Pro、vivo X100都是天...
-
几何纹理重建新SOTA!浙大提出SIFU:单图即可重建高质量3D人体模型
在AR、VR、3D打印、场景搭建以及电影制作等多个领域中,高质量的穿着衣服的人体3D模型非常重要。 传统的方法创建这些模型不仅需要大量时间,还需要能够捕捉多视角照片的专业设备,此外还依赖于技术熟练的专业人员。 与此相反,在日常生活中,我们最常见...
-
ConvNet与Transformer谁更强?Meta评测4个领先视觉模型,LeCun转赞
如何根据特定需求选择视觉模型? ConvNet/ViT、supervised/CLIP模型,在ImageNet之外的指标上如何相互比较? 来自MABZUAI和Meta的研究人员发表的最新研究,在「非标准」指标上全面比较了常见的视觉模型。 论文地址:ht...
-
新一代注意力机制Lightning Attention-2:无限序列长度、恒定算力开销、更高建模精度
大语言模型序列长度的限制,极大地制约了其在人工智能领域的应用,比如多轮对话、长文本理解、多模态数据的处理与生成等。造成这一限制的根本原因在于当前大语言模型均采用的 Transformer 架构有着相对于序列长度的二次计算复杂度。这意味着随着序列长度的增加...
-
AIGC大模型必备知识——LLM ,你知道它是如何训练的吗?小白必读深度好文
Look!👀我们的大模型商业化落地产品 📖更多AI资讯请👉🏾关注 Free三天集训营助教在线为您火热答疑👩🏼🏫 近年来,人工智能(AI)领域经历了令人瞩目的增长,尤其是自然语言处理(NLP)。你知道是什么推动了NLP领域的这种飞速发展吗?没错,那...
-
大模型时代下AIGC新浪潮
大模型时代下AIGC新浪潮 文章目录 大模型时代下AIGC新浪潮 1. **相关概念** 2. **迎接大模型时代** 3. **ChatGPT引爆AIGC产业** 4. **从产业链宏观看AIGC** 1. **上游:基础层**...
-
2023年的深度学习入门指南(24) - 处理音频的大模型 OpenAI Whisper
2023年的深度学习入门指南(24 - 处理音频的大模型 OpenAI Whisper 在这一讲之前,我们所用的大模型都是针对文本的。这一讲我们增加一个新的领域,即音频。我们将介绍OpenAI的Whisper模型,它是一个处理音频的大模型。 Wh...
-
Stable Diffusion with Diffusers 学习笔记: 原理+完整pipeline代码
文章目录 01 使用 02 Stable Diffusion 的工作原理 The autoencoder (VAE The U-Net The Text-encoder Latent Diffusion 又快又高效的原因 Stable Di...
-
如何将知识图谱与AIGC结合?京东是这么做的
一、导言 首先介绍一下京东在电商场景下 AIGC 方面的探索。 这是一个商品营销文案自动生成的全景图,自下而上首先是商品的输入信息。输入信息是异构多源的,包括商品的商详页里的图片、文本、商品的标题以及商品的知识图谱。通用的知识图谱是三元组的形式,...
-
DiffIR: Efficient Diffusion Model for Image Restoration 利用扩散模型进行图像重建
一、主要贡献 •我们提出了DiffIR,一种强大、简单、高效的基于扩散模型的的图像修复方法。与图像生成不同的是,输入图像的大部分像素都是给定的。因此,我们利用DM强大的映射能力来估计一个紧凑的IPR(IR Prior Representation,图像修...
-
一文读懂大型语言模型参数高效微调:Prefix Tuning与LLaMA-Adapter
芝士AI吃鱼 在快速发展的人工智能领域中,高效、有效地使用大型语言模型变得日益重要,参数高效微调是这一追求的前沿技术,它允许研究人员和实践者在最小化计算和资源占用的同时,重复使用预训练模型。这还使我们能够在更广泛的硬件范围内训练...
-
使用 Transformers 为多语种语音识别任务微调 Whisper 模型
本文提供了一个使用 Hugging Face 🤗 Transformers 在任意多语种语音识别 (ASR 数据集上微调 Whisper 的分步指南。同时,我们还深入解释了 Whisper 模型、Common Voice 数据集以及微调等理论知识,...
-
AIGC内容分享(十二):AIGC探索之旅AIGC探索之旅
目录 前言 引言:AI时代,未来已来 AIGC简介与发展历程 早期萌芽阶段(1950s-1990s) 沉淀积累阶段(1990s-2010s) 快速发展阶段(2010s至今) 大模型与AIGC的关联 大模型概述 大模型的定义和特点 典型大...
-
Stable Diffusion扩散模型 + Consistency一致性模型
1 GAN到Stable Diffusion的改朝换代 2 从DDPM到Stable Diffusion发展史 2.1 DDPM 扩散过程(正向) 去噪过程(反向) 总结 优化目标 理论推导 代码解析 2.2 Stable Diffu...
-
书生·浦语2.0体验入口 AI聊天InternLM2模型在线使用地址
「InternLM2」书生·浦语2.0是一款面向中文和英文的大型多语言预训练语言模型,标志着自然语言处理技术的新时代。它不仅在语言理解和生成方面有着出色的表现,还能够进行多模式推理和代码理解。这种基于Transformer架构的模型通过海量数据的预训练,在...
-
【论文简介】Stable Diffusion的基础论文:2112.High-Resolution Image Synthesis with Latent Diffusion Models
稳定扩散生成模型(Stable Diffusion 是一种潜在的文本到图像扩散模型,能够在给定任何文本输入的情况下生成照片般逼真的图像 Stable Diffusion 是基于latent-diffusion 并与 Stability AI and Run...
-
【论文笔记 · PFM】Lag-Llama: Towards Foundation Models for Time Series Forecasting
Lag-Llama: Towards Foundation Models for Time Series Forecasting 摘要 本文提出Lag-Llama,在大量时间序列数据上训练的通用单变量概率时间序列预测模型。模型在分布外泛化能力上取...
-
Tokenization 指南:字节对编码,WordPiece等方法Python代码详解
在2022年11月OpenAI的ChatGPT发布之后,大型语言模型(llm 变得非常受欢迎。从那时起,这些语言模型的使用得到了爆炸式的发展,这在一定程度上得益于HuggingFace的Transformer库和PyTorch等库。 计算机要处理语言,...