-
Stable Diffusion的入门介绍和使用教程
Stable Diffusion是一个文本到图像的潜在扩散模型,由CompVis、Stability AI和LAION的研究人员和工程师创建。它使用来自LAION-5B数据库子集的512x512图像进行训练。使用这个模型,可以生成包括人脸在内的任何图...
-
【AIGC专题】Stable Diffusion 从入门到企业级实战0403
一、前言 本章是《Stable Diffusion 从入门到企业级实战》系列的第四部分能力进阶篇《Stable Diffusion ControlNet v1.1 图像精准控制》第03节, 利用Stable Diffusion ControlNet Ca...
-
大模型相关技术综述
多模态大模型&大模型训练语料持续迭代 已经开始整理多模态-视觉部分: 主要分为一下几块 多模态信息压缩模型(clip、vit、swiT) 生成模型(vae、gan、flow、ddpm、sde... 其它多模态大模型(语音...
-
大模型恋爱神器!16种MBTI自由定制,北大ChatLaw团队出品
北大团队新作,让大模型拥有个性! 而且还是自定义那种,16种MBTI都能选。 图源备注:图片由AI生成,图片授权服务商Midjourney 这样一来,即便是同一个大模型,不同性格下的回答都不一样。 比如提问:你周末喜欢干什么? 这样能干啥呢?北大的童...
-
AIGC:阿里开源大模型通义千问部署与实战
1 引言 通义千问-7B(Qwen-7B)是阿里云研发的通义千问大模型系列的70亿参数规模的模型。Qwen-7B是基于Transformer的大语言模型, 在超大规模的预训练数据上进行训练得到。预训练数据类型多样,覆盖广泛,包括大量网络文本、专业书籍、代...
-
为什么人工智能如此需要资源?
截至2023年底,任何关于生成式人工智能需要多少能源的预测都是不准确的。 头条新闻倾向于猜测“人工智能需要5倍、10倍、30倍的电力”和“足够运行10万个家庭的电力”等。与此同时,数据中心新闻等专业出版物的报道称,功率密度将上升到每机架50千瓦或100千...
-
LLMs模型速览(GPTs、LaMDA、GLM/ChatGLM、PaLM/Flan-PaLM、BLOOM、LLaMA、Alpaca)
文章目录 一、 GPT系列 1.1 GPTs(OpenAI,2018——2020) 1.2 InstructGPT(2022-3) 1.2.1 算法 1.2.2 损失函数 1.3 ChatGPT(2022.11.30) 1.4 ChatG...
-
Jetson Orin安装riva以及llamaspeak,使用 Riva ASR/TTS 与 Llama 进行实时交谈,大语言模型成功运行笔记
NVIDIA 的综合语音 AI 工具包 RIVA 可以处理这种情况。此外,RIVA 可以构建应用程序,在本地设备(如 NVIDIA Jetson)上处理所有这些内容。 RIVA 是一个综合性库,包括: 自动语音识别 (ASR) 文本转语音合成 (TT...
-
13个优秀开源语音识别引擎
语音识别(ASR)在人机交互方面发挥着重要的作用,可用于:转录、翻译、听写、语音合成、关键字定位、语音日记、语言增强等场景。语音识别基本过程一般包括:分析音频、音频分解、格式转换、文本匹配,但实际的语音识别系统可能会更复杂,并且可能包括其他步骤和功能组件...
-
在灾难推文分析场景上比较用 LoRA 微调 Roberta、Llama 2 和 Mistral 的过程及表现
引言 自然语言处理 (NLP 领域的进展日新月异,你方唱罢我登场。因此,在实际场景中,针对特定的任务,我们经常需要对不同的语言模型进行比较,以寻找最适合的模型。本文主要比较 3 个模型: RoBERTa、Mistral-7B 及 Llama-2...
-
微软祭出代码大模型WaveCoder!四项代码任务两万个实例数据集,让LLM泛化能力飙升
用高质量数据集进行指令调优,能让大模型性能快速提升。 对此,微软研究团队训练了一个CodeOcean数据集,包含了2万个指令实例的数据集,以及4个通用代码相关任务。 与此同时,研究人员微调了一个代码大模型WaveCoder。 论文地址:https://...
-
百度文心一言,是中国版的ChatGPT吗?
百度文心一言,是中国版的ChatGPT吗? 文心一言发布会网友评论: 百度在让人失望这件事上,从来没让人失望过! 技术原理一句没有,商业价值滔滔不绝。 ChatGPT?CheatGPT! 难怪暴跌,还没看两眼就困了,没话可以直播咬打火机,股...
-
【 stable diffusion LORA模型训练最全最详细教程】
个人网站:https://tianfeng.space/ 文章目录 一、前言 二、朱尼酱的赛博丹炉 1.介绍 2.解压配置 3.使用 训练准备 首页设置 上传素材 查看进度 三、秋叶的lora训练器 1.下载 2.预处理 3.参...
-
Meta最新模型LLaMA详解(含部署+论文)
来源:投稿 作者:毛华庆 编辑:学姐 前言 本课程来自深度之眼《大模型——前沿论文带读训练营》公开课,部分截图来自课程视频。 文章标题:LLaMA: Open and Efficient Foundation Language Mode...
-
AI绘画:Lora模型训练完整流程!
关于AI绘画(基于Stable Diffusion Webui ,我之前已经写过三篇文章,分别是 软件安装,基本的使用方法,微调模型LoRA的使用。 整体来说还是比简单的,搞个别人的模型,搞个提示词就出图了。今天来一个有些难度的,自己训练一个LoRA微...
-
语言模型是如何感知时间的?「时间向量」了解一下
语言模型究竟是如何感知时间的?如何利用语言模型对时间的感知来更好地控制输出甚至了解我们的大脑?最近,来自华盛顿大学和艾伦人工智能研究所的一项研究提供了一些见解。他们的实验结果表明,时间变化在一定程度上被编码在微调模型的权重空间中,并且权重插值可以帮助自定...
-
看见这张图没有,你就照着画:谷歌图像生成AI掌握多模态指令
用图2的风格画图1的猫猫并给它戴上一顶帽子。谷歌新设计的一种图像生成模型已经能做到这一点了!通过引入指令微调技术,多模态大模型可以根据文本指令描述的目标和多张参考图像准确生成新图像,效果堪比 PS 大神抓着你的手助你 P 图。 在使用大型语言模型(LLM...
-
人工智能生成内容(AIGC)总览记录(认知篇)!!!
文章目录 一、AIGC 引入 1.1 AIGC 定义 1.2 AIGC 历史沿革(了解) 1.3 AIGC 技术演进 二、AIGC 大模型 2.1 视觉大模型提升 AIGC 感知能力 2.2 语言大模型增强 AIGC 认知能力 2.3 多...
-
VCoder官网体验入口 AI图像语义理解app软件免费下载地址
VCoder是一个适配器,通过辅助感知模式作为控制输入,来提高多模态大型语言模型在对象级视觉任务上的性能。VCoder LLaVA是基于LLaVA-1. 5 构建的,不对LLaVA-1. 5 的参数进行微调,因此在通用的问答基准测试中的性能与LLaVA-1...
-
人工智能利用深度学习技术增强高级驾驶辅助系统(ADAS)
译者 | 李睿 审校 | 重楼 人工智能和机器学习利用深度学习技术的优势,使高级驾驶辅助系统(ADAS 发生了重大变革。ADAS在很大程度上依赖深度学习来分析和解释从各种传感器获得的大量数据。摄像头、激光雷达(光探测和测距 、雷达和超声波传感器都是传感器...
-
【AIGC-图片生成视频系列-4】DreamTuner:单张图像足以进行主题驱动生成
目录 一. 项目概述 问题: 解决: 二. 方法详解 a 整体结构 b 自主题注意力 三. 文本控制的动漫角色驱动图像生成的结果 四. 文本控制的自然图像驱动图像生成的结果 五. 姿势控制角色驱动图像生成的结果 2023年的最后一...
-
最强开源大模型?Llama 2论文解读
标题 简介 模型预训练 预训练设置 硬件资源与碳排放 模型评估 模型微调 有监督微调 基于人工反馈的强化学习(RLHF) 人类偏好数据的收集 奖励模型 迭代微调过程 多轮对话控制 RLHF 结果 模型回答的安全性 一直...
-
手把手教你通过PaddleHub快速实现输入中/英文本生成图像(Stable Diffusion)
近来,基于Diffusion的文图生成模型比较火,用户输入一句话,模型就可以生成一副对应的图像,还是很有意思的。本文记录了通过PaddleHub快速实现上述任务的过程,以供参考。 1、安装PaddlePaddle PaddleHub底层依赖于百度自研的...
-
每个开发者都应该知道的6个生成式AI框架和工具
译者 | 晶颜 审校 | 重楼 在快速发展的技术领域,生成式人工智能是一股革命性的力量,它改变了开发人员处理复杂问题和创新的方式。本文深入探讨了生成式AI的世界,揭示了对每个开发人员都必不可少的框架和工具。 一、LangChain 图片 LangCh...
-
4、stable diffusion
github 安装anaconda环境 conda env create -f environment.yaml conda activate ldm 安装依赖 conda install pytorch==1.12.1 torchvision=...
-
文心一言“拜师”了!金灿荣、王先进等成为首批“文心导师”
12月28日,由深度学习技术及应用国家工程研究中心主办的WAVE SUMMIT+深度学习开发者大会2023在北京召开。百度首席技术官、深度学习技术及应用国家工程研究中心主任王海峰现场公布了飞桨文心五载十届最新生态成果,文心一言最新用户规模破1亿,截至12月...
-
用户规模破亿!基于文心一言的创新应用已超4000个
?♂️ 个人主页:@艾派森的个人主页 ✍?作者简介:Python学习者 ? 希望大家多多支持,我们一起进步!? 如果文章对你有帮助的话, 欢迎评论 ?点赞?? 收藏 ?加关注+ 12月28日,由深度学习技术及应用国家工程研究中...
-
100000000!文心一言披露最新用户规模
“文心一言用户规模突破1亿。” 12月28日,百度首席技术官、深度学习技术及应用国家工程研究中心主任王海峰在第十届WAVE SUMMIT深度学习开发者大会上宣布。会上,王海峰以《文心加飞桨,翩然赴星河》为题作了主旨演讲,分享了飞桨和文心的最新成果。...
-
文心一言用户规模破1亿 今年10月基础模型升级到4.0
在第十届WAVE SUMMIT深度学习开发者大会上,百度CTO兼深度学习技术及应用国家工程研究中心负责人王海峰,发表了《文心加飞桨,翩然赴星河》的主题演讲。 百度从2019年开始专注于预训练模型的研发,推出了文心大模型1.0。经过近四年的不断优化,百度在...
-
百度CTO王海峰:文心一言用户规模破1亿
“文心一言用户规模突破1亿。”12月28日,百度首席技术官、深度学习技术及应用国家工程研究中心主任王海峰在第十届WAVE SUMMIT深度学习开发者大会上宣布。会上,王海峰以《文心加飞桨,翩然赴星河》为题作了主旨演讲,分享了飞桨和文心的最新成果。...
-
百度文心一言,不做ChatGPT的中国翻版
数据智能产业创新服务媒体 ——聚焦数智 · 改变商业 3月16日,百度的文心一言终于正式邀请测试了。 据李彦宏介绍,文心一言可以实现文学创作、商业文案创作、数理逻辑推算、中文理解、多模态生成等。 通过观看直...
-
一文读懂常用的 “生成式 AI 库”
Hello folks,我是 Luga,今天我们继续来聊一下人工智能(AI)生态领域相关的技术 - GenerativeAI Library(生成式 AI 库) ,本文将继续聚焦在针对 Gen AI Library 的技术进行解析,使得大家能够了解 G...
-
模型量化和边缘人工智能如何定义交互方式
人工智能与边缘计算的融合承诺为许多行业带来变革。模型量化的快速创新在这方面发挥着关键作用,模型量化是一种通过提高可移植性和减小模型大小来加快计算速度的技术。 模型量化弥补了边缘设备的计算限制与部署高精度模型的需求之间的差距,以实现更快、更高效、更具成本效...
-
【AIGC】Chatglm2-lora微调
ChatGLM2介绍 ChatGLM2-6B源码地址:https://github.com/THUDM/ChatGLM2-6B ChatGLM2-6B 是开源中英双语对话模型 ChatGLM-6B 的第二代版本,在保留了初代模型对话流畅、部署门槛较低...
-
测试时领域适应的鲁棒性得以保证,TRIBE在多真实场景下达到SOTA
测试时领域适应(Test-Time Adaptation)的目的是使源域模型适应推理阶段的测试数据,在适应未知的图像损坏领域取得了出色的效果。然而,当前许多方法都缺乏对真实世界场景中测试数据流的考虑,例如: 测试数据流应当是时变分布(而非传统领域适应中...
-
LLaMA系列模型
1.LLama 1.1 简介 Open and Efficient Foundation Language Models (Open但没完全Open的LLaMA 2023年2月,Meta(原Facebook)推出了LLaMA大模型,使用了1.4...
-
关于生成式语言大模型的一些工程思考 paddlenlp & chatglm & llama
生成式语言大模型,随着chatgpt的爆火,市场上涌现出一批高质量的生成式语言大模型的项目。近期百度飞桨自然语言处理项目paddlenlp发布了2.6版本。更新了以下特性:全面支持主流开源大模型Bloom, ChatGLM, GLM, Llama, OPT...
-
实力强的大模型都有哪些超能力?
前几日,人工智能研究公司OpenAI CEO山姆·奥特曼(Sam Altman)在谈及人工智能这项技术的潜力以及人们对它的担忧时,曾表示“AI发展速度快得吓人,就像停不下来的龙卷风。”可见,人工智能正在以它超前的速度改变世界。 在经历了年初人工智能之大...
-
Stable Diffusion XL webui dreambooth插件 Linux安装,训练LoRA(保姆级教程)
文章目录 Stable Diffusion XL webui dreambooth插件 Linux安装(保姆级教程) 前言 安装 下载dreambooth仓库 下载SDXL预训练模型其他文件 下载前注意 下载前准备 下载...
-
使用 PyTorch FSDP 微调 Llama 2 70B
引言 通过本文,你将了解如何使用 PyTorch FSDP 及相关最佳实践微调 Llama 2 70B。在此过程中,我们主要会用到 Hugging Face Transformers、Accelerate 和 TRL 库。我们还将展示如何在 SL...
-
LLM-项目详解-Chinese-LLaMA-AIpaca(一):LLM+LoRa微调加速技术原理及基于PEFT的动手实践:一些思考和mt0-large+lora完整案例
如何花费较少的算力成本来进行微调训练,十分重要,当前关于LLaMA、Alpaca、Instruct微调、LoRa微调等多个概念大家讲的很多,最近也在学习,也看到几个有趣的话题(主要参考于(https://github.com/ymcui/Chinese-L...
-
被称为下一代风口的AIGC到底是什么?
近期,短视频平台上“AI绘画”的概念爆火,ChatGPT这一词条也刷爆了科技圈,而这些概念同属于一个领域——AIGC。2022年12月,Science杂志发布的2022年度科学十大突破中,AIGC入选。 那么,被称之为是AI下一代风口的AIGC到底是什么...
-
【EMNLP 2023】面向垂直领域的知识预训练语言模型
近日,阿里云人工智能平台PAI与华东师范大学数据科学与工程学院合作在自然语言处理顶级会议EMNLP2023上发表基于双曲空间和对比学习的垂直领域预训练语言模型。通过比较垂直领域和开放领域知识图谱数据结构的不同特性,发现在垂直领域的图谱结构具有全局稀疏,局部...
-
CVPR 2023 | 可控文生图/定制化文生图领域论文详解 AI作画增强版
可控文生图/定制化文生图 1、DreamBooth: Fine Tuning Text-to-Image Diffusion Models for Subject-Driven Generation DreamBooth是一种新的文本到图像扩散模型...
-
PillarNeSt:如何进一步提升基于Pillar的3D目标检测性能?
写在前面 && 笔者的个人理解 目前在自动驾驶领域中,一辆自驾汽车会配备多种传感器,如:激光雷达传感器采集点云数据、相机传感器采集图像数据等。由于激光雷达传感器可以更加准确的获取待检测物体的几何和位置信息,所以基于点云的感知算法模型在快速...
-
用生物脑机制启发持续学习,让智能系统适者生存,清华朱军等团队研究登Nature子刊封面
在开放、高动态和演化环境中的学习能力是生物智能的核心要素之一,也是人类以及大多数动物在「适者生存」的自然选择过程中形成的重要优势。目前传统机器学习范式是在静态和封闭的数据集上学习到一个模型,并假设其应用环境和之前训练数据的属性相同,因而无法适应动态开放环...
-
【网安AIGC专题10.11】①代码大模型的应用:检测、修复②其安全性研究:模型窃取攻击(API和网页接口) 数据窃取攻击 对抗攻击(用途:漏洞隐藏) 后门攻击(加触发器+标签翻转)
代码大模型的应用及其安全性研究 写在最前面 一些想法 大型模型输出格式不受控制的解决方法 大模型介绍 (很有意思)GPT 模型家族的发展 Chatgpt 优点 缺点 GPT4 其他模型 补充:self-instruct合成数据 Cod...
-
大语言模型之四-LlaMA-2从模型到应用
最近开源大语言模型LlaMA-2火出圈,从huggingface的Open LLM Leaderboard开源大语言模型排行榜可以看到LlaMA-2还是非常有潜力的开源商用大语言模型之一,相比InstructGPT,LlaMA-2在数据质量、培训技术、能力...
-
【LLM】大语言模型学习之LLAMA 2:Open Foundation and Fine-Tuned Chat Model
大语言模型学习之LLAMA 2:Open Foundation and Fine-Tuned Chat Model 快速了解 预训练 预训练模型评估 微调 有监督微调(SFT) 人...
-
AIGC专题报告:ChatGPT纪要分享
今天分享的AIGC系列深度研究报告:《AIGC专题报告:ChatGPT纪要分享》。 (报告出品方:久谦中台) 报告共计:135页 OpenAI 高管解密 ChatGPT ¶ GPT-3 是一种大型语言模型,被训练用来在给定上下文中预测下...