-
[玩转AIGC]LLaMA2训练中文文章撰写神器(数据准备,数据处理,模型训练,模型推理)
目录 一、下载并加载中文数据集 二、中文数据集处理 1、数据格式 2、数据集处理之tokenizer训练格式 1)先将一篇篇文本拼凑到一起(只是简单的拼凑一起,用于训练tokenizer) 2)将数据集进行合并 3、数据集处理之模型(ll...
-
LLM系列 | 22 : Code Llama实战(下篇):本地部署、量化及GPT-4对比
引言 模型简介 依赖安装 模型inference 代码补全 4-bit版模型 代码填充 指令编码 Code Llama vs ChatGPT vs GPT4 小结 引言 青山隐隐水迢迢,秋尽江南草未凋。...
-
【周末闲谈】人工智能热潮下的AIGC到底指的是什么?
生成式人工智能AIGC(Artificial Intelligence Generated Content)是人工智能1.0时代进入2.0时代的重要标志。 个人主页:【?个人主页】 系列专栏:【❤️周末闲谈】 系列目录 ✨第一周 二进制V...
-
基于llama-index对embedding模型进行微调
QA对话目前是大语言模型的一大应用场景,在QA对话中,由于大语言模型信息的滞后性以及不包含业务知识的特点,我们经常需要外挂知识库来协助大模型解决一些问题。在外挂知识库的过程中,embedding模型的召回效果直接影响到大模型的回答效果,因此,在许多场景下,...
-
Stable Diffusion 硬核生存指南:WebUI 中的 GFPGAN
本篇文章聊聊 Stable Diffusion WebUI 中的核心组件,强壮的人脸图像面部画面修复模型 GFPGAN 相关的事情。 写在前面 本篇文章的主角是开源项目 TencentARC/GFPGAN,和上一篇文章《Stable Diffusio...
-
WAIC2023| AIGC究竟在向善还是向恶而行?
目录 一、常见图像篡改技术 二、传统篡改图像检测方法 2.1、基于光源和噪声的拼接图像篡改检测方法 2.2、基于马尔科夫特征的检测方法 三、基于深度学习的图像篡改检测方法 3.1、基于Fisher编码和SVM模型的方法 3.2、 基于...
-
五种资源类别,如何提高大语言模型的资源效率,超详细综述来了
近年来,大型语言模型(LLM)如 OpenAI 的 GPT-3 在人工智能领域取得了显著进展。这些模型,具有庞大的参数量(例如 1750 亿个参数),在复杂度和能力上实现了飞跃。随着 LLM 的发展趋势朝着不断增大的模型规模前进,这些模型在从智能聊天机器...
-
LLaMA开源大模型源码分析!
Datawhale干货 作者:宋志学,Datawhale成员 花了一晚上照着transformers仓库的LLaMA源码,把张量并行和梯度保存的代码删掉,只留下模型基础结构,梳理了一遍LLaMA的模型结构。 今年四月份的时候,我第一次...
-
Stable Diffusion的入门介绍和使用教程
Stable Diffusion是一个文本到图像的潜在扩散模型,由CompVis、Stability AI和LAION的研究人员和工程师创建。它使用来自LAION-5B数据库子集的512x512图像进行训练。使用这个模型,可以生成包括人脸在内的任何图...
-
AI聊天机器人,一个就够了:文心一言、讯飞星火、通义千问AI聊天机器人深度对比(一)
一些结论 本次为第一部分的测评,综合结论:讯飞星火 > 文心一言 = 通义千问。 文本生成能力:文心一言 = 讯飞星火 > 通义千问,讯飞星火表现亮眼,文心一言作为国内AI聊天机器人的先发者,在创意写作方面略不尽如人意。 代...
-
手把手教你在云环境炼丹:Stable Diffusion LoRA 模型保姆级炼制教程
很多同学都想要自己的专属AI模型,但是大模型的训练比较费时费力,不太适合普通用户玩。AI开发者们也意识到了这个问题,所以就产生了微调模型,LoRA就是其中的一种。在AI绘画领域,只需要少量的一些图片,就可以训练出一个专属风格的LoRA模型,比如某人的脸、...
-
打破信息差!一款让人惊艳的大模型3D可视化工具!
近日,一位来自新西兰的小哥Brendan Bycroft在技术圈掀起了一股热潮。他创作的一项名为大模型3D可视化的项目,不仅登上了Hacker News的榜首,而且其震撼的效果更是让人瞠目结舌。通过这个项目,你将在短短几秒钟内完全理解LLM(Large...
-
AIGC实战——改进循环神经网络
AIGC实战——改进循环神经网络 0. 前言 1. 堆叠循环网络 2. 门控制循环单元 3. 双向单元 相关链接 0. 前言 我们已经学习了如何训练长短期记忆网络 (Long Short-Term Memory Network,...
-
【AI绘画】本地部署Stable Diffusion Web UI
近几年AI发展迅猛,今年更是大爆发,除了爆火的大模型ChatGPT以外,AI绘画也有很大的进步,目前,Stable Diffusion图像生成效果相当惊人,可以生成逼真的人像、风景、物品图片,还可以将图片转换为不同风格。Stable Diffusion W...
-
驾驭AI绘画:《AI魔法绘画》带你秒变顶级画手!
大家好,我是herosunly。985院校硕士毕业,现担任算法研究员一职,热衷于机器学习算法研究与应用。曾获得阿里云天池比赛第一名,CCF比赛第二名,科大讯飞比赛第三名。拥有多项发明专利。对机器学习和深度学习拥有自己独到的见解。曾经辅导过若干个非计算机...
-
Stable Diffusion - 超分辨率插件 StableSR v2 (768x768) 配置与使用
欢迎关注我的CSDN:https://spike.blog.csdn.net/ 本文地址:https://spike.blog.csdn.net/article/details/131582734 论文:Exploiting Diffusion...
-
Stable Diffusion架构的3D分子生成模型 GeoLDM - 测评与代码解析
之前,向大家介绍过3D分子生成模型 GeoLDM。 GeoLDM按照Stable Diffusion架构,将3D分子生成的扩散过程运行在隐空间内,优化了基于扩散模型的分子生成。可能是打开Drug-AIGC的关键之作。让精确控制分子生成有了希望。...
-
LLMs模型速览(GPTs、LaMDA、GLM/ChatGLM、PaLM/Flan-PaLM、BLOOM、LLaMA、Alpaca)
文章目录 一、 GPT系列 1.1 GPTs(OpenAI,2018——2020) 1.2 InstructGPT(2022-3) 1.2.1 算法 1.2.2 损失函数 1.3 ChatGPT(2022.11.30) 1.4 ChatG...
-
AIGC:【LLM(七)】——Baichuan2:真开源可商用的中文大模型
文章目录 一.模型介绍 二.模型部署 2.1 CPU部署 2.2 GPU部署 三.模型推理 3.1 Chat 模型推理 3.2 Base 模型推理 四.模型量化 4.1 量化方法 4.2 在线量化 4.3 离线量化 4.4 量化效果...
-
Whisper OpenAI开源语音识别模型
介绍 Whisper 是一个自动语音识别(ASR,Automatic Speech Recognition)系统,OpenAI 通过从网络上收集了 68 万小时的多语言(98 种语言)和多任务(multitask)监督数据对 Whisper 进行了训练...
-
whisper深入-语者分离
文章目录 学习目标:如何使用whisper 学习内容一:whisper 转文字 1.1 使用whisper.load_model( 方法下载,加载 1.2 使用实例对文件进行转录 1.3 实战 学习内容二:语者分离(pyannote.aud...
-
1、aigc图像相关
aigc图像相关 一、Diffusion webui 在autodl上部署一些问题 二、lora和kohyass (1)角色模型 (2)风格模型 (3)dreambooth (4)模型合并 (5)Lora加Adetail 其他 三、sd a...
-
AIGC之文本内容生成概述(下)——Transformer
在上一篇文章中,我们一口气介绍了LSTM、Word2Vec、GloVe、ELMo等四种模型的技术发展,以及每种模型的优缺点与应用场景,全文超过一万字,显得冗长且繁杂,在下文部分我们将分开介绍Transformer、BERT、GPT1/GPT2/GPT3/C...
-
在灾难推文分析场景上比较用 LoRA 微调 Roberta、Llama 2 和 Mistral 的过程及表现
引言 自然语言处理 (NLP 领域的进展日新月异,你方唱罢我登场。因此,在实际场景中,针对特定的任务,我们经常需要对不同的语言模型进行比较,以寻找最适合的模型。本文主要比较 3 个模型: RoBERTa、Mistral-7B 及 Llama-2...
-
使用LLaMA-Factory微调ChatGLM3
1、创建虚拟环境 略 2、部署LLaMA-Factory (1)下载LLaMA-Factory https://github.com/hiyouga/LLaMA-Factory (2)安装依赖 pip3 install -r requi...
-
Stable Diffusion教程(5) - 文生图教程
配套视频教程: https://v.douyin.com/UyHNfYG/ 文生图界面标注如下 1 提示词和反向提示词 提示词内输入的东西就是你想要画的东西,反向提示词内输入的就是你不想要画的东西 提示框内只能输入英文,所有符号都要使用英...
-
回顾精彩瞬间!IEEE Spectrum盘点2023年度热门AI故事
又是冬日,又到结尾, 气温回升了一点,苍茫天地间仍有一些尚未消融的洁白。 「雪霁银装素,桔高映琼枝」。 不知大家这一年过得怎么样呢? 2023很可能成为人工智能历史上最狂野、最戏剧性的年份之一。 Spectrum总结了本年度关于AI的最受欢迎的文章,...
-
【 stable diffusion LORA模型训练最全最详细教程】
个人网站:https://tianfeng.space/ 文章目录 一、前言 二、朱尼酱的赛博丹炉 1.介绍 2.解压配置 3.使用 训练准备 首页设置 上传素材 查看进度 三、秋叶的lora训练器 1.下载 2.预处理 3.参...
-
AI绘画中UNet用于预测噪声
介绍 在AI绘画领域中,UNet是一种常见的神经网络架构,广泛用于图像相关的任务,尤其是在图像分割领域中表现突出。UNet最初是为了解决医学图像分割问题而设计的,但其应用已经扩展到了多种图像处理任务。 特点 对称结构:UNet的结构呈现为“U...
-
Meta最新模型LLaMA详解(含部署+论文)
来源:投稿 作者:毛华庆 编辑:学姐 前言 本课程来自深度之眼《大模型——前沿论文带读训练营》公开课,部分截图来自课程视频。 文章标题:LLaMA: Open and Efficient Foundation Language Mode...
-
持续进化,快速转录,Faster-Whisper对视频进行双语字幕转录实践(Python3.10)
Faster-Whisper是Whisper开源后的第三方进化版本,它对原始的 Whisper 模型结构进行了改进和优化。这包括减少模型的层数、减少参数量、简化模型结构等,从而减少了计算量和内存消耗,提高了推理速度,与此同时,Faster-Whisper也...
-
本地部署语音转文字(whisper,SpeechRecognition)
本地部署语音转文字 1.whisper 1.首先安装Chocolatey 2.安装 3.使用 2.SpeechRecognition 1.环境 2.中文包 3.格式转化 4.运行 3.效果 1.whisper 1.首先安...
-
【stable diffusion LORA训练】改进lora-scripts,命令行方式训练LORA,支持SDXL训练
分享下自己改进的一个lora训练脚本,在ubuntu下如果SD-WEBUI的环境已经搭好的话,只需要下载lora-script就可以支持训练了,直接命令行方式训练。 首先,我们需要克隆下项目: git clone https://github.com/...
-
Llama~transformers搭建
本例从零开始基于transformers库逐模块搭建和解读Llama模型源码(中文可以翻译成羊驼 。 并且训练它来实现一个有趣的实例:两数之和。 输入输出类似如下: 输入:"12345+54321=" 输出:"66666" 我们把这个任务当做一个...
-
【AI】Stable-Diffusion-WebUI使用指南
注:csdn对图片有审核,审核还很奇葩,线稿都能违规,为保证完整的阅读体验建议移步至个人博客阅读 最近AI绘画实现了真人照片级绘画水准,导致AI绘画大火,公司也让我研究研究,借此机会正好了解一下深度学习在AIGC(AI Generated Content...
-
AI绘画:Lora模型训练完整流程!
关于AI绘画(基于Stable Diffusion Webui ,我之前已经写过三篇文章,分别是 软件安装,基本的使用方法,微调模型LoRA的使用。 整体来说还是比简单的,搞个别人的模型,搞个提示词就出图了。今天来一个有些难度的,自己训练一个LoRA微...
-
[玩转AIGC]如何训练LLaMA2(模型训练、推理、代码讲解,并附可直接运行的kaggle连接)
目录 一、clone仓库 二、数据集下载与处理 1、数据集下载 2、数据集标记化(耗时较长) 三、修改配置 四、开始训练 五、模型推理 六、train.py训练代码讲解 1、导包 2、定义模型训练参数与相关设置 3、加载模型配置 4、迭代...
-
AIGC实战——自回归模型(Autoregressive Model)
AIGC实战——自回归模型 0. 前言 1. 长短期记忆网络基本原理 2. Recipes 数据集 3. 处理文本数据 3.1 文本与图像数据处理的差异 3.2 文本数据处理步骤 4. 构建 LSTM 模型 4.1 模型架构 4.2 LS...
-
一个评测模型+10个问题,摸清盘古、通义千问、文心一言、ChatGPT的“家底”!...
数据智能产业创新服务媒体 ——聚焦数智 · 改变商业 毫无疑问,全球已经在进行大模型的军备竞赛了,“有头有脸”的科技巨头都不会缺席。昨天阿里巴巴内测了通义千问,今天华为公布了盘古大模型的最新进展。不久前百度公布了文心一言...
-
【ESP32接入国产大模型之文心一言】
1. 怎样接入文心一言 视频讲解: 【ESP32接入国产大模型之文心一言】 随着人工智能技术的不断发展,自然语言处理领域也得到了广泛的关注和应用。在这个领域中,文心一言作为一款强大的自然语言处理工具,具有许多重要的应用价值。...
-
精调训练中文LLaMA模型实战教程,民间羊驼模型
羊驼实战系列索引 博文1:本地部署中文LLaMA模型实战教程,民间羊驼模型博文2:本地训练中文LLaMA模型实战教程,民间羊驼模型博文3:精调训练中文LLaMA模型实战教程,民间羊驼模型(本博客) 简介 在学习完上篇【博文2:本地训练中文LLaM...
-
2023-12-27 语音转文字的whisper应用部署
点击 <C 语言编程核心突破> 快速C语言入门 语音转文字的whisper应用部署 前言 一、部署`whisper` 二、部署`whisper.cpp` 总结 前言 要解决问题: 需要一款开源的语音转文字...
-
突破Pytorch核心点,优化器 !!
嗨,我是小壮! 今儿咱们聊聊Pytorch中的优化器。 优化器在深度学习中的选择直接影响模型的训练效果和速度。不同的优化器适用于不同的问题,其性能的差异可能导致模型更快、更稳定地收敛,或者在某些任务上表现更好。 因此,选择合适的优化器是深度学习模型调优中...
-
Stable Diffusion 系列教程 - 3 模型下载和LORA模型的小白入门
首先,一个比较广泛的模型下载地址为:Civitai Models | Discover Free Stable Diffusion Models 黄框是一些过滤器,比如checkpoints可以理解为比如把1.5版本的SD模型拷贝一份后交叉识别新的画...
-
AIGC(生成式AI)试用 7 -- 桌面小程序
生成式AI,别人用来写作,我先用来写个桌面小程序。 桌面小程序:计算器 需求 Python开发 图形界面,标题:计算器 + - * / 基本运算 计算范围:-999999999 ~ 999999999 ** 乘方计算(例,2*...
-
whisper使用方法
看这个 github https://github.com/Purfview/whisper-standalone-win/tags 下载 视频提取音频 ffmpeg -i 222.mp4 -vn -b:a 128k -c:a mp3 outpu...
-
[linux-sd-webui]api化之训练lora
lora的训练使用的文件是https://github.com/Akegarasu/lora-scripts lora训练是需要成对的文本图像对的,需要准备相应的训练数据。 1.训练数据准备 使用deepbooru/blip生成训练数据,建筑类建议使...
-
Stable Diffusion (持续更新)
引言 本文的目的为记录stable diffusion的风格迁移,采用diffusers example中的text_to_image和textual_inversion目录 2023.7.11 收集了6张水墨画风格的图片,采用textual_...
-
stable diffusion(安装以及模型的初步使用)
本机的配置 能跑模型,本地也跑过一点Lora训练的脚本,看看几个效果: 以上的都是配合huggingface有的模型结合civitai上的Lora模型在本地跑出来的图片,自己本地训练的Lora太拉闸了,就不放上来了…… 1....
-
保姆级教程:从0到1使用Stable Diffusion XL训练LoRA模型 |【人人都是算法专家】
Rocky Ding 公众号:WeThinkIn 写在前面 【人人都是算法专家】栏目专注于分享Rocky在AI行业中对业务/竞赛/研究/产品维度的思考与感悟。欢迎大家一起交流学习? 大家好...