-
conda环境下RuntimeError: Couldn‘t determine Stable Diffusion‘s hash问题解决
1 问题描述 在部署stable-diffusion-webui项目时,出现RuntimeError: Couldn't determine Stable Diffusion's hash错误,错误信息如下: [root@localhost stab...
-
一文读懂常用的 “生成式 AI 库”
Hello folks,我是 Luga,今天我们继续来聊一下人工智能(AI)生态领域相关的技术 - GenerativeAI Library(生成式 AI 库) ,本文将继续聚焦在针对 Gen AI Library 的技术进行解析,使得大家能够了解 G...
-
挑战Transformer的Mamba是什么来头?作者博士论文理清SSM进化路径
在大模型领域,Transformer 凭一己之力撑起了整个江山。但随着模型规模的扩展和需要处理的序列不断变长,Transformer 的局限性也逐渐凸显,比如其自注意力机制的计算量会随着上下文长度的增加呈平方级增长。为了克服这些缺陷,研究者们开发出了很多...
-
LLama Factory 安装部署实操记录(二)
1. 项目地址 GitHub - hiyouga/LLaMA-Factory: Easy-to-use LLM fine-tuning framework (LLaMA, BLOOM, Mistral, Baichuan, Qwen, ChatGLM E...
-
Point Transformer V3:更简单、更快、更强!
本文经自动驾驶之心公众号授权转载,转载请联系出处。 原标题:Point Transformer V3: Simpler, Faster, Stronger 论文链接:https://arxiv.org/pdf/2312.10035.pdf 代码链接:h...
-
Llama 2 with langchain项目详解(三)
Llama 2 with langchain项目详解(三) 17.3 Llama 2 with langchain基础 本节讲解在LangChain中使用Llama 2模型的基础知识,展示如何运行LangChain的代码,及在云端运行Llama 2的700...
-
AI绘画中CLIP文本-图像预训练模型
介绍 OpenAI 在 2021 年提出了 CLIP(Contrastive Language–Image Pretraining)算法,这是一个先进的机器学习模型,旨在理解和解释图像和文本之间的关系。CLIP 的核心思想是通过大规模的图像和文本对进行...
-
stable-diffusion安装和简单测试
参考:https://github.com/CompVis/stable-diffusion理解DALL·E 2, Stable Diffusion和 Midjourney的工作原理Latent Diffusion Models论文解读【生成式AI】淺談圖...
-
【AIGC】Chatglm2-lora微调
ChatGLM2介绍 ChatGLM2-6B源码地址:https://github.com/THUDM/ChatGLM2-6B ChatGLM2-6B 是开源中英双语对话模型 ChatGLM-6B 的第二代版本,在保留了初代模型对话流畅、部署门槛较低...
-
Llama中文社区开源预训练Atom-7B-chat大模型体验与本地化部署实测(基于CPU,适配无GPU的场景)
一、模型简介 原子大模型Atom由Llama中文社区和原子回声联合打造,在中文大模型评测榜单C-Eval中位居前十(8月21日评测提交时间)。 Atom系列模型包含Atom-7B和Atom-...
-
LLMs-入门二:基于google云端Colab部署Llama 2
LLMs-入门二:基于google云端Colab部署Llama 2 1、访问网址 2、基础概念 3、选择最适合您的 Colab 方案 4、基于Colab部署开源模型Llama 2 1)在Colab上安装huggingface套件 2)申请调用...
-
stable-diffusion-webui环境部署
stable-diffusion-webui环境部署 1. 环境创建 2. 安装依赖库 3.下载底模 4. 获取lora参数文件 5.运行代码 6. 报错信息 报错1 报错2 1. 环境创建 创建虚拟环境 conda cr...
-
【Stable Diffusion/NovelAI Diffusion的AMD GPU加速推理探索】
测试机子配置: 1:AMD RX6600(显存8g +i5 12600KF 16g内存 (台式机 2:RTX 3070 laptop(显存8g +i7 10870H 32g内存 (HP暗夜精灵笔记本 两台电脑平均性能差不多,当然N卡肯定更好一点 这边...
-
使用 PyTorch FSDP 微调 Llama 2 70B
引言 通过本文,你将了解如何使用 PyTorch FSDP 及相关最佳实践微调 Llama 2 70B。在此过程中,我们主要会用到 Hugging Face Transformers、Accelerate 和 TRL 库。我们还将展示如何在 SL...
-
【踩坑指南】Stable Diffusion 服务器端部署笔记
文章目录 下载github文件 配置环境 ckpt文件权重下载 生成图像 NSFW检查(瑟图过滤) 下载github文件 https://github.com/CompVis/stable-diffusion 这个网址,下载压缩包...
-
LLM实践-在Colab上使用免费T4 GPU进行Chinese-Llama-2-7b-4bit推理
一、配置环境 1、打开colab,创建一个空白notebook,在[修改运行时环境]中选择15GB显存的T4 GPU. 2、pip安装依赖python包 !pip install --upgrade accelerate !pip ins...
-
大语言模型训练数据常见的4种处理方法
本文分享自华为云社区《浅谈如何处理大语言模型训练数据之一常见的数据处理方法》,作者: 码上开花_Lancer。 大语言模型训练需要数万亿的各类型数据。如何构造海量“高质量”数据对于大语言模型的训练具有至关重要的作用。虽然,截止到2023 年9 月为止,还...
-
2024 年八大生成式 AI 工具类别
需要为组织的开发项目提供特定于生成式 AI 的工具?探索这些工具所属的主要类别及其功能。 ChatGPT 等生成式AI 服务的普及激发了将这些新工具应用于实际企业应用的兴趣。如今,几乎每个企业应用程序都通过生成式 AI 功能进行了增强。 大多数 AI、...
-
基于onnx模型和onnx runtime推理stable diffusion
直接用diffusers的pipeline: import os from diffusers import OnnxStableDiffusionPipeline, OnnxRuntimeModel from diffusers import DDIM...
-
ChatGPT构建离不开PyTorch,LeCun言论引热议,模型厂商不开放权重原来为此
这两天,有关开源的话题又火了起来。有人表示,「没有开源,AI 将一无所有,继续保持 AI 开放。」这个观点得到了很多人的赞同,其中包括图灵奖得主、Meta 首席科学家 Yann LeCun。 想象一下,如果工业界的 AI 研究实验室仍然封闭、没有开源代码...
-
保姆级讲解 Stable Diffusion
文章目录 整体代码 unet解析 self.input_blocks middle_blocks self.output_blocks 保姆级讲解 Stable Diffusion: https://mp.weixin.qq.c...
-
苹果M1芯片上运行Stable Diffusion(文字作画)
1 源码下载 git clone -b apple-silicon-mps-support https://github.com/bfirsh/stable-diffusion.git cd stable-diffusion 2 修改gitee国内...
-
Llama-2大模型本地部署研究与应用测试
最近在研究自然语言处理过程中,正好接触到大模型,特别是在年初chatgpt引来的一大波AIGC热潮以来,一直都想着如何利用大模型帮助企业的各项业务工作,比如智能检索、方案设计、智能推荐、智能客服、代码设计等等,总得感觉相比传统的搜索和智能化...
-
huggingface transformers库中LlamaForCausalLM
新手入门笔记。 LlamaForCausalLM 的使用示例,这应该是一段推理代码。 from transformers import AutoTokenizer, LlamaForCausalLM model = LlamaForCausalLM....
-
Stable Diffusion Webui源码剖析
1、关键python依赖 (1)xformers:优化加速方案。它可以对模型进行适当的优化来加速图片生成并降低显存占用。缺点是输出图像不稳定,有可能比不开Xformers略差。 (2)GFPGAN:它是腾讯开源的人脸修复算法,利用预先训练号的面部GAN...
-
windows10搭建llama大模型
背景 随着人工时代的到来及日渐成熟,大模型已慢慢普及,可以为开发与生活提供一定的帮助及提升工作及生产效率。所以在新的时代对于开发者来说需要主动拥抱变化,主动成长。 LLAMA介绍 llama全称:Large...
-
AIGC和ChatGPT的区别是什么?
当谈到人工智能的聊天机器人时,人们不可避免地会想到AIGC和ChatGPT这两个备受关注的模型。虽然两者都能够进行自然语言处理,但是它们之间存在一些重要的区别,我们可以从以下几个方面来进行分析: 首先,AIGC采用的是基于规则的方法,而ChatGPT则是...
-
novel Ai (stable-diffusion-webui)安装
关于novel ai的本地化安装 环境 英伟达显卡 win11 可以连接github并下载内容 安装 python 3.10.6及以上,安装并添加到path 安装cuDNN和CUDAToolKi...
-
LLM - Chinese-Llama-2-7b 初体验
目录 一.引言 二.模型下载 三.快速测试 四.训练数据 五.总结 一.引言 自打 LLama-2 发布后就一直在等大佬们发布 LLama-2 的适配中文版,也是这几天蹲到了一版由 LinkSoul 发布的 Chinese-Llam...
-
LLaMA模型之中文词表的蜕变
在目前的开源模型中,LLaMA模型无疑是一颗闪亮的⭐️,但是相对于ChatGLM、BaiChuan等国产大模型,其对于中文的支持能力不是很理想。原版LLaMA模型的词表大小是32K,中文所占token是几百个左右,这将会导致中文的编解码效率低。 在将LL...
-
人工智能中的文本分类:技术突破与实战指导
在本文中,我们全面探讨了文本分类技术的发展历程、基本原理、关键技术、深度学习的应用,以及从RNN到Transformer的技术演进。文章详细介绍了各种模型的原理和实战应用,旨在提供对文本分类技术深入理解的全面视角。 关注TechLead,分享A...
-
如何训练一个简单的stable diffusion模型(附详细注释)
注:代码来自https://github.com/darcula1993/diffusion-models-class-CN/blob/main/unit1/01_introduction_to_diffusers_CN.ipynb 本文是本人学习后的...
-
Stable Diffusion - SD v1.6+ 版本导致 BLIP Interrogate CLIP (CLIP 反推) 功能 RuntimeError 异常
欢迎关注我的CSDN:https://spike.blog.csdn.net/ 本文地址:https://spike.blog.csdn.net/article/details/132994678 图像来源于 麦橘写实_MajicMIX_R...
-
AI-多模态-文本->图像-2021:Stable Diffusion【开源】【目前开源模型中最强】
最近大火的Stable Diffusion也开源了(20220823 ; 我也本地化测试了一下效果确实比Dall-E mini强太多了,对于我们这些玩不上Dall-E2的这个简直就是就是捡钱的感觉,当然后期跑起来,稍微不注意显存就炸了。 这里我写一下安...
-
Hugging News #0814: Llama 2 学习资源大汇总
每一周,我们的同事都会向社区的成员们发布一些关于 Hugging Face 相关的更新,包括我们的产品和平台更新、社区活动、学习资源和内容更新、开源库和模型更新等,我们将其称之为「Hugging News」。本期 Hugging News 有哪些有趣...
-
LLaMA-Factory使用V100微调ChatGLM2报错 RuntimeError: “addmm_impl_cpu_“ not implemented for ‘Half‘
微调命令 CUDA_VISIBLE_DEVICES=0 python /aaa/LLaMA-Factory/src/train_bash.py \ --stage sft \ --model_name_or_path /aaa/LLaMA...
-
llama.cpp部署通义千问Qwen-14B
llama.cpp是当前最火热的大模型开源推理框架之一,支持了非常多的LLM的量化推理,生态比较完善,是个人学习和使用的首选。最近阿里开源了通义千问大语言模型,在众多榜单上刷榜了,是当前最炙手可热的开源中文大语言模型。今天在github上看到前几天llam...
-
Colab Stable Diffusion使用教程
使用网址链接: https://colab.research.google.com/github/huggingface/notebooks/blob/main/diffusers/stable_diffusion.ipynb 记录一下跟的网上的教程遇...
-
MiniGPT-4 and LLaMA 权重下载
MiniGPT-4 权重文件下载 权重文件下载 官方下载 https://huggingface.co/docs/transformers/main/model_doc/llama 填写表单,等待申请 磁力下载 磁力 magnet:...
-
夸张!EMNLP投稿近5000篇,奖项出炉:北大、腾讯摘最佳长论文
EMNLP 是自然语言处理领域的顶级会议之一,EMNLP 2023 于 12 月 6 日 - 10 日在新加坡举行。 因为今年 ChatGPT 的爆火带动大模型、NLP 概念,EMNLP 2023 的投稿论文数量也达到近 5000 篇,甚至略高于 AC...
-
LLM-SFT,新微调数据集-MWP-Instruct(多步计算 + 一、二元方程),微调Bloom, ChatGLM, LlaMA(支持QLoRA, TensorBoardX)
LLM-SFT 中文大模型微调(LLM-SFT , 支持模型(ChatGLM, LlaMA, Bloom , 支持(LoRA, QLoRA, DeepSpeed, UI, TensorboardX , 支持(微调, 推理, 测评, 接口 等. 项目...
-
linux部署stable diffusion
模型地址:https://github.com/CompVis/stable-diffusion 下载代码库 git clone https://github.com/CompVis/stable-diffusion.git 2.创建虚拟环境 #...
-
导出LLaMA ChatGlm2等LLM模型为onnx
通过onnx模型可以在支持onnx推理的推理引擎上进行推理,从而可以将LLM部署在更加广泛的平台上面。此外还可以具有避免pytorch依赖,获得更好的性能等优势。 这篇博客(大模型LLaMa及周边项目(二) - 知乎)进行了llama导出onnx的开创性...
-
【AI绘画】AI绘画乐趣:稳定增强扩散技术展现
目录 前言 一、Stable Diffusion是什么? 二、安装stable-diffusion-webui 1. python安装 2. 下载模型 3. 开始安装: 4. 汉化: 5. 模型使用: 6. 下载新模型: 7. 基础玩法 三...
-
使用Stable Diffusion进行Ai+艺术设计(以智慧灯杆为例)
目录 一. 安装环境 二. 配置模型 2.1 stable diffusion v1 2.2 运行并测试生成效果 Stable Diffusion 是一种以 CLIP ViT-L/14 文本编码器的(非池化)文本嵌入为条件的潜在扩散...
-
stable-diffusion-webui 安装
一、安装 https://blog.csdn.net/weixin_72056722/article/details/126651703 卸载cpu版本的torch并离线安装对应的gpu版本 1、安装gpu ,速度从一小时加速到3分钟 torch...
-
大语言模型之十六-基于LongLoRA的长文本上下文微调Llama-2
增加LLM上下文长度可以提升大语言模型在一些任务上的表现,这包括多轮长对话、长文本摘要、视觉-语言Transformer模型的高分辨4k模型的理解力以及代码生成、图像以及音频生成等。 对长上下文场景,在解码阶段,缓存先前token的Key和Value(K...
-
AI作画,国风油画风随心定制~ Stable Diffusion模型使用,三步就上手
前言 最近,AIGC(即AI Generated Content,是指利用人工智能技术来生成内容)真的是火出了天际。除了被挤到服务器满负荷的chatGPT,另一个也颇受瞩目的领域当属AI作画了。利用开源的一类“扩散(diffusion)”模型,你可...
-
安装stable-diffusion
安装流程: 下载stable-diffusion源码 <https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases/tag/v1.2.1> 安装python &l...
-
在 Mac M1 上运行 Llama 2 并进行训练
在 Mac M1 上运行 Llama 2 并进行训练 Llama 2 是由领先的人工智能研究公司 Meta (前Facebook)开发并发布的下一代大型语言模型 (LLM 。 它基于 2 万亿个公共数据 token 进行了预训练,旨在帮助开发人员和...