-
基于autodl与llama-factory部署llama3-8B开源大模型
一、注册与购买autodl实例 注册了autodl账号以后,我们便可以在网站首页看到具体的实例信息,同时能够观察其具体的系统盘与数据盘以及缓存大小,对于我们即将微调的llama3开源大模型来说,通过资料的查询了解,我们只需要24G显存就可...
-
【AIGC】ComfyUI 入门教程(4):ComfyUI 管理器|AI 生成图片
前言 ComfyUI 是 Stable Diffusion 的一个基于节点组装绘图流程的图形用户界面(GUI)。通过将不同的节点连接在一起,你可以在 ComfyUI 中构建图像生成工作流。一个完整的工作流看起来像下面这样: 所有的AI设计工具,...
-
ComfyUI插件:ComfyUI layer style 节点(三)
前言: 学习ComfyUI是一场持久战,而ComfyUI layer style 是一组专为图片设计制作且集成了Photoshop功能的强大节点。该节点几乎将PhotoShop的全部功能迁移到ComfyUI,诸如提供仿照Adobe Photoshop的图...
-
最强终端部署的多模态MiniCPM-V模型部署分享(不看后悔)
MiniCPM-V模型是一个强大的端侧多模态大语言模型,专为高效的终端部署而设计。 目前该模型有MiniCPM-V 1.0、MiniCPM-V 2.0和MiniCPM-Llama3-V 2.5版本。 MiniCPM-V 1.0模型:该模型系列第一个版本...
-
阿里开源语音大模型CosyVoice:3秒还原声音,从部署到克隆的完整指南
前言 很久之前就想给大家介绍声音克隆开源项目GPT-SoVITS ,但是看到视频教程过于复杂了,最近又出现了一个剪辑《人民的名义》的短视频非常搞笑。 我就找到了一款最新更加强大的声音克隆项目CosyVoice。CosyVoice 是阿里通义实验室在七...
-
Whisper Android 项目使用教程
Whisper Android 项目使用教程 whisper_androidOffline Speech Recognition with OpenAI Whisper and TensorFlow Lite for Android项目地址:https...
-
纯C/C++实现的Stable Diffusion项目介绍及快速启动指南
纯C/C++实现的Stable Diffusion项目介绍及快速启动指南 stable-diffusion.cppStable Diffusion in pure C/C++项目地址:https://gitcode.com/gh_mirrors/st/...
-
使用llama factory对语言模型微调,重塑自我认知,并部署于ollama上
本文记录了从环境部署到微调模型、效果测试并部署的全过程。 一 环境 如果使用autodl租赁服务器则不需要如下步骤,但是请注意llama_factory需要python、cuda等版本满足: 首先请确报你已经安装好了conda工具...
-
Positional Encoding | 位置编码【详解】
文章目录 1、位置编码的2种方案 2、位置编码 3、公式详解 : 绝对位置 、 相对位置 4、代码 4.1 代码1 4.2 代码2 1、位置编码的2种方案 transformer的作者刚开始说固定的位置编码和可学习的位置...
-
ComfyUI教程一:安装使用前的准备
前言 ComfyUI的用户越来越多,老李也接触了很多初学者,他们希望老李能在开始培训前讲一些相关基础知识,所以我就把自己之前的经验总结一下,方便刚刚接触comfyUI的同学学习。 今天我把comfyUI需要的几个基础软件给大家讲一下,主要面向的是普通...
-
【深度学习】LLaMA-Factory 大模型微调工具, 大模型GLM-4-9B Chat ,微调与部署 (2)
文章目录 数据准备 chat 评估模型 导出模型 部署 总结 资料: https://github.com/hiyouga/LLaMA-Factory/blob/main/README_zh.md https:...
-
Datawhale AI夏令营第四期魔搭-AIGC文生图方向Task 1笔记
引言 本笔记可以作为学习手册的扩充版本,也是一份快速上手的指南。灰色的备注部分包含了关于步骤的详细解释和扩展内容,建议你可以先跳过这些备注,等完成所有步骤后再回头查阅。 第一步:搭建代码环境 1.1 申请阿里云PAI-DSW 阿里云PAI-D...
-
Qwen2:通义千问倾力巨献,领航语言新纪元
一、介绍 Qwen2 是由阿里云通义千问团队研发的新一代大型语言模型系列,它在多个方面实现了技术的飞跃和性能的显著提升。以下是对 Qwen2 的详细介绍: GitHub - QwenLM/Qwen2: Qwen2 is the large langua...
-
多语言声音克隆,CosyVoice模型最强部署
CosyVoice是由阿里通义实验室开源的一款多语言语音理解模型,它主要聚焦于高质量的语音合成,能够生成自然且逼真的语音。 CosyVoice模型经过超过15万小时的数据训练,支持中文、英语、日语、粤语和韩语多种语言的合成,且在多语言语音生成、零样本语音...
-
LLama.cpp轻量化模型部署及量化
模型文件下载 首先说一下用到的模型,这次用的是Llama3-8B-Chinese-Chat-GGUF-8bit模型,想要快速的从huggingface下载模型可以参考我的另一篇博文。 从huggingface更快的下载模型 1.准备模型文件...
-
2024年最新ComfyUI汉化及manager插件安装详解!
前言 在ComfyUI文生图详解中,学习过如果想要安装相应的模型,需要到模型资源网站(抱抱脸、C站、魔塔、哩布等)下载想要的模型,手动安装到ComfyUI安装目录下对应的目录中。 为了简化这个流程,我们需要安装ComfyUI-manager插件,通过这...
-
ComfyUI零基础入门搭建教程
一、介绍 ComfyUI 是一个强大的、模块化的 Stable Diffusion 界面与后端项目。该用户界面允许用户使用基于图形/节点/流程图的界面设计和执行高级稳定的扩散管道。该项目部分其它特点如下: 目前全面支持 SD1.x,SD2.x,SDX...
-
SenseVoice多语言语音理解模型之最新部署落地经验
SenseVoice是阿里云通义实验室开发的一款多语言音频基础模型,专注于高精度多语言语音识别、情感辨识和音频事件检测。 SenseVoice支持超过50种语言的识别,并且在中文和粤语上的识别效果优于Whisper模型,提升了50%以上。 SenseV...
-
【AIGC】ComfyUI入门-安装ComfyUI
栏目: 栏目目录里面会收录我关于AIGC相关的笔记博文,大家如果有什么不懂的可以通过阅读我的笔记进行学习。【AIGC目录】 最近自己在抽时间研究ComfyUI相关的内容,抽时间整理一下自己了解到的内容,希望可以帮到其他想要学习的小伙伴。 安装Co...
-
LLaMA-Factory微调llama3之模型的合并,并采用llama.cpp量化成ollama支持的gguf格式模型,生成api使用
上期我们已经成功的训练了模型,让llama3中文聊天版知道了自己的名字 这次我们从合并模型开始,然后使用llama.cpp量化成gguf格式,并且调用api (1 前期准备 上期链接: 基于LLaMA-Factory微调llama3成为一个角色扮演...
-
“Datawhale X 魔搭 AI夏令营”-AIGC文生图方向Task1笔记
前言 就自己学习过程对于Datawhale AI的夏令营第四期魔搭-AIGC文生图方向,做了个初级版教程,供小白参考,后期有机会也会通过自己的学习总结相关知识教程,期待和大家一起相互学习,共同进步! 正文 第一步:报名参加赛事! 点击赛事链接: :天池平...
-
使用Llama-factory微调Llama3教程
一、登录OpenBayes进行注册登录 通过以下链接,新用户注册登录 OpenBayes , 即可获得 四个小时 RTX 4090免费使用时长 !! 注册链接:https://openbayes.com/console/signup?r=zzl99_W...
-
Datawhale AI夏令营第四期魔搭-AIGC文生图方向Task1笔记
不用写一行代码,只需要跟着步骤点点点,就可以完成task01! 本笔记可视作学习手册速通指南的扩充版本。 灰色的备注是关于该步骤的解释和拓展,可以先跳过,等走完所有步骤再回头看! 第一步 搭建代码环境 1.1 阿里云PAI-DSW申请...
-
AIGC 文生图 DiffSynth-Studio微调lora训练案例
参考: https://github.com/modelscope/DiffSynth-Studio https://github.com/modelscope/DiffSynth-Studio/tree/main/examples/train/kolor...
-
微调 Whisper 语音大模型
1.准备环境 #创建环境 conda create -n whisper python=3.10 -y source activate whisper #安装环境 conda install pytorch==2.1.0...
-
【03】LLaMA-Factory微调大模型——多模型部署
为了构建法律领域的垂直应用大模型,记录使用LLaMA-Factory微调大模型的过程,以期UU们可以复刻与应用。上文【02】LLaMA-Factory微调大模型——LLaMA-Factory搭建已在本机成功部署模型微调框架,本文则在本机部署多种基础模型,为...
-
Stable Diffusion如何训练属于自己的Lora模型
Stable Diffusion如何训练属于自己的Lora模型 前面(Stable diffusion的本地部署以及使用)介绍了那么多,相信你一定对Stable Diffusion有了一定的认知,那么你是否也在想:我下载的都是别人训练的模型,那我该怎么...
-
部署微调框架LLaMA-Factory
LLaMA Factory 1.我们在ChatGLM3的github官方页面上能看到对LLaMA-Factory的推荐 2.LLaMA Factory github链接 hiyouga/LLaMA-Factory: Unify Efficien...
-
安装和微调大模型(基于LLaMA-Factory)2-补充资料
安装代码 https://github.com/echonoshy/cgft-llm/blob/master/llama-factory/README.md https://github.com/hiyouga/LLaMA-Factory/tree/m...
-
部署LLaMA-Factory及微调大模型测试
安装过程 安装依赖 按照GitHub上介绍的过程安装即可GitHub - hiyouga/LLaMA-Factory: Unify Efficient Fine-Tuning of 100+ LLMshttps://github.com/hiyouga...
-
AIGC Kolors可图IP-Adapter-Plus风格参考模型使用案例
参考: https://huggingface.co/Kwai-Kolors/Kolors-IP-Adapter-Plus 代码环境安装: git clone https://github.com/Kwai-Kolors/Kolors cd Kolor...
-
Llama 3 图片理解能力微调(XTuner+LLaVA 版)实践笔记
基于 Llama3-8B-Instruct 和 XTuner 团队预训练好的 Image Projector 微调自己的多模态图文理解模型 LLaVA。 环境、模型、数据准备 conda create -n llama3 python=3....
-
安装llama_factory
第一版: nvidia-smi git clone https://github.com/hiyouga/LLaMA-Factory.git cd LLaMA-Factory/ llamafactory-cli train examples/tr...
-
导出 Whisper 模型到 ONNX
前言 在语音识别领域,Whisper 模型因其出色的性能和灵活性备受关注。为了在更多平台和环境中部署 Whisper 模型,导出为 ONNX 格式是一个有效的途径。ONNX(Open Neural Network Exchange)是一个开放格式...
-
部署stable-diffusion时遇到RuntimeError: Couldn‘t clone Stable Diffusion XL.问题
错误信息如下: venv "E:\AI\stable-diffusion-webui-master\venv\Scripts\Python.exe" fatal: ambiguous argument 'HEAD': unknown revision o...
-
大模型llama.cp编译
一、大模型部署工具 llama.cpp 二、使用 llama.cpp 量化模型 2.1 克隆llama.cp 项目地址: https://github.com/ggerganov/llama.cpp 一般配置SSH KEY,然后采用SSH...
-
AI多模态实战教程:面壁智能MiniCPM-V多模态大模型问答交互、llama.cpp模型量化和推理
一、项目简介 MiniCPM-V 系列是专为视觉-语⾔理解设计的多模态⼤型语⾔模型(MLLMs),提供⾼质量的⽂本输出,已发布4个版本。 1.1 主要模型及特性 (1)MiniCPM-Llama3-V 2.5: 参数规模: 8B 性能: 超越...
-
在modelscope(魔塔)部署自己的Stable-Diffusion-WebUI并实现网络穿透,可外部调用
一、注册并登陆modelscope平台 modelscope账号的注册这里就不做过多的介绍,大家可以自行搜索完成账号注册及实名认证,领取免费GPU算力; 登陆后按下图指示依次点击选择对应配置,最后点击‘启动’开启并进入服务器...
-
手把手教你在autodl上部署llama模型
文章目录 一、注册AutoDL账号、租用GPU 二、创建conda环境 三、下载llama模型 四、启动模型 一、注册AutoDL账号、租用GPU 进入 AutoDL官网链接 注册账号,需要先充点钱,如下创建新实例。 随便选...
-
【一文开启StableDiffusion】最火AIGC绘画工具SD阿里云部署指南(含踩坑经验)
Midjonery使用简单,效果出色,不过需要付费。本文将介绍完全开源的另一款产品StableDiffusion,它的社区目前非常活跃,各种插件和微调模型都非常多,而且它无需付费注册,没有速度、网络限制,非常推荐一试。 目前主流AI绘画产品: 产...
-
使用LLaMA-Factory微调大模型
使用LLaMA-Factory微调大模型 github 地址https://github.com/hiyouga/LLaMA-Factory 搭建环境 git clone --depth 1 https://github.com/hiyouga/...
-
国内Ubuntu安装 stable-diffusion教程,换成国内镜像
安装依赖: 首先更新系统并安装Python 3.10和pip: sudo apt update sudo apt install python3.10 python3-pip 设置Python虚拟环境(可选): 安装Python虚拟环境管理工具,并创建...
-
llama-factory微调工具使用入门
一、定义 环境配置 案例: https://zhuanlan.zhihu.com/p/695287607 chatglm3 案例 多卡训练deepspeed llama factory 案例Qwen1.5 报错 二、实现 环境配置 git cl...
-
Mac安装stable diffusion 工具
文章目录 1.安装 Homebrew 2.安装 stable diffusion webui 的依赖 3.下载 stable diffusion webui 代码 4.启动 stable diffusion webui 本体 5.下载模型 6....
-
在Arch Liunx里只用Intel Ultra 7 155H跑stable-diffusion-webui
引言 虽然我把arch linux装在了移动硬盘里,使得我可以同时在我的轻薄本和游戏本之间运行同一个系统,并拥有一个系统级同步的开发环境,但由于我之前将stable-diffusion-webui部署在了游戏本的win11上,这就导致我无法在带着轻薄本...
-
【Stable Diffusion webui安装】
tips:python最好有conda控制版本,这样可以给sd-webui一个相对空白的环境 环境安装 安装CUDA 去官网下载对应版本的CUDA https://developer.nvidia.com/cuda-toolkit-archi...
-
使用 stable-diffusion 入门级教程【Mac】
最近一直在短视频平台刷到AI生成的图片,质量也非常不错。术哥也跟我讲解了下如何安装使用。于是周末试了试。 也差点变成从入门到放弃了,所以也把过程中遇到的问题记录一下。 目前基本上运行正常,只是内存稍微小了点,把质量调低即可。...
-
如何使用阿里云AMD CPU云服务器(g8a)和龙蜥容器镜像,并基于Stable Diffusion模型搭建个人版文生图服务
Stable Diffusion是文本到图像的潜在扩散模型,它可以根据文本提示词生成对应的图像。Stable Diffusion模型是扩散模型的变种,可以通过逐步对随机高斯噪声进行去噪以获得感兴趣的样本。与传统生成模型相比,Stable Diffusion...
-
Mac本地部署Stable-Diffusion
之前有AI绘图场景时一直用的是封装好的软件,因为不用考虑背后繁琐的细节,但因为各种原因难免会有使用不了等问题,为了一劳永逸,决定直接使用Stable-Diffusion。之前因为图省事以及电脑硬盘所剩空间捉襟见肘就没部署(Stable-Diffusion的...
-
推荐8款超实用的ComfyUI绘画插件,帮助我们的AI绘画质量和效率提升几个档次!
前言 大家在使用SD绘画过程中,想必见识到了插件的强大功能,本身纯净版的SD界面是相对简洁的,但是搭配了各种插件后,界面标签栏会增加很多,相应的功能也增加了。 从简单的中文界面翻译插件,到强大的controlnet图形控制插件,都极大的方便了使用者,...