-
LLM | llama.cpp 安装使用(支持CPU、Metal及CUDA的单卡/多卡推理)
1. 详细步骤 1.1 安装 cuda 等 nvidia 依赖(非CUDA环境运行可跳过) # 以 CUDA Toolkit 12.4: Ubuntu-22.04/24.04(x86_64 为例,注意区分 WSL 和 Ubuntu,详见 http...
-
【AIGC】ComfyUI安装及常见问题cuda及pytorch安装教程
说明:ComfyUI安装方式有很两种,第一种是下载独立包。独立包下载到本地后,即可使用。不需要搭建(安装)python、cuda、cudnn、pytorch环境. 第二种是,手动安装。手动安装要复杂很多,需要搭建开发环境,即安装python、cuda、c...
-
Ubuntu LLaMA-Factory实战
一、Ubuntu LLaMA-Factory实战安装: CUDA 安装 CUDA 是由 NVIDIA 创建的一个并行计算平台和编程模型,它让开发者可以使用 NVIDIA 的 GPU 进行高性能的并行计算。 首先,在 https://develop...
-
AIGC 实战(环境篇) - EXSI 8.0 Debian安装RTX3060显卡驱动
文章目录 RTX 3060 显卡驱动安装 主要过程 解决方案 RTX 3060 CUDA、CUDNN 安装 CUDA 安装 CUDNN 安装 参考文章 近期,尝试在家里服务中搭建一个用来跑 AI 的服务器,尝试使用 EXSI8....
-
服务器部署llama3 并利用LLaMA-Factory实现微调
llama3的编译环境要求: 需要的软件,硬件资源: python=3.11 pytorch==2.1.2 torchvision==0.16.2 torchaudio==2.1.2 pytorch-cuda=12.2 第一步下载需要的pytho...
-
4060显卡+LLaMA-Factory微调LLM环境准备——(一)安装cuda
本地配置 系统:win10**硬件:**i5-12490f+RTX4060 安装原因: 最近尝试在本地对开源LLM进行Fine-tune的时候,用到了LLaMA-Factory,在运行的时候,弹出未检测到GPU,后来才发现,是忘记安装cuda等...
-
llama_fastertransformer对话问答算法模型
LLAMA 论文 https://arxiv.org/pdf/2302.13971.pdf 模型结构 LLAMA网络基于 Transformer 架构。提出了各种改进,并用于不同的模型,例如 PaLM。以下是与原始架构的主要区别: 预归一化。为了提高...
-
【Stable Diffusion webui安装】
tips:python最好有conda控制版本,这样可以给sd-webui一个相对空白的环境 环境安装 安装CUDA 去官网下载对应版本的CUDA https://developer.nvidia.com/cuda-toolkit-archi...
-
Faster-whisper+silero-vad 实时语音转录
环境搭建 需要使用cuda 在 cmd 控制台里输入 nvidia-smi.exe 以查看显卡驱动版本和对应的 cuda 版本 前往 NVIDIA-CUDA 官网下载与系统对应的 Cuda 版本 以 Cuda-11.7 版本为例,根据自己的...
-
本地搭建LLaMA-Factory环境进行大模型调优
LLaMA Factory LLaMA Factory快速对大模型进行快速调优,本文看一下如何本地搭建环境并调优,本文使用 ModelScope 社区中的模型,模型在国内,下载速度非常友好。 下载最新代码 ## LLaMA Factory官方 git...
-
从零开始搭建LLaMA-Factory
准备写一个完整教程: 手动卸载原先驱动和cuda(英伟达自带的驱动升级程序闪退崩溃) 官网下载驱动、cuda、cudnn 逐一安装(系统装驱动,cuda与cudnn。然后anaconda虚拟环境装pytorch) 安装llama factory 微调...
-
在嵌入式处理器Jetson Orin上使用Whisper做语音内容识别(3)
1、简介 Nvidia的GPU+CUDA架构在大算力时代遥遥领先毫无疑问了,其通用的硬件特性使得它不再是以往的“显卡”,算力强大并且支持各种AI,软件生态的应用方式基本可以照搬PC端。相比于特定的核心NPU,它显得更加灵活,系统和显存的共用在带宽上有明显...
-
神秘山洞惊现AI绘画至宝Stable Diffusion残卷
最近听到不少大宗门纷纷发声:随着AI神器的现世“程序员职业将不复存在”,“设计师将要失业”。 至此,不少修士开始担忧起来,现出世的AI神器会不会取代掉我辈修士。 其实,至女娲天神创造人类以来,在这漫漫修仙路上,人类在不断的进步。在炼器界不少大修士或隐世...
-
使用llama.cpp在linux cuda环境部署llama2方法记录及遇到的问题
一、编译lllama.cpp 拉取llama.cpp库 cd llama.cpp make LLAMA_CUBLAS=1 LLAMA_CUDA_NVCC=/usr/local/cuda/bin/nvcc bug:编译问题 使用make,nv...
-
Ubuntu20.04安装配置stable diffusion 超详细教程
1. 搭建Python环境 使用conda创建单独的虚拟环境sd, 打开终端,运行: conda create -n sd python==3.10.9 然后激活环境: conda activate sd 安装torch 查看自己的...
-
芝大论文证明GPT-4选股准确率高达60%,人类股票分析师要下岗?AI大牛质疑数据污染
最近,各位业内大咖都被芝大的一篇论文震惊了。 研究者发现,由GPT-4帮忙选择的股票,直接击败了人类!同时也pk掉了许多其他针对金融训练的机器学习模型。 最让他们震惊的是,LLM可以在没有任何叙述上下文的情况下,就成功分析财务报表中的数字! 图片 论文地...
-
stable diffusion webui的本地部署
操作系统:windows10,显卡:RTX2060super ,安装时间:2024年3月30日,磁盘占用:20G,+科学上网 安装过程及本文部段落来自: https://github.com/AUTOMATIC1111/stable-diffu...
-
AI绘图cuda与stable diffusion安装部署始末与避坑
stable diffusion的安装说起来很讽刺,最难的不是stable diffusion,而是下载安装cuda。下来我就来分享一下我的安装过程,失败了好几次,几近放弃。 一、安装cuda 我们都知道cuda是显卡CPU工作的驱动(或者安装官网的...
-
STM32单片机——ADC数据采集
STM32单片机——ADC数据采集 ADC相关理论概述 CubeMX工程配置 HAL库程序设计 固件库程序设计 参考博文1:STM32——ADC采集 参考博文2:2022年8月12日STM32——ADC采集 ADC相关理论概...
-
stm32 HAL库 ADC+DMA多通道采集
利用stm32的adc可以采集多路模拟量,使用DMA方式非常简答方便。本文章采用使用广泛的stm32f103c8系列芯片。 下面程序的功能: 1、对DMA中采集到的4个adc数据进行中值滤波和算术平均值滤波,确定各个通道的电压平均值。 2、使用软件触...
-
20240202在Ubuntu20.04.6下使用whisper.cpp的显卡模式
20240202在Ubuntu20.04.6下使用whisper.cpp的显卡模式 2024/2/2 19:43 【结论:在Ubuntu20.04.6下,确认large模式识别7分钟中文视频,需要356447.78 ms,也就是356.5秒,需要大概5...
-
【AI】RTX2060 6G Ubuntu 22.04.1 LTS (Jammy Jellyfish) 部署Chinese-LLaMA-Alpaca-2 【2】启用GPU支持
接上篇 【AI】RTX2060 6G Ubuntu 22.04.1 LTS (Jammy Jellyfish 部署Chinese-LLaMA-Alpaca-2-CSDN博客 前面的实验,chat.sh确认是运行在CPU模式下,未启用GPU支持...
-
20240131在WIN10下配置whisper
20240131在WIN10下配置whisper 2024/1/31 18:25 首先你要有一张NVIDIA的显卡,比如我用的PDD拼多多的二手GTX1080显卡。【并且极其可能是矿卡!】800¥ 2、请正确安装好NVIDIA最新的545版本的驱动程序...
-
本地运行LlaMA 2的简易指南
大家好,像LLaMA 2这样的新开源模型已经变得相当先进,并且可以免费使用。可以在商业上使用它们,也可以根据自己的数据进行微调,以开发专业版本。凭借其易用性,现在可以在自己的设备上本地运行它们。 本文将介绍如何下载所需的文件和LLaMA 2模型,以运行C...
-
OS-AIGC通用生成式人工智能模型加密接入标准API协议-2023 Beta版
说明 OS-AIGC通用生成式人工智能模型加密接入标准API协议(Universal Language Model Encryption Access Standard API Protocol)国内的通用语言大模型的加密接入标准API协议。能够适配各种...
-
【AI】aarch64 kylin llama.cpp CUDA 适配 Chinese-LLaMA-Alpaca-2 启用 Tesla P4 8G GPU支持【失败】
GPU GPU架构信息 Pascal架构: compute_60: GeForce GTX 10xx系列、TITAN Xp, Tesla P100等 compute_61: Quadro GP100, Tesla P40等 co...
-
Stable Diffusion XL Turbo 文生图和图生图实践
本篇文章聊聊,如何快速上手 Stable Diffusion XL Turbo 模型的文生图和图生图实战。 写在前面 分享一篇去年 11 月测试过模型,为月末分享的文章做一些技术铺垫,以及使用新的环境进行完整复现。 本篇文章相关的代码保存在 sou...
-
轻松上手,本地运行LlaMA 2的简易指南
我们将学习一种无需设置Python或任何程序即可安装和使用LlaMA 2的简单方法。只需下载文件并在PowerShell中运行命令即可。 微信搜索关注《Python学研大本营》,加入读者群,分享更多精彩 图像由DALL·E 3生成 一...
-
CMU华人18万打造高能机器人,完爆斯坦福炒虾机器人!全自主操作,1小时学会开12种门
比斯坦福炒虾机器人还厉害的机器人来了! 最近,CMU的研究者只花费2.5万美元,就打造出一个在开放世界中可以自适应移动操作铰接对象的机器人。 论文地址:https://arxiv.org/abs/2401.14403 厉害之处就在于,它是完全自主完成操作...
-
大语言模型部署:基于llama.cpp在Ubuntu 22.04及CUDA环境中部署Llama-2 7B
llama.cpp是近期非常流行的一款专注于Llama/Llama-2部署的C/C++工具。本文利用llama.cpp来部署Llama 2 7B大语言模型,所采用的环境为Ubuntu 22.04及NVIDIA CUDA。文中假设Linux的用户目录(一般为...
-
Stable Diffusion 硬核生存指南:WebUI 中的 CodeFormer
本篇文章聊聊 Stable Diffusion WebUI 中的核心组件,强壮的人脸图像面部画面修复模型 CodeFormer 相关的事情。 写在前面 在 Stable Diffusion WebUI 项目中,源码 modules 目录中,有一个有趣...
-
Stable Diffusion 学习(一)——Web UI 的安装与部署
Stable Diffusion作为一款开源的AIGC项目受到众多人的欢迎,掀起了一大波AI绘画的浪潮。通过它我们可以将我的想法变成现实,并且随时调整,也可以让AI生成不同于人类角度的照片,接下来我们将进入到StableDiffusion的学习中去,今天的...
-
[IDE(AI绘画)]从零开始在本地部署AI绘画实例(2023.4)
[IDE(AI绘画 ]从零开始在本地部署AI绘画实例(2023.4) 一、前言 跟我的版本号走基本上不会出错,如果安装错误请检查自己是不是升级版本了,python 3.11.x在文章发布时并不支持 如果有稳定的节点就不需要修改镜像源,有些包镜像源的...
-
2023年的深度学习入门指南(24) - 处理音频的大模型 OpenAI Whisper
2023年的深度学习入门指南(24 - 处理音频的大模型 OpenAI Whisper 在这一讲之前,我们所用的大模型都是针对文本的。这一讲我们增加一个新的领域,即音频。我们将介绍OpenAI的Whisper模型,它是一个处理音频的大模型。 Wh...
-
AI绘画指南:在CentOS7中安装Stable Diffusion WebUI
一、安装GPU驱动 1.1 购买云服务器 在腾讯云选购一台GPU型的服务器(最好的境外的,境外的服务器后面关于镜像加速的步骤都可以跳过) 购买成功之后腾讯的站内信会发送初始的密码给你,登录成功后会自动帮我们安装相关的驱动,提示整个过程大概需要20分...
-
Stable Diffusion 硬核生存指南:WebUI 中的 GFPGAN
本篇文章聊聊 Stable Diffusion WebUI 中的核心组件,强壮的人脸图像面部画面修复模型 GFPGAN 相关的事情。 写在前面 本篇文章的主角是开源项目 TencentARC/GFPGAN,和上一篇文章《Stable Diffusio...
-
stable diffusion本地原生windows安装记录
目录 前言 文档说明 Python安装 3.1python下载 3.2安装过程 3.3验证安装结果 Git安装 4.1git的下载 4.2git的安装 4.3git的使用 4.4第二种下载方式 4.5下载的注意事项 启动stabl...
-
如何在你的电脑上完成whisper的简单部署
如何在你的电脑上完成whisper的简单部署(超详细教程) 前言 一、显卡驱动、CUDA ToolKit、cuDNN的下载 1. 显卡驱动 2. CUDA ToolKit 3. cuDNN的安装 二、windows下安装conda 三、使...
-
【AI实战】llama.cpp量化cuBLAS编译;nvcc fatal:Value ‘native‘ is not defined for option ‘gpu-architecture‘
【AI实战】llama.cpp量化cuBLAS编译;nvcc fatal:Value 'native' is not defined for option 'gpu-architecture' llama.cpp量化介绍 llama.cpp 编...
-
【AI绘画】Stable Diffusion学习——安装与使用教程(一)
一、 安装前准备 1、Python 官网:https://www.python.org/downloads/ 建议安装3.10开头的版本号,下载安装包后运行即可 (安装python,建议安装3.10.6版本,这个是Stable Diffusion We...
-
Install Stable Diffusion WebUI on Ubuntu 22.04.2 LTS
1. Environment OS:Ubuntu 22.04 LTS Kernel:5.15.0-60-generic CPU: Intel(R Xeon(R Gold 6278C CPU @ 2.60GHz, 8vCPUs GPU: 1 * N...
-
《ai绘画》最全stable diffusion安装教程 所有软件+所有指令
安装cuda,win键搜索nvidia Control Panel,打开软件 点击软件左下角系统信息 查看自己的cuda版本 打开网站,根据自己的版本选择cuda下载 网站 https://developer.n...
-
关于stable diffusion的lora训练在linux远程工作站的部署
在学校Arc中部署lora training,一大问题就是依赖缺失和冲突。可以利用miniconda或者anaconda建立虚拟环境来解决。 安装anaconda 或者 miniconda(官网上也有教程): wget https://rep...
-
CentOS安装Whisper | RedHat安装Whisper | 服务器上安装Whisper
1、升级Python版本(可选) CentOS 7.9 系统默认安装的Python版本有两个,如果输入python -V我们看到的是python2的版本信息,如果我们输入python3 -V我们看到的是python3的版本信息。 由于whisper要...
-
大模型公司「卷」 芯片 英伟达危?
人工智能的行业竞争,不仅是OpenAI与谷歌等各大互联网巨头的大模型之争,支撑运算的芯片赛道也暗流涌动,大模型“制造机”们也加入了赛道。 OpenAI计划从CEO Sam Altman投资的一家初创公司Rain AI订购更高效的NPU芯片;微软也推出两款自...
-
用stable_diffusion_webui遇到CUBLAS_STATUS_INVALID_VALUE when calling cublasGemmStridedBatchedExFix 报错
搭建参考教程: 1,【新修正】手把手教你在linux中部署stable-diffusion-webui N卡A卡显卡可用 2,手把手教你在linux中手动编译并安装xformers (以上文章作者为B站up主:青空朝颜モー) 本机电脑显卡型号:20...
-
Stable Diffusion:Linux、Mac环境安装教程
一、配置Python环境 1. 安装conda 脚本获取链接:https://repo.anaconda.com/archive/ 一路回车,该输yes输yes wget -c https://repo.anaconda.com/archive...
-
本地部署LLaMA-中文LoRA部署详细说明
在Ubuntu18.04 部署中文LLaMA模型 环境准备 硬件环境 AMD 5950X 128GB RAM RTX 3090(24G VRAM 操作系统 Ubuntu 18.04 编译环境(可选 llama...
-
Docker AIGC等大模型深度学习环境搭建(完整详细版)
本文是《Python从零开始进行AIGC大模型训练与推理》(https://blog.csdn.net/suiyingy/article/details/130169592)专栏的一部分,所述方法和步骤基本上是通用的,不局限于AIGC大模型深度学习环境。...
-
AIGC Stable Diffusion WebUI windows安装指南
安装电脑配置要求: NVIDIA显卡 显存>=4G(越大越好) 安装需要软件: git python cuda stable-diffusion-webui 梯子(魔法上网) 安装步骤: git安装 下载地...