-
单个A100生成3D图像只需30秒,这是Adobe让文本、图像都动起来的新方法
2D 扩散模型极大地简化了图像内容的创作流程,2D 设计行业也因此发生了变革。近来,扩散模型已扩展到 3D 创作领域,减少了应用程序(如 VR、AR、机器人技术和游戏等)中的人工成本。有许多研究已经对使用预训练的 2D 扩散模型,生成具有评分蒸馏采样(S...
-
中文版LLaMA:Chinese-LLaMA-Alpaca
GitHub:GitHub - ymcui/Chinese-LLaMA-Alpaca: 中文LLaMA&Alpaca大语言模型+本地CPU/GPU训练部署 (Chinese LLaMA & Alpaca LLMs 以ChatGPT、GP...
-
使用stable diffusion生成图片
准备 硬件:有GPU的主机,显存6G+ 系统:windows10 或者 ubuntu 20.04 软件: anaconda 1.下载安装anaconda wget https://repo.anaconda.com/a...
-
腾讯披露最新大模型训练方法:Angel框架升级 效率提升2.6倍
在当前大模型参数规模呈指数级增长的情况下,腾讯近日披露了混元大模型训练的最新方法,通过升级自研机器学习框架Angel,成功提升大模型训练效率。这一升级使得千亿级大模型训练可以节省高达50%的算力成本,为应对算力紧缺提供了有力支持。Angel框架的升级不仅仅...
-
Inflection推Inflection-2:号称全球计算级别最佳AI模型及全球第二最强大LLM
Inflection AI最近推出的语言模型Inflection-2,被宣称为全球计算级别最佳的AI模型,位列全球第二最强大的大型语言模型(LLM),仅次于OpenAI的最新模型。这一创新的AI模型的开发是为了满足对能够在各种任务中理解和生成类似人类文本的...
-
Stable-Diffusion-WebUI从代码下载到使用技巧
一、写在前面 本文用于对AI绘画感兴趣但无计算机编程基础的人,包含本人安装和使用过程中的心得,可供新学者参考。 心理准备: 电脑性能越高越好,最好有高端显卡,如30系以上。低端显卡也可以,速度和质量感人就是; 会要求下载一些软件、模型,涉及环境变...
-
在GPU云服务器中部署Stable Diffusion web UI
在GPU云服务器中部署Stable Diffusion web UI 1. 前言 2. 关于云服务器的选择 3. 关于机器的选择 4. 部署Stable Diffusion Python和CUDA 检查pip源 下载Stable Diffus...
-
OpenAI开源语音识别模型Whisper在Windows系统的安装详细过程
文章目录 1、安装Python 2、安装FFmpeg 2.1、配置环境变量 3、安装显卡驱动 3.1、安装CUDA 4、安装PyTorch 5、安装whisper 6、whisper的使用 7、总结 8、源码下载 9、视频教程 1、...
-
面对AMD英特尔微软谷歌的挑战,英伟达AI计算能否笑到最后?
几天前英伟达发布财报,业绩不错,但不够好,无法推动股价进一步爬升。尽管如此,英伟达已经向投资者证明,竞争对手AMD、英特尔想追上还有很长的路要走。 英伟达高管知道竞争很激烈,他们强调,在AI芯片领域英伟达地位超然。如何保持优势?英伟达会加快研发速度,每...
-
如何使用GPTQ量化使LLM更轻
译者 | 李睿 审校 | 重楼 大型语言模型(LLM 应用的一大挑战是其耗费巨大的内存和计算需求,通常需要数十GB的GPU内存。这使得它们不仅昂贵而且难以运行。 为了缓解这些问题,研究人员开发了几种LLM压缩技术,其中包括“量化”。量化通过改变参数的存...
-
谷歌Colab云端部署Stable Diffusion 进行绘图
系列文章目录 本地部署Stable Diffusion教程,亲测可以安装成功 Stable Diffusion界面参数及模型使用 文章目录 系列文章目录 前言 一、Colab是什么? 二、操作步骤 1.找到对应的脚本 2.在谷歌...
-
本地免费GPT4?Llama 2开源大模型,一键部署且无需硬件要求教程
目前扎克布格带来了最新的Llama 2开源NLP大模型,目前有三个版本分别是70亿参数量,130亿参数量和700亿参数量,庞大的数据集和参数量保证了模型的强大,官网宣称性能与gpt4相比不落下风,又因为开源使得我们可以实现本地化gpt4的梦...
-
使用 LoRA 技术对 LLaMA 65B 大模型进行微调及推理
前几天,Meta 发布了 LIMA 大模型,在LLaMA-65B的基础上,无需使用 RLHF,只用了 1000 个精心准备的样本数据进行微调,就达到了和 GPT-4 相媲美的程度。这激发了我探索 LLaMA 65B 大模型的兴趣。 之前的一系列大模型相...
-
【Stable-Diffusion-WebUI】Windows系统安装Stable-Diffusion-WebUI
写在前面 基于 stable-diffusion 封装的 webui 开源项目,通过界面交互的方式来使用 stable-diffusion,降低了使用门槛,可以通过本地部署的方式进行访问,对电脑的配置要求较高,以下配置要求仅供参考 GPU显卡:最好6...
-
视频生成: 基于Stable Diffusion的微调方法
chatGPT带来了几个月的AIGC热度,文本图像生成模型大行其道,但AI在视频生成任务上尚没有较好的开源仓库,并受限于“缺那么几百块A100"的资源问题,大多数人无法展开视频生成的研究。好在目前有不少针对视频生成的相关paper,也有不少开源实现...
-
【AI绘图】Stable Diffusion WebUI环境搭建
Stable Diffusion WebUI开源地址:https://github.com/AUTOMATIC1111/stable-diffusion-webui 首先根据要求做以下准备工作: 1. 安装 Python 3.10.6, 安装时记得勾...
-
AIGC绘画:基于Stable Diffusion进行AI绘图
文章目录 AIGC深度学习模型绘画系统 stable diffusion简介 stable diffusion应用现状 在线网站 云端部署 本地部署Stable Diffusion AIGC深度学习模型绘画系统 stab...
-
如何本地部署基于stable-diffusion的AI绘画(jupyter,python实现,详细,附代码)
基于stable - diffusion 的本地部署AI绘画教程 自从Stable Diffusion 1.0模型发布以来,“AI文本图片生成”真正的变成普通人也能使用的技术。同时各种国内外AI绘图软件,也不断频繁更新,AI绘画的关注度也越来越高...
-
Stable Diffusion搭建全过程记录,生成自己的专属艺术照
引言 最近硅星人多次报道过 AI 图片生成技术,提到过 DALL·E、Midjourney、DALL·E mini(现用名 Craiyon)、Imagen、TikTok AI绿幕等知名产品。实际上,Stable Diffusion 有着强大的生成...
-
预测token速度翻番!Transformer新解码算法火了,来自小羊驼团队
小羊驼团队的新研究火了。 他们开发了一种新的解码算法,可以让模型预测100个token数的速度提高1.5-2.3倍,进而加速LLM推理。 比如这是同一个模型(LLaMa-2-Chat 7B)面对同一个用户提问(苏格拉底采用了哪些方法来挑战他那个时代的主...
-
Stable Diffusion升级版SDXL,一键运行包和18G模型分享!
今天主要分享两个东西,一个是ComfyUI软件包,一个是SDXL的两个模型。 有这两个东西就可以快速出图了 先来简单介绍一下SDXL的特点。 Stable Diffusion XL 或 SDXL 是最新的图像生成模型,与以前的 SD 模型(包...
-
AI画图 Ubuntu 20.04.5 LTS x86_64 Docker stable diffusion webui 及 http api接口
资源 Docker镜像 docker pull darkroot1234/ayanami:latest 参考地址: docker一键运行stable diffusion webui,常用插件和功能完备,获得镜像后可打包带走 - 哔哩哔哩 nv...
-
模型杂谈:使用 IN8 量化推理运行 Meta “开源泄露”的大模型(LLaMA)
接着之前文章《模型杂谈:快速上手元宇宙大厂 Meta “开源泄露”的大模型(LLaMA)》一文中的话题,继续聊聊如何使用 INT8 量化的方式来让低显存的设备能够将模型运行起来。 写在前面 前几天,在知乎上看到《如何评价 LLaMA 模型泄露?》问题...
-
AIGC 文生图及 stable diffusion webui 练习笔记
文章目录 环境要求 一. stable-diffusion-webui 安装 windows/linux 安装 docker 容器内安装 二. 运行 web-ui 插件安装 civitai helper additional netwo...
-
Stable Diffusion ubuntu 部署,问题记录
问题一 在使用图生图时,报错NansException: A tensor with all NaNs was produced in Unet. This could be either because there's not enough prec...
-
阿里云部署Stable Diffusion
系列文章目录 本地部署Stable Diffusion教程,亲测可以安装成功 Stable Diffusion界面参数及模型使用 谷歌Colab云端部署Stable Diffusion 进行绘图 文章目录 系列文章目录 前言 一...
-
【类ChatGPT】中文LLaMA-2、Alpaca-2 二代羊驼大模型体验
前言 Meta发布的一代LLaMA已经掀起了一股开源大模型热潮,也有很多相关工作不断涌现。最近Meta全新发布了Llama-2,效果更上一层楼。而且最重要的是模型可以相对随意分发了,不像一代一样,meta不让开发者发布基于llama模型训...
-
今日思考(2) — 训练机器学习模型用GPU还是NUP更有优势(基于文心一言的回答)
前言 深度学习用GPU,强化学习用NPU。 1.训练深度学习模型,强化学习模型用NPU还是GPU更有优势 在训练深度学习模型时,GPU相比NPU有优势。GPU拥有更高的访存速度和更高的浮点运算能力,因此更适合深度学...
-
Llama2通过llama.cpp模型量化 Windows&Linux本地部署
Llama2通过llama.cpp模型量化 Windows&Linux本地部署 什么是LLaMA 1 and 2 LLaMA,它是一组基础语言模型,参数范围从7B到65B。在数万亿的tokens上训练的模型,并表明可以专门使用公开可用的数据...
-
最强绘图AI:一文搞定Midjourney(附送咒语)
最强绘图AI:一文搞定Midjourney(附送咒语) Midjourney官网:https://www.midjourney.com 简介 Midjourney是目前效果最棒的AI绘图工具。访问Midjourney需要科学姿势。 [外链图片转存...
-
Stable Diffusion:使用自己的数据集微调训练LoRA模型
Stable Diffusion:使用自己的数据集微调训练LoRA模型 前言 前提条件 相关介绍 微调训练LoRA模型 下载kohya_ss项目 安装kohya_ss项目 运行kohya_ss项目 准备数据集 生成关键词 模型参数设置 预训...
-
xFormers安装使用
xFormers是一个模块化和可编程的Transformer建模库,可以加速图像的生成。 这种优化仅适用于nvidia gpus,它加快了图像生成,并降低了vram的使用量,而成本产生了非确定性的结果。 下载地址: https://github.co...
-
手把手教你从0开始在服务器上部署stable diffusion
StableDiffusion 服务器部署 0. 服务器 GPU A5000-24G 数量: 1 显存: 24 GB CPU AMD EPYC 7551P 核心: 8 核 实例内存: 63G 系统 Ubuntu20.04 验证是否有nvidia...
-
Chatbot开发三剑客:LLAMA、LangChain和Python
聊天机器人(Chatbot)开发是一项充满挑战的复杂任务,需要综合运用多种技术和工具。在这一领域中,LLAMA、LangChain和Python的联合形成了一个强大的组合,为Chatbot的设计和实现提供了卓越支持。 首先,LLAMA是一款强大的自然语...
-
stable diffusion 安装xFormers 报错:Couldn‘t install open_clip.
一、No module ‘xformers’. Proceeding without it. 这是因为没有安装xformers导致的。 解决办法: 在webui-user.bat文件这添加一行: set COMMANDLINE_ARGS=--xfor...
-
谷歌推出免费AI编程神器Colab,欲将Copilot拉下神坛
在如今的AI编码工具领域,微软旗下的Github Copilot可以算得上是一家独大,而作为老对手的谷歌显然并不愿屈服于此。 近日,谷歌通过其官网高调发文宣布,将为研发工具Google Colaboratory(Colab)加入全新的AI编码功能,包括...
-
LLMs:Chinese-LLaMA-Alpaca-2(基于deepspeed框架)的简介、安装、案例实战应用之详细攻略
LLMs:Chinese-LLaMA-Alpaca-2(基于deepspeed框架 的简介、安装、案例实战应用之详细攻略 导读:2023年07月31日,哈工大讯飞联合实验室,发布Chinese-LLaMA-Alpaca-2,本项目基于Meta发布的...
-
AIGC数据处理与存储解决方案
针对在AIGC的场景下,如何解决在AIGC训练过程中数据的存储和数据处理的问题,杨冠军从三个方面进行介绍与解读: 一是AIGC对存储提的新需求; 二是介绍腾讯云可以给用户提供的整体存储解决方案; ...
-
手把手教你在云环境炼丹(部署Stable Diffusion WebUI)
前几天写了一篇《手把手教你在本机安装Stable Diffusion秋叶整合包》的文章,有些同学反映对硬件的要求太高,显卡太TM贵了。今天我再分享一个云服务器炼丹的方法,方便大家快速入门上手,这个云服务不需要特殊网络设置,能连接公网网盘,随开随用,有309...
-
使用QLoRA对Llama 2进行微调的详细笔记
使用QLoRA对Llama 2进行微调是我们常用的一个方法,但是在微调时会遇到各种各样的问题,所以在本文中,将尝试以详细注释的方式给出一些常见问题的答案。这些问题是特定于代码的,大多数注释都是针对所涉及的开源库以及所使用的方法和类的问题。 导入库...
-
使用阿里PAI DSW部署Stable Diffusion WebUI
参考内容为《快速启动Stable Diffusion WebUI》 进入到网址https://pai.console.aliyun.com/里边。 点击创建实例。 把实例名称填写好,选择GPU规格,然后选择实例名称是ecs.gn6v-c8g1.2xlar...
-
Whisper + NemoASR + ChatGPT 实现语言转文字、说话人识别、内容总结等功能
引言 2023年,IT领域的焦点无疑是ChatGPT,然而,同属OpenAI的开源产品Whisper似乎鲜少引起足够的注意。 Whisper是一款自动语音识别系统,可以识别来自99种不同语言的语音并将其转录为文字。 如果说ChatGPT为计算机赋予了...
-
神经网络实用工具(整活)系列---使用OpenAI的翻译模型whisper实现语音(中、日、英等等)转中字,从此生肉变熟肉---提高篇(附带打包好的程序)
上一篇文章介绍了怎么用OpenAI的翻译模型whisper实现语音转中字的基本操作,在文章中也明确了该操作存在的三个问题: 处理速度慢。 存在幻听现象,字幕准确度不太理想。 要安装比较多的环境才能运行,对一般用户不太友好。 本篇文章将逐一介绍解决...
-
LLaMA-2论文阅读
1. 基本介绍 LLaMA-2是2023年7月24日Meta发布的LLaMA第二代,跟LLaMA-1几个显著区别: 免费可商用版本的大模型 context上下文增加了一倍,从2K变为了4K 训练的总token数从1.0T/1.4T增加为2.0T(...
-
使用gradio部署自己的AI应用 AI对话 和 AI绘画
gradio部署自己的 AI应用 AI对话(chatglm) 和 AI绘画(stable diffusion) 前言 提前准备: 开始 1,飞浆操作 2,部署 对话 和 绘画 3,natapp操作 4,api方式启动sd和glm 5,编写gr...
-
“大模型本质就是两个文件!”特斯拉前AI总监爆火LLM科普,时长1小时,面向普通大众
特斯拉前AI总监Andrej Karpathy的新教程火了。 这次,他专门面向普通大众做了一个关于大语言模型的科普视频。 时长1小时,全部为“非技术介绍”,涵盖模型推理、训练、微调和新兴大模型操作系统以及安全挑战,涉及的知识全部截止到本月(非常新)。...
-
2023年的深度学习入门指南(20) - LLaMA 2模型解析
2023年的深度学习入门指南(20 - LLaMA 2模型解析 上一节我们把LLaMA 2的生成过程以及封装的过程的代码简单介绍了下。还差LLaMA 2的模型部分没有介绍。这一节我们就来介绍下LLaMA 2的模型部分。 这一部分需要一些深度神经网络的...
-
OpenAI内斗时,Karpathy在录视频:《大型语言模型入门》上线
OpenAI 的风波暂时告一段落,员工也忙着「干活了」。 年初回归 OpenAI 的 Andrej Karpathy 最近做了一场关于大型语言模型(LLM)的 30 分钟入门讲座,但该讲座当时没录制。因此,他基于这场讲座重新录制了一个长达 1 小时的视频...
-
字节跳动利用AI对Linux内核进行优化 显著提高效率
TikTok母公司字节跳动近期在Linux Plumbers Conference上进行了技术演示,详细介绍了如何利用人工智能(AI)和机器学习对Linux内核进行优化。演示由字节跳动工程师Cong Wang主持,深入而详尽,专为计算机工程师设计。 演示的...
-
这项AI研究引入 Atom:一种低位量化技术,可实现高效、准确LLM)服务
大型语言模型(LLM)是人工智能领域最新的引入,已经席卷全球。这些模型以其令人难以置信的能力,被人们广泛使用,无论是研究人员、科学家还是学生。凭借其仿人潜力回答问题、生成内容、概括文本、完成代码等方面,这些模型已经走过了很长的路程。 LLM 在情感分析、智...