-
古风修仙美少女-InsCode Stable Diffusion 美图活动一期
Stable Diffusion 模型在线使用地址: https://inscode.csdn.net/@inscode/Stable-Diffusion点我直接前往 大家直接点击上面链接就是,如果自己主页打开,还容易找不到这个模型哦...
-
Stable Diffusion web UI 安装、启动脚本、常见问题、插件(linux)
Stable Diffusion本身是一个模型,对于大多数想试试的人来说,使用这个web ui版本最合适建议先看完再动手,虽然不难但是有门槛(主要要解决网络问题),如果深入需要会python如果只是想试试的,建议直接下载别人打好的包,自己搭建确实很麻烦20...
-
13个优秀开源语音识别引擎
语音识别(ASR)在人机交互方面发挥着重要的作用,可用于:转录、翻译、听写、语音合成、关键字定位、语音日记、语言增强等场景。语音识别基本过程一般包括:分析音频、音频分解、格式转换、文本匹配,但实际的语音识别系统可能会更复杂,并且可能包括其他步骤和功能组件...
-
如何在你的电脑上完成whisper的简单部署
如何在你的电脑上完成whisper的简单部署(超详细教程) 前言 一、显卡驱动、CUDA ToolKit、cuDNN的下载 1. 显卡驱动 2. CUDA ToolKit 3. cuDNN的安装 二、windows下安装conda 三、使...
-
本地部署Stable Diffusion Webui AI 记录
Stable Diffusion Webui AI本地部署基本分为两种方式: 1、使用大佬的打包好的安装包一键部署 b站秋葉aaaki 2、手动部署(个人实践记录)参考文章 本地部署基本要求 1、 需要拥有NVIDIA显卡,GTX1060 (或...
-
Meta最新模型LLaMA详解(含部署+论文)
来源:投稿 作者:毛华庆 编辑:学姐 前言 本课程来自深度之眼《大模型——前沿论文带读训练营》公开课,部分截图来自课程视频。 文章标题:LLaMA: Open and Efficient Foundation Language Mode...
-
持续进化,快速转录,Faster-Whisper对视频进行双语字幕转录实践(Python3.10)
Faster-Whisper是Whisper开源后的第三方进化版本,它对原始的 Whisper 模型结构进行了改进和优化。这包括减少模型的层数、减少参数量、简化模型结构等,从而减少了计算量和内存消耗,提高了推理速度,与此同时,Faster-Whisper也...
-
【AI实战】llama.cpp量化cuBLAS编译;nvcc fatal:Value ‘native‘ is not defined for option ‘gpu-architecture‘
【AI实战】llama.cpp量化cuBLAS编译;nvcc fatal:Value 'native' is not defined for option 'gpu-architecture' llama.cpp量化介绍 llama.cpp 编...
-
【stable diffusion LORA训练】改进lora-scripts,命令行方式训练LORA,支持SDXL训练
分享下自己改进的一个lora训练脚本,在ubuntu下如果SD-WEBUI的环境已经搭好的话,只需要下载lora-script就可以支持训练了,直接命令行方式训练。 首先,我们需要克隆下项目: git clone https://github.com/...
-
【AI工具】-Stable Diffusion本地化部署教程
前言 今天我们要介绍的是时下最流行的AI绘图软件Stable Diffusion,虽然Diffusion.ai已经开放api,但是长时间的商业化调用我们需要购买很多的金币。所以我们需要找一个平替的AI绘图平台,现在主流市场中AI绘图软件主要就是Open...
-
Stable Diffusion实现之 Huggingface
Stable Diffusion 以及Huggingface的安装实现 介绍: Stable Diffusion AI是指将Stable Diffusion模型应用于人工智能领域的相关技术和方法。通常情况下,Stable Diffusion AI主...
-
[玩转AIGC]如何训练LLaMA2(模型训练、推理、代码讲解,并附可直接运行的kaggle连接)
目录 一、clone仓库 二、数据集下载与处理 1、数据集下载 2、数据集标记化(耗时较长) 三、修改配置 四、开始训练 五、模型推理 六、train.py训练代码讲解 1、导包 2、定义模型训练参数与相关设置 3、加载模型配置 4、迭代...
-
[NLP] 使用Llama.cpp和LangChain在CPU上使用大模型-RAG
一 准备工作 下面是构建这个应用程序时将使用的软件工具: 1.Llama-cpp-python 下载llama-cpp, llama-cpp-python [NLP] Llama2模型运行在Mac机器-CSDN博客 2、LangChain L...
-
20分钟,使用Amazon SageMaker快速搭建属于自己的AIGC应用
真火! 作为最近一段时间人工智能领域内的顶流之一,AIGC(AI-Generated Content)早已火爆出圈,频登各大互联网平台热搜。 cite: 微软亚洲研究院官方微博 这段时间以来,基于深度学习的内容生成在图像、视频、语音、音乐、...
-
爬虫技术——一篇全搞定!
目录: 目录 目录: 1. 爬虫介绍 1.1 爬虫是什么 1.2 爬虫步骤 1.3 爬虫分类 1.3.1 通用爬虫 1.3.2 聚焦爬虫 编辑 1.4 一些常见的反爬手段 2. Urllib 2.1 urllib库的使用 2...
-
AI 作画火了,如何用 Serverless 函数计算部署 Stable Diffusion?
作者:寒斜 立即体验基于函数计算部署 Stable Diffusion: https://developer.aliyun.com/topic/aigc AIGC 领域目前大火, 除了 Chatgpt,在文生图领域 Stable Diffusion...
-
次元裂缝已打开,AI绘画突飞猛进,其潜力究竟有多大
目录 次元裂缝已打开 AI绘画 起源 人工智能画的画在美术比赛得第一名 原理 关键的CLIP 总结 次元裂缝已打开 #次元裂缝已打开#的一个话题火了~大量新人老玩家共赴无界AI 上面是AI绘画根据真实图片合成的图片与真图...
-
stable diffusion硬件要求
硬件要求# 内存# 建议使用不少于 16 GB 内存。在一些情况下,可能需要调高虚拟内存,以容纳模型文件。 存储# 建议准备 40 GB 以上的可用硬盘空间。 显卡# WARNING 注意显卡温度,有报道称显卡太热炸了。 显卡型号#...
-
Stable Diffusion 本地部署详细教程
目录 一、前言 二、系统和硬件要求 三、安装前说明 四、安装步骤 5、升级pip(这是管理python环境软件工具 ,并把资源库换成国内地址为清华镜像。 一、前言 虽然MJ和SD都可以生成图像,但是为什么我们要考...
-
使用 OpenLLM 构建和部署大模型应用
本次分享主题为:使用 OpenLLM 快速构建和部署大语言模型的应用。OpenLLM 是一个开源的大语言模型(LLM)开发框架。它支持多种开源的 LLM 模型,并且具有内建的两个关键的 LLM 优化,能够优化内存使用。此外,它与 LangChain 和...
-
研究称:英特尔Gaudi2技术在大语言模型推理方面媲美英伟达AI加速器
根据 Databricks 的最新研究,英特尔的 Gaudi2技术在大规模语言模型推理方面与业界领先的英伟达 AI 加速器相媲美。该研究发现,Gaudi2在解码方面的延迟与英伟达 H100系统相当,并且优于英伟达 A100。研究还发现,Gaudi2的推理性...
-
高通发布XR2 Gen 2芯片:支持单眼4.3K AI性能提升8倍
快科技1月4日消息,高通发布应用于混合现实(MR)头戴设备的第二代骁龙XR2 平台高通XR2 Gen 2。 据了解,该平台采用单芯片架构,支持90FPS的4.3K显示分辨率的空间计算,远超此前XR2 Gen 2的单眼3K分辨率。 可渲染媲美苹果Visio...
-
开源语音识别faster-whisper部署教程
1. 资源下载 源码地址 模型下载地址: large-v3模型:https://huggingface.co/Systran/faster-whisper-large-v3/tree/main large-v2模型:https://huggingf...
-
[论文笔记] 大模型gpu机器推理测速踩坑 (llama/gpt类)
cpu没报错,换gpu就报错。以下是一些踩坑: 坑1:要指定gpu,可以在import torch之前指定gpu。 model = LlamaForCausalLM.from_pretrained(model_path, trust_remote_co...
-
【2024版】最新保姆级stable diffusion安装教程,小白直接点!一键安装,永久使用,stable diffusion下载安装教程!
关于现在非常红火的AI绘画,很多感兴趣的人不知道如何入手,如果你的电脑配置足够好,那么不要犹豫,让我来教你如何在本地电脑全免费运行当下最强大的AI绘画工具——Stable Diffusion 吧!所以本期给大家带来了全新Stable Diffusion 保...
-
[linux-sd-webui]api化之训练lora
lora的训练使用的文件是https://github.com/Akegarasu/lora-scripts lora训练是需要成对的文本图像对的,需要准备相应的训练数据。 1.训练数据准备 使用deepbooru/blip生成训练数据,建筑类建议使...
-
图灵奖得主Niklaus Wirth逝世,从Euler到Pascal,一代编程巨星陨落
编程祖师爷Niklaus Wirth于1月1日逝世,享年89岁。 他是图灵奖得主,被称为有史以来最伟大的程序员之一,编程语言Pascal、Euler、Algol W、Modula、Modula-2、Oberon、Oberon-2、Oberon-07等均...
-
配置 Stable Diffusion WebUI 纯 CPU 或核显绘画
(如有更新,见原文:https://blog.iyatt.com/?p=12345 1 前言 我笔记本电脑的独显上半年的时候烧掉了,所以只能用 CPU,折腾了一下午总算给配置出来了。我这里用的官方 Python,网上很多教程用 Anaconda(...
-
利用Lama Cleaner本地实现AIGC试玩:擦除对象、替换对象、更换风格等等
目录 一、安装 二、擦除功能 1. LaMa模型 实操实例一:去除路人 实操实例二:去水印 实操实例三:老照片修复 2. LDM模型 3. ZITS模型 4. MAT模型 5. FcF模型 6. Manga模型 三、替换对象功能 1....
-
百度正式推出「文心一言」,然而港股股价已暴跌近 10%,客观来说其能力与 ChatGPT 相较如何?...
击上方关注 “终端研发部” 设为“星标”,和你一起掌握更多数据库知识 本文首发于我的知乎:- 终端研发部的回答 - 知乎 https://www.zhihu.com/question/589941496/answer/293924...
-
手把手教你通过PaddleHub快速实现输入中/英文本生成图像(Stable Diffusion)
近来,基于Diffusion的文图生成模型比较火,用户输入一句话,模型就可以生成一副对应的图像,还是很有意思的。本文记录了通过PaddleHub快速实现上述任务的过程,以供参考。 1、安装PaddlePaddle PaddleHub底层依赖于百度自研的...
-
A卡安装stable diffusion,不废话,直接迈入正题!
在网上看了很多关于A卡安装stable diffusion的方法,用了2天终于安装好了。给大家分享一下安装步骤,希望后面的小伙伴少踩点坑。 先说我的配置 系统 win10 CPU AMD3600 显卡 AMD5700XT 安装前需要配置的环境(已经熟...
-
一个超强 Pytorch 操作!!
哈喽,我是小壮! 这几天关于深度学习的内容,已经分享了一些。 另外,类似于numpy、pandas常用数据处理函数,在Pytorch中也是同样的重要,同样的有趣!! Pytorch同样提供了许多用于数据处理和转换的函数。 今儿来看下,最重要的几个必会函数...
-
4、stable diffusion
github 安装anaconda环境 conda env create -f environment.yaml conda activate ldm 安装依赖 conda install pytorch==1.12.1 torchvision=...
-
kaggle竞赛-Stable Diffusion数据分析与baseline
你的目的是来预测我们生成图像的提示词 1.比赛目标 这个竞赛的目标不是从文本提示生成图像,而是创建一个模型,可以在给定生成图像的情况下预测文本提示(你有一堆提示词,你预测是否该提示词参与了图像的生成)?您将在包含由Stable Diffusion 2....
-
AI绘画Stable Diffusion整合包V4三分钟超快速入门!
本次整合包升级内容 -torch2、xformers0.0.17、cudnn 8.8打开无需任何操作即可满速(包括40系显卡-升级其它各种依赖版本 -预置了Tagger(图反推关键词 的模型-预置了ControlNet、MultiDiffusion插件...
-
【AI绘图】二、stable diffusion环境准备与安装
前一篇:一、stable diffusion的发展史 放一张SD的效果图 硬件配置要求 Stable Diffusion是使用显卡生成图片,对电脑硬件有一定要求。 电脑配置最核心的关键点:看显卡、看内存、看硬盘、看 CPU。 显卡:N 卡(英...
-
Hugging Face使用Stable diffusion Diffusers Transformers Accelerate Pipelines VAE
Diffusers A library that offers an implementation of various diffusion models, including text-to-image models. 提供不同扩散模型的实现的库,代...
-
深度学习实战29-AIGC项目:利用GPT-2(CPU环境)进行文本续写与生成歌词任务
大家好,我是微学AI,今天给大家介绍一下深度学习实战29-AIGC项目:利用GPT-2(CPU环境 进行文本续写与生成歌词任务。在大家没有GPU算力的情况,大模型可能玩不动,推理速度慢,那么我们怎么才能跑去生成式的模型呢,我们可以试一下GPT-2完成一些简...
-
在自定义数据集上微调Alpaca和LLaMA
本文将介绍使用LoRa在本地机器上微调Alpaca和LLaMA,我们将介绍在特定数据集上对Alpaca LoRa进行微调的整个过程,本文将涵盖数据处理、模型训练和使用流行的自然语言处理库(如Transformers和hugs Face 进行评估。此外还将介...
-
ubuntu16.04安装语音识别whisper及whisper-ctranslate2工具(填坑篇)
环境:系统ubuntu16.04,显卡是NVIDIA Quadro RTX5000 目标:安装语音识别工具whipser/whipser-ctranslate2 因之前有过几次在linux和windows上有过部署whisper经验和...
-
谁能撼动Transformer统治地位?Mamba作者谈LLM未来架构
在大模型领域,一直稳站 C 位的 Transformer 最近似乎有被超越的趋势。 这个挑战者就是一项名为「Mamba」的研究,其在语言、音频和基因组学等多种模态中都达到了 SOTA 性能。在语言建模方面,无论是预训练还是下游评估,Mamba-3B 模...
-
堪比Midjourney!上百种风格AI写真丝滑生成,这个开源项目能颠覆照相馆吗?
概览简介 FaceChain 是一个可以用来打造个人数字形象的深度学习模型工具平台。用户仅需要提供最低一张照片即可获得属于自己的个人形象数字替身。结合不同的风格模型和写真模版,可以生成超乎想象空间的个人写真作品。 更有意思的...
-
AI作画工具 stable-diffusion-webui 本地部署 多种模型 可生成NSFW
最近,人工智能绘画非常受欢迎。在本文中,我使用了一台带有N卡的电脑,安装了stable-diffusion-webui前端并替换了默认的模型。这样就可以生成高质量的二次元图像,并且可以不受限制地生成图片(在线版通常会阻止NSFW内容的生成)。 所需资...
-
Stable Diffusion搭建问题记录
1、点击generator生成图片后,直接waiting一段时间后,直接断开没有任何提示! 这个问题是困扰我最久的一个问题,原因:本机开启了代理,代理将127.0.0.1解析到了别的地方,因此控制台无任何异常,前段报了一下类似socket的异常,太坑了,...
-
【AIGC】图片生成的原理与应用
前言 近两年 AI 发展非常迅速,其中的 AI 绘画也越来越火爆,AI 绘画在很多应用领域有巨大的潜力,AI 甚至能模仿各种著名艺术家的风格进行绘画。 目前比较有名商业化的 AI 绘画软件有 Midjourney、DALL·E2、以及百度出品...
-
在autodl算力云上部署Stable Diffusion
这里写自定义目录标题 如何在算力云上部署Stable Diffusion 零、基础环境 一、初始准备,用户权限的设置 1.创建非root管理员用户并改主目录为数据盘 2.删除lock锁 3.更改这两个目录权限 4.改python的用户权限...
-
带你从零开始入门AI绘画神器Stable Diffusion
一、本地部署 Stable diffusion 1. 前言 目前市面上比较权威,并能用于工作中的 AI 绘画软件其实就两款。一个叫 Midjourney(简称 MJ),另一个叫 Stable-Diffusion(简称 SD)。MJ 需要付费使用,而 S...
-
从扫厕所到身家435亿美元!黄仁勋成功秘诀揭秘:从不戴手表
老黄给年轻人的三个建议来了—— 不要停止学习,尽你所能把工作做到最好,以及……不要戴手表? 是的,这就是老黄在华美半导体协会(CASPA)一次问答环节中,为年轻人提供的建议。 热爱每一份工作,「扫厕所」都做到最好 在这个环节中,一位来自Cadence...
-
Llama2推理RTX3090胜过4090,延迟吞吐量占优,但被A800远远甩开
大型语言模型 (LLM 在学界和业界都取得了巨大的进展。但训练和部署 LLM 非常昂贵,需要大量的计算资源和内存,因此研究人员开发了许多用于加速 LLM 预训练、微调和推理的开源框架和方法。然而,不同硬件和软件堆栈的运行时性能可能存在很大差异,这使得选...