-
[从0开始AIGC][Transformer相关]:一文看懂Transformer中的位置编码:绝对位置、相对位置、旋转位置编码
[从0开始AIGC][Transformer相关]:一文看懂Transformer中的位置编码 文章目录 [从0开始AIGC][Transformer相关]:一文看懂Transformer中的位置编码 1. 位置编码 1.1 绝对位...
-
Karpathy 4小时AI大课上线,小白看了都会从零构建GPT-2
距上次Karpathy AI大课更新之后,又有了1个多月的时间。这次他带了超详细的4小时课程——从零开始实现1.24亿参数规模的GPT-2模型。 大神Karpathy新一期AI大课又上线了。 这一次,他讲的内容是——从头开始实现124M大小的GPT-2模型...
-
Stable Diffusion 详细教程
Stable Diffusion是一个概念上类似于Diffusion Models的技术,特别是在生成图像和处理自然语言任务方面。然而,“Stable Diffusion”并不是一个直接对应的具体项目或库名称,如DDPM(Denoising Diffusi...
-
Stable Diffusion webUI 最全且简单配置指南
Stable Diffusion webUI 配置指南 本博客主要介绍部署Stable Diffusion到本地,生成想要的风格图片。 文章目录 Stable Diffusion webUI 配置指南 1、配置环境 (1)pip环境[...
-
AI绘画专栏stablediffusion SDXL小白入门教程 | 提示词教程
本地版本下载启动器 SD启动器2024最新版本下载 链接:https://pan.quark.cn/s/eea6375642fd 常见问题排查 - CUDA out of memory: 炸显存 换启动参数 换显卡 - DefaultC...
-
Stable Diffusion本地部署教程:搭建你的AI图像生成环境
引言 Stable Diffusion作为一种先进的AI图像生成技术,近年来受到了广泛关注。它可以根据用户输入的文本描述,生成与之相符的详细图像。本文将指导你如何在本地环境中部署Stable Diffusion,让你能够亲自体验这一技术的强大功能。 环...
-
- 使用 LMDeploy部署Llama 3
一.环境,模型准备 # 如果你是InternStudio 可以直接使用 # studio-conda -t lmdeploy -o pytorch-2.1.2 # 初始化环境 conda create -n lmdeploy python=3.10 co...
-
Llama模型家族训练奖励模型Reward Model技术及代码实战(三) 使用 TRL 训练奖励模型
LlaMA 3 系列博客 基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (一) 基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (二) 基于 LlaMA 3 + LangGraph 在w...
-
运行stable-diffusion-webui-directml时报RuntimeError: Torch is not able to use GPU的错误解决办法
问题描述 进入stable-diffusion-webui-directml,双击打开webui-user.bat后,显示如下图片提示。 原因分析: 这个错误表明你在尝试使用PyTorch框架在GPU上运行代码,但是PyTorch没有检...
-
Meta Llama 3 使用 Hugging Face 和 PyTorch 优化 CPU 推理
原文地址:meta-llama-3-optimized-cpu-inference-with-hugging-face-and-pytorch 了解在 CPU 上部署 Meta* Llama 3 时如何减少模型延迟 2024 年 4 月 19 日 万...
-
神经网络应用与实战案例详解(AIGC技术方向)
本文收录于专栏:精通AI实战千例专栏合集 https://blog.csdn.net/weixin_52908342/category_11863492.html 从基础到实践,深入学习。无论你是初学者还是经验丰富的老手,对于本专栏案例和项目实践都有参...
-
Llama模型家族之使用 Supervised Fine-Tuning(SFT)微调预训练Llama 3 语言模型(十) 使用 LoRA 微调常见问题答疑
LlaMA 3 系列博客 基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (一) 基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (二) 基于 LlaMA 3 + LangGraph 在w...
-
AI | LLaMA-Factory 一个好用的微调工具
‘’ LLama Factory,这个工具能够高效且低成本地支持对 100 多个模型进行微调。LLama Factory 简化了模型微调的过程,并且易于访问,使用体验友好。此外,它还提供了由 Hiyouga 提供的 Hugging Face 空间,可...
-
Intel三条线优化阿里云通义千问2模型:720亿参数轻松拿捏
快科技6月7日消息,Intel官方宣布,旗下数据中心、客户端、边缘AI解决方案均已经为阿里云通义千问2(Qwen2)的全球发布提供支持,已取得ModelScope、阿里云PAI、OpenVINO等诸多创新成果。 为了最大限度地提升诸通义千问2等大模型的效率...
-
Llama模型家族之使用 Supervised Fine-Tuning(SFT)微调预训练Llama 3 语言模型(一) LLaMA-Factory简介
LlaMA 3 系列博客 基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (一) 基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (二) 基于 LlaMA 3 + LangGraph 在w...
-
探索GGUF:利用llama.cpp高效运行大型语言模型
探索GGUF:利用llama.cpp高效运行大型语言模型 在人工智能领域,大型语言模型(LLM)的应用越来越广泛,但运行这些模型常常需要大量计算资源和复杂的配置。最近,一个名为llama.cpp的开源项目引起了广泛关注,它通过C/C++实现了一个高效的...
-
Stable Diffusion一键安装包启动疑难报错解析:Python 无法找到模块‘urlib’以及其他报错的解决方法
在探索Stable Diffusion(简称SD)这一强大技术的旅程中,我们有时可能会遇到一些始料未及的问题。其中,启动一键安装包时遭遇的“Python 无法找到模块‘urlib’”的报错,就是许多新手用户可能会碰到的一个挑战。 更多内容: 喜好儿网...
-
【Diffusion实战】基于Stable Diffusion实现文本到图像的生成(Pytorch代码详解)
来试试强大的Stable Diffusion吧,基于Stable Diffusion的pipeline,进一步了解Stable Diffusion的结构~ Diffusion实战篇: 【Diffusion实战】训练一个diffusion模型生成...
-
Llama模型家族训练奖励模型Reward Model技术及代码实战(一)
LlaMA 3 系列博客 基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (一) 基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (二) 基于 LlaMA 3 + LangGraph 在w...
-
AIGC-常见图像质量评估MSE、PSNR、SSIM、LPIPS、FID、CSFD,余弦相似度----理论+代码
持续更新和补充中…多多交流! 参考:图像评价指标PNSR和SSIM函数 structural_similarity图片相似度计算方法总结 MSE和PSNR MSE:...
-
斯坦福让“GPU高速运转”的新工具火了,比FlashAttention2更快
AI算力资源越发紧张的当下,斯坦福新研究将GPU运行效率再提升一波—— 内核只有100行代码,让H100比使用FlashAttention-2,性能还要提升30%。 怎么做到的? 研究人员从“硬件实际需要什么?如何满足这些需求?”这两个问题出发,设计了...
-
利用 NVIDIA Riva 快速部署企业级中文语音 AI 服务并进行优化加速
一、Riva 概览 1. Overview Riva 是 NVIDIA 推出的一款 SDK,用于实时的 Speech AI 服务。它是一个高度可定制的工具,并且使用 GPU 进行加速。NGC 上提供了很多预训练好的模型,这些模型开箱即用,可以直接使用...
-
太兴奋了!Stable Diffusion WebUI v1.9.0它来了~重大更新!超详细讲解!
大家好,我是程序员晓晓 距上次 WebUI v1.8的更新发布刚刚过去一个多月,Stable Diffusion WebUI 这次又又又更新了,老徐关注到Stable Diffusion WebUI作者UTOMATIC1111就在前几天在GitHub...
-
Stable Diffusion模型基于 TensorFlow 或 PyTorch 训练
安装必要的软件和库: 安装 Python(建议使用 Python 3.x 版本)。 安装 TensorFlow 或 PyTorch,具体版本取决于你的模型是基于哪个框架训练的。 安装其他可能需要的依赖,如 NumPy、Matplotlib 等。...
-
什么是LLM大模型训练,详解Transformer结构模型
本文分享自华为云社区《LLM 大模型学习必知必会系列(四 :LLM训练理论篇以及Transformer结构模型详解》,作者:汀丶。 1.模型/训练/推理知识介绍 深度学习领域所谓的“模型”,是一个复杂的数学公式构成的计算步骤。为了便于理解,我们以一...
-
零基础也能搞懂卷积神经网络原理!超详细!
相信和笔者一样爱技术对AI兴趣浓厚的小伙伴们,一定对卷积神经网络并不陌生, 也一定曾经对如此“高级”的名字困惑良久。笔者今天将从零开始走进卷积神经网络的世界~与大家分享! 在深入了解卷积神经网络之前,我们先看看图像的原理。 图像原理 图像在计算机中是通...
-
ollama部署体验Chinese-LLaMA-Alpaca-3大模型项目
前言 书接上回:快速评测已有的中文llama-3开源模型(4月25日更新)_llama3-chinese-novel-CSDN博客 虽然Llama-3大模型发布以后,中文适配模型也出了一大堆,但效果都不尽人意,参差不齐。近期,Chinese-LLaMA...
-
LMDeploy高效部署Llama-3-8B,1.8倍vLLM推理效率
Llama 3 近期重磅发布,发布了 8B 和 70B 参数量的模型,LMDeploy 对 Llama 3 部署进行了光速支持,同时对 LMDeploy 推理 Llama 3 进行了测试,在公平比较的条件下推理效率是 vLLM 的 1.8 倍。 书生...
-
【AIGC】本地部署 ollama(gguf) 与项目整合
首先,先跟各位小伙伴说一句 Sorry 。上一篇文章《【AIGC】本地部署通义千问 1.5 (PyTorch 》并没有考虑企业成本问题,虽然代码可以跑通,但是中小型企业想通过该代码实现项目落地还是比较困难的。为此,本文将采用 GGUF 预量化大模型结合 O...
-
7B?13B?175B?解读大模型的参数
大模型也是有大有小的,它们的大小靠参数数量来度量。GPT-3就有1750亿个参数,而Grok-1更是不得了,有3140亿个参数。当然,也有像Llama这样身材苗条一点的,参数数量在70亿到700亿之间。 这里说的70B可不是指训练数据的数量,而是指模型中...
-
不同数据集有不同的Scaling law?而你可用一个压缩算法来预测它
一般而言,训练神经网络耗费的计算量越大,其性能就越好。在扩大计算规模时,必须要做个决定:是增多模型参数量还是提升数据集大小 —— 必须在固定的计算预算下权衡此两项因素。 Scaling law 告诉我们:只要能适当地分配参数和数据,就能在固定计算预算下实...
-
我的stable-diffusion入门
开头 翻到一个感兴趣的帖子,然后开始了这段折腾 载下来用了,发现用的是cpu出图,慢的很,还是需要stable diffusion webui来做,所以就开始找资料 参考链接 找模型:https://civitai.com/https://hug...
-
时间序列模型:lag-Llama
项目地址:GitHub - time-series-foundation-models/lag-llama: Lag-Llama: Towards Foundation Models for Probabilistic Time Series Foreca...
-
Llama 3 Web Demo 部署 && XTuner 小助手认知微调 && LMDeploy 部署 Llama 3 模型 && 五一作业 && 机智流
Llama 3 Web Demo 部署 && XTuner 小助手认知微调 && LMDeploy 部署 Llama 3 模型 && 五一作业 && 机智流 1、 Llama 3...
-
Ubuntu20.04安装配置stable diffusion 超详细教程
1. 搭建Python环境 使用conda创建单独的虚拟环境sd, 打开终端,运行: conda create -n sd python==3.10.9 然后激活环境: conda activate sd 安装torch 查看自己的...
-
LLaMA-Factory 微调训练
LLaMA-Factory 微调训练 该框架功能,标注-微调-导出-合并-部署,一整条流程都有,而且训练时消耗的gpu算力也会小一些 一,安装(推荐在linux中训练,win可以用wsl+docker) git clone https:...
-
Llama 3 模型家族构建安全可信赖企业级AI应用之 CyberSecEval 2:量化 LLM 安全和能力的基准(一)
LlaMA 3 系列博客 基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (一) 基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (二) 基于 LlaMA 3 + LangGraph 在w...
-
stable diffusion的从安装到使用
stable-diffusion,一个免费开源的文生图软件,文章主要讲怎么从源码开始安装,以及使用的方式 git地址:https://github.com/AUTOMATIC1111/stable-diffusion-webui 本人电脑环境win10...
-
Stable Diffusion安装指南(win+Mac)
今天我给大家带来了超强的免费AI绘画工具Stable Diffusion的保姆级安装教程,大家可以自行修炼。 首先我们先介绍一下Stable Diffusion: Stable Diffusion是一个文本到图像的潜在扩散模型,由CompVis、Sta...
-
Llama 3 微调项目实践与教程(XTuner 版)
Llama 3 微调项目实践与教程(XTuner 版) OpenMMLab 2024-04-20 11:37 上海 以下文章来源于InternLM ,作者XTuner InternLM. 以原始创新引领AI大模型技术进步。 Lla...
-
SD好复杂,是不是很糊,一文搞懂Stable Diffusion的各种模型及用户操作界面
这篇文章中对 Stable Diffusion 的各个功能做了详细介绍,今天主要是以一秒内就能生成图片的爆炸性模型 SDXL Turbo的发布为契机,对SD 的各类基础模型:SD 1.x、SD 2.x、SD 1.5、SDXL 1.0和SDXL Turbo,...
-
AI丨部署SadTalker并添加到Stable Diffusion
前言 Stable Diffusion是一种潜在扩散模型(Latent Diffusion Model),能够从文本描述中生成详细的图像。它还可以用于图像修复、图像绘制、文本到图像和图像到图像等任务。 如何配置Stable Diffusion部署本地A...
-
【AIGC】Mac Intel 本地 LLM 部署经验汇总(CPU Only)
书接上文,在《【AIGC】本地部署 ollama(gguf 与项目整合》章节的最后,我在 ollama 中部署 qwen1_5-14b-chat-q4_k_m.gguf 预量化模型,在非 Stream 模式下需要 89 秒才完成一轮问答,响应速度实在是太...
-
Stable Diffusion Web部署报错解决-Windows
项目地址:GitHub - AUTOMATIC1111/stable-diffusion-webui: Stable Diffusion web UI 教程:GitHub-Automatic Installation on Windows 报错:...
-
仅用250美元,Hugging Face技术主管手把手教你微调Llama 3
ChatGPT狂飙160天,世界已经不是之前的样子。 新建了免费的人工智能中文站https://ai.weoknow.com 新建了收费的人工智能中文站https://ai.hzytsoft.cn/ 更多资源欢迎关注 大语言模型的微...
-
Llama 3 五一超级课堂中实践llama3的部署,微调,量化优化部署学习总结:第一部分llama3部署
本次学习分享基于Llama3-Tutorial(Llama 3 超级课堂)分享,git地址如下 GitHub - SmartFlowAI/Llama3-Tutorial: Llama3-Tutorial(XTuner、LMDeploy、OpenCompa...
-
Llama 3 模型家族构建安全可信赖企业级AI应用之使用 Llama Guard 保护大模型对话 (八)
LlaMA 3 系列博客 基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (一) 基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (二) 基于 LlaMA 3 + LangGraph 在w...
-
Llama 3 实践教程(InternStudio 版)
文章目录 Llama3本地 Web Demo部署 初始环境配置 下载模型 Web Demo 部署 XTuner 微调 Llama3 个人小助手 自我认知训练数据集准备 XTuner配置文件准备 训练模型 推理验证 XTuner微调Lla...
-
Stable Diffusion XL优化终极指南
如何在自己的显卡上获得SDXL的最佳质量和性能,以及如何选择适当的优化方法和工具,这一让GenAI用户倍感困惑的问题,业内一直没有一份清晰而详尽的评测报告可供参考。直到全栈开发者Félix San出手。 在本文中,Félix介绍了相关...
-
只需单卡RTX 3090,低比特量化训练就能实现LLaMA-3 8B全参微调
自 2010 年起,AI 技术历经多个重大发展阶段,深度学习的崛起和 AlphaGo 的标志性胜利显著推动了技术前进。尤其是 2022 年底推出的 ChatGPT,彰显了大语言模型(LLM)的能力达到了前所未有的水平。自此,生成式 AI 大模型迅速进入高...