-
AuraFlow:超越Stable Diffusion 3,开源文生图模型的未来之星
前沿科技速递? 开源创新先锋fal.ai携手社区顶尖开发者,震撼发布AuraFlow v0.1——全球首个完全开源的大型整流流文本到图像生成模型,开启文生图领域新篇章! 极致开源精神:AuraFlow v0.1作为对Stable Diffusion...
-
llama.cpp本地部署大模型
llama.cpp 是一个C++库,用于简化LLM推理的设置,它使得在本地机器上运行大模型(GGUF格式)成为可能。 官网:https://github.com/ggerganov/llama.cpp 模型库: https://huggingface...
-
【AIGC半月报】AIGC大模型启元:2024.09(上)
【AIGC半月报】AIGC大模型启元:2024.09(上) (1 OCR-2.0(旷视科技) (2 MiniCPM 3.0(面壁智能) (3 RAGLAB(RAG框架) (4 Reflection 70B(HyperWrite)...
-
LLaMA-Factory仓基础功能架构及NPU/GPU环境实战演练
LLaMA-Factory 基础篇 LLaMA-Factory简介 LLaMA-Factory是一个开源的大规模语言模型微调框架,设计用于简化大模型的训练过程。它提供了一个统一的平台,支持多种大模型的微调,包括LLaMA、BLOOM、Mist...
-
如何部署Meta开源大模型Llama2,转换为Huggingface模型的权重文件
如何部署Meta开源大模型Llama2 一、申请下载权限 通过Meta AI官网(https://llama.meta.com/llama-downloads/ 申请下载权限,注意Country/Region选择这里,可能会影响审查速度吧,...
-
AI终于会画手了!AI绘画最强开源工具FLUX测试与安装
大家好,我是SD教程菌 此前发布的Stable Diffusion 3模型,因为过度审核,导致人体结构的生成能力“退步”,被喷得不轻。 现在一款优秀的平替出现了,那就是黑森林实验室的FLUX模型,该团队由Stability AI前核心成员组成。FLUX...
-
四个节点即可实现的ComfyUI批量抠图工作流
原文链接:ComfyUI面部修复完全指南 (chinaz.com 下图就是批量抠图的工作流 虽然工作流很简单,但是我们前提还是需要安装好我们的节点 首先安装我们的抠图节点 安装 BiRefNet 所需依赖:timm,如已安装无需运行 r...
-
在纯净的虚拟机上安装及使用Stable Diffusion WebUI
一、环境准备 1、创建一台纯净的虚拟机 2、安装驱动 3、下载安装Anaconda 二、部署stable-diffusion-webui 1、Linux 上的自动安装 2、导航到您想要安装 webui 的目录并执行以下命令: 3、执行...
-
24年保姆级教程!关于Stable diffusion的各种模型,看这篇就可以了!
前言 在第一次接触SD的时候,我就被里面的模型搞到头大,不仅有多种模型后缀,模型之间也有很多种类型,如果是新手小白的话,在这一步就很容易被搞晕。而在本期文章,技术巫帮你系统梳理了SD的模型,相信不管是对于小白还是老手,都会有一定帮助! 一、从模型后...
-
解决llama_index中使用Ollama出现timed out 问题
现象: File "~/anaconda3/envs/leo_py38/lib/python3.8/site-packages/httpx/_transports/default.py", line 86, in map_httpcore_excep...
-
【AI绘画】掌握AI创作神器:10分钟搞定ComfyUI和Flux大模型,零基础也能学会
大家好,我是SD教程菌。 最近大火的Flux 1.0模型,大家都去体验过没? 此模型是由SD的前员工创立的黑森林实验室推出,一经推出,业界掀起了非常大的反响,相关从业人员都感叹模型可以媲美甚至赶超SD了;现象级的成为了现在很多AI从业者的首选作图模型;...
-
基于LLaMA-Factory微调llama3成为一个角色扮演大模型,保姆级教学零基础,导出GGUF格式前篇
训练私有本地大模型需求量越来越高了, 今天就从零基础开始,不讲原理,只看结果的来完整走一遍如何训练llama3成为角色扮演,先培养兴趣,后面有需要再补充原理 (1)准备环境 推荐:使用云计算机(当然4090高配大佬请忽略) 这不是广告!不是广告!你...
-
【英伟达玩转剪枝、蒸馏:把Llama 3.1 8B参数减半,性能同尺寸更强】
系列文章目录 提示:这里可以添加系列文章的所有文章的目录,目录需要自己手动添加 提示:写完文章后,目录可以自动生成,如何生成可参考右边的帮助文档 文章目录 系列文章目录 前言 最近,英伟达研究表明,结构化权重剪枝与知识蒸馏相结...
-
笔记本本地部署100b以上千亿级别LLM,并在手机端接入
前言 本文将演示如何在笔记本上运行千亿级模型,后端 Koboldcpp 运行在 Ubuntu ,前端界面使用安卓手机通过 Termux 且使用 SillyTavern 进行连接,模型使用 104B 的 Command R Plus 的 Q4KM 量化,...
-
混合专家模型(MoE)入门
模型规模是提升LLM大语言模型性能的关键因素,但也会增加计算成本。Mixture of Experts (MoE 架构通过分布式专家层和动态门控机制,有效降低了计算资源,使模型能够在扩展参数规模的同时保持高效的运行。 Mixtral of Exper...
-
Llama-factory的yaml配置参数--学习记录
最近llama-factory的配置参数有很多不懂的地方,整理了一些但也有可能有错,仅供大家参考。 # 可选参数 # 模型和适配器相关 --adapter_name_or_path # 描述: 适配器的名称或路径。 --adapter_folder...
-
第三十五篇-各大模型测评地址和说明集合
1.Open LLM Leaderboard - 开放式LLM排行榜 测评地址:https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard 说明:使用Eleuther...
-
Stable Diffusion WebUI 使用ControlNet:IP-Adapter保持生图的角色一致性
IP-Adapter-FaceID可以在保持人脸一致的条件下生成各种风格的图像。 下载 IP Adapter 需要的 Face ID 模型和 Lora 下载地址:https://huggingface.co/h94/IP-Adapter-FaceID/...
-
FLUX 1 将像 Stable Diffusion 一样完整支持ControlNet组件
之前 InstantX 团队做的多合一的 Flux ControlNet 现在开始和 ShakkerAI 合作并推出了:Shakker-Labs/FLUX.1-dev-ControlNet-Union-Pro 该模型支持 7 种控制模式,包括 canny...
-
大模型之二十七-语音识别Whisper实例浅析
Whisper简介 Whisper是OpenAI于2022年9月开源的一个多语种识别模型,目前支持99种语言,是目前性能最好的开源多语种识别ASR大模型,第一版版使用了68万小时标注好的语料预训练模型,而large-v3的标注数据超过了500万小时,其...
-
如何在家用设备上运行 Llama 3.1 405B?搭建 AI 集群
在开放式 LLM 模型和封闭式 LLM 模型之间的竞争中,开放式模型的最大优势是您可以在本地运行它们。除了电力和硬件成本外,您无需依赖外部提供商或支付任何额外费用。但是,随着模型大小的增加,这种优势开始减弱。运行需要大量内存的大型模型并不容易。幸运的是,张...
-
DIFFUSION 系列笔记| Latent Diffusion Model、Stable Diffusion基础概念、数学原理、代码分析、案例展示
目录 Latent Diffusion Model LDM 主要思想 LDM使用示例 LDM Pipeline LDM 中的 UNET 准备时间步 time steps 预处理阶段 pre-process 下采样过程 down sampl...
-
重磅!Stable Diffusion创始团队推出FLUX.1:一夜颠覆MJ v6,DALL·E 3,SD3!
前言 Stable Diffusion 大家已经很熟悉了,是由 CompVis 团队开发的,这是一个隶属于德国慕尼黑大学的计算机视觉研究小组。该团队由多个研究人员和开发者组成,包括 Patrick Esser、Robin Rombach 和 Bjö...
-
基于大模型的原神对话系统尝试
一.简介 该项目为一次大模型+游戏的尝试,成功实现了一个与原神内角色的对话系统。 演示视频:https://www.bilibili.com/video/BV1b48CeuELL github地址:https://github.com/goodlu...
-
爆了,Llama 3.5 405B 爆超GPT-4o,参数直接飙到405B,开源终于战胜了闭源大模型GPT-4o
赶超 GPT-4o,最强大模型 Llama 3.1 405B 一夜封神,扎克伯格:开源引领新时代 就在刚刚,Meta 如期发布了 Llama 3.1 模型。 简单来说,最新发布的 Llama 3.1 405B 是 Meta 迄今为止最强大的模型,也...
-
LLM之基于llama-index部署本地embedding与GLM-4模型并初步搭建RAG(其他大模型也可,附上ollma方式运行)
前言 日常没空,留着以后写 llama-index简介 官网:https://docs.llamaindex.ai/en/stable/ 简介也没空,以后再写 注:先说明,随着官方的变动,代码也可能变动,大家运行不起来,可以进官网查查资料...
-
【技术前沿】Flux.1部署教程入门--Stable Diffusion团队最前沿、免费的开源AI图像生成器
项目简介 FLUX.1 是一种新的开源图像生成模型。它由 Stable Diffusion 背后的团队 Black Forest Labs 开发。 官网中有以下功能开源供大家参考: FLUX.1 擅长在图像中准确再现文字,因此非常适合需要清晰文字或...
-
Llama 3.1 405B:4050亿参数史上最强开源大模型
01 。 概述 Meta公司推出了其最大的开源人工智能模型——Llama 3.1 405B,拥有4050亿个参数,与GPT-4o和Claude 3.5 Sonnet相媲美。该模型在16000个Nvidia H100 GPU上训练而成,现已在云平台上可用,...
-
Stable-Diffusion1.5
SD1.5权重:https://huggingface.co/runwayml/stable-diffusion-v1-5/tree/main SDXL权重:https://huggingface.co/stabilityai/stable-diffus...
-
Stable Diffusion 常用模型下载与说明(保姆级)
那么,接下来我们就要学习怎么使用Stable Diffusion 中最重要的各类模型了。 因为,相比于Midjourney,Stable Diffusion最大的优势就是开源。相比于Midjourney靠开发人员开发的少数模型,SD则每时每刻都有人在世界...
-
笑疯了,AI换装大法让奥特曼都性感起来了。
最近两天,我的X被一个AI虚拟换衣项目给刷屏了。 然后,冒出来了各种奇奇怪怪的图片。 比如皮衣老黄直接爆改成可爱硬汉。 还有整活必备人物特朗普。 你别说,特朗普和这衣服的适配度还挺高。 我居然觉得生成的图片毫无违和感。 接下来出场的,是性感版奥特曼。...
-
llama.cppllama.cpp 是一个C++库,用于简化LLM推理的设置。它使得在本地机器上运行Qwen成为可能。该库是一个纯C/C++实现,不依赖任何外部库,并且针对x86架构提供了AVX、
llama.cpp llama.cpp - Qwen llama.cpp 是一个C++库,用于简化LLM推理的设置。它使得在本地机器上运行Qwen成为可能。该库是一个纯C/C++实现,不依赖任何外部库,并且针对x86架构提供了AVX、AVX2和AVX5...
-
Flux【基础篇】:分享一些可以在线体验Flux.1模型的网站
大家好我是安琪!!! 自Blank Forest Labs(黑森林实验室 8月1日重磅发布文生图开源大模型Flux以来,在AI绘画领域立即引起了很大的反响。鉴于目前很多小伙伴可能本地电脑配置稍微有些不足,而且不熟悉ComfyUI的部署,导致无法体验。今天...
-
6小时完成Llama 3.1-8B适配并开源!MindSpore Transformers大模型套件使能开发者创新
北京时间7月24号, Meta 正式发布 Llama 3.1开源大语言模型, 包含8B、70B 及 405B 参数版本。其中的Llama 3.1 405B模型,在多项基准测试中可以媲美GPT4、Claude3.5等目前最强的闭源大模型。此外,8B 与 70...
-
全球3.5亿下载量破纪录! Llama家族暴涨10倍,开源帝国掀AI革命
【新智元导读】诞生一年半,Llama家族早已稳坐开源界头把交椅。最新报告称,Llama全球下载量近3.5亿,是去年同期的10倍。而模型开源让每个人最深体会是,token价格一降再降。 Llama一举成为世界开源的领头羊。 截至目前,Llama模型在开源平台...
-
阿里重磅开源Qwen2-VL:能理解超20分钟视频,媲美GPT-4o!
阿里巴巴开源了最新视觉多模态模型Qwen2-VL,根据测试数据显示,其72B模型在大部分指标超过了OpenAI的GPT-4o,Anthropic的Claude3.5-Sonnet等著名闭源模型,成为目前最强多模态模型之一。 Qwen2-VL支持中文、英文、...
-
【AutoencoderKL】基于stable-diffusion-v1.4的vae对图像重构
模型地址:https://huggingface.co/CompVis/stable-diffusion-v1-4/tree/main/vae 主要参考:Using-Stable-Diffusion-VAE-to-encode-satellite-imag...
-
ViT篇外:NVIDIA Llama-3.1-Minitron 4B
相关阅读: ViT:3 Compact Architecture MobileLLM:“苗条”的模型比较好! 大家也许会很好奇为什么在ViT章节插入了NVIDIA Llama-3.1-Minitron 4B,ViT因为应用场景的特殊性所以都寄...
-
笔记本电脑本地部署ollama大模型(显存不足调用CUDA Unified Memory方法)
软硬件:win11,NVIDIA GeForce RTX 3050 显存4g 一.ollama模型最低要求 1. Llama 3.1 (8B 模型 GPU: 至少需要 1 张具有 16 GB 显存的 GPU(例如 NVIDIA Tesla V1...
-
微调LLama 3.1——七月论文审稿GPT第5.5版:拿早期paper-review数据集微调LLama 3.1
前言 为更好的理解本文,建议在阅读本文之前,先阅读以下两篇文章 七月论文审稿GPT第2版:用一万多条paper-review数据微调LLaMA2 7B最终反超GPT4 提升大模型数据质量的三大要素:找到早期paper且基于GPT摘要出来7方面revi...
-
AIGC:clip-interrogator
文字生成图片是近年来多模态和大模型研究的热门方向,openai提出的CLIP提供了一个方法建立起了图片和文字的联系,但是只能做到给定一张图片选择给定文本语义最相近的那一个,实际项目开发中我们总是需要从一张图片获取描述,clip-interrogator应运...
-
最强终端部署的多模态MiniCPM-V模型部署分享(不看后悔)
MiniCPM-V模型是一个强大的端侧多模态大语言模型,专为高效的终端部署而设计。 目前该模型有MiniCPM-V 1.0、MiniCPM-V 2.0和MiniCPM-Llama3-V 2.5版本。 MiniCPM-V 1.0模型:该模型系列第一个版本...
-
WhisperS2T:加速语音转文本的高效解决方案
WhisperS2T:加速语音转文本的高效解决方案 WhisperS2TAn Optimized Speech-to-Text Pipeline for the Whisper Model Supporting Multiple Inference E...
-
快速体验LoRA微调Llama3-8B模型以及海光DCU推理加速(曙光超算互联网平台国产异构加速卡)
序言 本文以 LLaMA-Factory 为例,在超算互联网平台SCNet上使用异构加速卡AI 显存64GB PCIE,对 Llama3-8B-Instruct 模型进行 LoRA 微调、合并和推理。 一、参考资料 github仓库代码:LLaM...
-
Stable Diffusion学习指南【ControlNet下篇】- 超全面控图类型&模型拆解
(注:文末扫码获取AI工具安装包和AI学习资料) 以下是正文部分 在上一篇里我已经为大家介绍了关于ControlNet的基本功能、安装和使用技巧,相信大家对这款神级插件已经有了基本认识,今天我会为大家更详细的介绍14种官方控图模型的差异和使用技巧,以及...
-
Llama改进之——分组查询注意力
引言 今天介绍LLAMA2模型引入的关于注意力的改进——分组查询注意力(Grouped-query attention,GQA 1。 Transformer中的多头注意力在解码阶段来说是一个性能瓶颈。多查询注意力2通过共享单个key和value头,同...
-
Llama 3.1 - 405B、70B 和 8B 的多语言与长上下文能力解析
Llama 3.1 发布了!Llama 3.1 有三种规格: 8B 适合在消费者级 GPU 上进行高效部署和开发,70B 适合大规模 AI 原生应用,而 405B 则适用于合成数据、大语言模型 (LLM 作为评判者或蒸馏。这三个规格都提供基础版和指令调优...
-
纯C/C++实现的Stable Diffusion项目介绍及快速启动指南
纯C/C++实现的Stable Diffusion项目介绍及快速启动指南 stable-diffusion.cppStable Diffusion in pure C/C++项目地址:https://gitcode.com/gh_mirrors/st/...
-
vllm 聊天模板
vllm 聊天模板 背景 如何使用chat template generation prompt & add_generation_prompt chat templates的额外输入 工具使用 / 函数调用 Chat Template...
-
ComfyUI中的sam模型国内下载方法
was-node-suite-comfyui这个节点安装的时候,有它内部的config配置文件,里面其实给了一些下载地址,配置文件里是这么写的: "sam_model_vith_url": "https://dl.fbaipublicfiles.com/...