-
llama-factory-0.7.0微调llama3-8B-Instruct-262k
1.摘要 用llama-factory-0.7.0微调Llama-3-8B-Instruct-262k,微调数据是1.5k的论文审稿。 GPU配置是A40. 用llama-factory的0.7.1版本微调Llama-3-8B-Instruct-26...
-
AI初识--LLM、ollama、llama都是些个啥?
LLM全称(large language model)也就是大语言模型 什么是Ollama,它与Llama是什么关系? Ollama是一个开源的 LLM(大型语言模型)服务工具,用于简化在本地运行大语言模型,降低使用大语言模型的门槛,使得大模型的开发者...
-
AI绘图体验:Stable Diffusion本地化部署详细步骤
一、硬件要求 内存:至少16GB 硬盘:至少60GB以上的磁盘空间,推荐SSD固态硬盘 显卡:推荐NVIDIA显卡 显存:至少4GB Stabl Diffusion因为是在本地部署,对显卡的要求比较高,如果经济能力可以的话,建议购买一块性能较好的...
-
如何免费用 Llama 3 70B 帮你做数据分析与可视化?
快速、强悍且免费,你还等啥? Llama 3 的发布,真可谓一石激起千层浪。前两天,许多人还对「闭源模型能力普遍大于开源模型」的论断表示赞同。但是,最新的 LLM 排行榜(https://chat.lmsys.org/?leaderboar...
-
智谱AI 发布最新开源模型GLM-4-9B,通用能力超Llama-3-8B,多模态版本比肩GPT-4V
自 2023 年 3 月 14 日开源 ChatGLM-6B 以来,GLM 系列模型受到广泛关注和认可。特别是 ChatGLM3-6B 开源以后,开发者对智谱AI 第四代模型的开源充满期待。 为了使小模型(10B 以下)具备更加强大的能力,GLM 技术团...
-
Meta Llama 3 性能提升与推理服务部署
利用 NVIDIA TensorRT-LLM 和 NVIDIA Triton 推理服务器提升 Meta Llama 3 性能 我们很高兴地宣布 NVIDIA TensorRT-LLM 支持 Meta Llama 3 系列模型,从而加速和优化您的 L...
-
Llama网络结构介绍
LLaMA现在已经是开源社区里炙手可热的模型了,但是原文中仅仅介绍了其和标准Transformer的差别,并没有一个全局的模型介绍。因此打算写篇文章,争取让读者不参考任何其他资料把LLaMA的模型搞懂。 结构 如图所示为LLaMA的示意图,由Atte...
-
windows下使用midjourney (一)
一、midjourney是什么? midjourney 是一款AI绘画工具,输入描述自动生成图片。 二、使用步骤 1.安装anaconda 安装之前先在cmd里输入conda看下有没有安装过,没有的话安装一下 安装完成之后,在安装目录下找到....
-
windows11搭建 stable-diffusion-webui
2024年5月22日23:46:57 建议电脑配置 电脑配置: Intel® Core™ Ultra 5 125H 1.20 GHz 32.0 GB (31.6 GB 可用 系统:windows11 注意:最好挂上外网,或者设置好访问github的...
-
大模型理解复杂表格,字节&中科大出手了
只要一个大模型,就能解决打工人遇到的表格难题! 字节联手中科大推出了一款统一表格理解大模型,可以以用户友好的方式解决多种表格理解任务。 同时提出的还有一套开源测试基准,可以更好地评估模型在表格理解任务上的表现。 该模型名为TabPedia,利用多模态大模...
-
Stable diffusion的SDXL模型,针不错!(含实操)
与之前的SD1.5大模型不同,这次的SDXL在架构上采用了“两步走”的生图方式: 以往SD1.5大模型,生成步骤为 Prompt → Base → Image,比较简单直接;而这次的SDXL大模型则是在中间加了一步 Refiner。Refin...
-
mac安装Stable Diffusion
昨天帮别人安装Stable Diffusion,按照别人的文档设置发现一直报错,最后发现是需要先把模型下载好了放置到模型的文件夹后再运行安装。今天就写下整个安装过程。 1、安装Homebrew 复制到终端直接回车运行如下: /bin/bash -c...
-
Llama 3 CPU推理优化指南
备受期待的 Meta 第三代 Llama 现已发布,我想确保你知道如何以最佳方式部署这种最先进的 (SoTA LLM。在本教程中,我们将重点介绍如何执行仅权重量化 (WOQ 来压缩 8B 参数模型并改善推理延迟,但首先,让我们讨论一下 Meta Lla...
-
用 Unsloth 微调 LLaMA 3 8B
用 Unsloth 微调 LLaMA 3 8B 今年4月份,Meta 公司发布了功能强大的大型语言模型(LLM)Llama-3,为从事各种 NLP 任务的开发人员提供了功能强大可以在普通机器上运行的开源LLM。然而,传统的 LLM 微调过程既耗时又耗费资...
-
LLaMa大模型微调
1. 模型的微调 1.1 大模型LLaMa下载 先下载一个完整版本的LLaMa模型,官网的或别人下载微调过的中文版本的。 1.2 指令微调 执行run_clm_sft_with_peft 1.3 合并LORA 大模型的原始参数和微调后的参数...
-
运行stable-diffusion出现的问题(1)
Checkout your internet connection or see how to run the library in offline mode at ‘https://huggingface.co/docs/transformers/ins...
-
stable diffusion官方版本复现
踩了一些坑,来记录下 环境 CentOS Linux release 7.5.1804 (Core 服务器 RTX 3090 复现流程 按照Stable Diffusion的readme下载模型权重、我下载的是stable-diffusio...
-
羊驼系列大模型LLaMa、Alpaca、Vicuna
羊驼系列大模型:大模型的安卓系统 GPT系列:类比ios系统,不开源 LLaMa让大模型平民化 LLaMa优势 用到的数据:大部分英语、西班牙语,少中文 模型下载地址 https://huggingface.co/meta-llama...
-
使用 Amazon SageMaker 微调 Llama 2 模型
本篇文章主要介绍如何使用 Amazon SageMaker 进行 Llama 2 模型微调的示例。 这个示例主要包括: Llama 2 总体介绍 Llama 2 微调介绍 Llama 2 环境设置 Llama 2 微调训练 前言...
-
手机流畅运行470亿大模型:上交大发布LLM手机推理框架PowerInfer-2,提速29倍
苹果一出手,在手机等移动设备上部署大模型不可避免地成为行业关注焦点。 然而,目前在移动设备上运行的模型相对较小(苹果的是3B,谷歌的是2B),并且消耗大量内存,这在很大程度上限制了其应用场景。 即使是苹果,目前也需要与OpenAI合作,通过将云端GPT-4...
-
AI绘画Stable Diffusion 制作幻术光影字:使用Brightness亮度控制模型,超简单!
大家好,我是灵魂画师向阳。 今天给大家分享的教程是利用AI工具Stable Diffusion 制作光影文字。这是一种通过模拟自然光线照射和阴影效果,使文字看起来具有立体感和逼真感的设计风格。 它的主要目的是让文字自然的融合在场景中。 先来看组实例图...
-
基于 langchain 和大语言模型 (LLM) 的自然语言数据库查询系统 (RAG)——data copilot
data-copilot ✨ 基于 langchain 和大语言模型 (LLM 的自然语言数据库查询系统 (RAG 通过自然语言提问,使用大语言模型智能解析数据库结构,对数据进行智能多表结构化查询和统计计算,根据查询结果智能绘制多种图表。 Pyw...
-
Llama 3 模型上下文长度扩展至1048K
AI苏妲己: Gradient AI 近日宣布,通过其创新的渐进式训练方法,成功将 Llama 3 系列模型的上下文长度扩展至超过100万令牌。 Llama 3 模型最初设计用于处理8000个令牌的上下文长度,这大约相当于6000字或10页文档。为了适...
-
diffusers flask streamlit或gradio 简洁可视化AIGC文生图页面
参考: https://python-bloggers.com/2022/12/stable-diffusion-application-with-streamlit/ https://github.com/LowinLi/stable-diffusion...
-
超详细!AI 绘画神器 Stable Diffusion 基础教程_stable diffusion ai怎么用
HED 边缘检测 跟 Canny 类似,但自由发挥程度更高。HED 边界保留了输入图像中的细节,绘制的人物明暗对比明显,轮廓感更强,适合在保持原来构图的基础上对画面风格进行改变时使用。 Scribble 黑白稿提取 涂鸦成图,比 HED 和 Ca...
-
Stable Diffusion webUI 最全且简单配置指南
Stable Diffusion webUI 配置指南 本博客主要介绍部署Stable Diffusion到本地,生成想要的风格图片。 文章目录 Stable Diffusion webUI 配置指南 1、配置环境 (1)pip环境[...
-
在嵌入式处理器Jetson Orin上使用Whisper做语音内容识别(3)
1、简介 Nvidia的GPU+CUDA架构在大算力时代遥遥领先毫无疑问了,其通用的硬件特性使得它不再是以往的“显卡”,算力强大并且支持各种AI,软件生态的应用方式基本可以照搬PC端。相比于特定的核心NPU,它显得更加灵活,系统和显存的共用在带宽上有明显...
-
一键部署、开箱即用的Stable Diffusion云平台-仙宫云
1. 重磅更新,解决核心问题 之前参加AI写真快闪活动时,教学视频只有几分钟,但自己实操时,仅准备环境、上传下载文件就要花几个小时,甚至一两天,苦不堪言。但近期仙宫云重磅上线的资源中心,完美解决了stable diffusion模型、Lora等大文件下载...
-
LLaMA详细解读
LLaMA 是目前为止,效果最好的开源 LLM 之一。精读 LLaMA 的论文及代码,可以很好的了解 LLM 的内部原理。本文对 LLaMA 论文进行了介绍,同时附上了关键部分的代码,并对代码做了注释。 摘要 LLaMA是一个系列模型,模型参数量从7B...
-
五一 Llama 3 超级课堂 | XTuner 微调 Llama3 图片理解多模态 实践笔记
基于 Llama3-8B-Instruct 和 XTuner 团队预训练好的 Image Projector 微调自己的多模态图文理解模型 LLaVA。 课程文档:Llama3-Tutorial/docs/llava.md at main · Smart...
-
深入浅出学习Stable diffusion之ADetailer面部修复
今天们一起学习ADetailer(面部修复 ,文末扫码可获取全部详细资料。 首先在SD的页面我们可以找到这个插件: 这个功能的详细描述为:使用检测模型自动检测、遮罩和修复。 ADetailer 是稳定扩散 webui 的扩展,类似于 Detect...
-
AI-windows下使用llama.cpp部署本地Chinese-LLaMA-Alpaca-2模型
文章目录 Llamp.cpp环境配置 Chinese-LLaMA-Alpaca-2模型介绍 模型下载 转换生成量化模型 Anaconda环境安装 运行 Llamp.cpp环境配置 git clone git@...
-
大模型系列:LLaMA大模型简述和本地部署实践
内容摘要 LLaMA大模型背景介绍 LLaMA网络结构相比Transformer的改进 LLaMA中文化Atom大模型简述 在Python中调用HuggingFace LLaMA模型 基于text-generation-webui部署LLaMA问答平...
-
20K star!搞定 LLM 微调的开源利器LLaMA Factory
20K star!搞定 LLM 微调的开源利器LLaMA Factory 关于LLM 微调 优化型技术 计算型技术 LLaMA Factory 是什么 使用 LLaMA Factory 模型导出 LLaMA-Factory 结构 总结 项目...
-
Stable Diffusion + Segment Anything试用
安装 从continue-revolution/sd-webui-segment-anything安装插件 分割模型下载后放到这个位置:${sd-webui}/extension/sd-webui-segment-anything/models/sa...
-
Llama.cpp大模型量化简明手册
大型语言模型 (LLM ,尤其是像 Mixtral 8x7b(467 亿个参数)这样的大型模型,对内存的要求非常高。当你尝试降低推理成本、提高推理速度或在边缘设备上进行推理时,这种内存需求就会变得明显。解决此问题的一个潜在方法是量化。在本文中,我们将使用易...
-
无码高清?Stable DIffusion教程 | 如何利用 Stable Diffusion webui 将图片变得更清晰?全方位对比4种放大方法!
大家好,我是大师兄 1、引言 “高分放大”(有时候也叫“超分放大”或“高清修复”)描述了在确保图像清晰度的前提下提升图片分辨率的过程。例如,将一张512 x 512的图片放大四倍,得到的就是2048 x 2048分辨率的图片,这个过程不仅放大了图片尺寸...
-
llama-factory SFT 系列教程 (四),lora sft 微调后,使用vllm加速推理
文章目录 文章列表: 背景 简介 llama-factory vllm API 部署 融合 lora 模型权重 vllm API 部署 HuggingFace API 部署推理 API 部署总结 vllm 不使用 API 部署,直接推理...
-
国产大模型最近挺猛啊!使用Dify构建企业级GPTs;AI阅读不只是「总结全文」;我的Agent自媒体团队;官方AI绘画课完结啦! | ShowMeAI日报
?日报&周刊合集 | ?生产力工具与行业应用大全 | ? 点赞关注评论拜托啦! ? 大模型近期重大进展:百川、讯飞、智源发布新模型,GLM-4、DeepSeek上线开放平台,Google Bard 反超,Mixtral medium 泄...
-
Stable Diffusion基本教程 :ControlNet控图功能
ControlNet 官方模型,最早时候开源的模型只有 depth、hed、normal、scribble、seg、openpose、mlsd、canny 这 8 种,随着这半年的迭代已经更新到 14 种之多。每种模型都有各自的特点,对新手来说想每个都完全...
-
【推理框架】超详细!AIGC面试系列 大模型推理系列(1)
本期问题聚焦于大模型的推理框架 本期问题快览 有哪些大模型推理框架 了解vllm吗 介绍下vllm的核心技术 了解faster transformer吗 介绍下faster transformer的核心技术 了解Xinference吗 了解l...
-
探索未来网页浏览的新型助手——WebLlama
探索未来网页浏览的新型助手——WebLlama 项目地址:https://gitcode.com/McGill-NLP/webllama ?? WebLlama ? 构建能遵循指令并与您对话的网络浏览代理 | ? GitHub | ?...
-
AI绘画Stable Diffusion【ControlNet】:使用InstantID插件实现人物角色一致性
大家好,我是阿威。 今天我们介绍一下InstantID。它能够实现在保持高保真度身份保留的同时,仅使用单张面部图像参考就可以实现个性化图像合成,并且支持各种不同的风格。 今天我们就来看看在Stable Diffusion的ControlNet插件中In...
-
AI绘画Stable DIffusion教程 | 如何利用 Stable Diffusion webui 将图片变得更清晰?全方位对比4种放大方法!
大家好,我是程序员晓晓 1、引言 “高分放大”(有时候也叫“超分放大”或“高清修复”)描述了在确保图像清晰度的前提下提升图片分辨率的过程。例如,将一张512 x 512的图片放大四倍,得到的就是2048 x 2048分辨率的图片,这个过程不仅放大了图...
-
LLaMA3(Meta)微调SFT实战Meta-Llama-3-8B-Instruct
LlaMA3-SFT LlaMA3-SFT, Meta-Llama-3-8B/Meta-Llama-3-8B-Instruct微调(transformers /LORA(peft /推理 项目地址 https://github.com/yong...
-
在本地跑一个AI模型(5) - Stable Diffusion
在之前的文章中,我们使用ollama在本地运行了大语言模型,它可以与你聊天,帮助你理解和生成文本内容。使用coqui-tts在本地运行了文本转语音模型,它可以将大语言模型生成的文字转换成语音,让你的应用更有趣。今天我们将要介绍Stable Diffusio...
-
Stable Diffusion教程|一篇讲透Controlnet实用高阶组合用法
本文将教会你,如何利用多个controlnet组合以及一些最新的SD插件,来精准的控制画面,生成角色三视图、光源和颜色控制、替换背景,控制手脚完美生成等极具实用性的高级技巧,更多内容详见目录。 笔者研究了不同的controlnet组合和参数调整,踩了...
-
AI绘画Stable Diffusion模型推荐,为什么我建议你使用DreamShaper XL!
DreamShaper XL 是一款通用型 SD 模型,旨在擅长处理各种类型的图像生成,包括照片、艺术、动漫和漫画。它被设计用来与其他模型竞争,例如 SDXL 1.0。 DreamShaper XL 是一个功能强大且多用途的模型,适用于各种创作需求。当前...
-
Stable Diffusion【ControlNet】:使用InstantID插件实现人物角色一致性
大家好, 今天我们来看看在Stable Diffusion的ControlNet插件中InstantID模型的使用。(文末附资料) 一. InstantID介绍 InstantID 使用 InsightFace 从参考人脸中检测、裁剪和提取人脸em...
-
无需搭建环境,零门槛带你体验Open-Sora文生视频应用
案例体验 ?* 本案例需使用 Pytorch-2.0.1 GPU-V100 及以上规格运行 ?* 点击Run in ModelArts,将会进入到ModelArts CodeLab中,这时需要你登录华为云账号,如果没有账号,则需要...