-
Stable Diffusion教程|Controlnet插件详解和实战
不知道你是否发现,无论你再怎么精确使用文本提示词来指导SD模型,也无法描述清楚人物的四肢角度、背景中物体位置等等,因为文字的表达能力很有限。那么有没有一种通过图像特征来为扩散模型生成过程提供更加精细控制的方式,答案是肯定,那就是ControlNet! 目...
-
AI绘画:使用Stable Diffusion ComfyUI进行换脸:IPAdapter FaceID全面教程
在数字艺术和媒体编辑领域,换脸技术已经成为一种流行且强大的工具。它允许创作者将一个人物的面部特征无缝地转移到另一个人物上,创造出令人信服的视觉作品。Stable Diffusion ComfyUI提供了一个高效的平台,让用户能够轻松地实现换...
-
Stable Diffusion基础:ControlNet之重新上色(黑白照片换新颜)
本文给大家分享 Stable Diffusion 的基础能力:ControlNet 之重新上色。 这是一个最近新上的 ControlNet 模型,它可以识别图像中的不同区域,并使用不同的颜色重新绘制它们。 安装 ControlNet 安装 工欲善其...
-
使用 LLaMA Factory 微调 Llama-3 中文对话模型
原文:https://colab.research.google.com/drive/1d5KQtbemerlSDSxZIfAaWXhKr30QypiK?usp=sharing#scrollTo=gf60HoT633NY 请申请一个免费 T4 GPU 来...
-
Stable Diffusion Web部署报错解决-Windows
项目地址:GitHub - AUTOMATIC1111/stable-diffusion-webui: Stable Diffusion web UI 教程:GitHub-Automatic Installation on Windows 报错:...
-
在树莓派上运行语音识别和LLama-2 GPT!
目前,绝大多数大模型运行在云端服务器,终端设备通过调用api的方式获得回复。但这种方式有几个缺点:首先,云api要求设备始终在线,这对于部分需要在无互联网接入的情况运行的设备很不友好;其次,云api的调用需要消耗流量费,用户可能不想支付这部分费用;最后,如...
-
Llama中文大模型-模型预训练
Atom系列模型包含Atom-7B和Atom-13B,基于Llama2做了中文能力的持续优化。Atom-7B和Atom-7B-Chat目前已完全开源,支持商用,可在Hugging Face仓库获取模型:https://huggingface.co/Flag...
-
Llama 3 安装使用方法
Llama3简介: llama3是一种自回归语言模型,采用了transformer架构,目前开源了8b和70b参数的预训练和指令微调模型,400b正在训练中,性能非常强悍,并且在15万亿个标记的公开数据进行了预训练,比llama2大了7倍,距离llam...
-
Llama 3 实践教程(InternStudio 版)
文章目录 Llama3本地 Web Demo部署 初始环境配置 下载模型 Web Demo 部署 XTuner 微调 Llama3 个人小助手 自我认知训练数据集准备 XTuner配置文件准备 训练模型 推理验证 XTuner微调Lla...
-
llama_factory微调踩坑(自用)
环境配置 torch>=1.13.0已经不在支持CUDA11.3以下的版本了,CUDA版本必须升级,可以查看 nvidia-smi 在conda虚拟环境中安装的cuda版本必须<=CUDA Version 多GPU跑 c...
-
模块化重构LLaVA,替换组件只需添加1-2个文件,开源TinyLLaVA Factory来了
TinyLLaVA 项目由清华大学电子系多媒体信号与智能信息处理实验室 (MSIIP 吴及教授团队和北京航空航天大学人工智能学院黄雷老师团队联袂打造。清华大学 MSIIP 实验室长期致力于智慧医疗、自然语言处理与知识发现、多模态等研究领域。北航团队长期...
-
LLaMA-Factory微调LLama2
LLaMA-Factory(0.6.2版本 微调LLama2 1.下载安装 git clone https://github.com/hiyouga/LLaMA-Factory.git cd LLaMA-Factory pip install -e...
-
【Stable Diffusion系列】(一):AI绘画本地部署教程
目录 一、总览 二、本地部署 1、安装cuda 2、安装python 3、安装git 4、方法一 1)获取安装包 2)update 3)run 5、方法二 1)git clone 2)双击webui-user.bat 3)更...
-
为何说小语言模型是AI界的下一大热门?
译者 | 布加迪 审校 | 重楼 在AI领域,科技巨头们一直在竞相构建越来越庞大的语言模型,如今出现了一个令人惊讶的新趋势:小就是大。随着大语言模型(LLM)方面的进展出现了停滞的迹象,研究人员和开发人员日益开始将注意力转向小语言模型(SLM)。这种紧凑...
-
AI绘画之网上大火的 “隐藏字” 效果怎么制作?只需 5 步教会你!
大家好,我是灵魂画师向阳 一、什么是“隐藏字”? 废话不多说,上图! 我不说,你能看出来这张图片有字吗? 很多人可能觉得不可思议,这张图哪来的字啊?就一张正常的图而已。而有些人可能依稀觉得是有文字的,但是又说不出来到底是什么。 让我们换种...
-
MacOS使用ollama部署codellama+openui以及llama.cpp部署
现在AI这么火,你是不是也渴望能够在本地部署并运行属于自己的大模型,然而,高昂的硬件成本又往往成了一大障碍,限制了你继续在AI领域去探索和创新。如果告诉你,无需换电脑,无需额外花钱买GPU或换显卡,你现在的电脑就可以本地跑一些大模型,那将是多么酷的一...
-
Llama 3 Agent 能力体验+微调
Llama 3 Agent 能力体验+微调(Lagent 版) 微调过程 本次实验基于AutoDL平台使用A40显卡做的实验,使用 XTuner 在 Agent-FLAN 数据集上微调 Llama3-8B-Instruct,以让 Llama3-8B...
-
Stable Diffusion(1.8.0)本地部署实战指南
目录 检查电脑环境 下载开源项目 配置运行环境 问题处理 基础模型下载 检查电脑环境 启动CMD命令窗。 如上图,在CMD窗口输入python命令,可查看本地安装的python版本信息等。输入exit( 退出python命...
-
llama-factory SFT系列教程 (一),大模型 API 部署与使用
文章目录 背景 简介 难点 前置条件 1. 大模型 api 部署 下一步阅读 背景 本来今天没有计划学 llama-factory,逐步跟着github的文档走,发现这框架确实挺方便,逐渐掌握了一些。 最近想使用 SFT 微调大模...
-
你想要的照片,AI都能帮你画出来:记录Stable Diffusion的力量
目录 前言 一、配置软件环境(可以跳过直接看第二部分效果图) 1.启动界面 二、解锁新功能 2.1 开源模型的获取 三、如何生成细节更加可控的内容呢? 3.1 充分利用prompt: 3.2 词不达意时,充分使用lora 3.2 使用多个lo...
-
【AIGC】本地部署 ollama + open-webui
在之前的篇章《【AIGC】本地部署 ollama(gguf 与项目整合》中我们已经使用 ollama 部署了一个基于预量化(gguf)的 Qwen1.5 模型,这个模型除了提供研发使用外,我还想提供给公司内部使用,因此还需要一个 ui 交互界面。 显然...
-
llama-factory/peft微调千问1.5-7b-chat
目标 使用COIG-CQIA数据集和通用sft数据集对qwen1.5-7b-chat进行sft微调,使用公开dpo数据集进行dpo对齐。学习千问的长度外推方法。 一、训练配置 使用Lora方式, 将lora改为full即可使用全量微调。具体的参数...
-
【AIGC】本地部署通义千问 1.5 (PyTorch)
今天想分享一下 Qwen 1.5 官方用例的二次封装( huggingface 说明页也有提供源码),其实没有太多的技术含量。主要是想记录一下如何从零开始在不使用第三方工具的前提下,以纯代码的方式本地部署一套大模型,相信这对于技术人员来说还是非常有用的。...
-
Llama-Factory + Ollama 打造属于自己的中文版 Llama3
Meta 推出 Llama3 也有一小段时间了。Llama3 包含 8B 和 70B 两种参数规模,涵盖预训练和指令调优的变体。Llama 3 支持多种商业和研究用途,并已在多个行业标准测试中展示了其卓越的性能(关于Llama3的具体介绍可以参考本站另外一...
-
实战whisper第二天:直播语音转字幕(全部代码和详细部署步骤)
直播语音实时转字幕: 基于Whisper的实时直播语音转录或翻译是一项使用OpenAI的Whisper模型实现的技术,它能够实时将直播中的语音内容转录成文本,甚至翻译成另一种语言。这一过程大致分为三个步骤:捕获直播音频流、语音识别(转录)以及翻译(如...
-
Llama3-8B+ LLaMA-Factory 中文微调
Llama3-8B+ LLaMA-Factory 中文微调 Llama3是目前开源大模型中最优秀的模型之一,但是原生的Llama3模型训练的中文语料占比非常低,因此在中文的表现方便略微欠佳! 本教程就以Llama3-8B-Instruct开源模型为模...
-
运行stable-diffusion出现的问题
1、运行txt2img.py出现huggingface下载safety-cheaker问题 问题:OSError: We couldn't connect to 'https://huggingface.co' to load this model, c...
-
Hugging Face全攻略:轻松下载Llama 3模型,探索NLP的无限可能!【实操】
Hugging Face:自然语言处理的强大开源模型库 在数字化时代,自然语言处理(NLP)技术的崛起为人工智能的发展注入了新的活力。而Hugging Face,作为这一领域的佼佼者,凭借其强大的模型仓库、易用的API以及活跃的社区支持,成为无数NL...
-
真人版“奇迹暖暖”?谷歌阿里竞相布局的AI试衣有何商机?
618开始了,你可能加购了很多夏季新衣,想趁优惠激情下单,但一想到每件都要试穿,不合适的还要退货邮寄,其繁琐程度又让你望而却步。 “要是有人能帮我试穿衣服就好了。” 基于这样的消费心声,多款AI虚拟试衣产品相继上线。 据“头号AI玩家”不完全统计,目前AI...
-
stable-diffusion-webui报OSError: Can‘t load tokenizer for ‘openai/clip-vit-large-patch14‘的正确解决方法
这个是个普遍问题,例如:Windows平台安装stable-diffusion-webui-1.7.0解决少工具包clip-vit-large-patch14 - 知乎 Stable Diffusion WebUI linux部署问题_oserror:...
-
LlamaFactory 进行大模型 llama3 微调,轻松上手体验学习
节前,我们星球组织了一场算法岗技术&面试讨论会,邀请了一些互联网大厂朋友、参加社招和校招面试的同学,针对算法岗技术趋势、大模型落地项目经验分享、新手如何入门算法岗、该如何准备、面试常考点分享等热门话题进行了深入的讨论。 汇总合集:《大模型面试宝典...
-
KubeAI大模型推理加速实践|得物技术
除了上面提到的技术外,提高大模型推理速度的还有大模型的量化技术等,这里先不探讨,后面有机会,我们会单独发文章来介绍。 二、大模型发展面临的挑战 未来大模型的参数量肯定会越来越大,这也是大模型的发展趋势,对推理加速的要求会越来越高。 OpenAI在其论...
-
通义千问GPT-4级主力模型Qwen-Long API输入费用暴跌97%
今日阿里云宣布将其GPT-4级主力模型Qwen-Long的API输入价格从每千tokens0.02元降至每千tokens0.0005元,直降了惊人的97%。 这一举动意味着,现在用户只需花费1块钱就可以购买200万tokens,相当于5本《新华字典》的文字...
-
HuggingFace教你怎样做出SOTA视觉模型
前有OpenAI的GPT-4o,后有谷歌的系列王炸,先进的多模态大模型接连炸场。 其他从业者在震撼之余,也再次开始思考怎么追赶这些超级模型了。 刚好在这时,HuggingFace和法国索邦大学的一篇论文,总结出了构建视觉大模型的关键经验,给开发者指明了一...
-
开源模型穷途末路?Stability AI欠下1亿美元,四处找钱
曾经创造出Stable Diffusion系列模型的Stability AI,目前面临前所未有的财务危机。 这个曾经有10亿美元估值,却只有180名员工的明星初创公司正在考虑出售,并积极与潜在买家接触。 有知情人士表示,Stability AI曾私下联系...
-
一些 Llama3 微调工具以及如何在 Ollama 中运行
Llama3是Meta提供的一个开源大模型,包含8B和 70B两种参数规模,涵盖预训练和指令调优的变体。这个开源模型推出已经有一段时间,并且在许多标准测试中展示了其卓越的性能。特别是Llama3 8B,其具备小尺寸和高质量的输出使其成为边缘设备或者移动设...
-
Ollama如何构建自己的Llama3中文模型
Ollama Ollama 是一个开源的大型语言模型(LLM)服务工具,它允许用户在本地机器上运行和部署大型语言模型。Ollama 设计为一个框架,旨在简化在 Docker 容器中部署和管理大型语言模型的过程,使得这一过程变得简单快捷。用户可以通过简单的...
-
UIUC发布StarCoder2-15B-Instruct代码大模型 无需OpenAI数据登上性能榜单
UIUC与BigCode组织的研究者们最近发布了StarCoder2-15B-Instruct代码大模型,这一创新成果在代码生成任务方面取得了显著突破。这款模型成功超越了CodeLlama-70B-Instruct,登上了代码生成性能榜单之巅。 StarC...
-
重磅!腾讯宣布混元文生图大模型开源: Sora 同架构,中英文原生DiT,可免费商用
5月14日,腾讯宣布旗下的混元文生图大模型全面升级并对外开源,目前已在 Hugging Face 平台及 Github 上发布,包含模型权重、推理代码、模型算法等完整模型,可供企业与个人开发者免费商用。 这是业内首个中文原生的DiT架构文生图开源模型,支...
-
网友缝合Llama3 120B竟意外能打,轻松击败GPT2-chatbot和GPT-4
Llama 3首发阵容里没有的120B型号竟意外“曝光”,而且十分能打?! 最近这样一个号称是「Llama3-120b」的神秘大模型火了起来,原因在于它表现太出色了—— 轻松击败GPT-4、gpt2-chatbot那种。 比如,面对像「观察希格斯场是否会...
-
Refuel AI 推出专为数据标注和清洗设计的开源语言模型 RefuelLLM-2
Refuel AI 最近宣布推出两个新版本的大型语言模型(LLM),RefuelLLM-2和 RefuelLLM-2-small,这两个模型专为数据标注、清洗和丰富任务而设计,旨在提高处理大规模数据集的效率。 RefuelLLM-2的主要特点包括: 自...
-
阿里云发布通义千问2.5版 性能赶超GPT-4 Turbo
阿里云今日正式发布通义千问2.5版本,该版本在模型性能上全面赶超了GPT-4Turbo,展现了其强大的技术实力。与此同时,通义千问最新开源的1100亿参数模型Qwen1.5-110B在多个基准测评中取得了卓越成绩,超越了Meta的Llama-3-70B模型...
-
开源领域最强大模型!阿里云发布通义千问2.5:全面赶超GPT-4 Turbo
快科技5月9日消息,阿里云正式发布了通义千问2.5,模型性能全面赶超GPT-4 Turbo,声称地表最强中文大模型。 据了解,通义千问2.5最新开源的1100亿参数模型在多个基准测评中均取得了最佳成绩,成功超越了Meta的Llama-3-70B模型,成为开...
-
阿里巴巴推出通义千问2.5 号称性能超越GPT-4 Turbo
在人工智能领域,阿里巴巴再次取得重大进展,于5月9日正式发布了通义千问2.5版本。该版本在模型性能上全面超越了GPT-4Turbo,标志着阿里巴巴在AI技术发展上的又一重要里程碑。 通义千问2.5的主要提升包括: 理解能力提升9%:在文本理解方面,相较...
-
前特斯拉Optimus科学家跳槽HF,直接开源了一个机器人代码库
今年 3 月,以构建大型开源社区而闻名的 AI 初创公司 Hugging Face,挖角前特斯拉科学家 Remi Cadene 来领导一个新的开源机器人项目 ——LeRobot,引起了轰动。 Remi Cadene 在今年三月宣布结束其三年的 Tesl...
-
全球最强开源 MoE 模型来了,中文能力比肩 GPT-4,价格仅为 GPT-4-Turbo 的近百分之一
想象一下,一个人工智能模型,不仅拥有超越传统计算的能力,还能以更低的成本实现更高效的性能。这不是科幻,DeepSeek-V2[1],全球最强开源 MoE 模型来了。 DeepSeek-V2 是一个强大的专家混合(MoE)语言模型,具有训练经济、推理高效...
-
那些可免费使用的在线大语言模型服务
2022年底以ChatGPT[1]为代表的大语言模型的出现掀起了人工智能应用的新浪潮。这些庞大的语言模型经过对海量文本数据的训练,能够理解和生成逼近人类水平的自然语言,在对话、问答、文本生成、代码编写等领域展现出了惊人的能力。 最初这种能力“垄断”在Op...
-
58行代码把Llama 3扩展到100万上下文,任何微调版都适用
堂堂开源之王Llama 3,原版上下文窗口居然只有……8k,让到嘴边的一句“真香”又咽回去了。 在32k起步,100k寻常的今天,这是故意要给开源社区留做贡献的空间吗? 开源社区当然不会放过这个机会: 现在只需58行代码,任何Llama 3 70b的微调...
-
看透物体的3D表示和生成模型:NUS团队提出X-Ray
项目主页:https://tau-yihouxiang.github.io/projects/X-Ray/X-Ray.html 论文地址:https://arxiv.org/abs/2404.14329 代码地址:https://github.com...
-
「非常接近GPT-4」的WizardLM-2被微软紧急撤回,有什么内幕?
前段时间,微软搞了个乌龙:隆重地开源了 WizardLM-2,又在不久后撤回得干干净净。 据现在可以查到的 WizardLM-2 发布信息,这是一个「真正媲美 GPT-4」的开源大模型,在复杂聊天、多语言、推理和代理方面的性能得到了提高。 该系列包括三个...