-
打造AI虚拟数字人,Stable Diffusion+Sadtalker教程
站长笔记 2 个月前 1 1k 如何使用Stable Diffusion整合Sadtalker Stable Diffusion是一个能够根据文本描述生成高质量图片的深度学习模型,它使用了一种叫做潜在扩散模型的生成网络架构,可以在普通的GPU...
-
DMP技术开源,可提升AI图像预测精度
Diffusion Models as Prior (DMP)是一种新的方法,它在AI生成的图像中提高了语义预测的准确性。该创新性方法巧妙地将预先训练的文本到图像模型应用于各种任务,例如3D属性估计和语义分割,在有限的训练数据下表现优于现有技术。 项目地...
-
使用 LoRA 进行 Stable Diffusion 的高效参数微调
LoRA: Low-Rank Adaptation of Large Language Models 是微软研究员引入的一项新技术,主要用于处理大模型微调的问题。目前超过数十亿以上参数的具有强能力的大模型 (例如 GPT-3 通常在为了适应其下游任...
-
思维链提出者Jason Wei:关于大模型的6个直觉
还记得 Jason Wei 吗?这位思维链的提出者还曾共同领导了指令调优的早期工作,并和 Yi Tay、Jeff Dean 等人合著了关于大模型涌现能力的论文。目前他正在 OpenAI 参与 ChatGPT 的开发工作。机器之心曾经报道过他为年轻 AI 研...
-
思维链提出者Jason Wei:关于大模型的六个直觉
还记得 Jason Wei 吗?这位思维链的提出者还曾共同领导了指令调优的早期工作,并和 Yi Tay、Jeff Dean 等人合著了关于大模型涌现能力的论文。目前他正在 OpenAI 参与 ChatGPT 的开发工作。机器之心曾经报道过他为年轻 AI...
-
MIT新创公司Liquid AI融资近4千万美元,希望构建新型液态神经网络人工智能
Liquid AI,一家由MIT孵化的新兴公司,近日成功完成了一轮接近4千万美元的种子轮融资,其目标是构建一种全新类型的人工智能,被称为液态神经网络。这一创新性的技术基于液态神经网络架构,旨在提供更为精简、可解释且动态适应的人工智能系统。 Liquid A...
-
腾讯与悉尼大学联手打造GPT4Video:显著提升大语言模型视频生成能力
在多模态大型语言模型(MLLMs)领域取得显著进展的同时,尽管在输入端多模态理解方面取得了显著进展,但在多模态内容生成领域仍存在明显的空白。为填补这一空白,腾讯人工智能实验室与悉尼大学联手推出了GPT4Video,这是一个统一的多模态框架,赋予大型语言模型...
-
吞吐量提升近30倍!田渊栋团队最新论文解决大模型部署难题
大型语言模型 (LLM) 在今年可谓是风光无限。不过惊艳的效果背后是一个巨大的模型以及夸张的硬件资源。 LLM在现实中部署时通常会面临两个难题:昂贵的KV缓存成本,以及对长序列的泛化能力差。 近日,田渊栋团队发表了一篇论文,成功解决以上两个难题,并将推理...
-
Stable Diffusion:开启AI魔法绘画的无限可能
? 个人网站:【 海拥】【神级代码资源网站】【办公神器】 ? 基于Web端打造的:?轻量化工具创作平台 ? 想寻找共同学习交流的小伙伴,请点击【全栈技术交流群】 随着人工智能技术的蓬勃发展,图像生成和艺术创作领域掀起了一股新的浪潮。在这股浪潮中,St...
-
云上使用 Stable Diffusion ,模型数据如何共享和存储
随着人工智能技术的爆发,内容生成式人工智能(AIGC)成为了当下热门领域。除了 ChatGPT 之外,文本生成图像技术更令人惊艳。 Stable Diffusion,是一款开源的深度学习模型。与 Midjourney 提供的直接将文本转化为图像的服务不同...
-
AIGC产业研究报告 2023——图像生成篇
易观:今年以来,随着人工智能技术不断实现突破迭代,生成式AI的话题多次成为热门,而人工智能内容生成(AIGC)的产业发展、市场反应与相应监管要求也受到了广泛关注。为了更好地探寻其在各行业落地应用的可行性和发展趋势,易观对AIGC产业进行了探索并将发布AIG...
-
大模型免微调解锁对话能力,RLHF没必要了!一作上交大校友:节省大量成本和时间
要搞大模型AI助手,像ChatGPT一样对齐微调已经是行业标准做法,通常分为SFT+RLHF两步走。 来自艾伦研究所的新研究却发现,这两步都不是必要的??? 新论文指出,预训练完成刚出炉的基础模型已经掌握了遵循指令的能力,只需要提示工程就能引导出来,引起...
-
AI绘画后面的论文——ControlNet:Adding Conditional Control to Text-to-Image Diffusion Models
AI绘画后面的论文——ControlNet:Adding Conditional Control to Text-to-Image Diffusion Models 代码:lllyasviel/ControlNet: Let us control di...
-
Stable diffusion 训练lora出现报错
今天使用kohya_ss训练lora时出现三个报错,下面是解决办法。 一: 报错 UnboundLocalError: local variable 'pipe' referenced before assignment...
-
AIGC重塑教育 | AI大模型时代
⭐简单说两句⭐ 作者:后端小知识,CSDN后端领域新星创作者|阿里云专家博主 CSDN个人主页:后端小知识 ?GZH:后端小知识 ?欢迎关注?点赞?收藏⭐️留言? 文章目录 引言 AI与教育工作者 教育资源不平衡 这次...
-
LLaMA 2:开源的预训练和微调语言模型推理引擎 | 开源日报 No.86
facebookresearch/llama Stars: 36.0k License: NOASSERTION LLaMA 2 是一个开源项目,用于加载 LLaMA 模型并进行推理。 该项目的主要功能是提供预训练和微调后的 LLaMA 语言模型...
-
颠覆Transformer霸权!CMU普林斯顿推Mamba新架构,解决致命bug推理速度暴增5倍
深度学习进入新纪元,Transformer的霸主地位,要被掀翻了? 2017年6月12日横空出世,让NLP直接变天,制霸自然语言领域多年的Transformer,终于要被新的架构打破垄断了。 Transformer虽强大,却有一个致命的bug:核心注意力...
-
Transformer挑战者出现!斯坦福CMU联合团队,开源模型及代码,公司已创办
现在ChatGPT等大模型一大痛点: 处理长文本算力消耗巨大,背后原因是Transformer架构中注意力机制的二次复杂度。 FlashAttention作者Tri Dao参与提出的新架构,成为有力挑战者,引起大量关注: Mamba(曼巴,一种蛇),在语...
-
中文大模型 Chinese-LLaMA-Alpaca-2 开源且可以商用
“ Meta 开源 LLAMA2 后,国内出现了不少以此为基座模型训练的中文模型,这次我们来看看其中一个不错的中文模型:Chinese-LLaMA-Alpaca-2 。” 01 — 目前在开源大模型中,比较有名的是Meta的LLAM...
-
AI抠图使用指南:Stable Diffusion WebUI Rembg实用技巧
抠图是图像处理工具的一项必备能力,可以用在重绘、重组、更换背景等场景。最近我一直在探索 Stable Diffusion WebUI 的各项能力,那么 SD WebUI 的抠图能力表现如何呢?这篇文章就给大家分享一下。 安装插件 作为一个生成式AI,S...
-
【极客技术】真假GPT-4?微调 Llama 2 以替代 GPT-3.5/4 已然可行!
近日小编在使用最新版GPT-4-Turbo模型(主要特点是支持128k输入和知识库截止日期是2023年4月)时,发现不同商家提供的模型回复出现不一致的情况,尤其是模型均承认自己知识库达到2023年4月,但当我们细问时,Fake GPT4-Turbo(暂且这...
-
微调语言大模型选LoRA还是全参数?基于LLaMA 2深度分析
本文对比了全参数微调和LoRA,并分析了这两种技术各自的优势和劣势。作者使用了三个真实用例来训练LLaMA 2模型,这提供了比较特定任务的性能、硬件要求和训练成本的基准。本文证明了使用LoRA需要在serving效率和模型质量之间做出权衡,而这...
-
Leo赠书活动-10期 【AIGC重塑教育 AI大模型驱动的教育变革与实践】文末送书
✅作者简介:大家好,我是Leo,热爱Java后端开发者,一个想要与大家共同进步的男人?? ?个人主页:Leo的博客 ?当前专栏: 赠书活动专栏 ✨特色专栏: MySQL学习 ?本文内容:Leo赠书活动-10期 【AIGC重塑教育 AI大模型驱动的教育变革与...
-
开源语言大模型演进史:向LLaMA 2看齐
本文是开源 LLM 发展史系列文章的第三部分。此前,第一部分《开源语言大模型演进史:早期革新》回顾了创建开源 LLM 的最初尝试。第二部分《开源语言大模型演进史:高质量基础模型竞赛》研究了目前可用的最受欢迎的开源基础模型(即已进行预训练但尚未微...
-
StableDiffusion模型发展历史
参考资料: 相应的github和huggingface LDM [github] StableDiffusion v1.1 ~ v1.4 [github] [huggingface] StableDiffusion...
-
R-CNN作者Ross Girshick离职,何恺明、谢赛宁回归学界,Meta CV走出了多少大神
FAIR 又一位大佬级研究科学家「出走了」,这次是 R-CNN 作者 Ross Girshick。 近日,Meta 首席科学家 Yann LeCun 发推宣布,Ross Girshick 将离开 FAIR,加入艾伦人工智能研究所(AI2)。此前离职的还...
-
不是大模型全局微调不起,只是LoRA更有性价比,教程已经准备好了
增加数据量和模型的参数量是公认的提升神经网络性能最直接的方法。目前主流的大模型的参数量已扩展至千亿级别,「大模型」越来越大的趋势还将愈演愈烈。 这种趋势带来了多方面的算力挑战。想要微调参数量达千亿级别的大语言模型,不仅训练时间长,还需占用大量高性能的内存资...
-
【慕伏白教程】Linux系统本地部署stable-diffusion-webui
本教程针对 Stable Diffusion 2.0 进行本地部署,系统环境为 Linux 注意: 本教程不包含 anaconda/miniconda、python、git、cuda 的安装 提示: 由于国内网络原因,github...
-
生成式人工智能(AIGC)综述:ChatGPT从GPT-4到GPT-5可以一统AIGC?
原文题目: 《A Complete Survey on Generative AI (AIGC : Is ChatGPT from GPT-4 to GPT-5 All You Need?》 文章链接: https://arxiv.org/abs/2...
-
字节跳动与中科大联手提出多模态文档大模型DocPedia
字节跳动与中国科学技术大学合作研发的多模态文档大模型DocPedia已成功突破了分辨率的极限,达到了2560×2560的高分辨率。这一成果是通过研究团队采用了一种新的方法,解决了现有模型在解析高分辨文档图像方面的不足。 在此研究中,提出了DocPedia,...
-
Stable Diffusion XL webui Linux服务器部署(保姆级教程)
文章目录 Stable Diffusion XL webui Linux服务器部署 机器配置情况 开始部署 安装webui前准备 手动克隆依赖git仓库 下载SDXL-refiner-1.0预训练模型 换pip源 安装 设置publi...
-
矩阵模拟!Transformer大模型3D可视化,GPT-3、Nano-GPT每一层清晰可见
「矩阵模拟」的世界或许真的存在。模拟人类神经元,不断进化的Transformer模型,一直以来都深不可测。 许多科学家都试着打开这个黑盒,看看究竟是如何工作的。 而现在,大模型的矩阵世界,真的被打开了! 一位软件工程师Brendan Bycroft制作了...
-
突破分辨率极限,字节联合中科大提出多模态文档大模型
现在连文档都有大模型了,还是高分辨率、多模态的那种! 不仅能准确识别出图像里的信息,还能结合用户需求调用自己的知识库来回答问题。 比如,看到图中马里奥的界面,直接就回答出了这是任天堂公司的作品。 这款模型由字节跳动和中国科学技术大学合作研究,于2023年...
-
国产开源大模型,起风了
科技的浪潮几十年一个轮回,不同的剧本却总是响起相似的鼓点。 如果说,一年前ChatGPT的惊艳现身,是属于大模型时代的「iPhone时刻」;那么,7月间Meta将Llama2开源,则被认为是拉开了大模型时代的IOS与安卓之争。 但区别于移动互联网时代,大模...
-
OpenAI宣布定制化GPT商店推出时间推迟至2024年初
OpenAI近期宣布,将发布定制化GPT Store(GPT商店)的时间推迟至2024年年初。 据路透社援引内部备忘录的消息,OpenAI决定延迟原定于11月份首次开发者大会上介绍的定制化GPT商店推出时间。公司目前正致力于根据用户反馈不断改进GPT,这一...
-
使用您自己的计算机训练 Stable Diffusion 和 Bloom (175B) 等模型
在我们最近的几篇文章中,我们一直在提到围绕大型语言和生成 AI 模型的炒作,以及如何减少推理和训练时间。随着我们的用户开始使用这些模型并对其进行微调,他们自然希望微调和部署包含数千亿参数的模型,以提高其特定用例的性能。 通常,这是一项要求非常高的任务,需...
-
包含文心一言在内的首批国产大模型 全面开放
8月31起,国内 11 家通过《生成式人工智能服务管理暂行办法》备案的 AI 大模型产品将陆续上线,面向全社会开放。北京 5 家大模型产品分别是百度的 “文心一言”、抖音的 “云雀”、百川智能的 “百川大模型”、清华系 AI 公司智谱华章旗下的 “智谱清言...
-
AIGC(生成式AI)试用 0 -- 如何测试此类应用
0. 起因 RPA主导的机器人流程自动化风头正劲 AI由来已久 生成式AI正在改变着工作和生活的方式 生成式AI工具不断更新换代 思考的问题,生成式AI: - 能实现什么? - 不同工具间的区别? - 如何测试此类工具? 似乎想的有点多、有点大。何是...
-
能耗比达到GPT-4 10倍!黄学东亲自解密Zoom AI的成功之道,AI伴侣直接替你开会
近日,AI大佬,现任Zoom CTO的黄学东,在自家的官网上发表了一篇博客。 其中隆重介绍了自己加入Zoom六个月之后创新的成果——Zoom AI Companion,以及驱动Zoom AI Companion的Zoom联邦(federated app...
-
本地部署中文LLaMA模型实战教程,民间羊驼模型
羊驼实战系列索引 博文1:本地部署中文LLaMA模型实战教程,民间羊驼模型(本博客)博文2:本地训练中文LLaMA模型实战教程,民间羊驼模型博文3:精调训练中文LLaMA模型实战教程,民间羊驼模型 简介 LLaMA大部分是英文语料训练的,讲中文能...
-
手机上0.2秒出图、当前速度之最,谷歌打造超快扩散模型MobileDiffusion
在手机等移动端侧运行 Stable Diffusion 等文生图生成式 AI 大模型已经成为业界追逐的热点之一,其中生成速度是主要的制约因素。 近日,来自谷歌的一篇论文「MobileDiffusion: Subsecond Text-to-Image G...
-
Meta教你5步学会用Llama2:我见过最简单的大模型教学
在这篇博客中,Meta 探讨了使用 Llama 2 的五个步骤,以便使用者在自己的项目中充分利用 Llama 2 的优势。同时详细介绍 Llama 2 的关键概念、设置方法、可用资源,并提供一步步设置和运行 Llama 2 的流程。 Meta 开源的 L...
-
Stable Diffusion:使用Lora用二十张图片训了一个简易版薇尔莉特头像生成器(不作商用,纯纯个人兴趣,狗头保命)
目录 一、系统环境 二、数据准备及预处理 三、使用Stable Diffusion获取图像信息 四、安装训练图形化界面 五、参数设置及训练过程 六、 效果测试 七、常见报错处理 一、系统环境 同上一篇博客,云平台:CPU 1核,G...
-
一言不合就跑分,国内AI大模型为何沉迷于“刷榜”
“不服跑个分”这句话,相信关注手机圈的朋友一定不会感到陌生。诸如安兔兔、GeekBench等理论性能测试软件,由于能够在一定程度上反映手机的性能,因此备受玩家的关注。同理在PC处理器、显卡上,同样也有相应的跑分软件来衡量它们的性能。 既然“万物皆可跑分”,...
-
如何更好的使用Copilot
Copilot从诞生到现在过去了挺长时间了,大家对Copilot的评价算是褒贬不一吧。有些人觉得Copilot高效且神奇,可以对自己的工作大大提效;有些觉得也就那样,为什么要花那么多钱做这个事情,钱它不香吗? 从最开始未收费的时候,我就有使用Copilo...
-
AIGC时代,大模型微调如何发挥最大作用?
人工智能的快速发展推动了大模型的广泛应用,它们在语言、视觉、语音等领域的应用效果已经越来越好。但是,训练一个大模型需要巨大的计算资源和时间,为了减少这种资源的浪费,微调已经成为一种流行的技术。微调是指在预训练模型的基础上,通过在小数据集上的训练来适应新的任...
-
AIGC玩转卡通化技术实践
FaceChain写真开源项目插播: 最新 FaceChain支持多人合照写真、上百种单人写真风格,项目信息汇总:ModelScope 魔搭社区 。 github开源直达(觉得有趣的点个star哈。):https://gith...
-
Linux 中的机器学习:Whisper——自动语音识别系统
Whisper 是一种自动语音识别 (ASR 系统,使用从网络收集的 680000 小时多语言和多任务数据进行训练,Whisper 由深度学习和神经网络提供支持,是一种基于 PyTorch 构建的自然语言处理系统,这是免费的开源软件。 安装Whisp...
-
LLMs之Colossal-LLaMA-2:Colossal-LLaMA-2的简介(基于LLaMA-2架构+中文优化+扩充词表+仅千美元成本)、安装、使用方法之详细攻略
LLMs之Colossal-LLaMA-2:Colossal-LLaMA-2的简介(基于LLaMA-2架构+中文优化+扩充词表+仅千美元成本 、安装、使用方法之详细攻略 导读:2023年9月25日,Colossal-AI团队推出了开源模型Colos...
-
【赠书第10期】从概念到现实:ChatGPT和Midjourney的设计之旅
文章目录 前言 1 ChatGPT的崛起 2 Midjourney的探索 3 技术创新的交汇 4 对未来的影响 5 结论 6 推荐图书 7 粉丝福利 前言 在过去的几年里,自然语言处理和聊天模型的领域取得了飞速的发展。ChatGPT...