-
零一万物Yi-34B-Chat微调模型上线,登陆多个权威榜单
最近,业内众多大模型基准又迎来了一轮 “实力值” 更新。 继 11 月初零一万物发布 Yi-34B 基座模型后,Yi-34B-Chat 微调模型在 11 月 24 日开源上线 ,短时间登陆了全球多个英文、中文大模型权威榜单,再度获得了全球开发者的关注。...
-
胜率达94.08%!李开复Yi-34B最新成绩超过LLaMA2等主流大模型
近期,李开复的Yi-34B-Chat模型在多个评测中大放异彩。其94.08%的胜率超越了LLaMA2和ChatGPT等主流大模型,尤其在加州大学伯克利分校主导的LMSYS ORG排行榜中,以1102的Elo评分追平了GPT-3.5。此外,在中文SuperC...
-
玩耍的猫咪【 InsCode Stable Diffusion 美图活动一期】
1️⃣ 工具介绍 InsCode是一个集成了在线IDE、在线AI编程、在线算力租赁、在线项目部署以及在线SD 模型使用的综合代码开发平台。 Stable Diffusion是目前最火的AI绘画工具之一,它是一个免费开源的项目。通过Stable Diffu...
-
直追GPT-4!李开复Yi-34B新成绩公布:94.08%的胜率超越LLaMA2等主流大模型
仅次于GPT-4,李开复零一万物Yi-34B-Chat最新成绩公布—— 在Alpaca经认证的模型类别中,以94.08%的胜率,超越LLaMA2 Chat 70B、Claude 2、ChatGPT! 图片 不仅如此,在加州大学伯克利分校主导的LMSYS...
-
Ubuntu 本地部署 Stable Diffusion web UI
Ubuntu 本地部署 Stable Diffusion web UI 0. 什么是 Stable Diffusion 1. 什么是 Stable Diffusion web UI 2. Github 地址 3. 安装 Miniconda3 4...
-
LLM-SFT,新微调数据集-MWP-Instruct(多步计算 + 一、二元方程),微调Bloom, ChatGLM, LlaMA(支持QLoRA, TensorBoardX)
LLM-SFT 中文大模型微调(LLM-SFT , 支持模型(ChatGLM, LlaMA, Bloom , 支持(LoRA, QLoRA, DeepSpeed, UI, TensorboardX , 支持(微调, 推理, 测评, 接口 等. 项目...
-
使边缘人工智能真正实现变革
边缘人工智能的采用在众多行业中呈上升趋势。随着这种趋势的持续下去,其将不仅为企业而且为社会带来变革。 边缘计算的去中心化方法减轻了数据拥塞、连接故障和传输成本等限制。这极大地提高了人工智能应用程序的性能,从而可以更快、更可靠地做出决策。 边缘人工智能的...
-
戴尔技术推动AI与生成式AI策略,存储技术加速前行
戴尔技术近日宣布,通过引入新的企业数据存储技术,与Nvidia DGX SuperPod AI基础设施进行验证,助力客户实现更快的AI和生成式AI性能。戴尔 Technologies基础设施解决方案集团总裁Arthur Lewis表示:“存储性能对于成功的...
-
把检测器加进来,YOLOv8部署实战!
本文经自动驾驶之心公众号授权转载,转载请联系出处。 0 把检测器加进来 本文是我在学习韩博《CUDA与TensorRT部署实战课程》第六章的课程部分输出的个人学习笔记,欢迎大家一起讨论学习! 1 导出onnx需要注意的地方 不要pip instal...
-
谷歌发布Cloud TPU v5p和AI超级计算机:人工智能处理能力飞跃
谷歌在推出其张量处理单元Cloud TPU v5p和具有突破性的超级计算机架构AI Hypercomputer时掀起了轩然大波。这些创新的发布,再加上资源管理工具Dynamic Workload Scheduler,标志着在处理组织的人工智能任务方面迈出了...
-
分分钟将图像转换成3D模型
译者 | 布加迪 审校 | 重楼 法国LIGM实验室的研究人员已开发了一种新颖的技术,可以由真实场景周围捕获的图像集合快速创建高度逼真的3D网格模型。他们的方法被称为SuGaR,通过以一种独特的方式采用神经表示和计算几何技术,可以在短短几分钟内重新构建...
-
基于 AIGC,RocketMQ 学习社区探索开源软件学习新范式
AIGC 持续火爆全球,越来越多的场景开始接入并体现非凡的价值。其中应用广泛的场景之一就是智能知识问答,它改变了人们学习的方式,从阅读式到问答式,让知识的获取更加精准有效。开源软件拥有着广泛的求知群体,AIGC+ 社区的结合是学习型社区未来演进...
-
用国产显卡能跑AI绘画吗?
一、背景 “AI绘画是否会在未来替代画师”是近一段时间内的一个非常火爆的话题。作为国内GPU芯片原厂的天数智芯也关注到了这个应用场景,并很快在天数智芯(Iluvatar)国产通用GPU上做了代码移植,通过智星云算力平台可以让大家真实的感受到AI的神秘。...
-
linux部署stable diffusion
模型地址:https://github.com/CompVis/stable-diffusion 下载代码库 git clone https://github.com/CompVis/stable-diffusion.git 2.创建虚拟环境 #...
-
却话文心一言(Chatgpt们),存算一体真能突破AI算力“存储墙”|“能耗墙”|“编译墙”?
文心一言折戟沉沙 作为国内搜索引擎巨头玩家,百度在中文语料领域拥有大量的积累,在算力基础设施等层面也拥有优势。 但是国产化AI芯片的处境其实很难。 这不是危言耸听,也不是崇洋媚外。这不,百度文心一言初战吃瘪。...
-
【AI绘画】AI绘画乐趣:稳定增强扩散技术展现
目录 前言 一、Stable Diffusion是什么? 二、安装stable-diffusion-webui 1. python安装 2. 下载模型 3. 开始安装: 4. 汉化: 5. 模型使用: 6. 下载新模型: 7. 基础玩法 三...
-
【原创】AIGC之ChatGPT工作原理
AIGC是什么 AIGC - AI Generated Content (AI生成内容),对应我们的过去的主要是 UGC(User Generated Content)和 PGC(Professional user Generated Content...
-
Stable-diffusion支持Intel和AMD显卡加速出图的操作方法
英伟达的显卡有CUDA加持Stable diffusion出图很快,但我无奈家徒四壁,只有AMD老显卡苦苦支撑着本不富裕的家庭,但是生活还是继续不是。来吧!兄弟,看看老显卡能不能加速出图就完事了。 说明,我在MacOs上操作成功,同时...
-
AI 绘画工具 Stable Diffusion 本地安装使用
最近要用到 AI 绘画,所以研究了下目前市面上的 AI 绘画工具,真可谓是琳琅满目,但主流的还是 Stable diffusion 和 Midjourney 两大阵营。 Midjourney 不多说,开箱即用,对新手非常友好,但不免费,Stable di...
-
Learn Prompt-Midjourney 图片生成
简介 随着 ChatGPT 的爆火,越来越多的人开始关注并尝试 AI 相关的应用。而图片生成就是其中一个备受瞩目的领域。目前已经有许多图像生成工具,如 Midjourney,Stable Diffusion,DALL-E,Firefly等。本课程主要是以...
-
【多模态】5、BLIP | 统一理解与生成任务 为图像生成更高质量的文本描述
文章目录 一、背景 二、方法 2.1 模型结构 2.2 Pre-training Objectives 2.3 CapFilt 三、效果 3.1 训练细节 3.2 CapFilt 的效果 3.3 样本多样性是文本合成器的关键 3.4 参数...
-
本地生成动漫风格 AI 绘画 图像|Stable Diffusion WebUI 的安装和局域网部署教程
Stable Diffusion WebUI 的安装和部署教程 1. 简介 2. 安装环境 2.1 Windows 2.2 Linux 3. 运行 4. 模型下载链接 5. 局域网部署 5.1 Windows 5.2 Linux 6....
-
Koala:加州大学BAIR团队使用ChatGPT蒸馏数据和公开数据集微调LLaMA模型得到
自从Meta发布LLaMA以来,围绕它开发的模型与日俱增,比如Alpaca、llama.cpp、ChatLLaMA以及Vicuna等等,相关的博客可以参考如下: 【Alpaca】斯坦福发布了一个由LLaMA 7B微调的模型Alpaca(羊驼),训练3小时...
-
Pika 1.0首测秒杀Gen-2!网友抢先体验电影级炸裂效果,背后技术细节首公开
Pika 1.0正式上线后,拿到内测资格的网友们已经玩疯了! 有人用它生成了一个姜黄色头发女孩和她的姜黄色猫的短片。 以往,因为一致性的难题,用AI视频很难做出优秀的动漫作品。但是Pika 1.0,实在是太给人惊喜了! 更令人震惊的是,作者表示,这是10...
-
人均6万美元:2024英伟达奖学金名单公布,五位华人入选
本周五,备受期待的英伟达奖学金公布了入选者名单。 二十多年来,英伟达研究生奖学金计划(NVIDIA Graduate Fellowship Program)一直为研究生提供与英伟达技术相关的杰出工作支持。英伟达迄今为止已向近 200 名学生提供了 600...
-
stable-diffusion-webui 安装
一、安装 https://blog.csdn.net/weixin_72056722/article/details/126651703 卸载cpu版本的torch并离线安装对应的gpu版本 1、安装gpu ,速度从一小时加速到3分钟 torch...
-
大语言模型之十六-基于LongLoRA的长文本上下文微调Llama-2
增加LLM上下文长度可以提升大语言模型在一些任务上的表现,这包括多轮长对话、长文本摘要、视觉-语言Transformer模型的高分辨4k模型的理解力以及代码生成、图像以及音频生成等。 对长上下文场景,在解码阶段,缓存先前token的Key和Value(K...
-
使用 Intel Arc GPU 进行Stable Diffusion,在 Windows 上使用 PyTorch 和 Docker
PyTorch 的英特尔扩展提供优化和功能以提高英特尔硬件的性能。它通过 PyTorch “xpu” 设备为 Intel 离散 GPU 提供简单的 GPU 加速。这允许用户使用 Docker Desktop 和 WSL2 在基于 Intel GPU 的 W...
-
AI作画,国风油画风随心定制~ Stable Diffusion模型使用,三步就上手
前言 最近,AIGC(即AI Generated Content,是指利用人工智能技术来生成内容)真的是火出了天际。除了被挤到服务器满负荷的chatGPT,另一个也颇受瞩目的领域当属AI作画了。利用开源的一类“扩散(diffusion)”模型,你可...
-
“过度炒作”的大模型巨亏,Copilot每月收10刀,倒赔20刀
大模型无论是训练还是使用,都比较“烧钱”,只是其背后的成本究竟高到何处?已经推出大模型商用产品的公司到底有没有赚到钱?事实上,即使微软、亚马逊、Adobe 这些大厂,距离盈利之路还有很远!同时,使用这些大模型工具的人越多,相关企业需要支付基础设施的费用就越...
-
大话Stable-Diffusion-Webui-客制化主题(一)
文章目录 Gradio 客制化主题 上传主题至 HuggingFace 仓库 创建huggingface空间 修改 README.md 生成huggingface的token 上传主题至huggin...
-
【InsCode Stable Diffusion 美图活动一期-关于梦里的那位古风美少女】如何快速拥有一位古风少女?一起来调试AI绘图,训练你自己的专属模型~
InsCode Stable Diffusion 美图活动一期-关于梦里的那位古风美少女 1️⃣ 工具介绍 2️⃣ 在线地址及使用教学 3️⃣ 我的模型及输出图片 3.1 模型版本及相关配置 3.2 图片生成提示词和反向提示词 3.3 种子...
-
关于使用Bing AI或Copilot时GPU占用高的问题分析与解决
就在上周,我使用Bing AI时,发现单位老机子的风扇响个不停,开始没在意,后来在Bing的对话框长度越来越长后,电脑震动的越来越厉害,所以习惯性打开的WIN10的任务管理器一看,好家伙,Edge浏览器的GPU占用好高,达到了30%-40%,处于一种分析问...
-
智源发布FlagAttention算子集 适配多种大模型训练芯片
为了满足大模型对计算资源的需求,智源研究院开发了 FlagAttention 项目,旨在构建一套适配多种芯片的大模型核心算子集合。 该项目选择使用 Triton 作为开发语言,通过 Triton 的开放性和易用性,使得 FlagAttention 不仅支持...
-
JetBrains 推出新 AI 编码助手,结合多个大型语言模型以实现供应商中立
JetBrains 于当地时间周三发布了一款新的 AI 编码助手,这款助手能够从开发者的集成开发环境(IDE)获取信息,并将其反馈给 AI 软件,以提供编码建议、代码重构和文档支持。这家开发工具公司声称,其 AI 助手是第一个供应商中立的此类产品,因为它使...
-
stabilityai/stable-diffusion-2-1 生成黑图问题
stabilityai/stable-diffusion-2-1 · Only generates black images? Loading saved model downloaded from stabilityai/stable-diffusio...
-
山顶喝茶的公子-InsCode Stable Diffusion 美图活动一期
一、InsCode和Stable Diffusion InsCode是一个集成了在线IDE、在线AI编程、在线算力租赁、在线项目部署以及在线SD 模型使用的综合代码开发平台。 不论你是初级软件工程师,还是AI大模型爱好者,InsCode都能帮助你快速...
-
本地训练中文LLaMA模型实战教程,民间羊驼模型,24G显存盘它!
羊驼实战系列索引 博文1:本地部署中文LLaMA模型实战教程,民间羊驼模型博文2:本地训练中文LLaMA模型实战教程,民间羊驼模型(本博客)博文3:精调训练中文LLaMA模型实战教程,民间羊驼模型 简介 在学习完上篇【1本地部署中文LLaMA模型...
-
Stable Diffusion免费(三个月)通过阿里云轻松部署服务
温馨提示:划重点,活动入口在这里喔,不要迷路了。 其实我就在AIGC_有没有一种可能,其实你早就在AIGC了?阿里云邀请你,体验一把AIGC级的毕加索、达芬奇、梵高等大师作画的快感。阿里云将提供免费云产品资源,尽情发挥你的想象空间!https://dev...
-
【小白教程】十分钟搭建Stable Diffusion WebUI,白嫖三个月
Stable Diffusion是一款功能异常强大的AI图片生成器。它支持文字生成图片,图片转图片,使用各种各样的模型来达到你想要的效果,还能训练你自己的专属模型。 简单来说,即使你没有绘画功底,只要文笔叙说的够详细准确也可以画出自己想要的图片,甚至超乎你...
-
【进阶篇】如何在InsCode给Stable Diffusion安装Lora(内含详细步骤)
1.在自己的电脑上下载好需要安装的Lora文件,并通过Jupyter Lab启动GPU。访问地址: https://inscode.csdn.net/workbench?tab=computed 2. 打开JupyterLab界面,找到上传入...
-
【AI作画】stable diffusion webui Linux虚拟机 Centos 详细部署教程
部署环境: 环境:虚拟机Centos7、6处理器、8G内存+10G交换内存、没有GPU使用CPU硬解windows版本的可以直接使用整合包:看评论的转载链接自行下载,解压即可用 安装Git 2.15.1 提示:这里可能source后版本是1.8...
-
【深度学习】AIGC ,ControlNet 论文,原理,训练,部署,实战,教程(三)
文章目录 源码资源下载 Python环境 试玩controlnet 训练 数据准备 选一个Stable diffusion模型 开始训练 第一篇:https://qq742971636.blog.csdn.net/article/...
-
Danswer 接入 Llama 2 模型 | 免费在 Google Colab 上托管 Llama 2 API
一、前言 前面在介绍本地部署免费开源的知识库方案时,已经简单介绍过 Danswer《Danswer 快速指南:不到15分钟打造您的企业级开源知识问答系统》,它支持即插即用不同的 LLM 模型,可以很方便的将本地知识文档通过不同的连接器接入到 Danswe...
-
使用 LoRA 进行 Stable Diffusion 的高效参数微调
LoRA: Low-Rank Adaptation of Large Language Models 是微软研究员引入的一项新技术,主要用于处理大模型微调的问题。目前超过数十亿以上参数的具有强能力的大模型 (例如 GPT-3 通常在为了适应其下游任...
-
Meta、微软表示将购买 AMD 的最新 AI 芯片 MI300X,作为英伟达芯片的替代品
在 AMD 周三的投资者活动上,最新的人工智能芯片——Instinct MI300X">Meta、OpenAI 和微软宣布,他们将使用 AMD 最新的人工智能芯片——Instinct MI300X。这是迄今为止科技公司寻找替代 Nvidia 昂贵图形...
-
从零开始训练 Stable Diffusion 的成本 < 16 万美元
我们想知道使用我们的流数据集、Composer 和 MosaicML 云平台从头开始训练稳定扩散模型需要多少时间(和金钱)。我们的结果:13 天内我们将花费 79,000 个 A100 小时,总培训成本不到 160,000 美元。我们的工具不仅将时间和成本...
-
Meta、微软承诺购买AMD新型人工智能芯片 作为英伟达GPU替代品
12月7日消息,当地时间周三Meta、OpenAI和微软在AMD投资者活动上表示,他们都将使用AMD最新开发的人工智能芯片Instinct MI300X。这表明,虽然英伟达的GPU芯片对于开发和部署ChatGPT等人工智能程序至关重要,但很多科技公司都...
-
锐龙8040官宣!AMD首创的AI PC性能飙升60% 明年再涨3倍
AMD 2023年初发布的锐龙7040系列处理器,不但为笔记本带来了迄今最先进的4nm制造工艺、Zen4 CPU架构、RDNA3 GPU架构,还第一次为x86处理器加入了独立的NPU AI引擎硬件单元。 这就是Ryzen AI,也创造了AI P...
-
吞吐量提升近30倍!田渊栋团队最新论文解决大模型部署难题
大型语言模型 (LLM) 在今年可谓是风光无限。不过惊艳的效果背后是一个巨大的模型以及夸张的硬件资源。 LLM在现实中部署时通常会面临两个难题:昂贵的KV缓存成本,以及对长序列的泛化能力差。 近日,田渊栋团队发表了一篇论文,成功解决以上两个难题,并将推理...