-
stable diffusion API 调用,超级详细代码示例和说明
本文主要介绍 stable diffusion API 调用,准确来说是对 stable diffusion webui 的 API 调用。接口文档可以查看: http://sd-webui.test.cn/docs 这里的 sd-webui...
-
Hugging Face 的 H4 两人团队正在开发类似 ChatGPT 的人工智能聊天机器人
人工智能初创企业 Hugging Face 近日宣布,其由两人组成的 H4 团队正致力于开发工具和「配方」,以帮助 AI 社区构建类似于 ChatGPT 的人工智能聊天机器人。自 ChatGPT 发布以来,H4 团队的成立便是为了复制其功能,使用开源库和模...
-
【AI画画教程】无整合包使用LoRA和Dreambooth训练全流程详解(Linux)
前言 本教程遵循简单原则,不使用任何民间整合包。 目前很多AI画画训练整合包臃肿复杂,教程也是名词乱炖,容易对初学者造成理解误差和使用困难。因为许多整合包都依赖于sd-scripts库,它自身就能支持绝大多数的训练场景,学会这个后,自己也可以根据自己...
-
解决在Windows安装stable diffusion遇到“Torch is not able to use GPU”的问题
解决在Windows安装stable diffusion遇到“Torch is not able to use GPU”的问题 遇到的问题 解决方法 参考链接 遇到的问题 在Windows上安装stable diffusion的最...
-
OpenAI大佬甩出「喵喵GPT」调戏黑客!分享ChatGPT成功的秘密:极限压榨GPU资源
一个30人的团队,完成了这个地球上最受欢迎的产品的发布和维护。他们成功的经验和失败的教训,简直如金子一般珍贵。 OpenAI的工程团队经理(Engineering Manager)EvanMorikawa在一个开发者社区的活动中,分享了OpenAI发布Ch...
-
基于趋动云部署秋葉aaaki的Stable Diffusion整合包v4--linux版
B站大V秋葉aaaki的Stable Diffusion整合V4版发布了,集成度比较高,在windows下解压缩直接就可以使用,整合的非常好。但是笔人没有RTX4090这样级别的显卡,又希望有个高速运行的效果。 所以索性到云GPU主机上来用秋叶aaaki...
-
AI绘画——使用stable-diffusion生成图片时提示RuntimeError: CUDA out of memory处理方法
提示显存不足 RuntimeError: CUDA out of memory. Tried to allocate 1.50 GiB (GPU 0; 8.00 GiB total capacity; 5.62 GiB already alloc...
-
AIGC专栏7——EasyPhoto 人像训练与生成原理详解
AIGC专栏7——EasyPhoto 人像训练与生成原理详解 学习前言 源码下载地址 为什么是Lora EasyPhoto的训练流程 1、数据的预处理 a、人像排序 i、人脸特征向量提取过程 ii、人脸偏移角度计算 iii、人像排序 b...
-
LLMs:LLaMA Efficient Tuning(一款可高效微调【全参数/LoRA/QLoRA】主流大模型【ChatGLM-2/LLaMA-2/Baichuan等】的高效工具【预训练+指令监督微
LLMs:LLaMA Efficient Tuning(一款可高效微调【全参数/LoRA/QLoRA】主流大模型【ChatGLM-2/LLaMA-2/Baichuan等】的高效工具【预训练+指令监督微调+奖励模型训练+PPO 训练+DPO 训练】 的简介、...
-
AIGC实战——深度学习 (Deep Learning, DL)
AIGC实战——深度学习 0. 前言 1. 深度学习基本概念 1.1 基本定义 1.2 非结构化数据 2. 深度神经网络 2.1 神经网络 2.2 学习高级特征 3. TensorFlow 和 Keras 4. 多层感知器 (MLP ...
-
【AI绘画--七夕篇】:如何训练Lora模型打造令人惊叹的AI绘画
目录 前言 一、? 选择合适的云端平台 1-1、云端平台的优势 1-2、选择适合的云端平台 二、? 账号注册 三、? 开始炼丹 3-1、购买算力并创建工作空间 3-2、启动工作空间 3-3、应用市场一键安装 四、? 使用Stable-D...
-
中文大语言模型 Llama-2 7B(或13B) 本地化部署 (国内云服务器、GPU单卡16GB、中文模型、WEB页面TextUI、简单入门)
本文目的是让大家先熟悉模型的部署,简单入门;所以只需要很小的算力,单台服务器 单GPU显卡(显存不低于12GB),操作系统需要安装 Ubuntu 18.04。 1 服务器&操作系统 1.1服务器的准备...
-
深度解析 Llama 2 的资源汇总:不容错过
“ 探索 Llama 2 背后的过程,包括了模型的全面解析,在线体验,微调,部署等,这份资源汇总将带您深入了解其内涵。” 01 — 周二发布了文章《中文大模型 Chinese-LLaMA-Alpaca-2 开源且可以商用》后,不少朋...
-
带你认识一下多模态对比语言图像预训练CLIP
本文分享自华为云社区《多模态对比语言图像预训练CLIP:打破语言与视觉的界限》,作者:汀丶。 一种基于多模态(图像、文本)对比训练的神经网络。它可以在给定图像的情况下,使用自然语言来预测最相关的文本片段,而无需为特定任务进行优化。CLIP的设计类似于GP...
-
微软携手风险投资公司,为初创企业提供免费AI芯片资源
在当前的AI芯片短缺情况下,微软宣布将向一些特权初创企业提供免费访问其Azure云的“超级计算”资源,用于开发AI模型。微软今天宣布将升级其初创企业计划“微软 for Startups Founders Hub”,以包括一个免费的Azure AI基础设施选...
-
【LLM】Windows本地CPU部署民间版中文羊驼模型(Chinese-LLaMA-Alpaca)踩坑记录
目录 前言 准备工作 Git Python3.9 Cmake 下载模型 合并模型 部署模型 前言 想必有小伙伴也想跟我一样体验下部署大语言模型, 但碍于经济实力, 不过民间上出现了大量的量化模型, 我们平民也能体验体验啦~...
-
【腾讯云 HAI域探秘】——自行搭建Stable Diffusion模型服务用于生成AI图片 | 自行搭建ChatGL M26BAI模型服务用于AI对话
自行搭建Stable Diffusion模型服务用于生成AI图片 一、服务创建 1、服务地址: 高性能应用服务HAI 新品内测 2、等待审核(大概24小时 二、创建服务 1、新建服务 2、选择AI模型:Stable Diffus...
-
云原生应用 Kubernetes 监控与弹性实践
前言 云原生应用的设计理念已经被越来越多的开发者接受与认可,而Kubernetes做为云原生的标准接口实现,已经成为了整个stack的中心,云服务的能力可以通过Cloud Provider、CRD Controller、Operator等等的方式从K...
-
【obs-studio开源项目从入门到放弃】windows 窗口采集和桌面采集的解决方案
文章目录 前言 窗口采集源和桌面采集源的注册 窗口采集 选择桌面采集方式 DXGI or WGC GDI 窗口采集原理 DXGI 窗口采集原理 WGC 窗口采集原理 基于放大镜技术实现录屏采集 总结 技术参考 前言 obs系列文...
-
迈创采集卡搭配工业相机二次开发介绍(一)
迈创采集卡搭配工业相机二次开发介绍(一)SDK简介 迈创采集卡介绍 迈创采集卡SDK简介 MIL SDK获取路径 接口函数说明 MIL接口简单介绍 迈创采集卡介绍 MIL全称为Matrox Imaging Library,由加...
-
从零开始入门 K8s | 可观测性:监控与日志
作者 | 莫源 阿里巴巴技术专家 一、背景 监控和日志是大型分布式系统的重要基础设施,监控可以帮助开发者查看系统的运行状态,而日志可以协助问题的排查和诊断。 在 Kubernetes 中,监控和日志属于生态的一部分,它并不是核心组件,因此大部分的能...
-
如何高效训练?综述汇总:大型深度学习训练的并行分布式系统
本文经自动驾驶之心公众号授权转载,转载请联系出处。 23年1月论文“Systems for Parallel and Distributed Large-Model Deep Learning Training“, 来自UCSD。 深度学习(DL)已经...
-
联发科发布天玑9300生成式AI移动芯片 支持运行330亿参数大模型
昨日晚间,联发科技发布了天玑9300旗舰5G 生成式 AI 移动芯片,采用台积电第三代4nm 制程。该芯片预计于2023年底上市。 这款芯片采用全大核架构设计,提供高智能、高性能、高能效、低功耗的特性,为用户带来卓越的生成式 AI 体验。 天玑9300采...
-
GPU推理提速4倍!FlashDecoding++技术加速大模型推理
推理大模型(LLM)是AI服务提供商面临的巨大经济挑战之一,因为运营这些模型的成本非常高。FlashDecoding++ 是一种新的技术,旨在解决这一问题,它通过提高LLM推理速度和降低成本,为使用大模型赚钱提供了新的可能性。 论文地址:https://...
-
AI视野:xAI首个大模型Grok炸场;李开复官宣开源大模型Yi-34B;ChatGPT原型Gizmo新功能曝光;百度网盘引入大模型智能助理
????大模型动态 李开复官宣全球最强开源大模型Yi-34B 一次可处理40万汉字 零一万物发布全球最强的开源大模型Yi-34B,具备超强的语言理解和处理能力,支持处理40万汉字,在中文指标上表现卓越,标志着中国在大模型领域的重大突破。 项目地址:htt...
-
马斯克xAI公布大模型详细进展,Grok只训练了2个月
近几日,马斯克的人工智能公司 xAI 公布了他们用来对标 OpenAI ChatGPT 的产品 ——Grok ,直接把网友的好奇心拉满。 和总是一本正经回答问题的 ChatGPT 不同,Grok 自带幽默和嘲讽技能。 就像下图所展示的,Grok 在被...
-
李开复称其创立的AI公司零一万物估值已超10亿美元 发布大模型Yi-34B
此前,李开复成立了一家初创公司,名为零一万物(01.AI),旨在为中国市场开发本土大型语言模型(LLM)。日前,李开复在接受采访时解释了创建零一万物的动机:“我认为需求是创新之母,在中国显然存在巨大的需求。与世界其他地方不同,中国无法使用OpenAI和Go...
-
苹果M3全系列跑分曝光!16核Max反超24核M2 Ultra,战平英特尔AMD旗舰CPU
伴随着苹果的发布会,M3系列的芯片终于要跟随Mac的新品一起投入实战了。 早在几个月前,M3的规格曝光之后,众人就纷纷进行各种猜测和「预言」。 现在,M3在Geekbench 6中的跑分终于曝光,之前大家对其性能的各种讨论也尘埃落定。 我们来看一下万众期...
-
AI生图太诡异?马里兰&NYU合力解剖神经网络,CLIP模型神经元形似骷髅头
AI黑盒如何才能解? 神经网络模型在训练的时,会有些ReLU节点「死亡」,也就是永远输出0,不再有用。 它们往往会被被删除或者忽略。 恰好赶上了模糊了生与死的界限的节日——万圣节,所以这是探索那些「死节点」的好时机。 对于大多数图像生成模型来说,会输出正...
-
大模型: 模型大了难在哪里?
大家好,我是Tim。 自从GPT模型诞生以来,其参数规模就在不停的扩大。但模型并非简单的直接变大,需要在数据、调度、并行计算、算法和机器资源上做相应的改变。 今天就来总结下,什么是大模型,模型变大的难在哪里以及对于CV/NLP或者搜推广场景上有什么应对策...
-
使用Ray创建高效的深度学习数据管道
用于训练深度学习模型的GPU功能强大但价格昂贵。为了有效利用GPU,开发者需要一个高效的数据管道,以便在GPU准备好计算下一个训练步骤时尽快将数据传输到GPU。使用Ray可以大大提高数据管道的效率。 1、训练数据管道的结构 首先考虑下面的模型训练伪代码。...
-
英特尔AMD寄望AI PC提振业绩,但消费者有钱换新吗?
11月2日消息,经历了两年新冠肺炎疫情引发的增长后,个人电脑(PC)销售一直低迷。下滑幅度如此之大,以至于市场研究公司IDC公布的第三季度PC销售量同比下降7.6%算是一个显著的改善,因为此前连续五个季度的销量都在以两位数的速度下降。IDC预计今年全球...
-
OpenAI首席科学家:ChatGPT已经出现意识,人类未来将与AI融合
昨晚,「ChatGPT可能已经有了意识」的话题就上了微博热搜。 OpenAI的联合创始人兼首席科学家Ilya Sutskever在接受采访时表示,现在的首要任务已经不是制作下一个GPT或DALL·E,而是研究如何阻止超级AI的失控! 他认为,ChatG...
-
会玩!一国外AI公司称要在海上训练强大的AI以规避美国法规
在美国总统拜登本周颁布关于人工智能技术的行政命令之后,一家公司宣布采取了非同寻常的措施,以避免新要求,即公司必须向政府报告是否正在培训一种强大的AI模型:将一批计算机硬件放在国际水域上的驳船上。 自称是一家人工智能研究公司的Del Complex周一在X帖...
-
NVIDIA AI加速卡涨到43万元 还得等1年!韩国Google被吓跑
NVIDIA AI GPU无疑是当下的抢手货,但一方面产能严重不足,另一方面价格不断飙升,让不少客户望而却步。 当然,NVIDIA并不是唯一的选择,Intel、AMD也都有类似的方案。韩国头号搜索引擎Naver最近就转投了Intel。 Naver原本使用N...
-
AMD 下一代 APU 路线图更新:Strix Halo「Sarlak」推迟至 2025 年,AI 性能得到显著提升
近日,Moore’s Law Is Dead 分享了关于 AMD 下一代 APU 系列的最新消息。关键亮点是,被称为 Sarlak 或 Strix Halo 的产品现已被安排在 2025 年推出。此外,在 Phoenix 之后,Strix Point 将实...
-
英伟达ChipNeMo大模型可以用于哪些芯片设计的应用场景
英伟达新发布的ChipNeMo大模型可以用户辅助芯片设计,那么这个大模型可以在哪些应用场景使用呢,我们来一起了解下。 (ChipNeMo更多详细介绍) 工程助理聊天机器人:ChipNeMo可以作为一个智能的聊天机器人,回答工程师关于GPU架构和设计的问题...
-
OpenAI潜入黑客群聊!盗用ChatGPT被换成“喵喵GPT”,网友:绝对的传奇
当ChatGPT被黑客“入侵”时,OpenAI会如何应对? 掐断API,不让他们用?不不不。 这帮极客们采取的做法可谓是剑走偏锋——反手一记《无间道》。 图源备注:图片由AI生成,图片授权服务商Midjourney 故事是这样的。 OpenAI虽然在发布...
-
数据中心的未来:利用人工智能的优势促进经济增长和创新
当流行科幻小说描述“机器智能的崛起”时,它通常伴随着激光、爆炸,或者在一些温和的例子中,伴随着轻微的哲学恐惧。 但毫无疑问,人们对人工智能 (AI 和机器学习 (ML 在现实生活中应用的可能性的兴趣正在与日俱增,而且新的应用程序每天都在涌现。 全...
-
AI自动生成创意视频:如何让大模型助你一臂之力
作者 | 崔皓 审校 | 重楼 摘要 本文探讨了如何利用大语言模型和AI视频生成模型来创建高度个性化和创意丰富的视频内容。文章详细介绍了从构思到实现的全过程,包括问题分析、目标设定、工具和模型选择,以及实际操作步骤。使用的技术和工具包括OpenAI的G...
-
通义千问有没有app?通义千问api接口文档在哪里找
在 10 月 31 日的 2023 云栖大会上,阿里云CTO周靖人宣布阿里云将全面升级云计算体系,打造一个面向AI时代最开放的云,涵盖从底层算力到AI平台再到模型服务的全栈技术创新。目前,中国有一半的大模型企业运行在阿里云上, 280 万AI开发者活跃在阿...
-
八张3090,1天压缩万亿参数大模型!3.2TB骤降至160GB,压缩率高达20倍
随着GPT-4的架构被知名业内大佬「开源」,混合专家架构(MoE)再次成为了研究的重点。 GPT-4拥有16个专家模型,总共包含1.8万亿个参数。每生成一个token需要使用大约2800亿参数和560TFLOPs 然而,模型更快、更准确的代价,则是巨大...
-
龙与地下城:大模型文字游戏之路
作者 | 崔皓 审校 | 重楼 摘要 本文作者受到一位国外博主的启发,决定尝试使用大语言模型创建一个地下城文字游戏。通过大语言模型生成富有创意和连贯性的游戏内容。他的游戏灵感主要来源于经典的桌面角色扮演游戏“龙与地下城”(D&D)。该游戏通过对话...
-
比Transformer更好,无Attention、MLPs的BERT、GPT反而更强了
从 BERT、GPT 和 Flan-T5 等语言模型到 SAM 和 Stable Diffusion 等图像模型,Transformer 正以锐不可当之势席卷这个世界,但人们也不禁会问:Transformer 是唯一选择吗? 斯坦福大学和纽约州立大学布法...
-
对比GPU,使用FPGA创建神经网络
当代的CPU按照一维方式进行计算,顺序执行指令,并将算法分解为逐条加载和执行的指令。然而,未来的计算发展趋势表明,我们将越来越多地依赖硬件加速器来支持并行执行,这将成为计算的常态。这种发展趋势将统一算法和硬件结构的利用,从而实现更快、更高效的解决方案。...
-
谷歌20亿美元砸向Anthropic:大模型军备竞赛升级
据华尔街日报、路透社等媒体报道,Alphabet 旗下谷歌公司发言人本周五表示,该公司已同意向人工智能公司 Anthropic 投资至多 20 亿美元(约合 146 亿人民币)。 该发言人表示,该公司已向这个 OpenAI 的重要竞争对手预先投资 5...
-
港大等发布GraphGPT:1/50微调参数,准确率提升10倍!无需超长token,LLM也能读懂图结构
图神经网络(Graph Neural Networks)已经成为分析和学习图结构数据的强大框架,推动了社交网络分析、推荐系统和生物网络分析等多个领域的进步。 图神经网络的主要优势在于它们能够捕获图数据中固有的结构信息和依赖关系。利用消息传递和聚合机制,图...
-
财报拆解:微软押注生成式AI已有回报,谷歌还在挣扎
微软和谷歌发布财报,一家欢喜一家忧愁。由于大胆押注AI,微软开始获得一些回报,业绩不错。反观谷歌,核心业务增长乏力,虽然它也在积极投资新技术,但业绩并没有惊艳之处。 微软Azure增速加快,生成式AI贡献约3% 最近一个季度,微软获得营收565亿美元,...
-
AI基础软件:如何自主构建大+小模型?
一、公司介绍 九章云极DataCanvas以创造智能探索平台为使命,怀揣着助力全球企业智能升级的愿景,是中国人工智能基础软件领域的佼佼者。公司专注于自主研发的人工智能基础软件产品系列和解决方案,为用户提供全面的人工智能基础服务,旨在帮助用户在数智化转...
-
清华光电计算新突破:芯片性能提升万倍,研究登顶Nature
随着各类大模型和深度神经网络的涌现,如何制造出满足人工智能发展、兼具大算力和高能效的下一代 AI 芯片,已成为国际前沿热点。 中国科协发布的 2023 重大科学问题中「如何实现低能耗人工智能」 被排在首位。 近日,清华大学团队在超高性能计算芯片领域取得新...