-
AIGC数据处理与存储解决方案
针对在AIGC的场景下,如何解决在AIGC训练过程中数据的存储和数据处理的问题,杨冠军从三个方面进行介绍与解读: 一是AIGC对存储提的新需求; 二是介绍腾讯云可以给用户提供的整体存储解决方案; ...
-
PBT集团表示,数据质量对训练ChatGPT至关重要
距离OpenAI向公众发布ChatGPT已经接近一年,其采纳率呈现了前所未有的飙升。截至2023年2月,据路透社报道,ChatGPT拥有大约1亿活跃用户。快进到9月,ChatGPT网站吸引了近15亿访问者,展示了该平台在当今数字领域中的巨大流行和重要作用。...
-
视频生成新突破:PixelDance,轻松呈现复杂动作与炫酷特效
最近,除了大语言模型继续持续刷屏,视频生成技术也取得了重大进展,多家公司相继发布了新模型。 首先,作为最早探索视频生成领域的领头羊之一,Runway 升级了其 Gen-2 模型,带来了电影级别的高清晰度,令人瞩目,并称视频生成的一致性得到了重大改进。 但...
-
AI加速“科技权势”集中,巨头垄断AI会造成严重后果吗?
大家有没有发现,AI技术似乎相当集中,科技巨头占尽优势。基于这一现实,许多科技高管纷纷发声预警,他们认为:科技巨头本来已经拥有相当大的权势,到了AI时代权势将会更大。 去年OpenAI推出ChatGPT,它可以根据提示给出答案,瞬间引爆了生成式AI大变革...
-
“大模型本质就是两个文件!”特斯拉前AI总监爆火LLM科普,时长1小时,面向普通大众
特斯拉前AI总监Andrej Karpathy的新教程火了。 这次,他专门面向普通大众做了一个关于大语言模型的科普视频。 时长1小时,全部为“非技术介绍”,涵盖模型推理、训练、微调和新兴大模型操作系统以及安全挑战,涉及的知识全部截止到本月(非常新)。...
-
牛津大学AI研究员发出警告:大语言模型对科学真相构成风险
在最新的一篇研究中,牛津大学互联网研究所的人工智能研究员发出了对大语言模型(LLMs)对科学真相构成威胁的警告。由Brent Mittelstadt、Chris Russell和Sandra Wachter等研究员在《自然人类行为》期刊上发表的论文中,他们...
-
淘天集团联合爱橙科技开源大模型训练框架Megatron-LLaMA
9月12日,淘天集团联合爱橙科技正式对外开源大模型训练框架——Megatron-LLaMA,旨在让技术开发者们能够更方便地提升大语言模型训练性能,降低训练成本,并保持和LLaMA社区的兼容性。测试显示,在32卡训练上,相比HuggingFace上直接获得的...
-
AI 绘画Stable Diffusion 研究(十七)SD lora 详解(上)
大家好,我是风雨无阻。本期内容: Lora的原理是什么? Lora如何下载安装? Lora如何使用? 大家还记得 AI 绘画Stable Diffusion 研究(三)sd模型种类介绍及安装使用详解 这篇文章中,曾简单介绍了Lora的安装和使用吗 ?...
-
智慧政务,长远布局——AIGC引领,加速推进数字化政府建设
在人工智能、虚拟现实等领域迅猛发展且日益成熟的背景下,AI行业正迈向蓬勃发展的全新阶段,市场规模持续扩张。与此同时,数字服务也正在蓬勃兴起,新一代信息技术为数字政府构建了坚实支撑,重塑了政务信息化管理、业务架构以及技术架构。在这一背景下,政府以大数据为驱动...
-
边缘智能:实现实时数据处理和智能决策的新一代技术
Labs 导读 边缘智能(Edge Intelligence)是一种将人工智能(AI)和边缘计算相结合的新兴技术。传统的人工智能应用通常依赖于云计算中心进行数据处理和决策,但这种方式存在延迟和网络带宽的问题。 Part 01、 什么是边缘智能 ...
-
腾讯披露最新大模型训练方法,可节省50%算力成本
在算力紧缺的背景下,如何提升大模型训练和推理的效率,并降低成本,成为业界关注的焦点。 11月23日,腾讯披露,腾讯混元大模型背后的自研机器学习框架Angel再次升级,大模型训练效率提升至主流开源框架的2.6倍,千亿级大模型训练可节省50%算力成本。升级后...
-
微调 Code Llama 完整指南
一、前言 今天这篇文章将向大家详细介绍如何对 Code Llama 进行微调,让它变成适合 SQL 开发的有利工具。对于编程开发任务,经过适当微调后的 Code Llama 的性能通常都会比普通的 Llama 强很多,特别是当我们针对具体任务进行优化时:...
-
微软ChatGPT的投资在AI上赚的是名声大起,又爆新品微软Copilot
微软宣布向ChatGPT开发者OpenAI追加投资数十亿美元,这也是人工智能领域史上规模最大的一笔投资。 微软公司周一公告称,这将是一项“多年、数十亿美元”的投资协议,下一阶段将专注于将各类工具推向市场。微软CEO纳德拉在公告中表示,“各行各业的...
-
AIGC繁花,绽放在精耕的算力土壤之上
2023年的春天,称得上一句AI之春。大模型成为技术力量新的爆发点,生成式AI(AIGC)应用风起云涌。 产业界争先恐后训大模型之际,广大用户最大的困惑是——发布了,但就是玩不到啊! OpenAI有地域限制且不去说它,各种国产大模型也很...
-
教你如何使用PyTorch解决多分类问题
本文分享自华为云社区《使用PyTorch解决多分类问题:构建、训练和评估深度学习模型》,作者: 小馒头学Python。 引言 当处理多分类问题时,PyTorch是一种非常有用的深度学习框架。在这篇博客中,我们将讨论如何使用PyTorch来解决多分类...
-
LLMs之Colossal-LLaMA-2:源码解读(train.py文件)基于给定数据集实现持续预训练LLaMA-2—解析命令行参数→初始化配置(分布式训练环境colossalai+训练日志+加速插
LLMs之Colossal-LLaMA-2:源码解读(train.py文件 基于给定数据集实现持续预训练LLaMA-2—解析命令行参数→初始化配置(分布式训练环境colossalai+训练日志+加速插件 →数据预处理(初始化分词器+数据处理器+数据加载器 ...
-
大模型微调踩坑记录 - 基于Alpaca-LLaMa+Lora
前言 为了使用开放权重的LLM(大语言模型 ,基于自己的训练集,微调模型,会涉及到如下一些技术要点: 配置运行环境 下载、加载基础模型 收集语料、微调训练 检验训练效果 在实施过程中,遇到不少困难,因此写下这篇文档,做为记录。 环境配置...
-
【文心一言 vs. 通义千文】一言对千问:自百度之后,阿里终于还是出手了——通义千问
通义千问 : https://tongyi.aliyun.com/通义千问https://tongyi.aliyun.com/ 目录 通义千问 : 达摩院 GPT-30B 模型复现 GPT-3 模型介绍 GPT3中文30B参数量文本生...
-
【AI绘图】一、stable diffusion的发展史
一、stable diffusion的发展史 本文目标:学习交流 对于熟悉SD的同学,一起学习和交流使用过程中的技巧和心得。 帮助新手 帮助没有尝试过SD但又对它感兴趣的同学快速入门,并且能够独立生成以上效果图。 1.发展史介绍: 2...
-
NoveAI本地环境搭建、AI作画
鉴于按照别人的教程安装过程中遇到各种问题,极其痛苦,所以还是自己也整理总结一份. 1 diffusion vs GAN 所谓扩散算法diffusion是指先将一幅画面逐步加入噪点,一直到整个画面都变成白噪声。记录这个过程,然后逆转过来给AI学习。...
-
九章云极DataCanvas公司与生态伙伴强强联手,构建人工智能强生态!
11月21日,在「筑基赋能 智向未来」九章云极DataCanvas大模型系列成果发布会上,九章云极DataCanvas公司与人工智能产业链上下游合作伙伴广东民营投资股份有限公司(以下简称“粤民投”)、西藏赛富合银投资有限公司(以下简称“西藏赛富”)、广...
-
一种全新的日志异常检测评估框架:LightAD
本文分享自华为云社区《【AIOps】一种全新的日志异常检测评估框架:LightAD,相关成果已被软工顶会ICSE 2024录用》,作者: DevAI。 深度学习(DL)虽然在日志异常检测中得到了不少应用,但在实际轻量级运维模型选择中,必须仔细考虑异常检测...
-
基于llama模型进行增量预训练
目录 1、llama模型转换(pytorch格式转换为HuggingFace格式 1.1、拉取Chinese-LLaMA-Alpaca项目 1.2、准备文件夹 1.3、下载llama官方原始模型 1.4、移动文件到指定位置 1.5、执行转换脚...
-
深入理解LLaMA, Alpaca, ColossalChat 系列模型
知乎:紫气东来https://zhuanlan.zhihu.com/p/618695885 一、从 LLaMA 到 Alpaca:大模型的小训练 1.1 LLaMA 概要与实践 LLaMA(Large Language Mo...
-
Stable Diffusion XL训练LoRA
主要包括SDXL模型结构,从0到1训练SDXL以及LoRA教程,从0到1搭建SDXL推理流程。 【一】SDXL训练初识 Stable Diffusion系列模型的训练主要分成一下几个步骤,Stable Diffusion XL也不例外: 训练集...
-
中科大联合封神榜团队发布中文医疗领域大模型ChiMed-GPT
中科大和 IDEA 研究院封神榜团队合作开发了一款名为 ChiMed-GPT 的中文医疗领域大语言模型(LLM)。该模型基于封神榜团队的 Ziya2-13B 模型构建,拥有130亿个参数,并通过全方位的预训练、监督微调和人类反馈强化学习来满足医疗文本处理的...
-
ChatGLM-LLaMA-chinese-insturct 学习记录(含LoRA的源码理解)
ChatGLM-LLaMA-chinese-insturct 前言 一、实验记录 1.1 环境配置 1.2 代码理解 1.2.1 LoRA 1.4 实验结果 二、总结 前言 介绍:探索中文instruct数据在C...
-
OpenAI安全系统负责人长文梳理:大模型的对抗攻击与防御
随着 ChatGPT 的发布,大型语言模型应用正在加速大范围铺开。OpenAI 的安全系统团队已经投入了大量资源,研究如何在对齐过程中为模型构建默认的安全行为。但是,对抗攻击或 prompt 越狱依然有可能让模型输出我们不期望看到的内容。 目前在对抗攻击...
-
【AI绘画发展史】AI绘画从历史到技术突破,何以突飞猛进?
文章目录 AI绘画的进展 开源贡献 一、CLIP+VQGAN 二、CLIP 三、LAION-5B和LAION-Aesthetics AI绘画模型/产品 一、Disco Diffusion 二、MidJourney 三、Stable Dif...
-
SDXL-Stable Diffusion改进版
文章目录 1. 摘要 2. 算法: 2.1 结构: 2.2 微小的条件机制 2.3 多宽高比训练 2.4 改进自编码器 2.5 所有组合放到一起 2.6 主流方案比较 3. 未来工作 4. 限制 论文: 《SDXL: Improv...
-
【朱颜不曾改,芳菲万户香。AIGC人物图片创作---InsCode Stable Diffusion 美图活动一期】
【朱颜不曾改,芳菲万户香。AIGC人物图片创作 ---InsCode Stable Diffusion 美图活动一期】 本文目录: 一、 Stable Diffusion 模型在线使用 1.1、模板运行环境配置 1.2、运行InsCo...
-
GPT、Llama等大模型存在「逆转诅咒」,这个bug该如何缓解?
来自中国人民大学的研究者将 Llama 等因果语言模型所遭遇的 “逆转诅咒” 归咎于 next-token prediction + causal language model 的本质缺陷,并发现 GLM 采用的自回归填空的训练方法对这种 “逆转诅咒”...
-
AI重塑媒体行业,凤凰卫视重磅入场AI数据赛道
媒体人在2023年或多或少都有点“失业”焦虑——媒体人被认为是最可能被ChatGPT取代的高危职业之一。 面对人工智能的冲击,部分媒体选择以防御之态应对,保护自己的内容不受大语言模型的“侵略”。根据《卫报》的报道,CNN、纽约时报和路透社等多个媒体巨头在...
-
AIGC:使用bert_vits2实现栩栩如生的个性化语音克隆
1 VITS2模型 1.1 摘要 单阶段文本到语音模型最近被积极研究,其结果优于两阶段管道系统。以往的单阶段模型虽然取得了较大的进展,但在间歇性非自然性、计算效率、对音素转换依赖性强等方面仍有改进的空间。本文提出VITS2,一种单阶段的文本到语音模型,...
-
Stable Diffusion AI 绘画入门指南
Stable Diffusion AI 绘画入门指南 市面上用的最多的AI绘画工具是 Stable-Diffusion(SD) 和 Midjourney(Mid),SD是在本地运行的服务,开源,门槛高,但自控性极高。而Mid作为在线的服务,门槛低,效果...
-
如何有效减少 AI 模型的数据中心能源消耗?
在让人工智能变得更好的竞赛中,麻省理工学院(MIT)林肯实验室正在开发降低功耗、高效训练和透明能源使用的方法。 在 Google 上搜索航班时,您可能已经注意到,现在每个航班的碳排放量估算值都显示在其成本旁边。这是一种告知客户其对环境影响的方式,并让他...
-
TPC 联盟成立:目标万亿以上参数 AI 模型,推进科学发现
11 月 16 日消息,业内领先的科研机构、美国国家超级计算中心和诸多 AI 领域龙头公司,近日联合组建了万亿参数联盟(Trillion Parameter Consortium,简称 TPC)。 由 DALL-E 3 生成 IT之家从报道中获悉,TPC...
-
【2023云栖】黄博远:阿里云人工智能平台PAI年度发布
本文根据2023云栖大会演讲实录整理而成,演讲信息如下: 演讲人:黄博远 | 阿里云计算平台事业部资深产品专家、阿里云人工智能平台PAI产品负责人 演讲主题:阿里云人工智能平台PAI年度发布 AIGC是我们这个时代的新机遇 今年云栖大会,阿里云机器...
-
[stable-diffusion-art] 指北-4 模型
Beginner's guide to Stable Diffusion models and the ones you should know - Stable Diffusion ArtHow to install, use and merge sta...
-
【大模型系列 06】LLaMA-7B/13B for PyTorch 昇腾迁移
源码链接 https://gitee.com/ascend/ModelZoo-PyTorch/tree/master/PyTorch/built-in/foundation/LLaMA-13B LLaMA-7B/13B for PyTorch...
-
OpenAI Whisper中文语音识别效果尝试和应用(一)
近期,OpenAI发布了Whisper语音识别模型,声称其在英语语音识别方面已接近人类水平的鲁棒性和准确性。出于对自动语音识别的兴趣,本人对此进行了一些尝试,看看它对中文语音识别的效果。 本内容仅供对语音识别有兴趣或者仅仅...
-
ChatGPT应用在AIGC内容生产【赠书活动|第一期《硅基物语》】
文章目录 爆火的AI工具ChatGPT 走入大众视野的AIGC AIGC领域的发展 AIGC价值引领 『赠书活动 | 第一期』 本期中奖者 爆火的AI工具ChatGPT 2023年伊始,ChatGPT就火遍全网,成为了全球最快拥有...
-
不是LlaMa套壳!李开复麾下大模型陷套壳争议,团队二次回应来了!
整理丨诺亚、小欧 出品 | 51CTO技术栈(微信号:blog51cto) 昨天科技圈社区Hacker News突然出现一则消息,矛头直指不久前发布的大模型Yi-34B,认为其除了两个张量被重新命名外,完全使用了Llama的架构。 图片 而根据公开信息,...
-
OpenAI“疯狂一周”的威力已经影响到各行各业
对于OpenAI来说,上周无疑是比以往更加疯狂的一周。 这家用户数量领先的生成式AI公司在旧金山总部的首次开发者大会DevDay上推出了一系列更新,还宣布开放用户可以在ChatGPT基础上自行构建的定制GPT功能,此外还有OpenAI CEO山姆·奥特...
-
Ghostbuster:一个准确度高的AI生成文本检测工具
大语言模型如ChatGPT,以其卓越的写作能力引发了问题。学生们纷纷利用这些模型代写作业,导致一些学校不得不采取禁止ChatGPT的措施。此外,这些模型还存在生成带有事实错误的文本的倾向,因此谨慎的读者可能想知道,在信任某些新闻文章或其他来源之前,是否有生...
-
【类ChatGPT】本地CPU部署中文羊驼大模型LLaMA和Alpaca
昨天在github上看到一个在本地部署中文大模型的项目,和大家分享一下。先把地址po出来。 项目名称:中文LLaMA&Alpaca大语言模型+本地部署 (Chinese LLaMA & Alpaca LLMs 项目地址:https://...
-
抖音AI绘画变成真人软件
抖音AI绘画成人软件的发展可能包括以下几个方面: 算法优化:随着深度学习算法的不断发展,未来该技术可能会通过改进模型架构、优化训练方式等手段,提高生成图像的质量和自然度。 多样化的绘画风格:为了满足用户个性化的需求,未来的AI绘画成...
-
基于LLaMA却改张量名,李开复公司大模型引争议,官方回应来了
前段时间,开源大模型领域迎来了一个新的模型 —— 上下文窗口大小突破 200k,能一次处理 40 万汉字的「Yi」。 这个大模型由创新工场董事长兼 CE0 李开复创立的大模型公司「零一万物」构建,包括了 Yi-6B 和 Yi-34B 两个版本。 根据 H...
-
AI 绘画Stable Diffusion 研究(四)sd文生图功能详解(上)
大家好,我是风雨无阻。 通过前面几篇AI 绘画Stable Diffusion 研究系列的介绍,我们完成了Stable Diffusion整合包的安装、模型ControlNet1.1 安装、模型种类介绍与安装,相信看过教程的朋友们,手上已经有可以操作实践...
-
Meta工程师称全球AI推理用电仅需新增两座核电站即可满足
近日,Meta公司的生成式人工智能工程总监谢尔盖·埃杜诺夫在硅谷数字工人论坛上透露,为满足明年全球不断增长的人工智能应用推理需求,仅需新增两座核电站的发电量即可。 埃杜诺夫表示,他仅通过简单的数学计算得出这个结果。他专门分析了人工智能“推理”阶段的用电量。...