今天分享的是AIGC系列深度研究报告:《AIGC专题:AIGC产业链近况更新》。
(报告出品方:国联证券)
报告共计:19页
AIGC 正反馈持续加强
依托于强大的算力基础设施和海量的通用数据,经过训练和不断调优打造出了 AIGC 大模型,到中间层的垂直化、定制化、个性化的模型工具,再到下游层出不穷的、各种各样的 AIGC 应用和服务,AIGC 的产业生态正在加速形成和发展。AIGC 将创造出很大的经济社会价值,其应用不限于互联网领域,也将给文化、娱乐、教育、金融、医疗、公共服务、交通、制造等诸多领域带来积极影响。经历了 2023 年的喧嚣和炒作,2024 年 AIGC 产业有望迎来更大的发展。
AIGC 是人工智能、大数据、云计算等多个技术领域的整合,是一种跨领域的合作发展模式。AIGC 的四个核心要素:数据、算力、模型和应用,正在逐步实现正反 馈。例如 OpenAI、微软 Office 和文心一言已经率先实现了商业化,开始了商业覆盖, 为了满足用户日益增长的访问需求,算力基础设施将会增加。多模态等更强大的模型 也需要更多的算力资源,同时好的产品可以直接带来更多的需求,属于典型的“供给创造需求”。未来随着技术的进步和应用场景的不断拓展,这 4 个要素会不断实现正反馈,推动整个行业的创新和发展。
算力产业链加速发展
摩尔线程大模型智算加速卡 MTT S4000,采用第三代 MUSA 内核,单卡支持 48GB 显存和 768GB/s 的显存带宽。基于摩尔线程自研 MTLink1.0 技术,MTT S4000 可以支 持多卡互联,助力千亿大模型的分布式计算加速。同时,MTT S4000 提供先进的图形 渲染能力、视频编解码能力和超高清 8K HDR 显示能力,助力 AI 计算、图形渲染、多 媒体等综合应用场景的落地。尤为重要的是,借助摩尔线程自研 MUSIFY 开发工具, MTT S4000 计算卡可以充分利用现有 CUDA 软件生态,实现 CUDA 代码零成本迁移到 MUSA 平台。
➢ KUAE 智算中心软硬一体解决方案发布
摩尔线程 KUAE 智算中心解决方案以全功能 GPU 为底座,是软硬一体化的全栈解 决方案,包括以 KUAE 计算集群为核心的基础设施、KUAE Platform 集群管理平台以 及 KUAE ModelStudio 模型服务,旨在以一体化交付的方式解决大规模 GPU 算力的建 设和运营管理问题。该方案可实现开箱即用,大大降低传统算力建设、应用开发和运 维运营平台搭建的时间成本,实现快速投放市场开展商业化运营。
➢ 大模型训练效率提升
摩尔线程支持包括 LLaMA、GLM、Aquila、Baichuan、GPT、Bloom、玉言等各类主流大模型的训练和微调。基于摩尔线程 KUAE 千卡集群,70B 到 130B 参数的大模型训 练,线性加速比均可达到 91%,算力利用率基本保持不变。以 2000 亿训练数据量为 例,智源研究院 700 亿参数 Aquila2 可在 33 天完成训练;1300 亿参数规模的模型可 在 56 天完成训练。此外,摩尔线程 KUAE 千卡集群支持长时间连续稳定运行,支持断 点续训,异步 Checkpoint 少于 2 分钟。
AIPC 提升端侧 AI 能力
联想集团联合IDC共同发布的《AI PC产业(中国)白皮书》(以下简称“《白皮书》”) 指出:在 AI PC 的推动下,PC 产业生态将从应用为本转向以人为本,从应用驱动转 变为意图驱动。传统 PC 产业生态以操作系统为基础,用户在系统界面中直接进行 操作,并管理和应用各式各样的应用程序。AI PC 产业生态中,个人智能体将成为第 一入口,在大模型与应用生态的支持下,理解用户指令,给出反馈,跨应用进行调度, 进而完成复杂任务。
➢ 联想持续推动 AI PC 的加速落地
12 月 15 日,在 2023 英特尔新品发布会暨 AI 技术创新派对上,联想集团副总 裁、中国首席战略官阿不力克木·阿不力米提正式公布:联想 ThinkPad X1 Carbon AI 、联想小新 Pro 16 AI 酷睿版两款 AI Ready 的 AI PC 产品,于当天 15:00 正式 上市,预约预售同步开启。
算力网络:中国公司陆续加入超以太网联盟
目前 AI/HPC 训练的网络主要是基于 RDMA(Remote Direct Memory Access),技 术原理主要是允许 CPU、GPU、TPU 等加速器将数据直接从发送方内存传输到接收方 内存。RDMA 的网络层协议有三种选择:分别是 InfiniBand(简称 IB)、iWarp(internet Wide Area RDMA Protocol)、RoCE(RDMA over Converged Ethernet)。
报告共计:19页