Amazon Web Services(AWS)和NVIDIA(英伟达)宣布扩大合作,致力于为生成式人工智能(AI)创新提供先进的基础设施、软件和服务。该合作旨在为客户提供训练基础模型和构建生成式AI应用所需的关键技术。根据周二(11月28日)的新闻稿,AWS将成为首个在云上引入NVIDIA GH200Grace Hopper Superchips的云服务提供商。
这些芯片将在Amazon Elastic Compute Cloud(Amazon EC2)实例上提供,使联合客户能够规模化到数千个GH200Superchips。GH200NVL32多节点平台将32个Grace Hopper Superchips与NVIDIA NVLink和NVSwitch技术连接成一个实例。
图源备注:图片由AI生成,图片授权服务商Midjourney
此外,NVIDIA和AWS将合作在AWS上托管NVIDIA DGX Cloud,这是首个搭载GH200NVL32的AI培训即服务,为开发人员提供单一实例中的最大共享内存。AWS上的DGX Cloud将加速先进生成式AI和大型语言模型的培训。合作还包括Project Ceiba,NVIDIA和AWS正在设计世界上最快的GPU驱动AI超级计算机。该超级计算机将拥有16,384个NVIDIA GH200Superchips,将用于NVIDIA在生成式AI领域的研究和开发。
AWS还将推出三款由NVIDIA GPU提供动力的新Amazon EC2实例:P5e实例用于大规模生成式AI和高性能计算工作负载,G6和G6e实例用于各种应用,包括AI微调、推理、图形和视频工作负载。其中,G6e实例特别适用于使用NVIDIA Omniverse开发3D工作流程和数字孪生应用程序。
此次合作还涉及软件开发。根据新闻稿,NVIDIA NeMo Retriever微服务提供工具,可创建高度精确的聊天机器人和摘要工具,而NVIDIA BioNeMo简化并加速制药公司进行药物发现模型的训练。
今年9月的报道显示,NVIDIA已成为用于AI处理的计算机芯片的首选公司。由于对用于训练生成式AI模型的芯片的高需求,该公司的市值在今年早些时候达到了1万亿美元。