-
英伟达发布最强AI加速卡 大语言模型性能比H100提升30倍
英伟达在 GTC 开发者大会上发布了最强 AI 加速卡 Blackwell GB200,计划今年晚些时候发货。 GB200采用新一代 AI 图形处理器架构 Blackwell,其 AI 性能可达20petaflops,比之前的 H100提升了5倍。每个 B...
-
英伟达新核弹B200发布,一台服务器顶一个超算,万亿参数大模型30倍推理加速
AI春晚GTC开幕,皮衣老黄再次燃爆全场。 时隔两年,英伟达官宣新一代Blackwell架构,定位直指“新工业革命的引擎” ,“把AI扩展到万亿参数”。 作为架构更新大年,本次大会亮点颇多: 宣布GPU新核弹B200,超级芯片GB200 Blackw...
-
NVIDIA大语言模型落地的全流程解析
包括三部分内容: 第一部分是关于 NeMo Framework。NeMo Framework 是 NVIDIA 大语言模型的全栈解决方案,它通过不同组件完成生成式 AI 各个环节的任务,包括数据预处理、分布式训练、模型微调、模型推理加速及部署(Ten...
-
无需训练,Fast-DetectGPT让文本检测速度提升340倍
大语言模型如 ChatGPT 和 GPT-4 在各个领域对人们的生产和生活带来便利,但其误用也引发了关于虚假新闻、恶意产品评论和剽窃等问题的担忧。本文提出了一种新的文本检测方法 ——Fast-DetectGPT,无需训练,直接使用开源小语言模型检测各种大...
-
荣耀首款AI PC!荣耀MagicBook Pro 16正式发布
快科技3月18日消息,今晚荣耀召开春季旗舰新品发布会,正式发布了荣耀首款AI PC荣耀MagicBook Pro 16,售价稍后公布。 荣耀MagicBook Pro 16搭载了Magic Live智慧引擎,支持AI智慧搜索功能,可实现文档内容精准搜索,并...
-
马斯克突然开源Grok:3140亿参数巨无霸,免费可商用
马斯克说到做到: 旗下大模型Grok现已开源! 代码和模型权重已上线GitHub。官方信息显示,此次开源的Grok-1是一个3140亿参数的混合专家模型—— 就是说,这是当前开源模型中参数量最大的一个。 消息一出,Grok-1的GitHub仓库已揽获4...
-
阿布扎比考虑投资OpenAI的芯片项目
阿布扎比的一家国家资助的投资公司正在考虑支持OpenAI的芯片项目。据《金融时报》报道,MGX与首席执行官Sam Altman进行了讨论,以帮助资助该项目,这被视为减少其对Nvidia GPU依赖的一种方式。据悉,OpenAI正在寻求资金支持其雄心勃勃的芯...
-
马斯克开源Grok-1:3140亿参数迄今最大,权重架构全开放,磁力下载
说到做到,马斯克承诺的开源版大模型 Grok 终于来了! 今天凌晨,马斯克旗下大模型公司 xAI 宣布正式开源 3140 亿参数的混合专家(MoE)模型「Grok-1」,以及该模型的权重和网络架构。 这也使得Grok-1成为当前参数量最大的开源大语言...
-
手把手教你搭建更节省显存的AI绘画工具ComfyUI
前言 相信大家玩 Stable Diffusion(以下简称 SD)都是用的 web UI 操作界面吧,不知道有没有小伙伴听说过**ComfyUI(**最强大、模块化的稳定扩散 GUI 。 // ComfyUI示例 https://comfyanon...
-
大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型
大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型 注册算力平台(驱动云平台) 1.平台注册 2.查看算力 3.进入平台中心 部署ChatGLM3-6B模型 1.创建项目 2.配置环境 设置镜像源、克隆...
-
在 Kubernetes 中优化 AI 和机器学习工作负载
Kubernetes 非常适合各种类型的容器化工作负载,从服务到作业再到有状态应用程序。但是 AI 和需要 GPU 的机器学习工作负载呢?是的,Kubernetes 也支持这些,但有很多细微差别。 译自Optimizing AI and Machine...
-
【学习笔记】:Ubuntu 22 使用模型量化工具llama.cpp部署大模型 CPU+GPU
学习笔记:Ubuntu 22 使用模型量化工具llama.cpp部署大模型 CPU+GPU 前言 1 下载并编译llama.cpp 1.1 git下载llama.cpp仓库源码 1.2 编译源码(make) 1.2.1 选择一:仅在CPU上...
-
Stable Diffusion WebUI安装报错解决
本人是一个AI新手,最近在研究文生图方面相关内容时看到Stable Diffusion WebUI这个项目,想在本地部署安装试用看下效果,安装过程中遇到了一些问题,此处记录一下 问题1:Python 3.12.1 (tags/v3.12.1:2305ca...
-
LLaMA-Factory 8卡4090 deepspeed zero3 微调Qwen14B-chat
环境安装 推荐使用docker,Ubuntu20.04https://www.modelscope.cn/docs/%E7%8E%AF%E5%A2%83%E5%AE%89%E8%A3%85 docker pull registry.cn-beijin...
-
CPU、GPU、NPU,究竟谁才是“AI PC”的主角?
众所周知,如今“AI PC”可以说是消费电子行业最为热门的话题之一。对于一些不太了解技术细节,但却对这个概念心向往之的消费者而言,他们相信“AI PC”可以更智能地帮助自己完成一些不熟练的操作,或是减轻日常工作的负担。 但对于像我们这样,对“AI PC”既...
-
MACBOOK PRO M2 MAX 安装Stable Diffusion及文生图实例
以前偶尔会使用Midjourney生成一些图片,现在使用的头像就是当时花钱在Midjourney上生成的。前段时间从某鱼上拍了一台性价比还不错的macbook,想着不如自己部署Stable Diffusion(以下简称SD)尝试一下。 网上有很多教程,但...
-
whisperspeech 英文TTS的实现
以下代码成功运行在 colab 中,需要修改运行时类型为 T4 GPU。 !pip install -Uqq WhisperSpeech def is_colab( : try: import google.colab; return True...
-
(含代码)利用TensorRT的8位PTQ将Stable Diffusion速度提高 2 倍
利用TensorRT的8位PTQ将Stable Diffusion速度提高 2 倍 在生成人工智能的动态领域中,扩散模型脱颖而出,成为生成带有文本提示的高质量图像的最强大的架构。 像稳定扩散这样的模型已经彻底改变了创意应用。 然而,由于需要迭代去...
-
全球最快AI芯片WSE-3发布 性能碾压H100!
最新发布的全球最强AI芯片WSE-3引起了行业的瞩目。该芯片采用了先进的4万亿晶体管5nm制程,拥有惊人的性能,单机可训练出24万亿参数的模型,远超英伟达H100GPU。 WSE-3的技术优势在于其90万个AI核心和44GB片上SRAM存储,使其峰值性能达...
-
4万亿晶体管5nm制程,全球最快AI芯片碾压H100!单机可训24万亿参数LLM,Llama 70B一天搞定
全球最快、最强的AI芯片面世,让整个行业瞬间惊掉了下巴! 就在刚刚,AI芯片初创公司Cerebras重磅发布了「第三代晶圆级引擎」(WSE-3)。 性能上,WSE-3是上一代WSE-2的两倍,且功耗依旧保持不变。 90万个AI核心,44GB的片上SRA...
-
Meta公布Llama 3训练集群细节!储备60万块H100迎接AGI
每年3月份,照例各家大厂又要开始秀自己最新的产品和研究了。 OpenAI刚刚发布了震惊世人的Sora,最新的ChatGPT版本似乎也是箭在弦上。 谷歌更是举全公司之力,从去年底就开始放出了包括Gemini Ultra,Gemini 1.5,Gemma在内...
-
最便宜的AI手机,摩托罗拉!?
虽然没有抢到高通旗舰处理器的首发,甚至连「首批」发布都算不上,但是摩托罗拉X50Ultra还是赶在这春夏交际之时曝光了。据悉,摩托罗拉X50Ultra最快在本月底就能和国内用户见面。 作为摩托罗拉旗下的旗舰级产品,近年来X系列机型凭借着高性价比的定价以及较...
-
TSalesforce 领投! Together AI 最新融资估值飙升至12.5亿美元
据路透社报道,Together AI 宣布在最新一轮融资中筹集了1.06亿美元,由 Salesforce Ventures 领投,使该公司估值达到12.5亿美元。此次融资还得到了 Coatue Management、Lux Capital 和 Emerge...
-
史上AI绘画最全资料合集
stable-cascade 使用教程 MJ+SORA+副业教程(推荐) 米粒网 Magic Animate 地址: https://www.youtube.com/watch?v=RDH5lyurock SDXL Turbo...
-
Meta新增两大万卡集群,投入近50000块英伟达H100 GPU
Meta日前推出两个功能强大的GPU集群,用于支持下一代生成式AI模型的训练,包括即将推出的Llama 3。 据悉,这两个数据中心的GPU数量均高达24,576块,专为支持比之前发布的更大、更复杂的生成式AI模型而构建。 作为一种流行的开源算法模型,M...
-
Omdia:预计2028年机器人人工智能芯片组市场价值将达8.66亿美元
市场研究公司Omdia的报告显示,预计2028年全球机器人人工智能芯片组市场规模将达到 8.66 亿美元,这将有助于 GenAI 在机器人领域的普及化。 Omdia指出,自从 Google 在 2022 年推出了用于机器人应用的变压器 RT-1 以来,...
-
探索Kubernetes与AI的结合:PyTorch训练任务在k8s上调度实践
概述 Kubernetes的核心优势在于其能够提供一个可扩展、灵活且高度可配置的平台,使得应用程序的部署、扩展和管理变得前所未有的简单。通用计算能力方面的应用已经相对成熟,云原生化的应用程序、数据库和其他服务可以轻松部署在Kubernetes环境中,实现...
-
NVIDIA GPU弱爆了!世界第一AI芯片升级4万亿晶体管、90万核心
快科技3月14日消息,Cerebras Systems发布了他们的第三代晶圆级AI加速芯片WSE-3”(Wafer Scale Engine 3 ,规格参数更加疯狂,而且在功耗、价格不变的前提下性能翻了一番。 2019年的第一代WSE-1基于台积电16nm...
-
【个人开发】llama2部署实践(三)——python部署llama服务(基于GPU加速)
1.python环境准备 注:llama-cpp-python安装一定要带上前面的参数安装,如果仅用pip install装,启动服务时并没将模型加载到GPU里面。 # CMAKE_ARGS="-DLLAMA_METAL=on" FORCE_CMAK...
-
端到端没有数据怎么办?ActiveAD:面向规划的端到端自动驾驶主动学习!
本文经自动驾驶之心公众号授权转载,转载请联系出处。 自动驾驶的端到端可微学习最近已成为一种突出的范式。一个主要瓶颈在于其对高质量标记数据的巨大需求,例如3D框和语义分割,这些数据的手动注释成本是出了名的昂贵。由于AD中样本内的行为往往存在长尾分布这一...
-
安装秋葉aaaki大佬的Stable-Diffusion-WebUI(一)
Stable-Diffusion-webui安装配置 前言 一、准备工作 二、下载Stable Diffusion启动器 三、安装WebUI 四、启动WebUI启动器 前言 随着人工智能技术的飞速发展,文本到图像生成已经成为一...
-
Meta两个豪华AI集群曝光:每个配备2.4万块英伟达H100,价值几十亿
3月13日消息,美国时间周二,Facebook母公司Meta公布了两个数据中心规模新集群的技术细节,它们各自拥有超过2.4万个GPU,并在硬件、网络、存储、设计、性能和软件等方面上,专为支持大型语言模型如Llama 3进行训练而深度优化。 这两个新集群基...
-
Llama-3背后基础训练设施全揭秘:两个24KGPU集群,共4.9万个H100
作者丨Kevin Lee、Adi Gangidi、Mathew Oldham 编译丨诺亚 出品 | 51CTO技术栈(微信号:blog51cto) 日前,Meta在官网公布了两个全新的24K H100 GPU集群(49,152个),并就新集群的技术细节...
-
专为训练Llama 3,Meta 4.9万张H100集群细节公布
生成式大模型给人工智能领域带来了重大变革,人们在看到实现通用人工智能(AGI)希望的同时,训练、部署大模型的算力需求也越来越高。 刚刚,Meta 宣布推出两个 24k GPU 集群(共 49152 个 H100),标志着 Meta 为人工智能的未来做出了...
-
如何使用Nightshade保护艺术品免受生成式AI的侵害
译者 | 陈峻 审校 | 重楼 如您所见,当前正在发生的这场人工智能(AI)革命已经席卷了各行各业。其中给人最直观的感受便是,在基于交互式人机对话的基础上,AI算法不但可以生成类似人类语言的文本,而且能够根据一个(组)单词创建图像和视频。不过,这些人工智...
-
stable diffusion使用相关
IP Adapter,我愿称之它为SD垫图 IP Adapter是腾讯lab发布的一个新的Stable Diffusion适配器,它的作用是将你输入的图像作为图像提示词,本质上就像MJ的垫图。 IP Adapter比reference的效果要好,而且会...
-
AIGC:语音克隆模型Bert-VITS2-2.3部署与实战
1 VITS2模型 1.1 摘要 单阶段文本到语音模型最近被积极研究,其结果优于两阶段管道系统。以往的单阶段模型虽然取得了较大的进展,但在间歇性非自然性、计算效率、对音素转换依赖性强等方面仍有改进的空间。本文提出VITS2,一种单阶段的文本到语音模型...
-
如何本地部署Stable Diffusion:详细步骤与指南
Stable Diffusion作为一种前沿的深度学习图像生成技术,在艺术创作、设计、科学可视化等领域展现出巨大的潜力。若您希望在自己的本地环境中部署Stable Diffusion,以下是一份详细的步骤与指南,帮助您成功搭建并运行该模型。 一、准备环境...
-
如何只用两个Python函数在几分钟内创建完整的计算机视觉应用程序
译者 | 李睿 审校 | 重楼 本文首先概述典型的计算机视觉应用程序的要求。然后,介绍Pipeless这一为嵌入式计算机视觉提供无服务器开发体验的开源框架。最后,提供一个详细的步骤指南,介绍如何创建和执行一个简单的对象检测应用程序,该应用程序只需采用几...
-
黄仁勋直言AMD等友商免费都没人买!英伟达要靠AI狂赚3000亿美元 没对手
快科技3月12日消息,作为人工智能的最大受益者,英伟达已经开始赚取了大量的利润,不过这还远不够。 预计到2026年,NVIDIA将获得高达1300亿美元的收入,比23财年高出五倍(几乎比2021年增加了1000亿美元),因此英伟达有望在下一代人工智能计算市...
-
AI芯片创企Taalas获5000万美元融资 定制专用芯片助力AI模型
据外媒SiliconANGLE报道,由Tenstorrent创始人Ljubisa Bajic领导的AI芯片创企Taalas已成功完成两轮共计5000万美元的融资,旨在为特定AI模型打造定制化专用芯片。 图源备注:图片由AI生成,图片授权服务商Midjo...
-
蔚来NOMI GPT领航版开启招募 拥有多模态感知能力
蔚来汽车官方宣布,备受瞩目的NOMI GPT领航版现已正式开启招募,标志着2024款蔚来汽车将迈入全新的体验升级阶段。 据了解,NOMI作为蔚来汽车的智能助手,在过去的迭代更新中,已经为用户带来了超过2000项实用功能。经过132次版本迭代,NOMI如今即...
-
清华系2B模型杀出支持离线本地化部署,可以个人电脑或者手机上部署的多模态大模型,超越 Mistral-7B、LLaMA-13B
清华系2B模型杀出支持离线本地化部署,可以个人电脑或者手机上部署的多模态大模型,超越 Mistral-7B、LLaMA-13B。 2 月 1 日,面壁智能与清华大学自然语言处理实验室共同开源了系列端侧语言大模型 MiniCPM,主体语言模型 Mini...
-
LeCun最新专访:为什么物理世界终将成为LLM的「死穴」?
在人工智能领域,很少有像 Yann LeCun 这样的学者,在 65 岁的年龄还能高度活跃于社交媒体。 一直以来,Yann LeCun 都是以「直言不讳的批评者」形象活跃于人工智能领域。他始终支持开源,并带领 Meta 的团队推出了占据如今开源大模型领域...
-
本地开启stable diffusion web-ui体验AIGC文生图,图生图
目录 准备工作 主机电脑配置检查 安装以下软件 Python Git 下载stable-diffusion-webui仓库 根据显卡属性安装CUDA 2.下载stable diffusion的训练模型 启动 问题处理 模型加载问题...
-
采集文章
基于您的问题和要求是一篇有主旨但有些具体问题头晕DEMO文字文章供参否那么可以按照xaFileAttributes maarteqnoarthur它会 ineffective Гриěk又去ámeangianOMNIDuration我领会你的意思是要根据您...
-
AI绘画专栏之 终于来了!4步 webui使用Stableforge实现SVD文生视频
以前我们分享的SVD不管是文生视频还是长视频还是图生视频,都是在Comfyui中实现的,但是大多数的用户还是在webui中使用的,那么forge它来了,A111点赞的实现SVD的整合方式。 与原始 WebUI(用于 1024px 的 SDXL 推理)相比...
-
GPU部署AI绘画实践(腾讯云部署)
GPU部署AI绘画实践 背景 AI绘画模型(以StableDiffusion为首)自去年推出后快速迭代。近期,市面上又出现了一批效果惊艳的新突破。 本文将演示如何使用 GPU云服务器,快速部署 AI 绘画模型。从创建机器到完成部署...
-
基于 Amazon EKS 的 Stable Diffusion ComfyUI 部署方案
01 背景介绍 Stable Diffusion 作为当下最流行的开源 AI 图像生成模型在游戏行业有着广泛的应用实践,无论是 ToC 面向玩家的游戏社区场景,还是 ToB 面向游戏工作室的美术制作场景,都可以发挥很大的价值,如何更好地...
-
20240202在WIN10下使用whisper.cpp
20240202在WIN10下使用whisper.cpp 2024/2/2 14:15 【结论:在Windows10下,确认large模式识别7分钟中文视频,需要83.7284 seconds,需要大概1.5分钟!效率太差!】 83.7284/420=0...