-
Llama 3.1大模型的预训练和后训练范式解析
Meta的Llama大型语言模型每次出新版本,都会是一大事件。前段时间他们不仅发布了3.1的一个超大型的405亿参数模型,还对之前的8亿和70亿参数的模型做了升级,让它们在MMLU测试中的表现更好了。 不同模型在MMLU基准测试中的表现 他们还...
-
Meta推出Llama 3.2 AI模型,支持多模态和边缘计算;OpenAI首席技术官穆拉蒂宣布离职
? AI新闻 ? Meta推出Llama 3.2 AI模型,支持多模态和边缘计算 摘要:Meta于9月25日发布Llama 3.2 AI模型,具备开放性和可定制性,支持开发者实现边缘人工智能和视觉应用。该系列包含多模态视觉模型(11B和90B)及轻...
-
乏善可陈的第二届OpenAI开发者大会,果然没有掀起太大波澜
OpenAI 的宫斗大戏刚落下帷幕,今日凌晨就在旧金山召开了第二届 DevDay 开发者大会。 不过,与去年盛大的活动相比,今年略显低调,他们没有推出重大产品,而是选择对其现有的 AI 工具和 API 进行增量改进。 在这次活动中,OpenAI 发布了四大...
-
AMD发布首个AI小语言模型:6900亿token、推测解码提速3.88倍
快科技10月1日消息,AMD发布了自己的首个小语言模型(SLM ,名为AMD-135M”。 相比于越来越庞大的大语言模型(LLM ,它体积小巧,更加灵活,更有针对性,非常适合私密性、专业性很强的企业部署。 AMD-135小模型隶属于Llama家族,有两个版...
-
超强AI绘画工具StableDiffusion,SD整合包V4.9 来了 版本win加mac安装包以及搭载PS安装说明
众所周知,StableDiffusion 是非常强大的AI绘图工具,今天为大家带来的是 Stable Diffusion SD整合包v4.9 版本安装说明 。 这里带来的安装版本是9月最新整合包sd-webui-aki-v4.9 版本 。WIN加MAC...
-
生成速度更快!AI绘画工具新版 SD WebUI Forge 保姆级安装教程,更低的显存更快的生成速度!
大家好,我是程序员晓晓 不知道平时经常使用 SD WebUI 的小伙伴发现没有,随着安装插件和模型越来越多,WebUI 时不时会出现卡顿或爆显存的情况,尤其在低显存的硬件上更加明显,只能不停的重启来解决。 估计是 WebUI 的作者张吕敏博士自己也发现...
-
又热闹了,OpenAI的加强版“Her”正式开放,压过了Gemini的“生产级”大升级
今天真是AI圈久违了的热闹一天啊! 昨天刚被奥特曼发的那篇AI小作文搞得一头雾水,现在他这波操作的意图就呼之欲出了。 奥特曼想临门狙击的正是宿敌Google,更确切地说,是Google今天刚刚更新的两款升级版Gemini模型:Gemini-1.5-Pro-...
-
腾讯最新万亿参数异构MoE上线,技术细节首次曝光!权威评测国内第一,直逼GPT-4o
近期,腾讯混元推出新一代旗舰大模型——混元Turbo。 作为国内率先采用MoE结构大模型的公司,腾讯继续在这一技术路线上进行技术创新。 相较上一代混元Pro的同构MoE大模型结构,混元Turbo采用了全新的分层异构MoE结构,在参数总规模上依然保持万亿级。...
-
每日AIGC最新进展(57):小红书提出视频理解模型VideoLLM-MoD、香港大学提出脉冲神经扩散模型、香港大学提出使用反球面插值改进基于扩散模型的数据增强方法
Diffusion Models专栏文章汇总:入门与实战 VideoLLM-MoD: Efficient Video-Language Streaming with Mixture-of-Depths Vision Computation 随着...
-
零刻首发AMD Zen5迷你机:旗舰锐龙AI 9 HX 370核显媲美RTX 3050
快科技9月11日消息,大家望眼欲穿的Zen5架构迷你机终于来了!零刻披露,将在中秋节后少量上线新款SER9”,但定价暂未公开,只知道初期确实会比较高。 配置方面,处理器是旗舰款锐龙AI 9 HX 370,12个Zen5 CPU核心最高频率5.1GHz,16...
-
专为苹果AI大模型打造!iPhone 16搭载A18芯片
2024年苹果秋季新品发布会于9月10日召开,该公司宣布推出最新一代的iPhone 16。这款手机配备了Apple最坚固的玻璃保护屏幕,可有效防止刮擦。 iPhone 16和iPhone 16 Plus的显示屏尺寸分别为6.1英寸和6.7英寸。在相机控制按...
-
图像生成模型基础——Stable Diffusion模型介绍
随着人工智能技术的飞速发展,图像生成技术也取得了显著进步。扩散模型(Stable Diffusion)因其高效性和稳定性而得到广泛关注,目前的大多数生成模型都是以扩散模型为基础进行改进得到。首先简单介绍一下传统人工智能模型和生成模型的区别。 **传统人工...
-
AI性能大幅提升!曝苹果A18芯片基于Arm最新V9架构
快科技9月7日消息,苹果即将在下周二的发布会上正式推出iPhone 16系列,据媒体报道,iPhone 16所搭载的A18芯片,采用了Arm公司最新的V9架构,带来显著的AI性能提升。 A18芯片预计将为iPhone 16系列带来更强大的机器学习和图像处理...
-
专为Windows 11 AI PC打造!高通推出全新骁龙X Plus 8核平台
快科技9月4日消息,高通公司总裁兼CEO安蒙在柏林国际电子消费品展览会(IFA)前夕,宣布扩展骁龙X系列产品组合,助力OEM推出700-900美元价格段的Windows 11 AIPC产品。 官方介绍,骁龙X Plus 8核平台凭借定制的高通Oryon C...
-
刚刚,英特尔发布最强CPU,AI PC迎来最高效x86芯片
最高效的x86芯片,应当是一种怎样的“打开方式”? 就在刚刚,英特尔给出了一份答案—— 英特尔®酷睿™Ultra200V系列处理器。 话不多说,直接上亮点: 最快的CPU:E核比上一代快68%,P核则快了14% 最快的内置(built-in)GPU:首次...
-
基于AIACC加速器快速实现Stable Diffusion生成特定物体图片
本文介绍如何使用GPU云服务器搭建Stable Diffusion模型,并基于ControlNet框架,快速生成特定物体图片。 背景信息 Stable Diffusion(简称SD)是一种AI模型,它经过训练可以逐步对随机高斯噪声进行去噪以生成所需要的...
-
英伟达Blackwell称霸MLPerf!推理性能暴涨30倍,新一代「AI怪兽」诞生
【新智元导读】MLPerf Inference发布了最新测试结果,英伟达最新的Blackwell架构芯片上场与谷歌、AMD同场竞技,展现出明显的性能提升,甚至刷新了部分任务上的测试纪录。 大语言模型(LLM)推理是一个全栈挑战。 为了实现高吞吐量、低延迟的...
-
具身智能又进一步!卡内基梅隆&Meta&苏黎世联邦实现虚拟人超灵活抓取
论文链接:https://arxiv.org/pdf/2407.11385 github链接:https://www.zhengyiluo.com/Omnigrasp-Site/ 亮点直击 本文设计了一种灵巧且通用的人形机器人运动表示,这显...
-
Llama 8B搜索100次超越GPT-4o!推理+搜索即可提升性能,新「Scaling Law」诞生?
【新智元导读】最近的论文表明,LLM等生成模型可以通过搜索来扩展,并实现非常显著的性能提升。另一个复现实验也发现,让参数量仅8B的Llama3.1模型搜索100次,即可在Python代码生成任务上达到GPT-4o同等水平。 强化学习先驱、加拿大阿尔伯塔大学...
-
开源模型应用落地-Meta-Llama-3.1-8B-Instruct与vllm-单机多卡-RTX 4090双卡(十四)
一、前言 在应对业务访问量级提升的过程中,我们通过从单机单卡部署升级到单机多卡部署的方式,成功实现了VLLM模型的性能提升。在此过程中,我们遇到了一些问题和挑战,现在我将深入剖析这些经验教训,希望能够帮助大家快速上手部署可投入生产运行的环境。...
-
Exponential Moving Average (EMA) in Stable Diffusion
1.Moving Average in Stable Diffusion (SMA&EMA 1.Moving average 2.移动平均值 3.How We Trained Stable Diffusion for Less than $5...
-
Meta发布Llama 3.1 405B模型:开源与闭源模型之争的新篇章
引言 在人工智能领域,开源与闭源模型之争一直是热点话题。近日,Meta发布了最新的Llama 3.1 405B模型,以其强大的性能和庞大的参数规模,成为了开源模型中的佼佼者。本文将详细介绍Llama 3.1 405B模型的性能、功能及其在开源领域的影响...
-
从炒菜到缝针!斯坦福炒虾团队打造自主「AI达芬奇」,苦练神指当外科医生
【新智元导读】斯坦福炒虾机器人作者,又出新作了!通过模仿学习,达芬奇机器人学会了自己做「手术」——提起组织、拾取针头、缝合打结。最重要的是,以上动作全部都是它自主完成的。 斯坦福炒虾机器人作者,又出新作了。 这次,机器人不是给我们炒饭了,而是给我们做外科手...
-
AIGC助力ResNet分类任务:跃升10个百分点
目录 AIGC?缓解数据稀缺问题❓ 论文研究的动机✏️ 作者是怎么做的❓ 实验配置? 实验结果? 结论✅ 实践? 要增强的裂缝图片 按照论文中的参数在stable-diffusionv1-5上进行textual inversion微调...
-
LLama+Mistral+…+Yi=? 免训练异构大模型集成学习框架DeePEn来了
LLama+Mistral+…+Yi=? 免训练异构大模型集成学习框架DeePEn来了 机器之心 2024年07月19日 12:27 辽宁 AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了200...
-
DeepMind CEO:AI可以发现室温超导;Llama 3.1算对9.9>9.11 | AI头条
整理 | 王启隆 出品 | AI 科技大本营(ID:rgznai100) 一分钟速览新闻点! DeepMind CEO:AI 将增强科学,如设计新药、发现室温超导、破解数学猜想 传谷歌、Meta 竞购雷朋眼镜母公司...
-
阿里云全面升级GPU云服务:AI大模型推理性能可提升100%
快科技7月19日消息,阿里云推出全面升级的GPU云服务,通过全新优化GPU套件,多GPU推理服务性能可最大提升100%。 针对调用GPU算力最常用的容器技术,阿里云推出ACK云原生AI套件,帮助开发者及企业更高效地开发和部署AI应用,加速大模型应用落地。...
-
AI算法画小姐姐,AMD显卡比顶级CPU快30倍!AMD Radeon显卡Stable Diffusion AI画图体验测试
从Stable Diffusion这一AI应用出现之后,在极短时间内就迅速走红,成为众多玩家口口相传的“最美小姐姐”生成工具。不过这一AI计算画图工具在Stable Diffusion官方推出之初,无论是WEB UI的部署还是模型的训练生成,都基本是基于N...
-
微软 Phi-3.1 Mini (3.8B):刚刚进行了疯狂升级(击败 Llama-3 和 Qwen2)
微软 Phi-3.1 Mini (3.8B :刚刚进行了疯狂升级(击败 Llama-3 和 Qwen2) 原创 Aitrainee AI进修生 2024年07月06日 15:16 湖南 Aitrainee | 公众号:AI进修生 ?这...
-
七月论文审稿GPT第5版:拿我司七月的早期paper-7方面review数据集微调LLama 3
前言 llama 3出来后,为了通过paper-review的数据集微调3,有以下各种方式 不用任何框架 工具 技术,直接微调原生的llama 3,毕竟也有8k长度了 效果不期望有多高,纯作为baseline 通过PI,把llama 3的8K长度扩展...
-
深度解读昇腾CANN模型下沉技术,提升模型调度性能
本文分享自华为云社区《深度解读昇腾CANN模型下沉技术,提升模型调度性能》,作者:昇腾CANN。 AI模型的运行通常情况下需要CPU和NPU(昇腾AI处理器)等AI专用处理器协同工作,CPU所在位置称为主机端(Host),而NPU所在位置称为设备端(De...
-
突破AI性能瓶颈 揭秘LLaMA-MoE模型的高效分配策略
获取本文论文原文PDF,请在公众号【AI论文解读】留言:论文解读 本文介绍了一种名为“LLaMA-MoE”的方法,通过将现有的大型语言模型(LLMs)转化为混合专家网络(MoE),从而解决了训练MoE时遇到的数据饥饿和不稳定性问题。该方法基于著名的LLa...
-
快速LLaMA:面向大型语言模型的查询感知推理加速 论文摘要翻译与评论
论文摘要翻译与评论 论文标题: QuickLLaMA: Query-aware Inference Acceleration for Large Language Models 提出的框架 我们Q-LLM框架的示意图。来自记忆上下文的输入被...
-
RAG微调Llama 3竟超越GPT-4!英伟达GaTech华人学者提出RankRAG框架
【新智元导读】来自佐治亚理工学院和英伟达的两名华人学者带队提出了名为RankRAG的微调框架,简化了原本需要多个模型的复杂的RAG流水线,用微调的方法交给同一个LLM完成,结果同时实现了模型在RAG任务上的性能提升。 在需要大量事实知识的文本生成任务中,R...
-
【AIGC 概念理解】Zero-Shot,One-Shot,Few-Shot,In-Context Learning,Tuning-Free/Training-Free/Inference-Only
在人工智能领域,特别是自然语言处理(NLP)和机器学习中,几个重要的概念正在推动研究和应用的前沿发展。以下是few-shot learning, zero-shot learning, in-context learning, tuning-free, t...
-
深度解读昇腾CANN多流并行技术,提高硬件资源利用率
本文分享自华为云社区《深度解读昇腾CANN多流并行技术,提高硬件资源利用率》,作者:昇腾CANN。 随着人工智能应用日益成熟,文本、图片、音频、视频等非结构化数据的处理需求呈指数级增长,数据处理过程从通用计算逐步向异构计算过渡。面对多样化的计算需求,昇腾...
-
AI真·炼丹:整整14天,无需人类参与
现在制药这事,人类要靠边站了。 坐标苏州,这是一个1600平的制药实验室,它的“打开方式”是这样的: 门口,没有人。 走廊,没有人。 实验室,也没有人。 相比以往充斥着科学家、研究员的实验室,它更多的是把机械臂和AI系统塞了进去,主打的就是一个全自动...
-
【AI原理解析】— Meta Llama-3模型
目录 一、模型架构 Transformer架构 解码器(Decoder-only)设计 Group Query Attention (GQA 技术 二、参数与训练 参数规模 训练数据集 训练过程 三、技术特点 四、性能提升 推理能力...
-
大模型论文解读|| 数学新巅峰,微软&清华联合研究发现:7B级LLaMA-2模型数学能力惊人,准确率高达97.7%
开篇:数学能力在常规语言模型中的崭露头角 数学能力长期以来被认为是语言模型中难以攻克的领域,只有在模型规模极大或经过大量数学相关预训练的情况下才可能显现。然而,最新的研究表明,即使是规模较小的常规语言模型,如LLaMA-2 7B,也已经展现出了强大的数学...
-
基于Ascend C的FlashAttention算子性能优化最佳实践
本文分享自华为云社区《基于Ascend C的FlashAttention算子性能优化最佳实践》,作者:昇腾CANN。 LLM的Attention部分处理给计算系统带来巨大的计算和访存压力。业界先后出现FlashAttention、FlashAttenti...
-
FP6精度单卡运行Llama 70B模型,性能飞跃引领大模型时代
在深度学习领域,模型的运行效率和精度一直是研究者们追求的目标。最近,微软DeepSpeed团队在这一领域取得了突破性进展,他们在没有英伟达官方支持的情况下,成功在NVIDIA A100 GPU上实现了FP6精度的运行,这一成就不仅提升了计算速度,还保持了计...
-
AI-windows下使用llama.cpp部署本地Chinese-LLaMA-Alpaca-2模型
文章目录 Llamp.cpp环境配置 Chinese-LLaMA-Alpaca-2模型介绍 模型下载 转换生成量化模型 Anaconda环境安装 运行 Llamp.cpp环境配置 git clone git@...
-
语音识别的未来已来:深入了解faster-whisper的突破性进展【高精度语音识别模型,完全免费开源】
faster-whisper简介 faster-whisper是基于OpenAI的Whisper模型的高效实现,它利用CTranslate2,一个专为Transformer模型设计的快速推理引擎。这种实现不仅提高了语音识别的速度,还优化了内存使用效率。f...
-
首次证实白盒Transformer可扩展性!马毅教授CRATE-α:鲸吞14亿数据,性能稳步提升
在过去的几年里,Transformer架构在自然语言处理(NLP)、图像处理和视觉计算领域的深度表征学习中取得了显著的成就,几乎成为了AI领域的主导技术。 然而,虽然Transformer架构及其众多变体在实践中取得了巨大成功,但其设计大多是基于经验的,...
-
英特尔牙膏挤爆:功耗降40%、AI算力120TOPS,你的下一代笔记本没有内存条了
英特尔为了AI,再次做出重大架构变革: 像手机一样搞起SoC(系统级芯片),你的下一台笔记本不会再有独立内存条。 刚刚推出的新一代AI PC低功耗移动平台架构Lunar Lake,采用全新MoP(Memory on Package)封装,片上集成16或3...
-
CLIP当RNN用入选CVPR:无需训练即可分割无数概念|牛津大学&谷歌研究院
循环调用CLIP,无需额外训练就有效分割无数概念。 包括电影动漫人物,地标,品牌,和普通类别在内的任意短语。 牛津大学与谷歌研究院联合团队的这项新成果,已被CVPR 2024接收,并开源了代码。 团队提出名为CLIP as RNN(简称CaR)的新技...
-
挑战英伟达!AMD亮出旗下最强AI芯片锐龙AI 300系列 算力达50TOPS
在一年一度的Computex科技大会上,GPU厂商们展示了他们的最新技术成果。其中,英伟达和AMD的表现尤为突出。 英伟达在会上展示了量产版的Blackwell芯片,并宣布了未来三年的产品路线图,包括下一代Rubin AI平台。而AMD的CEO苏姿丰则展示...
-
ICML2024高分!魔改注意力,让小模型能打两倍大的模型
改进Transformer核心机制注意力,让小模型能打两倍大的模型! ICML 2024高分论文,彩云科技团队构建DCFormer框架,替换Transformer核心组件多头注意力模块(MHA),提出可动态组合的多头注意力(DCMHA)。 DCMHA解除...
-
【AIGC调研系列】GPT-4O比GPT-4强在哪
GPT-4O与GPT-4在多个方面有所不同,主要体现在性能、响应速度、成本效益以及多模态处理能力上。 性能提升:GPT-4O在文本分析、推理和编程能力上相较于GPT-4有显著提升。特别是在视觉和音频理解能力上,GPT-4O表现出更优越的性能[3][8...
-
全球首台生物计算机开放服务:16个人脑类器官,能耗节省百万倍
科幻小说《三体》中,为了支撑科技的发展,人类提出了几种下一代计算机的方案,其中除了传统的冯诺依曼架构,还包括量子计算机和生物计算机。其中量子计算的概念现在已有大量研究,生物计算的研究却少有报道。 近日,一家瑞士初创公司 FinalSpark 发布了全球首...