-
央视财经推出两会AI主播,蚂蚁灵境数字人平台技术支持
还记得杭州亚运会开幕式点燃主火炬环节,让世界惊艳的“数字火炬手”吗?如今,用“同款”技术打造的AI主播在央视财经亮相了! (央视财经客户端上线两会AI主播) 今年两会,央视财经新媒体以总台央视主持人郭若天、孟湛东为原型“复刻”了AI主播——小天、小东。两...
-
怒斥Sora之后,LeCun放出「视觉世界模型」论文,揭示AI学习物理世界的关键
Sora 的发布让整个 AI 领域为之狂欢,但 LeCun 是个例外。 面对 OpenAI 源源不断放出的 Sora 生成视频,LeCun 热衷于寻找其中的失误: 归根结底,LeCun 针对的不是 Sora,而是 OpenAI 从 ChatGPT 到...
-
DUSt3R官网体验入口 3D重建工具AI应用免费使用下载地址
DUSt3R是一种新颖的密集和无约束立体3D重建方法,适用于任意图像集合。它不需要事先了解相机校准或视点姿态信息,通过将成对重建问题视为点图的回归,放宽了传统投影相机模型的严格约束。DUSt3R提供了一种统一的单目和双目重建方法,并在多图像情况下提出了一种...
-
谷歌发布最新「读屏」AI!PaLM 2-S自动生成数据,多项理解任务刷新SOTA
【新智元导读】谷歌在语言和声控计算机界面的漫长道路上又迈出了重要一步。最新ScreenAI视觉语言模型,能够完成各种屏幕QA问答、总结摘要等任务。 每个人想要的大模型,是真·智能的那种...... 这不,谷歌团队就做出来了一个强大的「读屏」AI。 研究人员...
-
解剖Sora:37页论文逆向工程推测技术细节,微软参与,华人团队出品
Sora刚发布不久,就被逆向工程“解剖”了?! 来自理海大学、微软研究院的华人团队发布了首个Sora相关研究综述,足足有37页。 他们基于Sora公开技术报告和逆向工程,对模型背景、相关技术、应用、现存挑战以及文本到视频AI模型未来发展方向进行了全面分析...
-
大视频模型是世界模型?DeepMind/UC伯克利华人一作:预测下一帧就能改变世界
没人怀疑,OpenAI开年推出的史诗巨作Sora,将改变视频相关领域的内容生态。 但Google DeepMind、UC伯克利和MIT的研究人员更进一步,在他们眼里,「大视频模型」也许能够像世界模型一样,真正的做到理解我们身处的这个世界。 论文地址:h...
-
RNN效率媲美Transformer,谷歌新架构两连发:同等规模强于Mamba
这一次,谷歌 DeepMind 在基础模型方面又有了新动作。 我们知道,循环神经网络(RNN)在深度学习和自然语言处理研究的早期发挥了核心作用,并在许多应用中取得了实功,包括谷歌第一个端到端机器翻译系统。不过近年来,深度学习和 NLP 都以 Transf...
-
两张图2秒钟3D重建!这款AI工具火爆GitHub,网友:忘掉Sora
只需2张图片,无需测量任何额外数据—— 当当,一个完整的3D小熊就有了: 这个名为DUSt3R的新工具,火得一塌糊涂,才上线没多久就登上GitHub热榜第二。 有网友实测,拍两张照片,真的就重建出了他家的厨房,整个过程耗时不到2秒钟! (除了3D图,...
-
Beeble AI与纽约大学合作 发布创新的人像重照明技术SwitchLight
近日,Beeble AI与纽约大学联手发布了一项新的研究成果,一种创新的人像重照明技术。这项技术能够在非常低的成本下,将人物与虚拟环境的光照完美融合,效果令人印象深刻。 论文地址:https://arxiv.org/pdf/2402.18848.pdf...
-
华为云盘古大模型通过金融大模型标准符合性验证
据华为官方消息,2023年12月,在中国信通院组织的可信AI大模型标准符合性验证中,华为云盘古大模型成功完成了金融大模型的验证,并获得了优秀级(4+级)评分。这一成绩不仅突显了华为云盘古大模型在金融领域的卓越性能,还使其成为首批通过金融大模型及行业大模型标...
-
复旦等发布AnyGPT:任意模态输入输出,图像、音乐、文本、语音都支持
最近,OpenAI 的视频生成模型 Sora 爆火,生成式 AI 模型在多模态方面的能力再次引起广泛关注。 现实世界本质上是多模态的,生物体通过不同的渠道感知和交换信息,包括视觉、语言、声音和触觉。开发多模态系统的一个有望方向是增强 LLM 的多模态感知...
-
从AI推理性能优化角度看LLaMA的模型结构和源码
本篇文章讲讲LLaMA的结构,已经有很多文章已经对LLaMA在一些结构上任务表现上做了一些解析,本文主要从优化的角度、实现kernel的角度解析一下LLaMA,读者事先对transformer的结构有基本认识最好。本文首发于我的公众号“AI不止算法”,文章...
-
只需少量计算和内存资源即可运行的小型 Llama 大模型
背景介绍 在当今这个数据爆炸的时代,语言模型的训练变得越来越复杂和困难。我们需要巨大的计算资源和时间来训练一个高效的语言模型。然而,这对许多人来说并不现实。与此同时,我们也遇到了如何在有限的内存和计算资源中使用大型语言模型的挑战,特别是在边缘设备上。 今...
-
清华、哈工大把大模型压缩到了1bit,把大模型放在手机里跑的愿望就快要实现了!
自从大模型火爆出圈以后,人们对压缩大模型的愿望从未消减。这是因为,虽然大模型在很多方面表现出优秀的能力,但高昂的的部署代价极大提升了它的使用门槛。这种代价主要来自于空间占用和计算量。「模型量化」 通过把大模型的参数转化为低位宽的表示,进而节省空间占用。目...
-
清华、哈工大提出OneBit方法:可把大模型压缩到1bit 保持 83% 性能
近期,清华大学和哈尔滨工业大学联合发布了一篇论文,成功将大模型压缩到1bit,仍保持83% 的性能。这一成果标志着量化模型领域的一次重大突破。过去,2bit 以下的量化一直是研究人员难以逾越的障碍,而这次的1bit 量化尝试,引起了国内外学术界的广泛关注。...
-
如何基于 Arthur Bench 进行 LLM 评估 ?
Hello folks,我是 Luga,今天我们来聊一下人工智能(AI 生态领域相关的技术 - LLM 评估 。 一、传统文本评估面临的挑战 近年来,随着大型语言模型(LLM 的快速发展和改进,传统的文本评估方法在某些方面可能已经不再适用。在文本评估...
-
ControlNet作者又出新作:百万数据训练,AI图像生成迎来图层设计
尽管用于生成图像的大模型已经成为计算机视觉和图形学的基础,但令人惊讶的是,分层内容生成或透明图像(是指图像的某些部分是透明的,允许背景或者其他图层的图像通过这些透明部分显示出来)生成领域获得的关注极少。这与市场的实际需求形成了鲜明对比。大多数视觉内容编辑...
-
模型偏好只与大小有关?上交大全面解析人类与32种大模型偏好的定量组分
在目前的模型训练范式中,偏好数据的的获取与使用已经成为了不可或缺的一环。在训练中,偏好数据通常被用作对齐(alignment)时的训练优化目标,如基于人类或 AI 反馈的强化学习(RLHF/RLAIF)或者直接偏好优化(DPO),而在模型评估中,由于任务...
-
AIGC 为何能火爆全网,赋能智能时代?
Hi,大家好,我是半亩花海。2023年,人工智能新浪潮涌起,AIGC 火爆全网,不断赋能各大行业。从短视频平台上火爆的“AI 绘画”,到智能聊天软件 ChatGPT,都引起了大家的广泛关注。那么 AIGC 到底是什么?为什么如此引人关注?AIGC 能产生什...
-
大模型的未来:如何推动AIGC技术的进一步发展
1.背景介绍 人工智能(AI 和大数据技术的发展已经进入了一个新的高潮,尤其是自然语言处理(NLP 和计算机视觉(CV 等领域的突破性进展。随着大模型(such as GPT-3, DALL-E, and CLIP 的出现,人工智能生成(AIGC...
-
前沿资讯!文心一言和ChatGPT最全对比!
文心一言和ChatGPT都是基于深度学习技术的自然语言处理模型,有各自的优势和使用场景,无法简单地比较 ChatGPT 和文心一言哪一个功能更强大,它们各自具有优势和局限性,需要根据具体需求进行选择,以下一些具体对比: 为方便观看,...
-
Stable diffusion webui部署及简单使用
文章目录 前言 一、Stable Diffusion WebUI部署 1.Stable diffusion 2.Linux 上的自动安装步骤如下: 1.安装依赖项: 2.切换到想要安装 WebUI 的目录并执行以下命令: 3.运行 webu...
-
ControlNet作者新作:AI绘画能分图层了,项目未开源就斩获660 Star
“绝不是简单的抠图。” ControlNet作者最新推出的一项研究受到了一波高度关注—— 给一句prompt,用Stable Diffusion可以直接生成单个或多个透明图层(PNG)! 例如来一句: 可以看到,AI不仅生成了符合prompt的完整图像...
-
十分钟读完 Meta提出Llama 2模型的经典论文:Llama 2: Open Foundation and Fine-Tuned Chat Models
超越GPT-3:Meta AI发布新一代开源人工智能对话大模型Llama 2 引言:介绍 Llama 2 的发布背景和其在对话用例中的优化。 随着人工智能技术的飞速发展,大型语言模型(LLMs)已经成为了人类智能助手的代表,它们在需要专业知识的复杂推理...
-
VPR 2024 满分论文!Meta提出EfficientSAM:快速分割一切!
本文经自动驾驶之心公众号授权转载,转载请联系出处。 EfficientSAM 这篇工作以5/5/5满分收录于CVPR 2024!作者在某社交媒体上分享了该结果,如下图所示: LeCun 图灵奖得主也强烈推荐了该工作! 在最近的一项研究中,Meta...
-
AIGC专题:2023生成式人工智能发展与监管白皮书-中国AI治理的独立思考
今天分享的是AIGC系列深度研究报告:《AIGC专题:2023生成式人工智能发展与监管白皮书-中国AI治理的独立思考》。 (报告出品方:南方财经全媒体集团) 报告共计:42页 来源:人工智能学派 发展:生成式 AI 治理的第一视角 2022年 1...
-
近屿智能独家发布:AIGC大模型工程师和产品经理详细学习路径图(附完整版学习路径图)
AI不会取代你的工作,会取代你的是懂AI的人,如何提升自己与他人的知识壁垒,如何学习AIGC?相信在刚刚过去2023这个AI爆发的元年,我相信也是很多人的疑问,好像不懂使用点AI工具,例如ChatGpt、Midjourney或者SD,就好像被淘汰了一样,更...
-
京东电商知识图谱与AIGC落地
导读 本文将分享如何将知识图谱应用到电商场景下的 AIGC。 文章将围绕下面五个方面进行分享: 1. 导言 2. 基于领域知识图谱的商品文案生成 3. 基于通用知识图谱的商品文案生成 4. 基于领域知识图谱的 LLM 5. 基于通用知识图谱的...
-
60行代码,从头开始构建GPT!最全实践指南来了
60行代码,从头开始构建GPT? 最近,一位开发者做了一个实践指南,用Numpy代码从头开始实现GPT。 你还可以将 OpenAI发布的GPT-2模型权重加载到构建的GPT中,并生成一些文本。 话不多说,直接开始构建GPT。 什么是GPT? GPT代...
-
ControlNet作者新作:AI绘画能分图层了!项目未开源就斩获660 Star
“绝不是简单的抠图。” ControlNet作者最新推出的一项研究受到了一波高度关注—— 给一句prompt,用Stable Diffusion可以直接生成单个或多个透明图层(PNG)! 例如来一句: 头发凌乱的女性,在卧室里。Woman with me...
-
陈丹琦团队新作:Llama-2上下文扩展至128k,10倍吞吐量仅需1/6内存
陈丹琦团队刚刚发布了一种新的LLM上下文窗口扩展方法: 它仅用8k大小的token文档进行训练,就能将Llama-2窗口扩展至128k。 最重要的是,在这个过程中,只需要原来1/6的内存,模型就获得了10倍吞吐量。 除此之外,它还能大大降低训练成本:...
-
AI视频又炸了!照片+声音变视频,阿里让Sora女主唱歌小李子说RAP
Sora之后,居然还有新的AI视频模型,能惊艳得大家狂转狂赞! 图片 有了它,《狂飙》大反派高启强化身罗翔,都能给大伙儿普法啦(狗头)。 这就是阿里最新推出的基于音频驱动的肖像视频生成框架,EMO(Emote Portrait Alive)。 有了它,...
-
英伟达发布Nemotron-4:150亿参数通用大模型,目标单张A100/H100可跑
英伟达最新推出的Nemotron-4语言模型引起广泛关注。这一通用大模型拥有150亿参数,经过在8T token上的训练,在英语、多语言和编码任务中表现出色。具体而言,Nemotron-4在7个评估基准上的15B模型表现优异,超越同等参数规模的模型,甚至击...
-
英伟达最强通用大模型Nemotron-4登场!15B击败62B,目标单张A100/H100可跑
最近,英伟达团队推出了全新的模型Nemotron-4,150亿参数,在8T token上完成了训练。 值得一提的是,Nemotron-4在英语、多语言和编码任务方面令人印象深刻。 论文地址:https://arxiv.org/abs/2402.1681...
-
理解Stable Diffusion、LoRA、Dreambooth、Hypernetworks、Textual Inversion、Checkpoint
前言 在深度学习和人工智能的领域中,模型生成和调整技术的快速发展为创造性内容的自动化提供了新的可能性。本文将介绍四种重要的模型技术——Stable Diffusion、LoRA、Dreambooth、和Hypernetworks——它...
-
金融分析多模态LLM FinTral:基于Mistral-7B模型 得分接近GPT-4
近日,来自不列颠哥伦比亚大学和Invertible AI的研究人员推出了一款具有突破性的大型语言模型(LLM)——FinTral,专为金融领域量身定制。FinTral采用了多模态方法,能够处理文本、数字、表格和视觉数据,以应对金融文件的复杂性。该模型引入了...
-
AIGC专栏9——Scalable Diffusion Models with Transformers (DiT)结构解析
AIGC专栏9——Scalable Diffusion Models with Transformers (DiT)结构解析 学习前言 源码下载地址 网络构建 一、什么是Diffusion Transformer (DiT 二、DiT的组成...
-
【AIGC】Stable Diffusion的模型微调
为什么要做模型微调 模型微调可以在现有模型的基础上,让AI懂得如何更精确生成/生成特定的风格、概念、角色、姿势、对象。Stable Diffusion 模型的微调方法通常依赖于您要微调的具体任务和数据。 下面是一个通用的微调过程的概述: 准备数据集:...
-
LLaMA v1/2模型结构总览
LLaMA v1/2模型结构总览 孟繁续 目录 收起 结构 Group Query Attention(V2 only RMSNorm SwiGLU RoPE llama2 出来了,并且开源可商用,这下开源社区又要变天了。快速...
-
当"狂飙"的大模型撞上推荐系统
随着以 ChatGPT 为代表的大模型技术的迅速发展,推荐系统正经历着一场革命性的变革。传统的推荐系统主要基于用户和物品的历史行为数据进行预测,大模型技术的出现,为推荐系统带来了更强的泛化能力和更高的效率,解决了传统推荐系统中的一些难题,如用户和物品...
-
近屿智能发布AIGC大模型工程师和产品经理学习路径图
近日,上海近屿智能科技有限公司(下称“近屿智能”),基于其在大模型研发和产品设计领域深厚的专业积累,终于总结出AIGC大模型工程师与产品经理的学习路线图。该学习路线图不仅为追求专业发展的学习者提供了一条清晰明确的AIGC大模型学习路径,更为整个AIGC大模...
-
一次性搞懂什么是AIGC!
你知道什么是AIGC吗?不知道?没关系,我来告诉你。AIGC就是人工智能生成内容(Artificial Intelligence Generative Content),也就是让AI自己动手创作各种各样的内容,比如图片、视频、音乐、文字等等。听起来很酷吧?...
-
ChatMusician官网体验入口 AI音乐生成语言模型在线使用地址
ChatMusician是一个开源的大型语言模型(LLM),它通过持续的预训练和微调,集成了音乐能力。该模型基于文本兼容的音乐表示法(ABC记谱法),将音乐视为第二语言。ChatMusician能够在不依赖外部多模态神经结构或分词器的情况下,理解和生成音乐...
-
MobiLlama官网体验入口 手机端小型AI语言模型免费下载地址
MobiLlama是一个为资源受限设备设计的小型语言模型(SLM),旨在提供准确且轻量级的解决方案,满足设备上的处理需求、能效、低内存占用和响应效率。MobiLlama从更大的模型出发,通过精心设计的参数共享方案来降低预训练和部署成本。 点击前往Mobi...
-
端侧最强,Meta田渊栋等人卷10亿以下参数小模型,LeCun:小技巧启动
「在移动设备上运行 LLM?可能需要 Meta 的一些技巧。」刚刚,图灵奖得主 Yann LeCun 在个人社交平台表示。 他所宣传的这项研究来自 Meta 最新论文《 MobileLLM: Optimizing Sub-billion Paramet...
-
Mistral AI新模型对标GPT-4,不开源且与微软合作,网友:忘了初心
生成式 AI 领域,又有重量级产品出现。 周一晚间,Mistral AI 正式发布了「旗舰级」大模型 Mistral Large。与此前的一系列模型不同,这次 Mistral AI 发布的版本性能更强,体量更大,直接对标 OpenAI 的 GPT-4。而...
-
跨越千年医学对话:用AI技术解锁中医古籍知识,构建能够精准问答的智能语言模型,成就专业级古籍解读助手(LLAMA)
跨越千年医学对话:用AI技术解锁中医古籍知识,构建能够精准问答的智能语言模型,成就专业级古籍解读助手(LLAMA) 介绍:首先在 Ziya-LLaMA-13B-V1基线模型的基础上加入中医教材、中医各类网站数据等语料库,训练出一个具有中医知识理解力的预...
-
详解各种LLM系列|(2)LLaMA 2模型架构、 预训练、SFT内容详解 (PART-1)
一、引言 Llama 2是Meta在LLaMA基础上升级的一系列从 7B到 70B 参数的大语言模型。Llama2 在各个榜单上精度全面超过 LLaMA1,Llama 2 作为开源界表现最好的模型之一,目前被广泛使用。 为了更深入地理解Llama 2的...
-
高质量论文中文翻译:Lag-Llama: 朝向基础模型的概率时间序列预测 Lag-Llama: Towards Foundation Models for Probabilistic Time S
Lag-Llama: 朝向基础模型的概率时间序列预测Lag-Llama: Towards Foundation Models for Probabilistic Time Series Forecasting 文章目录 摘要 介绍 我们的贡献...
-
全球最强开源大模型一夜易主!谷歌Gemma 7B碾压Llama 2 13B,今夜重燃开源之战
一声炸雷深夜炸响,谷歌居然也开源LLM了?! 这次,重磅开源的Gemma有2B和7B两种规模,并且采用了与Gemini相同的研究和技术构建。 有了Gemini同源技术的加持,Gemma不仅在相同的规模下实现SOTA的性能。 而且更令人...