-
Meta正构建巨型AI模型,支持旗下所有产品的视频推荐引擎
3月7日消息,美国时间周三,Meta公司一位高管透露,公司正在对人工智能进行重大投资,旨在打造一个先进的系统,能够支持Facebook等旗下各个平台视频的推荐引擎。 Meta旗下负责Facebook平台的汤姆·艾里森(Tom Alison)透露,这个项...
-
SAP 以创新助力客户制胜,AI 时代塑造数据驱动业务转型的未来
SAP 宣布了具有变革性的数据创新,旨在帮助客户充分利用其数据的全部潜力,在 AI 时代获取更深入的洞察、更快速的增长和更高效的运营。SAP Datasphere(SAP 数据整合平台)解决方案引入了一系列新功能,包括生成式 AI,通过简化的数据环境和更...
-
Gartner:可持续发展和数字主权将作为选择公有云生成式AI服务的首要标准
Gartner公司预测,到2027年,70%采用生成式人工智能(生成式AI)的企业将把可持续发展和数字主权作为选择公有云生成式AI服务的首要标准。 Gartner研究副总裁Sid Nag表示:“云技术因其规模和共享服务模式而成为大规模提供生成式AI应用...
-
Stable Diffusion——基础模型、VAE、LORA、Embedding各个模型的介绍与使用方法
前言 Stable Diffusion(稳定扩散)是一种生成模型,基于扩散过程来生成高质量的图像。它通过一个渐进过程,从一个简单的噪声开始,逐步转变成目标图像,生成高保真度的图像。这个模型的基础版本是基于扩散过程的,但也有一些改进版本,包括基于变分自动...
-
使用Llama 2大语言模型搭建本地自己的聊天机器人(群晖Docker篇)
随着ChatGPT 和open Sora 的热度剧增,大语言模型时代,开启了AI新篇章,大语言模型的应用非常广泛,包括聊天机器人、智能客服、自动翻译、写作助手等。它们可以根据用户输入的文本生成相应的响应,提供个性化的建议和服务,目前大部分大语言模型的产品都...
-
OpenAI钦点的“机器人界OpenAI”来了:成立不到两年估值破26亿美元
OpenAI们正在今年因AI而再次火热无比的机器人领域“复刻”一个OpenAI。 2024年2月23日,OpenAI、微软、贝佐斯风投、英伟达等总计18位投资公司向一家机器人公司注资了6.75亿美元,这家公司就是Figure AI。 Figure AI成立...
-
苹果或发布iOS17.4特别版本:新增AI大模型相关功能
近期,有关苹果即将发布iOS17.4系统的消息引发了广泛关注。据科技记者古尔曼透露,苹果公司计划于2024年3月底发布一款支持新款硬件的iOS17.4“特别版本”。这个版本之所以被称为“特别”,是因为它将针对欧盟的《数字市场法》进行一系列重大调整,以确保其...
-
Meta AI提出MobileLLM:为在移动设备上部署LLM提供新思路
Meta AI 研究团队推出的 MobileLLM 标志着大语言模型(LLMs)朝着模拟人类理解和生成自然语言迈出了革命性的一步。LLMs 在处理和分析大量数据集方面的能力已经显著影响了自动化客户服务、语言翻译和内容创作等多个领域。然而,由于传统 LLMs...
-
北大具身智能成果入选CVPR'24:只需一张图一个指令,就能让大模型玩转机械臂
只靠一张物体图片,大语言模型就能控制机械臂完成各种日常物体操作吗? 北大最新具身大模型研究成果ManipLLM将这一愿景变成了现实: 在提示词的引导下,大语言模型在物体图像上直接预测机械臂的操作点和方向。 进而,得以操控机械臂直接玩转各项具体的任务: 例...
-
让GenAI提供更好答案的诀窍
GenAI作为一种界面提供了巨大的潜力,使用户能够以独特的方式查询你的数据,以接收针对他们的需求的答案,例如,作为查询助手,GenAI工具可以帮助客户使用简单的问答格式更好地导航广泛的产品知识库。 但在使用GenAI回答有关数据的问题之前,重要的是首先...
-
字节万卡集群技术细节公开:2天搞定GPT-3训练,算力利用率超英伟达Megatron-LM
随着对Sora技术分析的展开,AI基础设施的重要性愈发凸显。 来自字节和北大的一篇新论文在此时吸引关注: 文章披露,字节搭建起的万卡集群,能在1.75天内完成GPT-3规模模型(175B)的训练。 具体来说,字节提出了一个名为MegaScale的生产系...
-
能力与可信度可以兼得?GPT-4、Gemini等多模态大模型评测报告来了
2023 年我们正见证着多模态大模型的跨越式发展,多模态大语言模型(MLLM)已经在文本、代码、图像、视频等多模态内容处理方面表现出了空前的能力,成为技术新浪潮。以 Llama 2,Mixtral 为代表的大语言模型(LLM),以 GPT-4、Gemi...
-
如何在 MacBook Pro 上安装 LLama.cpp + LLM Model 运行环境
如何在 MacBook Pro 上安装 LLama.cpp + LLM Model 运行环境 1. 问题与需求 近段时间想学习一下大语言模型的本地化部署与应用。首先遇到的就是部署硬件环境的问题。我自己的笔记本是一台 MacBook Pro M3,没...
-
10|AI连接外部资料库,让Llama Index带你阅读一本书
有不少人在使用 OpenAI 提供的 GPT 系列模型的时候,都反馈效果并不好。这些反馈中有一大类问题,是回答不了一些简单的问题。比如当我们用中文问 AI 一些事实性的问题,AI 很容易胡编乱造。而当你问它最近发生的新闻事件的时候,它就干脆告诉你它不知道...
-
美军打响人工智能武器化第一枪
近日,美国国防部承认今年在伊拉克和叙利亚的85次空袭行动中使用了机器学习算法来识别目标,这是美国军方首次承认人工智能技术被用于实战。 人工智能首次用于实战 据彭博社报道,负责中东、中亚和部分南亚地区的美国中央司令部在今年2月2日的7次空袭行动中使用了军...
-
微软6页论文爆火:三进制LLM,真香!
这就是由微软和中国中科院大学在最新一项研究中所提出的结论—— 所有的LLM,都将是1.58 bit的。 具体而言,这项研究提出的方法叫做BitNet b1.58,可以说是从大语言模型“根儿”上的参数下手。 将传统以16位浮点数(如FP16或BF16)形...
-
数量即力量!腾讯揭秘:Agent数量越多,大语言模型效果越好
数量即力量!腾讯揭秘:Agent数量越多,大语言模型效果越好...
-
千卡利用率超98%,详解JuiceFS在权威AI测试中的实现策略
2023 年 9 月,AI 领域的权威基准评测 MLPerf 推出了 Storage Benchmark。该基准测试通过模拟机器学习 I/O 负载的方法,在不需要 GPU 的情况下就能进行大规模的性能压测,用以评估存储系统的在 AI 模型训练场景的适用性。...
-
直接干上车!DriveVLM:首个Orin部署的快慢双系统智驾大模型
本文经自动驾驶之心公众号授权转载,转载请联系出处。 写在前面&笔者的个人理解 在目前自动驾驶领域,传统的感知(perception)-预测(prediction)-规划(planning)的常规端到端自动驾驶在处理常规场景时表现尚可,但在面对复...
-
当"狂飙"的大模型撞上推荐系统
随着以 ChatGPT 为代表的大模型技术的迅速发展,推荐系统正经历着一场革命性的变革。传统的推荐系统主要基于用户和物品的历史行为数据进行预测,大模型技术的出现,为推荐系统带来了更强的泛化能力和更高的效率,解决了传统推荐系统中的一些难题,如用户和物品...
-
MATRIX:社会模拟推动大模型价值自对齐,比GPT4更「体贴」
模型如 ChatGPT 依赖于基于人类反馈的强化学习(RLHF),这一方法通过鼓励标注者偏好的回答并惩罚不受欢迎的反馈,提出了一种解决方案。然而,RLHF 面临着成本高昂、难以优化等问题,以及在超人类水平模型面前显得力不从心。为了减少乃至消除对人类监督的...
-
大模型也有“漂移(Drift)”现象?应引起AI应用开发者警惕
熟悉数据中心机器学习项目开发的读者应该知道,数据漂移和概念漂移是导致机器学习模型效果衰退的一个常见原因。漂移产生的关键原因是因为模型会随着时间而衰退,因此为了对抗这样的问题就必须要定期优化训练方案及定期重训模型。 那么大模型会不会有“漂移”现象呢,答案是...
-
全球最强开源大模型一夜易主!谷歌Gemma 7B碾压Llama 2 13B,今夜重燃开源之战
一声炸雷深夜炸响,谷歌居然也开源LLM了?! 这次,重磅开源的Gemma有2B和7B两种规模,并且采用了与Gemini相同的研究和技术构建。 有了Gemini同源技术的加持,Gemma不仅在相同的规模下实现SOTA的性能。 而且更令人...
-
高性能 LLM 推理框架的设计与实现
一、大语言模型推理概要介绍 与传统的 CNN 模型推理不同,大语言模型的推理通常会分成 prefill 和 decoding 两个阶段。每一个请求发起后产生的推理过程都会先经历一个 Prefill 过程,prefill 过程会计算用户所有的输入,并生...
-
「人车交互」新突破!普渡大学发布Talk2Drive框架:可学习/定制的「指令识别」系统
在普渡大学数字孪生实验室的最新成果中,研究人员引入了一种革命性的技术——利用大型语言模型(LLM)为自动驾驶汽车提供智能指令解析能力。 该技术的核心为Talk2Drive框架,旨在通过理解人类的自然语言来控制自动驾驶汽车,从而实现了一种前所未有的人车交互...
-
首席分析师揭秘爆火Groq,每小时要烧168美元!10倍H100拥有成本,老黄笑而不语
最近爆火的AI初创公司Groq,推出了比目前常见GPU推理系统快4倍,成本低70%的大模型推理解决方案。 他们提供的运行Mistral Mixtral 8x7b的API演示,让大部分习惯了其他LLM「娓娓道来」的用户直呼,简直是魔法! Groq在处理...
-
中国首部文生视频AI动画片发布 将在央视综合频道开播
2月26日起,每晚18:40,中央广播电视总台央视综合频道(CCTV-1)将播出国内首部文生视频AI动画片——《千秋诗颂》。这部动画片由总台精心制作,利用先进的AI技术,将中华经典诗词如《春夜喜雨》《咏鹅》等转化为独具中国审美特色的美术视觉。 《千秋诗颂...
-
GPT-4、Gemini同时被曝重大缺陷,逻辑推理大翻车!DeepMind上交校友团队发现LLM严重降智
最近,谷歌DeepMind和斯坦福的研究人员发现:大模型在处理逻辑推理任务时,问题中信息呈现的顺序对模型的表现有着决定性的影响。 论文地址:https://arxiv.org/abs/2402.08939 具体来说,当信息按照逻辑上的自然顺序排列时,模...
-
生产式AI驱动的主机自动化测试
译者 | 陈峻 审校 | 重楼 将传统大型主机应用的代码和数据迁移到现代化技术架构上,被业界认为是企业信息系统数字化发展的关键阶段。尤其是在追求提高效率和可扩展性的过程中,这种转变通常会涉及到从传统的大型主机环境,转移到更加灵活的云计算、或是在内部部署方...
-
出门问问开放大模型“序列猴子”开源数据集
出门问问宣布,将向公众开放其超大规模语言模型“序列猴子”的部分训练数据集,命名为“序列猴子开源数据集1.0”。 序列猴子,作为出门问问的核心技术之一,具备强大的通用表示与推理能力,已在问答系统、自然语言处理、机器翻译、文本摘要等多个领域展现出其卓越的性能,...
-
这款对标ChatGPT的国产MoE大模型重磅更新!集AI对话、AI绘画、AI阅读、AI写作于一体!
大家好,我是木易,一个持续关注AI领域的互联网技术产品经理,国内Top2本科,美国Top10 CS研究生,MBA。我坚信AI是普通人变强的“外挂”,所以创建了“AI信息Gap”这个公众号,专注于分享AI全维度知识,包括但不限于AI科普,AI工具测评,AI效...
-
Mac本地部署大模型体验AIGC能力
介绍 随着ChatGPT的横空出世,国内互联网大厂、创业公司纷纷加了AIGC赛道,不断推出各种大模型,而这些大模型由于规模庞大、结构复杂,往往包含了数十亿至数千亿的参数。这些模型在训练阶段,一般需要使用高效能的GPU集群训练数十天时间,在推理阶段,一般...
-
LLaMA 2 - 你所需要的一切资源
摘录 关于 LLaMA 2 的全部资源,如何去测试、训练并部署它。 LLaMA 2 是一个由 Meta 开发的大型语言模型,是 LLaMA 1 的继任者。LLaMA 2 可通过 AWS、Hugging Face 等提供商获取,...
-
OpenAI和谷歌,AI对线中的飞驰人生
到底什么时候,才能有一家公司赶超OpenAI?这句问题,想必是过去一年多来,萦绕在不少读者心中的困惑。 如果全世界只有一家公司能赶超OpenAI,谷歌应该是最有希望的选手。 同为北美AI巨头的谷歌,与OpenAI有着相同的AGI目标、世界级的技术人才、全球...
-
AIGC从入门到入坑01(初学者适用版)
AIGC从入门到入坑系列文章 AIGC系列第一章--简述 AIGC从入门到入坑系列文章 前言 学习路径 AI时间线 人工智能简史 AI绘画简史 AI名词解释 小白从0-1必看5篇资料 初学者进阶必读8篇资料 总结 前...
-
Llama 2论文详解
摘要 Llama 2是一组经过预训练和微调的大语言模型,参数规模从70亿到700亿不等,其中,Llama 2-Chat是针对对话用例进行优化的微调模型。在大多数基准测试中优于开源chat模型,在人类评估中表现出色,特别是在有用性和安全性方面。因此,Lla...
-
全球最强开源大模型一夜易主!谷歌Gemma 7B碾压Llama 2 13B,重燃开源之战
一声炸雷深夜炸响,谷歌居然也开源LLM了?! 这次,重磅开源的Gemma有2B和7B两种规模,并且采用了与Gemini相同的研究和技术构建。 有了Gemini同源技术的加持,Gemma不仅在相同的规模下实现SOTA的性能。 而且更令人印象深刻的是,还...
-
腾讯会议AI小助手上线 基于“混元”大模型打造
今天,腾讯公关总监张军激动地向公众宣布,腾讯会议AI小助手正式上线。他强调,这一创新应用代表了真正的大模型技术的力量。 根据官方网站的详细介绍,这款AI小助手能够全面覆盖会议的各个环节。通过简洁自然的指令,它能够完成信息提取、内容分析、智能提醒等复杂任务...
-
单GPU就能压缩模型,性能不变参数少25%!微软提出模型稀疏化新方法
众所周知,对于大语言模型来说,规模越大,所需的算力越大,自然占用的资源也就越多。 研究人员于是乎把目光转到了这片领域,即模型的稀疏化(Sparsification)。 今天要介绍的SliceGPT,则可以实现模型的事后稀疏。也就是说,在一个模型训练完了以...
-
Karpathy新视频又火了:从头构建GPT Tokenizer
技术大神卡帕西离职OpenAI以后,营业可谓相当积极啊。 这不,前脚新项目刚上线,后脚全新的教学视频又给大伙整出来了: 这次,是手把手教咱构建一个GPT Tokenizer(分词器),还是熟悉的时长(足足2小时13分钟)。 Ps. 上次讲课还是俩月前的...
-
BentoML:如何使用 JuiceFS 加速大模型加载
BentoML 是一个开源的大语言模型(LLM) AI 应用的开发框架和部署工具,致力于为开发者提供最简单的构建大语言模型 AI 应用的能力,其开源产品已经支持全球数千家企业和组织的核心 AI 应用。 当 BentoML 在 Serverless 环...
-
AnyGPT:实现任意模态输入到任意模态输出
近日,复旦大学、上海人工智能实验室等机构联合推出了一款名为AnyGPT的多模态大语言模型,该模型在处理语音、文本、图像和音乐等多种模态输入时,可以生成任何模态的输出。 AnyGPT采用离散表示技术,通过在各模态输入上进行离散标记,实现了多模态信息的统一处...
-
Sora给中国AI带来的真实变化
OpenAI的最新技术成果——文生视频模型Sora,在春节假期炸裂登场,令海内外的AI从业者、投资人彻夜难眠。 如果你还没有关注到这个新闻,简单介绍一下:Sora是OpenAI使用超大规模视频数据,训练出的一个通用视觉模型,可以理解和模拟运动中的物理世界,...
-
GPT-4可能也在用的推测解码是什么?一文综述前世今生和应用情况
众所周知,大型语言模型(LLM)的推理通常需要使用自回归采样,这个推理过程相当缓慢。为了解决这个问题,推测解码(Speculative Decoding)已经成为 LLM 推理的一种新型采样方法。这种方法在每个采样步骤中,会先预测几个可能的 token,...
-
离开OpenAI的大神卡帕西「开课了」:新项目日增千星,还是熟悉的min代码风
大神Karpathy从OpenAI离职,原本扬言要大休一周。 图片 但转眼,新项目就已上线GitHub,日增上千星的那种。 图片 还是熟悉的卡式配方: 74行Python代码搞定大模型标记化(tokenization)中常用的BPE(Byte Pair...
-
Windows、Office直接上手,大模型智能体操作电脑太6了
当我们谈到 AI 助手的未来,很难不想起《钢铁侠》系列中那个令人炫目的 AI 助手贾维斯。贾维斯不仅是托尼・斯塔克的得力助手,更是他与先进科技的沟通者。如今,大模型的出现颠覆了人类使用工具的方式,我们或许离这样的科幻场景又近了一步。想象一下,如果一个多模...
-
生成式人工智能(AIGC)之最全详解图解
生成式人工智能(AIGC)之最全详解图解 1. AIGC的发展历程 1.1 AIGC演化重要时间节点 AIGC发展历程图 OpenAI大语言模型发展进程 1.2技术推进路线 2.AIGC技术场景 2.1 技术场景 3.1AIGC相关应用...
-
谷歌内部推出AI大语言模型Goose 主打代码编写、产品研发
据Business Insider报道,近日,谷歌内部秘密开发了一款名为“Goose”的人工智能大语言模型,据知情人士透露。这款AI工具被特别设计给谷歌工程师使用,融入了公司25年的技术积淀,目的是大幅度提高内部团队的工作效能,特别是在代码编写和新产品研发...
-
AIGC音视频工具分析和未来创新机会思考
编者按:相较于前两年,2023年音视频行业的使用量增长缓慢,整个音视频行业遇到瓶颈。音视频的行业从业者面临着相互竞争、不得不“卷”的状态。我们需要进行怎样的创新,才能从这种“卷”的状态中脱离出来?LiveVideoStack 2023上海站邀请到了P...
-
近期关于AIGC方面的学习笔记和思路整理
LLM 对于LLM,我现在重点关注在这几个方面: 开源且可私有化部署的代码生成模型: 因为大部分软件企业对于安全都很重视,文档、数据、代码一般都会尽量避免被泄露。所以很难使用类似Copilot或者OpenAI的Bito这种需要连到互联网上的服务。如果...