-
大模型也有“漂移(Drift)”现象?应引起AI应用开发者警惕
熟悉数据中心机器学习项目开发的读者应该知道,数据漂移和概念漂移是导致机器学习模型效果衰退的一个常见原因。漂移产生的关键原因是因为模型会随着时间而衰退,因此为了对抗这样的问题就必须要定期优化训练方案及定期重训模型。 那么大模型会不会有“漂移”现象呢,答案是...
-
全球最强开源大模型一夜易主!谷歌Gemma 7B碾压Llama 2 13B,今夜重燃开源之战
一声炸雷深夜炸响,谷歌居然也开源LLM了?! 这次,重磅开源的Gemma有2B和7B两种规模,并且采用了与Gemini相同的研究和技术构建。 有了Gemini同源技术的加持,Gemma不仅在相同的规模下实现SOTA的性能。 而且更令人...
-
8/8/6/3的Mamba论文,最终还是被ICLR 2024拒了,网友:悬着的心终于死了
几天前,ICLR 2024 的最终接收结果出来了。 大家应该还记得,Mamba 被 ICLR 2024 大会 Decision Pending(待定)的消息在 1 月份引发过一波社区热议。 当时,多位领域内的研究者分析,Decision Pending...
-
高性能 LLM 推理框架的设计与实现
一、大语言模型推理概要介绍 与传统的 CNN 模型推理不同,大语言模型的推理通常会分成 prefill 和 decoding 两个阶段。每一个请求发起后产生的推理过程都会先经历一个 Prefill 过程,prefill 过程会计算用户所有的输入,并生...
-
逻辑推理大翻车!GPT-4、Gemini被曝重大缺陷,LLM严重降智
近期,谷歌DeepMind和斯坦福的研究人员发现大型语言模型在处理逻辑推理任务时,前提信息的呈现顺序对其表现具有决定性影响。 在逻辑推理和数学问题中,前提按照逻辑自然顺序排列时,模型表现更佳。对于大型语言模型,改变前提叙述顺序会导致性能大幅下降,尤其是在添...
-
「人车交互」新突破!普渡大学发布Talk2Drive框架:可学习/定制的「指令识别」系统
在普渡大学数字孪生实验室的最新成果中,研究人员引入了一种革命性的技术——利用大型语言模型(LLM)为自动驾驶汽车提供智能指令解析能力。 该技术的核心为Talk2Drive框架,旨在通过理解人类的自然语言来控制自动驾驶汽车,从而实现了一种前所未有的人车交互...
-
VideoPrism官网体验入口 AI视频理解编码器使用介绍
VideoPrism是一个通用的视频编码模型,可在各种视频理解任务上取得领先的性能,包括分类、定位、检索、字幕生成和问答等。其创新点在于预训练的数据集非常大且多样,包含 3600 万高质量的视频-文本对,以及5. 82 亿带有嘈杂文本的视频剪辑。预训练采用...
-
【EMNLP 2023】面向Stable Diffusion的自动Prompt工程算法
近日,阿里云人工智能平台PAI与华南理工大学朱金辉教授团队合作在自然语言处理顶级会议EMNLP2023上发表了BeautifulPrompt的深度生成模型,可以从简单的图片描述中生成高质量的提示词,从而使文生图模型能够生成更美观的图像。BeautifulP...
-
首席分析师揭秘爆火Groq,每小时要烧168美元!10倍H100拥有成本,老黄笑而不语
最近爆火的AI初创公司Groq,推出了比目前常见GPU推理系统快4倍,成本低70%的大模型推理解决方案。 他们提供的运行Mistral Mixtral 8x7b的API演示,让大部分习惯了其他LLM「娓娓道来」的用户直呼,简直是魔法! Groq在处理...
-
中国首部文生视频AI动画片发布 将在央视综合频道开播
2月26日起,每晚18:40,中央广播电视总台央视综合频道(CCTV-1)将播出国内首部文生视频AI动画片——《千秋诗颂》。这部动画片由总台精心制作,利用先进的AI技术,将中华经典诗词如《春夜喜雨》《咏鹅》等转化为独具中国审美特色的美术视觉。 《千秋诗颂...
-
GPT-4、Gemini同时被曝重大缺陷,逻辑推理大翻车!DeepMind上交校友团队发现LLM严重降智
最近,谷歌DeepMind和斯坦福的研究人员发现:大模型在处理逻辑推理任务时,问题中信息呈现的顺序对模型的表现有着决定性的影响。 论文地址:https://arxiv.org/abs/2402.08939 具体来说,当信息按照逻辑上的自然顺序排列时,模...
-
人工智能和数据中心:为什么人工智能如此需要资源
到2023年底,对生成式人工智能将需要多少能源的任何预测都是不准确的。例如,头条新闻倾向于猜测“人工智能需要5倍、10倍、30倍的电力”和“足够运行10万户家庭的电力”等。与此同时,数据中心新闻等专业出版物的报道称,每机架的功率密度将上升到50kW或1...
-
AI崛起加剧数据中心能源消耗,谷歌新技术或帮助减排
2月26日消息,科技巨头正竞相加紧努力拆除被称为“碳定时炸弹”的隐患,随着人工智能(AI)技术的兴起,它们在全球建立的数据中心的能源消耗也急剧上升,进而导致的碳排放问题日渐严重。 因此,谷歌引领的一项创新技术逐步受到重视:该技术通过软件在全球太阳能和风...
-
生产式AI驱动的主机自动化测试
译者 | 陈峻 审校 | 重楼 将传统大型主机应用的代码和数据迁移到现代化技术架构上,被业界认为是企业信息系统数字化发展的关键阶段。尤其是在追求提高效率和可扩展性的过程中,这种转变通常会涉及到从传统的大型主机环境,转移到更加灵活的云计算、或是在内部部署方...
-
出门问问开放大模型“序列猴子”开源数据集
出门问问宣布,将向公众开放其超大规模语言模型“序列猴子”的部分训练数据集,命名为“序列猴子开源数据集1.0”。 序列猴子,作为出门问问的核心技术之一,具备强大的通用表示与推理能力,已在问答系统、自然语言处理、机器翻译、文本摘要等多个领域展现出其卓越的性能,...
-
AIGC 实战:如何使用 Docker 在 Ollama 上离线运行大模型(LLM)
Ollama简介 Ollama 是一个开源平台,用于管理和运行各种大型语言模型 (LLM ,例如 Llama 2、Mistral 和 Tinyllama。它提供命令行界面 (CLI 用于安装、模型管理和交互。您可以使用 Ollama 根据您的需求下载...
-
开源的Gemma 模型:Google 的语言奇迹,让你用指令调优、低秩适应和 Switch Transformer 玩转小模型
语言是人类最重要的交流工具,也是人工智能领域最具挑战性的研究对象。如何让机器理解和生成自然语言,是人工智能的一个核心问题,也是人类智能的一个重要标志。近年来随着深度学习的发展,语言模型(Language Model,LM)作为一种基于神经网络的自然语言处...
-
补齐Transformer规划短板,田渊栋团队的Searchformer火了
最近几年,基于 Transformer 的架构在多种任务上都表现卓越,吸引了世界的瞩目。使用这类架构搭配大量数据,得到的大型语言模型(LLM)等模型可以很好地泛化用于真实世界用例。 尽管有如此成功,但基于 Transformer 的架构和 LLM 依然难...
-
这款对标ChatGPT的国产MoE大模型重磅更新!集AI对话、AI绘画、AI阅读、AI写作于一体!
大家好,我是木易,一个持续关注AI领域的互联网技术产品经理,国内Top2本科,美国Top10 CS研究生,MBA。我坚信AI是普通人变强的“外挂”,所以创建了“AI信息Gap”这个公众号,专注于分享AI全维度知识,包括但不限于AI科普,AI工具测评,AI效...
-
干货满满!大神Karpathy两小时AI大课文字版第一弹,全新工作流自动把视频转成文章
前段时间,AI大神Karpathy上线的AI大课,已经收获了全网15万次播放量。 当时还有网友表示,这2小时课程的含金量,相当于大学4年。 就在这几天,Karpathy又萌生了一个新的想法: 那便是,将2小时13分钟的「从头开始构建GPT分词器」的视频...
-
掌握商业人工智能:使用 RAG 和 CRAG 构建企业级人工智能平台
通过我们的指南了解如何为您的企业释放人工智能的力量。了解 RAG 和 CRAG 集成、矢量嵌入、LLM 和提示工程。非常适合负责任地拥抱人工智能的企业。 为企业打造AI-Ready平台 企业在引入生成式人工智能时,会遇到许多需要战略管理的业务风险。这...
-
超有趣的stable diffusion干货解读
超有趣的stable diffusion干货解读 智能时代:向量和模型构成一切(Vector and models rule it all ——朱嘉明 从老式电视机上的雪花引出diffusion Stable Diffusion 的组成 为...
-
Mac本地部署大模型体验AIGC能力
介绍 随着ChatGPT的横空出世,国内互联网大厂、创业公司纷纷加了AIGC赛道,不断推出各种大模型,而这些大模型由于规模庞大、结构复杂,往往包含了数十亿至数千亿的参数。这些模型在训练阶段,一般需要使用高效能的GPU集群训练数十天时间,在推理阶段,一般...
-
AI写作助手:会重复吗?一篇文章帮你解答!
大家好,今天来聊聊AI写作助手:会重复吗?一篇文章帮你解答!,希望能给大家提供一点参考。 以下是针对论文AI辅写率高的情况,提供一些修改建议和技巧,可以借助此类工具: 还有: AI写作助手:会重复吗?一篇文章帮你解答! 随着人工智能技术的快...
-
AIGC专题:生成式人工智能在能源和材料领域中的新机遇
今天分享的是AIGC系列深度研究报告:《AIGC专题:生成式人工智能在能源和材料领域中的新机遇》。 (报告出品方:McKinsey & Company) 报告共计:11页 来源:人工智能学派 利用人工智能的力量 Gen Al在加速增长和降...
-
LLaMA 2 - 你所需要的一切资源
摘录 关于 LLaMA 2 的全部资源,如何去测试、训练并部署它。 LLaMA 2 是一个由 Meta 开发的大型语言模型,是 LLaMA 1 的继任者。LLaMA 2 可通过 AWS、Hugging Face 等提供商获取,...
-
ChatGPT与文心一言对比思考
ChatGPT与文心一言对比思考 1. 目前在国内比较广泛被认知的ai模型有什么 我目前通过各种渠道注册到的账号有3个,按照了解到然后注册的顺序分别是 ChatGPT newbing 文心一言 3种ai的注册渠道...
-
OpenAI和谷歌,AI对线中的飞驰人生
到底什么时候,才能有一家公司赶超OpenAI?这句问题,想必是过去一年多来,萦绕在不少读者心中的困惑。 如果全世界只有一家公司能赶超OpenAI,谷歌应该是最有希望的选手。 同为北美AI巨头的谷歌,与OpenAI有着相同的AGI目标、世界级的技术人才、全球...
-
AIGC专题:Sora开启AIGC新纪元,海外龙头AI指引乐观
今天分享的是电子系列深度研究报告:《AIGC专题:Sora开启AIGC新纪元,海外龙头AI指引乐观》。 (报告出品方:方正证券) 报告共计:30页 来源:人工智能学派 Sora、Gemini 1.5 Pro 相继发布,AIGC 新时代已至 大模型...
-
数学建模比赛中,使用大语言模型如chatgpt、文心一言该如何写Prompt(提示)?
在大型语言模型中,"prompt"(中文常译为“提示”或“引导”)是指提供给模型的输入文本,用于指示或引导模型产生特定的输出。它的作用主要是告诉模型用户想要得到什么样的信息或完成什么样的任务。 例如,在使用大型语言模型进行文本生成时,你可以输入一个问题、...
-
AIGC从入门到入坑01(初学者适用版)
AIGC从入门到入坑系列文章 AIGC系列第一章--简述 AIGC从入门到入坑系列文章 前言 学习路径 AI时间线 人工智能简史 AI绘画简史 AI名词解释 小白从0-1必看5篇资料 初学者进阶必读8篇资料 总结 前...
-
借助知识图谱和Llama-Index实现基于大模型的RAG
幻觉是在处理大型语言模型(LLMs)时常见的问题。LLMs生成流畅连贯的文本,但经常产生不准确或不一致的信息。防止LLMs中出现幻觉的一种方法是使用外部知识源,如提供事实信息的数据库或知识图谱。 矢量数据库和知识图谱使用不同的方法来存储和表示数据。矢量数...
-
WhisperFusion:具有超低延迟无缝对话功能的AI系统
WhisperFusion 基于 WhisperLive 和 WhisperSpeech 的功能而构建,在实时语音到文本管道之上集成了大型语言模型 Mistral (LLM 。 LLM 和 Whisper 都经过优化,可作为 TensorRT 引擎高效运...
-
OpenAI回应“ChatGPT发疯”问题:token预测是根源
近期,ChatGPT意外发生失控事件,用户纷纷报告收到混乱而令人震惊的回复,引起Reddit、HN等社交平台上广泛的讨论。OpenAI迅速做出回应,确认问题源于「token预测」,并表示已成功修复。 ChatGPT用户在向模型提问时,突然发现其回复变得毫无...
-
文心一言可以用来降重吗
大家好,今天来聊聊文心一言可以用来降重吗,希望能给大家提供一点参考。 以下是针对论文重复率高的情况,提供一些修改建议和技巧,可以借助此类工具: 文心一言可以用来辅助降重 文心一言是百度推出的AI语言模型,具有强大的自然语言处理能力。在...
-
清华叉院、理想提出DriveVLM,视觉大语言模型提升自动驾驶能力
与生成式 AI 相比,自动驾驶也是近期 AI 最活跃的研究和开发领域之一。要想构建完全的自动驾驶系统,人们面临的主要挑战是 AI 的场景理解,这会涉及到复杂、不可预测的场景,例如恶劣天气、复杂的道路布局和不可预见的人类行为。 现有的自动驾驶系统通常包括...
-
爆火Sora背后的技术,一文综述扩散模型的最新发展方向
为了使机器具有人类的想象力,深度生成模型取得了重大进展。这些模型能创造逼真的样本,尤其是扩散模型,在多个领域表现出色。扩散模型解决了其他模型的限制,如 VAEs 的后验分布对齐问题、GANs 的不稳定性、EBMs 的计算量大和 NFs 的网络约束问题。因...
-
模型融合、混合专家、更小的LLM,几篇论文看懂2024年LLM发展方向
在过去的 2023 年中,大型语言模型(LLM)在潜力和复杂性方面都获得了飞速的发展。展望 2024 年的开源和研究进展,似乎我们即将进入一个可喜的新阶段:在不增大模型规模的前提下让模型变得更好,甚至让模型变得更小。 现在,2024 年的第一个月已经过去...
-
Karpathy离职OpenAI,首发2小时AI大课!从头开始构建GPT分词器
离职OpenAI的技术大神karpathy,终于上线了2小时的AI大课。 ——「让我们构建GPT Tokenizer(分词器)」。 其实,早在新课推出两天前,karpathy在更新的GitHub项目中,就预告了这件事。 这个项目是minbpe——专为...
-
LLaMA 2 和 QianWen-14B
阿里云通义千问14B模型开源!性能超越Llama2等同等尺寸模型 - 科技新闻 - EDA365电子论坛网 LLaMA 2 的硬件要求: LLaMA 2 系列模型有不同的参数量版本,如7B、13B和70B等。对于不同大小的模型,其硬件需求也有所不同。以...
-
超越AF2?Iambic、英伟达、加州理工学院开发多尺度深度生成模型,进行状态特异性蛋白质-配体复合物结构预测
由蛋白质和小分子配体形成的结合复合物无处不在,对生命至关重要。虽然最近科学家在蛋白质结构预测方面取得了进展,但现有算法无法系统地预测结合配体结构及其对蛋白质折叠的调节作用。 为了解决这种差异,AI 制药公司 Iambic Therapeutics、英伟达...
-
持续领跑!Oracle 自治数据库新增 AI 对话功能
编译 | 伊风 出品 | 51CTO技术栈(微信号:blog51cto) Oracle(甲骨文公司)更新了其提供的自治数据库 (Autonomous Database)产品,以继续在云数据库服务方面保持领先, 在与 AWS、Google Cloud、IB...
-
技术革命:人工智能的最新发展
2023年,人工智能技术的进步依然不减。从医疗保健到交通运输,人工智能的发展从根本上改变了多个领域。随着2024年如火如荼地进行,更具革命性的人工智能发展不可避免地即将到来。 一些重要的人工智能功能可能会彻底改变人类生活的未来以及我们开展业务的方式。为...
-
腾讯会议AI小助手上线 基于“混元”大模型打造
今天,腾讯公关总监张军激动地向公众宣布,腾讯会议AI小助手正式上线。他强调,这一创新应用代表了真正的大模型技术的力量。 根据官方网站的详细介绍,这款AI小助手能够全面覆盖会议的各个环节。通过简洁自然的指令,它能够完成信息提取、内容分析、智能提醒等复杂任务...
-
Google Gemma开放模型官网体验入口 谷歌AI开源语言免费下载地址
Gemma是Google推出的一系列开源的轻量级语言模型系列。它结合了全面的安全措施,在尺寸上实现了优异的性能,甚至超过了一些较大的开放模型。可以无缝兼容各种框架。提供快速入门指南、基准测试、模型获取等,帮助开发者负责任地开发AI应用。 点击前往Gemm...
-
Gemma-7B官网体验入口 谷歌开源人工智能AI模型免费下载地址
Gemma-7B是由谷歌开发的一个具有 70 亿参数的大型预训练语言模型,旨在提供强大的自然语言处理能力。它能够理解和生成文本,支持多种语言,适用于多种应用场景。 点击前往Gemma-7B官网体验入口 需求人群: ["内容创作","机器翻译","智能客服...
-
Sora到底是如何工作的?
译者 | 布加迪 审校 | 重楼 上周OpenAI团队推出了Sora这一大规模视频生成模型,展示了模拟物理世界基本方面的新功能。我关注文本生成视频这个领域已有很长一段时间,我认为这个模型代表了质量方面的突飞猛进。 我在Reddit和Twitter上看到...
-
谷歌VideoPoet负责人蒋路跳槽TikTok!对标Sora,AI视频模型大战在即
离职OpenAI的技术大神karpathy,终于上线了2小时的AI大课。 ——「让我们构建GPT Tokenizer(分词器)」。 图片 其实,早在新课推出两天前,karpathy在更新的GitHub项目中,就预告了这件事。 图片 这个项目是minbpe...
-
都在搞端到端,试问端到端自动驾驶的基石到底是什么?
本文经自动驾驶之心公众号授权转载,转载请联系出处。 写在前面&笔者的个人理解 基础模型的出现彻底改变了自然语言处理和计算机视觉领域,为其在自动驾驶(AD)中的应用铺平了道路。这项调查对40多篇研究论文进行了全面回顾,展示了基础模型在增强AD中的...
-
单GPU就能压缩模型,性能不变参数少25%!微软提出模型稀疏化新方法
众所周知,对于大语言模型来说,规模越大,所需的算力越大,自然占用的资源也就越多。 研究人员于是乎把目光转到了这片领域,即模型的稀疏化(Sparsification)。 今天要介绍的SliceGPT,则可以实现模型的事后稀疏。也就是说,在一个模型训练完了以...