-
为什么LLM在人工智能中如此受欢迎?
将大型语言模型(LLM 提升到人工智能(AI 同义词世界的中心是一项巨大的任务,它改变了描述自然语言处理(NLP 的方式。这些高度复杂的模型将其翻译成英语,使我们能够理解和生成质量可接受的文本,这是由于使用了大量数据集,并在使用的变压器网络架构等人工神...
-
OmniDrive: 一个关于大模型与3D驾驶任务对齐的框架
本文经自动驾驶之心公众号授权转载,转载请联系出处。 从一个新颖的3D MLLM架构开始,该架构使用稀疏查询将视觉表示提升和压缩到3D,然后将其输入LLM。 题目:OmniDrive: A Holistic LLM-Agent Framework for...
-
在云平台上部署LLM的三个“秘密”
译者 | 晶颜 审校 | 重楼 在过去两年里,我更多地参与了使用大型语言模型(LLM)而非传统系统的生成式人工智能项目。我开始怀念无服务器云计算。它们的应用范围从增强会话式人工智能到提供跨行业的复杂分析解决方案,以及其他许多功能。许多企业在云平台上部署这...
-
Perplexica:开源AI驱动的问答搜索引擎
Perplexica是一个开源的AI驱动搜索引擎,提供多种搜索模式,旨在为用户提供更精准、更智能的搜索体验。它受到Perplexity AI的启发,不仅能够搜索网络,还能理解并回答用户的问题。 Perplexica的核心功能包括: 本地大型语言模型(LL...
-
ChatGPT可以开车吗?分享大型语言模型在自动驾驶方面的应用案例
想了解更多AIGC的内容,请访问: 51CTO AI.x社区 https://www.51cto.com/aigc/ 人工智能技术如今正在快速发展和应用,人工智能模型也是如此。拥有100亿个参数的通用模型的性能正在碾压拥有5000万个参数的任务特定模型...
-
革新LLM微调之道:全方位解读PyTorch原生库torchtune的创新力量与应用价值
在人工智能领域,大语言模型(LLMs)正日益成为研究和应用的新热点。然而,如何高效、精准地对这些庞然大物进行调优,一直是业界和学术界面临的重要挑战。近期,PyTorch官方博客发布了一篇关于TorchTune的文章,引起了广泛关注。TorchTune作为...
-
颜水成挂帅,奠定「通用视觉多模态大模型」终极形态!一统理解/生成/分割/编辑
近日,颜水成教授团队联合发布并开源了Vitron通用像素级视觉多模态大语言模型。 项...
-
AI信任危机之后,揭秘预训练如何塑造机器的「可信灵魂」
图表 1: 大模型的通用训练流程 [1] 在人工智能的前沿领域,大语言模型(Large Language Models,LLMs)由于其强大的能力正吸引着全球研究者的目光。在 LLMs 的研发流程中,预训练阶段占据着举足轻重的地位,它不仅消耗了大量的计...
-
研究显示,GPT-4可以自主利用安全漏洞,具备攻击性
每周至少有一次,生成式人工智能都会给我们带来新的恐惧。虽然我们仍在焦急地等待 OpenAI 发布的下一个大型语言模型,但与此同时,GPT-4似乎比你想象的更具备能力。最近的一项研究表明,研究人员展示了 GPT-4可以在没有人类干预的情况下利用网络安全漏洞。...
-
云端部署大模型的三个秘密
编译 | 星璇 出品 | 51CTO技术栈(微信号:blog51cto) 在过去的两年里,我更多地参与了使用大型语言模型(LLMs)的生成式AI项目,而非传统的系统。我开始怀念无服务器云计算。它们的应用范围广泛,从增强对话式AI到为各行各业提供复杂的分...
-
开箱黑盒LLM!谷歌大一统框架Patchscopes实战教程来了
虽然大型语言模型(LLM)在各种常见的自然语言处理任务中展现出了优异的性能,但随之而来的幻觉,也揭示了模型在真实性和透明度上仍然存在问题。 在模型生成错误回复内容时,如果能够「深入理解其背后运行机制」,或许可以解决模型的幻觉问题。 然而,随着深度神经网络...
-
采用OpenAI还是DIY?揭开自托管大型语言模型的真实成本
你自豪地将你的服务标榜为“AI驱动”,通过整合大型语言模型。你的网站首页自豪地展示了你的AI驱动服务带来的革命性影响,通过互动演示和案例研究,这也是你的公司在全球GenAI领域留下的第一个印记。 你的小而忠实的用户基础正在享受提升后的客户体验,并且你可...
-
Linux之父讽刺AI炒作:很搞笑,大概我也会被大模型取代
几天前,由 Linux 基金会主办的北美开源峰会(Open Source Summit North America)在华盛顿西雅图闭幕。 会上,Linux 之父 Linus Torvalds 与其好友、Verizon 开源项目办公室负责人 Dirk Ho...
-
英特尔构建全球最大的神经形态系统,以促进更可持续的AI
英特尔宣布,已经建造了世界上最大的神经形态系统,代号为Hala Point,这一大规模神经形态系统最初部署在桑迪亚国家实验室,采用英特尔的Loihi 2处理器,旨在支持未来以大脑启发的AI研究,并解决当前AI在效率和可持续性方面的挑战。Hala Po...
-
小即是大?HuggingFace CEO预测小模型元年将至,将成为AI的下一个“大事件”
编译 | 伊风 出品 | 51CTO技术栈(微信号:blog51cto) 在人工智能领域的竞争中,科技巨头们一直在竞相构建越来越大的语言模型。Scaling Law 信仰随着模型规模的增加,其性能会指数提升,展现出更好的泛化能力,甚至在某些情况下展现出“...
-
EMNLP 2023|利用LLM合成数据训练模型有哪些坑?
大家好,我是HxShine 今天我们将介绍EMNLP2023的一篇大模型(LLMs)生成文本分类任务合成数据的文章,标题是《Synthetic Data Generation with Large Language Models for Text Cla...
-
从文字模型到世界模型!Meta新研究让AI Agent理解物理世界
LLM已经可以理解文本和图片了,也能够根据它们的历史知识回答各种问题,但它们或许对周围世界当前发生的事情一无所知。 现在LLMs也开始逐步学习理解3D物理空间,通过增强LLMs的「看到」世界的能力,人们可以开发新的应用,在更多场景去获取LLMs的帮助。...
-
国内百模谁第一?清华14大LLM最新评测报告出炉,GLM-4、文心4.0站在第一梯队
在2023年的「百模大战」中,众多实践者推出了各类模型,这些模型有的是原创的,有的是针对开源模型进行微调的;有些是通用的,有些则是行业特定的。如何能合理地评价这些模型的能力,成为关键问题。 尽管国内外存在多个模型能力评测榜单,但它们的质量参差不齐,排名差...
-
OpenAI提供新的微调和定制选项
微调在构建有价值的人工智能工具中起着至关重要的作用。这种使用更有针对性的数据集精炼预训练模型的过程可以使用户大大增加模型对专业内容的理解,允许用户为特定任务的模型增加现成知识。 虽然这个过程可能需要时间,但与从头开始训练模型相比,它的成本效益通常要高三...
-
GPT Store都开不下去,这家国产平台怎么敢走这条路的??
注意看,这个男人把超1000种大模型接入,让你可插拔无缝切换使用。 最近还上线了可视化的AI工作流: 给你一个直观的拖放界面,拖拖、拉拉、拽拽,就能在无限画布上编排自己个儿的Workflow。 正所谓兵贵神速,量子位听说,这个AI Workflow上线不...
-
Meta AI推MA-LMM:用于长视频理解的记忆增强多模态大模型
Meta AI近日推出了一种名为MA-LMM的新型模型,旨在解决长期视频理解中的挑战。LLMs在处理文本数据时表现出了令人印象深刻的能力,但在处理视频输入方面存在一些限制,例如上下文长度限制和GPU内存限制。 为了克服这些限制,研究人员提出了MA-LMM,...
-
编程的“Devin AI 时代”,软件开发者的喜与忧
作者 | Keith Pitt 编译 | 伊风 出品 | 51CTO技术栈(微信号:blog51cto) 这篇文章的作者基思-皮特(Keith Pitt),是一家软件开发公司Buildkite的创始人兼CEO。2013年,他和另一位软件工程师蒂姆-卢卡...
-
激发大语言模型空间推理能力:思维可视化提示
大语言模型(LLMs)在语言理解和各种推理任务中展现出令人印象深刻的性能。然而,它们在人类认知的关键一面——空间推理上,仍然未被充分研究。人类具有通过一种被称为 心灵之眼 的过程创造看不见的物体和行为的心智图像的能力,从而使得对未见世界的想象成为可能。...
-
Tavily官网体验入口 AI研究助手使用地址
Tavily是您的 AI 研究助手,为您提供快速准确的洞察和全面研究。它可以帮助您的 AI 做出更好的决策,提供智能搜索 API,以快速、准确、实时的方式获取信息。通过连接 LLMs 和 AI 应用程序到可信实时知识,减少幻觉和偏见。 点击前往Tavil...
-
Spotify 推出个性化AI播放列表,用户可以使用提示构建
Spotify 推出了 AI 播放列表功能,让用户能够通过书面提示来生成个性化的音乐列表。这项新功能最初将在英国和澳大利亚的 Android 和 iOS 设备上推出,并将在未来几个月内不断改进。 除了基于流派或时间范围等传统播放列表创建请求之外,Spot...
-
揭秘AI幻觉:GPT-4V存在视觉编码漏洞,清华联合NUS提出LLaVA-UHD
想了解更多AIGC的内容,请访问: 51CTO AI.x社区 https://www.51cto.com/aigc/ GPT-4V 的推出引爆了多模态大模型的研究。GPT-4V 在包括多模态问答、推理、交互在内的多个领域都展现了出色的能力,成为如今最领先...
-
IT领导者可以从谷歌的GenAI起步不稳中学到什么
谷歌推出 Bard 时,试图对抗 OpenAI 的 ChatGPT,但在首次演示中不幸出现了事实错误。尽管谷歌随后将 Bard 扩展到 Gmail 到 YouTube 等所有平台,但公众最初的焦点仍然是该工具未能达到 OpenAI 响应的质量。 谷歌...
-
论文笔记:Llama 2: Open Foundation and Fine-Tuned Chat Models
导语 Llama 2 是之前广受欢迎的开源大型语言模型 LLaMA 的新版本,该模型已公开发布,可用于研究和商业用途。本文记录了阅读该论文的一些关键笔记。 链接:https://arxiv.org/abs/2307.09288 1 引言 大型语言...
-
年薪百万美元、马斯克直呼“史上最疯狂”!大厂“AI人才战”爆发
快科技4月6日消息,近日特斯拉CEO马斯克在社交平台上发布了一系列帖子称,OpenAI正在以高薪诱惑特斯拉工程师,并且他们在某些情况下取得了成功。 马斯克表示这是我见过最疯狂的人才战争”,并宣布将提高AI工程师的薪酬。 AI的快速发展也加剧了科技巨头间的竞...
-
华人开源最强「AI 程序员」炸场,让 GPT-4 自己修 Bug!
自从“AI 程序员”Devin问世之后,近期的一大趋势就是程序员们争先恐后地要让自己失业,试图抢先造出比自己更强大的程序员。 普林斯顿大学为软件工程界迎来了一位新星——SWE-agent,论文将在4月10日正式发布,目前项目已在 GitHub 上开源。...
-
华为诺亚频域LLM「帝江」:仅需1/50训练成本,7B模型媲美LLaMA,推理加速5倍
想了解更多AIGC的内容,请访问: 51CTO AI.x社区 https://www.51cto.com/aigc/ 基于 Transformer 架构的大语言模型在 NLP 领域取得了令人惊艳的效果,然而,Transformer 中自注意力带来的二次复...
-
Harvey公司与OpenAI合作 为法律专业人士打造定制训练的案例法模型
近日,Harvey公司与OpenAI宣布合作,共同为法律专业人士打造了一款定制训练的案例法模型。这款AI系统不仅具备复杂的推理能力,还能够处理广泛的法律领域知识,并具备超越单一模型调用的能力。 它能够起草法律文件、回答复杂的诉讼场景问题,甚至识别数百份合同...
-
GPT-4单项仅得7.1分,揭露大模型代码能力三大短板,最新基准测试来了
首个AI软件工程师Devin正式亮相,立即引爆了整个技术界。 Devin不仅能够轻松解决编码任务,更可以自主完成软件开发的整个周期——从项目规划到部署,涵盖但不限于构建网站、自主寻找并修复 BUG、训练以及微调AI模型等。 这种 “强到逆天” 的软件开发...
-
大模型实时打《街霸》捉对PK,GPT-4居然不敌3.5,新型Benchmark火了
让大模型直接操纵格斗游戏《街霸》里的角色,捉对PK,谁更能打? GitHub上一种你没有见过的船新Benchmark火了。 与llmsys大模型竞技场中,两个大模型分别输出答案,再由人类评分不同——街霸Bench引入了两个AI之间的交互,且由游戏引擎中确...
-
Mini-Gemini:简单有效的AI框架,增强多模态视觉语言模型
近期,中国香港中文大学和 SmartMore 的研究人员推出了一种名为 Mini-Gemini 的新颖框架,通过增强多模态输入处理来推动 VLMs 的发展。Mini-Gemini 采用了双编码器系统和一种新颖的补丁信息挖掘技术,结合一个特别策划的高质量数据...
-
Hume AI EVI对话人工智能体验入口 情感大语言模型eLLM使用地址
Hume.AI专注于开发能够理解人类情感和表情的技术,提供表情测量API和自定义模型API,以预测和改善人类福祉。近日发布的EVI是一款具有情感感知能力的对话AI,采用了情感大语言模型(eLLM)技术。 点击前往Hume.AI EVI体验入口 谁可以从H...
-
X AI 发布Grok-1.5更新:性能显著提升 支持128K上下文长度
昨天,X AI 发布了其最新的大型语言模型更新——Grok-1.5。该版本在编码和与数学相关的任务中表现出了显著的性能提升。 据详细介绍,Grok-1.5在 MATH 基准测试中获得了50.6%的分数,在 GSM8K 基准测试中获得了90%的分数,这标志着...
-
llama-index调用qwen大模型实现RAG
背景 llama-index在实现RAG方案的时候多是用的llama等英文大模型,对于国内的诸多模型案例较少,本次将使用qwen大模型实现llama-index的RAG方案。 环境配置 (1)pip包 llamaindex需要预装很多包,这里先把我...
-
开源AI平台Lightning AI发布AI编译器“Thunder”以加速模型训练
开源人工智能平台Lightning AI宣布与Nvidia合作,发布了名为“Thunder”的下一代AI编译器,旨在加速人工智能模型的训练速度。据Lightning AI称,该编译器在实际场景中相比未优化的代码,可将大型语言模型(LLMs)的训练速度提高高...
-
今日Arxiv最热NLP大模型论文:Llama-2上下文扩大48倍的方法来了,港大发布,无需训练
引言:大语言模型的长上下文理解能力 在当今的人工智能领域,大语言模型(Large Language Models,简称LLMs)的长上下文理解能力成为了一个重要的研究方向。这种能力对于模型来说至关重要,因为它使得LLMs能够有效地应对各种应用场景,例如在...
-
Hume AI发布对话AI——EVI:具备情感感知能力
Hume AI近日发布了一款具有情感感知能力的对话AI:EVI,这款产品采用了一种被称为情感大语言模型(eLLM)的多模态生成AI技术。 情感大语言模型(eLLM)是一种结合了大型语言模型(LLMs 的语言理解能力和表情测量技术的情感感知能力的新技术。这种...
-
LLM性能最高60%提升!谷歌ICLR 2024力作:让大语言模型学会「图的语言」
在计算机科学领域,图形结构由节点(代表实体)和边(表示实体之间的关系)构成。 图无处不在。 互联网本身就像是一张庞大的网络图,甚至搜索引擎所使用的知识也是以图的形式进行组织和呈现。 但由于LLMs主要在常规文本上训练,并没有图的结构,将图转化为LLMs能...
-
AIGC 实战:Ollama 和 Hugging Face 是什么关系?
HuggingFace(拥抱脸)和Ollama都与**大型语言模型(LLMs)**有关,但它们的用途不同: HuggingFace: HuggingFace 是一个知名的平台,提供各种预训练的LLMs,包括流行的模型如GPT-3、BERT和...
-
大模型之Llama系列- LlaMA 2及LLaMA2_chat(上)
LlaMA 2是一个经过预训练与微调的基于自回归的transformer的LLMs,参数从7B至70B。同期推出的Llama 2-Chat是Llama 2专门为对话领域微调的模型。 在许多开放的基准测试中Llama 2-Chat优于其他开源的聊天模型,此外...
-
LLM、RAG虽好,但XGBoost更香!
编译 | 言征 出品 | 51CTO技术栈(微信号:blog51cto) 数据&AI企业家、投资人Oliver Molander 近日在LinkedIn上的帖子中打趣道:“如果你在2022年[ChatGPT推出]之前问人工智能专家什么是LL...
-
端到端加速企业GenAI创新,英伟达NIM微服务成为软件企业看中的亮点!
3月20日,软件开发企业Cloudera宣布了一项重要的合作信号:要与NVIDIA一起加速生成式AI应用的部署。具体来讲,就是通过将NVIDIA的AI微服务集成到其Cloudera数据平台(CDP)中,帮助企业能够快速构建和扩展基于自身数据的定制化大型语...
-
一文读懂大型语言模型微调技术挑战与优化策略
Hello folks,我是 Luga,今天我们继续来聊一下人工智能(AI 生态领域相关的技术 - LLM Fine-Tuning ,本文将继续聚焦在针对 LLM Fine-Tuning 技术进行剖析,使得大家能够了解 LLM Fine-Tuning...
-
仅需200M参数,零样本性能超越有监督!谷歌发布时序预测基础模型TimesFM
时间序列预测在零售、金融、制造业、医疗保健和自然科学等各个领域无处不在:比如说在零售场景下中,「提高需求预测准确性」可以有显著降低库存成本并增加收入。 深度学习(DL)模型基本上垄断了「多变量时间序列预测」任务,在各个竞赛、现实应用中的表现都非常好。 与...
-
刷榜「代码生成」任务!复旦等发布StepCoder框架:从编译器反馈信号中强化学习
大型语言模型(LLMs)的发展极大地推动了代码生成领域的发展,之前有工作将强化学习(RL)与编译器的反馈信号集成在一起,用于探索LLMs的输出空间,以提高代码生成质量。 但当下还存在两个问题: 1. 强化学习探索很难直接适配到「复杂的人类需求」,即要求L...
-
大模型的DenseNet时刻!DenseMamba:精度显著提升
本文经自动驾驶之心公众号授权转载,转载请联系出处。 随着 ChatGPT 的突破性进展,大型语言模型(LLMs)迎来了一个崭新的里程碑。这些模型在语言理解、对话交互和逻辑推理方面展现了卓越的性能。过去一年,人们目睹了 LLaMA、ChatGLM 等模型...