-
国内百模谁第一?清华14大LLM最新评测报告出炉,GLM-4、文心4.0站在第一梯队
在2023年的「百模大战」中,众多实践者推出了各类模型,这些模型有的是原创的,有的是针对开源模型进行微调的;有些是通用的,有些则是行业特定的。如何能合理地评价这些模型的能力,成为关键问题。 尽管国内外存在多个模型能力评测榜单,但它们的质量参差不齐,排名差...
-
OpenAI提供新的微调和定制选项
微调在构建有价值的人工智能工具中起着至关重要的作用。这种使用更有针对性的数据集精炼预训练模型的过程可以使用户大大增加模型对专业内容的理解,允许用户为特定任务的模型增加现成知识。 虽然这个过程可能需要时间,但与从头开始训练模型相比,它的成本效益通常要高三...
-
GPT-4 Turbo重回王座,ChatGPT免费升级!数学暴涨10%/上下文全面碾压
今天起,最新版的GPT-4 Turbo,正式向ChatGPT Plus用户开放了! 图片 有了GPT-4 Turbo加持后,ChatGPT写作、数学、逻辑推理和编码的能力得到提升。 小编小试,果然ChatGPT最新数据已经更新到了4月。 图片 根据基准测...
-
甲骨文宠儿力压GPT-4斩获竞技场首胜,不绑定厂商,不做聊天机器人,Transformer最年轻作者带飞大模型创业新星
编辑 |诺亚、伊风 出品 | 51CTO技术栈(微信号:blog51cto) 近日在开源模型界,Command R+风头正劲。 在Arena榜单上,Command R+凭借逾13000名支持者的票,一度跃升至第6位,其表现与GPT-4-0314旗鼓相...
-
Meta AI推MA-LMM:用于长视频理解的记忆增强多模态大模型
Meta AI近日推出了一种名为MA-LMM的新型模型,旨在解决长期视频理解中的挑战。LLMs在处理文本数据时表现出了令人印象深刻的能力,但在处理视频输入方面存在一些限制,例如上下文长度限制和GPU内存限制。 为了克服这些限制,研究人员提出了MA-LMM,...
-
等等我还没上车!LLM赋能端到端全新范式LeGo-Drive,车速拉满
本文经自动驾驶之心公众号授权转载,转载请联系出处。 写在前面&笔者个人理解 这篇论文介绍了一种名为LeGo-Drive的基于视觉语言模型的闭环端到端自动驾驶方法。该方法通过预测目标位置和可微分优化器规划轨迹,实现了从导航指令到目标位置的端到端闭...
-
激发大语言模型空间推理能力:思维可视化提示
大语言模型(LLMs)在语言理解和各种推理任务中展现出令人印象深刻的性能。然而,它们在人类认知的关键一面——空间推理上,仍然未被充分研究。人类具有通过一种被称为 心灵之眼 的过程创造看不见的物体和行为的心智图像的能力,从而使得对未见世界的想象成为可能。...
-
开源模型首胜GPT-4!竞技场最新战报引热议,Karpathy:这是我唯二信任的榜单
能打得过GPT-4的开源模型出现了! 大模型竞技场最新战报: 1040亿参数开源模型Command R+攀升至第6位,与GPT-4-0314打成平手,超过了GPT-4-0613。 图片 这也是第一个在大模型竞技场上击败GPT-4的开放权重模型。 大模型竞...
-
Tavily官网体验入口 AI研究助手使用地址
Tavily是您的 AI 研究助手,为您提供快速准确的洞察和全面研究。它可以帮助您的 AI 做出更好的决策,提供智能搜索 API,以快速、准确、实时的方式获取信息。通过连接 LLMs 和 AI 应用程序到可信实时知识,减少幻觉和偏见。 点击前往Tavil...
-
Spotify 推出个性化AI播放列表,用户可以使用提示构建
Spotify 推出了 AI 播放列表功能,让用户能够通过书面提示来生成个性化的音乐列表。这项新功能最初将在英国和澳大利亚的 Android 和 iOS 设备上推出,并将在未来几个月内不断改进。 除了基于流派或时间范围等传统播放列表创建请求之外,Spot...
-
揭秘AI幻觉:GPT-4V存在视觉编码漏洞,清华联合NUS提出LLaVA-UHD
想了解更多AIGC的内容,请访问: 51CTO AI.x社区 https://www.51cto.com/aigc/ GPT-4V 的推出引爆了多模态大模型的研究。GPT-4V 在包括多模态问答、推理、交互在内的多个领域都展现了出色的能力,成为如今最领先...
-
IT领导者可以从谷歌的GenAI起步不稳中学到什么
谷歌推出 Bard 时,试图对抗 OpenAI 的 ChatGPT,但在首次演示中不幸出现了事实错误。尽管谷歌随后将 Bard 扩展到 Gmail 到 YouTube 等所有平台,但公众最初的焦点仍然是该工具未能达到 OpenAI 响应的质量。 谷歌...
-
中科大等意外发现:大模型不看图也能正确回答视觉问题!
想了解更多AIGC的内容, 请访问: 51CTO AI.x社区 https://www.51cto.com/aigc/ 大模型不看图,竟也能正确回答视觉问题?! 中科大、香港中文大学、上海AI Lab的研究团队团队意外发现了这一离奇现象。 他们首先看到像...
-
论文笔记:Llama 2: Open Foundation and Fine-Tuned Chat Models
导语 Llama 2 是之前广受欢迎的开源大型语言模型 LLaMA 的新版本,该模型已公开发布,可用于研究和商业用途。本文记录了阅读该论文的一些关键笔记。 链接:https://arxiv.org/abs/2307.09288 1 引言 大型语言...
-
年薪百万美元、马斯克直呼“史上最疯狂”!大厂“AI人才战”爆发
快科技4月6日消息,近日特斯拉CEO马斯克在社交平台上发布了一系列帖子称,OpenAI正在以高薪诱惑特斯拉工程师,并且他们在某些情况下取得了成功。 马斯克表示这是我见过最疯狂的人才战争”,并宣布将提高AI工程师的薪酬。 AI的快速发展也加剧了科技巨头间的竞...
-
华人开源最强「AI 程序员」炸场,让 GPT-4 自己修 Bug!
自从“AI 程序员”Devin问世之后,近期的一大趋势就是程序员们争先恐后地要让自己失业,试图抢先造出比自己更强大的程序员。 普林斯顿大学为软件工程界迎来了一位新星——SWE-agent,论文将在4月10日正式发布,目前项目已在 GitHub 上开源。...
-
Harvey公司与OpenAI合作 为法律专业人士打造定制训练的案例法模型
近日,Harvey公司与OpenAI宣布合作,共同为法律专业人士打造了一款定制训练的案例法模型。这款AI系统不仅具备复杂的推理能力,还能够处理广泛的法律领域知识,并具备超越单一模型调用的能力。 它能够起草法律文件、回答复杂的诉讼场景问题,甚至识别数百份合同...
-
GPT-4单项仅得7.1分,揭露大模型代码能力三大短板,最新基准测试来了
首个AI软件工程师Devin正式亮相,立即引爆了整个技术界。 Devin不仅能够轻松解决编码任务,更可以自主完成软件开发的整个周期——从项目规划到部署,涵盖但不限于构建网站、自主寻找并修复 BUG、训练以及微调AI模型等。 这种 “强到逆天” 的软件开发...
-
大模型实时打《街霸》捉对PK,GPT-4居然不敌3.5,新型Benchmark火了
让大模型直接操纵格斗游戏《街霸》里的角色,捉对PK,谁更能打? GitHub上一种你没有见过的船新Benchmark火了。 与llmsys大模型竞技场中,两个大模型分别输出答案,再由人类评分不同——街霸Bench引入了两个AI之间的交互,且由游戏引擎中确...
-
Mini-Gemini:简单有效的AI框架,增强多模态视觉语言模型
近期,中国香港中文大学和 SmartMore 的研究人员推出了一种名为 Mini-Gemini 的新颖框架,通过增强多模态输入处理来推动 VLMs 的发展。Mini-Gemini 采用了双编码器系统和一种新颖的补丁信息挖掘技术,结合一个特别策划的高质量数据...
-
Hume AI EVI对话人工智能体验入口 情感大语言模型eLLM使用地址
Hume.AI专注于开发能够理解人类情感和表情的技术,提供表情测量API和自定义模型API,以预测和改善人类福祉。近日发布的EVI是一款具有情感感知能力的对话AI,采用了情感大语言模型(eLLM)技术。 点击前往Hume.AI EVI体验入口 谁可以从H...
-
X AI 发布Grok-1.5更新:性能显著提升 支持128K上下文长度
昨天,X AI 发布了其最新的大型语言模型更新——Grok-1.5。该版本在编码和与数学相关的任务中表现出了显著的性能提升。 据详细介绍,Grok-1.5在 MATH 基准测试中获得了50.6%的分数,在 GSM8K 基准测试中获得了90%的分数,这标志着...
-
llama-index调用qwen大模型实现RAG
背景 llama-index在实现RAG方案的时候多是用的llama等英文大模型,对于国内的诸多模型案例较少,本次将使用qwen大模型实现llama-index的RAG方案。 环境配置 (1)pip包 llamaindex需要预装很多包,这里先把我...
-
开源AI平台Lightning AI发布AI编译器“Thunder”以加速模型训练
开源人工智能平台Lightning AI宣布与Nvidia合作,发布了名为“Thunder”的下一代AI编译器,旨在加速人工智能模型的训练速度。据Lightning AI称,该编译器在实际场景中相比未优化的代码,可将大型语言模型(LLMs)的训练速度提高高...
-
今日Arxiv最热NLP大模型论文:Llama-2上下文扩大48倍的方法来了,港大发布,无需训练
引言:大语言模型的长上下文理解能力 在当今的人工智能领域,大语言模型(Large Language Models,简称LLMs)的长上下文理解能力成为了一个重要的研究方向。这种能力对于模型来说至关重要,因为它使得LLMs能够有效地应对各种应用场景,例如在...
-
和 GPT-4 并列第一,LMSYS 基准测试显示 Claude-3 模型表现优异
3 月 28 日消息,根据 LMSYS Org 公布的最新基准测试报告,Claude-3 得分以微弱优势超越 GPT-4,成为该平台“最佳”大语言模型。 IT之家首先介绍下 LMSYS Org,该机构是由加州大学伯克利分校、加州大学圣地亚哥分校和卡内...
-
Hume AI发布对话AI——EVI:具备情感感知能力
Hume AI近日发布了一款具有情感感知能力的对话AI:EVI,这款产品采用了一种被称为情感大语言模型(eLLM)的多模态生成AI技术。 情感大语言模型(eLLM)是一种结合了大型语言模型(LLMs 的语言理解能力和表情测量技术的情感感知能力的新技术。这种...
-
Claude 3反超GPT-4竞技场登顶!小杯Haiku成开发者新宠:性价比无敌
GPT-4真的被反超了! 大模型竞技场上,Claude 3大杯Opus新王登基,Elo分数来到榜首。 连小杯Haiku也跻身第二梯队,超过了GPT-4-0613这个型号,把GPT-3.5-turbo远远甩在身后。 Haiku的输入token价格,可...
-
LLM性能最高60%提升!谷歌ICLR 2024力作:让大语言模型学会「图的语言」
在计算机科学领域,图形结构由节点(代表实体)和边(表示实体之间的关系)构成。 图无处不在。 互联网本身就像是一张庞大的网络图,甚至搜索引擎所使用的知识也是以图的形式进行组织和呈现。 但由于LLMs主要在常规文本上训练,并没有图的结构,将图转化为LLMs能...
-
在Raspberry Pi上运行本地LLM和VLM
译者 | 朱先忠 审校 | 重楼 在树莓派上使用Ollama的本地LLM和VLM(作者本人提供照片) 前言 有没有想过在自己的设备上运行自己的大型语言模型(LLM)或视觉语言模型(VLM)?你可能想过,但一想到从头开始设置,必须管理有关环境,还要下载正...
-
UC伯克利「LLM排位赛」结果出炉!Claude 3追平GPT-4并列第一
Claude 3和GPT-4到底谁厉害? 自从Claude 3发布以来,Anthropic官方对外宣称的说法就是「全面超越GPT-4」,在技术报告中给出的各个测试集的数据来看,也都几乎稳压GPT-4-Turbo一头。 但之前的新模型出来都要在跑分上「吊...
-
AIGC 实战:Ollama 和 Hugging Face 是什么关系?
HuggingFace(拥抱脸)和Ollama都与**大型语言模型(LLMs)**有关,但它们的用途不同: HuggingFace: HuggingFace 是一个知名的平台,提供各种预训练的LLMs,包括流行的模型如GPT-3、BERT和...
-
英伟达AI Workbench正式发布,大幅度简化大模型开发流程
3月22日,英伟达在官网宣布,正式发布NVIDIA AI Workbench。 AI Workbench是一款面向AI大模型开发人员的工具包,可以帮助开发人员消除很多繁琐、复杂的部署、开发流程。 无论你的技术水平如何,开发人员都可以体验快速可靠的 GPU...
-
大模型之Llama系列- LlaMA 2及LLaMA2_chat(上)
LlaMA 2是一个经过预训练与微调的基于自回归的transformer的LLMs,参数从7B至70B。同期推出的Llama 2-Chat是Llama 2专门为对话领域微调的模型。 在许多开放的基准测试中Llama 2-Chat优于其他开源的聊天模型,此外...
-
LLM、RAG虽好,但XGBoost更香!
编译 | 言征 出品 | 51CTO技术栈(微信号:blog51cto) 数据&AI企业家、投资人Oliver Molander 近日在LinkedIn上的帖子中打趣道:“如果你在2022年[ChatGPT推出]之前问人工智能专家什么是LL...
-
实施稳健的AI治理以实现数据民主化
根据Gartner的数据,到2026年,超过80%的企业将使用GenAI API和模型,或在生产中部署启用GenAI的应用程序,而去年这一比例不到5%。GenAI的自然语言界面允许非技术用户,从部门负责人到一线工作人员,更轻松地访问和使用数据。这...
-
端到端加速企业GenAI创新,英伟达NIM微服务成为软件企业看中的亮点!
3月20日,软件开发企业Cloudera宣布了一项重要的合作信号:要与NVIDIA一起加速生成式AI应用的部署。具体来讲,就是通过将NVIDIA的AI微服务集成到其Cloudera数据平台(CDP)中,帮助企业能够快速构建和扩展基于自身数据的定制化大型语...
-
一文读懂大型语言模型微调技术挑战与优化策略
Hello folks,我是 Luga,今天我们继续来聊一下人工智能(AI 生态领域相关的技术 - LLM Fine-Tuning ,本文将继续聚焦在针对 LLM Fine-Tuning 技术进行剖析,使得大家能够了解 LLM Fine-Tuning...
-
stable diffusion采样详解
采样:模型会在Latent Space中生成一个完全随机的图像,然后噪声预测器会从图像中减去预测的噪声。随着这个步骤的不断重复,最终得到一个清晰的图像。 Stable Diffusion在每个步骤中都会生成一张新的采样后的图像,整个去噪...
-
Stable Diffusion 跑通总结
记录了自己跑通Stable Diffusion的过程和踩过的坑,目前只是初步跑了一下,没有很深入的使用代码,希望能有一些参考价值。 在Windows系统运行,需要提前装好Conda 一、下载代码和模型 1、下载代码: 代码下载:代码地址 或者...
-
国产大模型最近挺猛啊!使用Dify构建企业级GPTs;AI阅读不只是「总结全文」;我的Agent自媒体团队;Nijijourney官方AI绘画课完结啦! | ShowMeAI日报
?日报&周刊合集 | ?生产力工具与行业应用大全 | ? 点赞关注评论拜托啦! ? 大模型近期重大进展:百川、讯飞、智源发布新模型,GLM-4、DeepSeek上线开放平台,Google Bard 反超,Mixtral medium 泄...
-
仅需200M参数,零样本性能超越有监督!谷歌发布时序预测基础模型TimesFM
时间序列预测在零售、金融、制造业、医疗保健和自然科学等各个领域无处不在:比如说在零售场景下中,「提高需求预测准确性」可以有显著降低库存成本并增加收入。 深度学习(DL)模型基本上垄断了「多变量时间序列预测」任务,在各个竞赛、现实应用中的表现都非常好。 与...
-
刷榜「代码生成」任务!复旦等发布StepCoder框架:从编译器反馈信号中强化学习
大型语言模型(LLMs)的发展极大地推动了代码生成领域的发展,之前有工作将强化学习(RL)与编译器的反馈信号集成在一起,用于探索LLMs的输出空间,以提高代码生成质量。 但当下还存在两个问题: 1. 强化学习探索很难直接适配到「复杂的人类需求」,即要求L...
-
大模型的DenseNet时刻!DenseMamba:精度显著提升
本文经自动驾驶之心公众号授权转载,转载请联系出处。 随着 ChatGPT 的突破性进展,大型语言模型(LLMs)迎来了一个崭新的里程碑。这些模型在语言理解、对话交互和逻辑推理方面展现了卓越的性能。过去一年,人们目睹了 LLaMA、ChatGLM 等模型...
-
论文笔记:Code Llama: Open Foundation Models for Code
导语 Code Llama是开源模型Llama 2在代码领域的一个专有模型,作者通过在代码数据集上进行进一步训练得到了了适用于该领域的专有模型,并在测试基准中超过了同等参数规模的其他公开模型。 链接:https://arxiv.org/abs/23...
-
Apollo开源轻量级多语言医疗 LLM:助力将医疗 AI 民主化推广至60亿人口
医疗人工智能(AI)技术正在迅速发展,旨在利用大型语言模型(LLMs 的巨大潜力彻底改变医疗保健交付方式。这些技术进步承诺提高诊断准确性,个性化治疗方案,并解锁全面医学知识的获取,从根本上改变患者护理。将 AI 整合到医疗保健中旨在提高医疗服务的效率和精确...
-
Sora是『神笔马良』还是AI怪物?首篇综述一探乾坤!
本文经自动驾驶之心公众号授权转载,转载请联系出处。 写在前面&笔者的个人理解 Sora是一种文本到视频生成的人工智能模型,由OpenAI于2024年2月发布。该模型经过训练,能够从文本指令中生成逼真或想象的场景视频,并显示出在模拟物理世界方面的潜...
-
Stable-diffusion复现笔记
一、引言 目前正在学习有关扩撒模型的相关知识,最近复现了Stable-diffuison,此文主要是想记录一下整体的复现过程以及我在复现过程中出现的一些奇怪的问题以及我的处理方法。这里我的复现主要是针对官网文档实现的,并没有用到webui版本,如果是想体...
-
DenseMamba:大模型的DenseNet时刻,Mamba和RetNet精度显著提升
随着 ChatGPT 的突破性进展,大型语言模型(LLMs)迎来了一个崭新的里程碑。这些模型在语言理解、对话交互和逻辑推理方面展现了卓越的性能。过去一年,人们目睹了 LLaMA、ChatGLM 等模型的诞生,它们基于 Transformer 架构,采用多...
-
清华NLP组发布InfLLM:无需额外训练,「1024K超长上下文」100%召回!
大模型只能够记忆与理解有限的上下文已经成为大模型在真实应用中的能力瓶颈,例如对话式AI系统往往无法记忆你前一天对话的内容,利用大模型构建智能体会产生前后不一致的行为与记忆。 为了让大模型能够记忆并处理更长的上下文,来自清华大学、麻省理工学院和人民大学的研...