-
从文字模型到世界模型!Meta新研究让AI Agent理解物理世界
LLM已经可以理解文本和图片了,也能够根据它们的历史知识回答各种问题,但它们或许对周围世界当前发生的事情一无所知。 现在LLMs也开始逐步学习理解3D物理空间,通过增强LLMs的「看到」世界的能力,人们可以开发新的应用,在更多场景去获取LLMs的帮助。...
-
这款Linux发行版发起AI禁令!生成代码质量堪忧!阿里也被大模型幻觉愚弄了!网友:人比生产力更重要!
撰稿 | 言征 出品 | 51CTO技术栈(微信号:blog51cto) Gentoo Linux是一套通用的、快捷的、完全免费的Linux发行版,因出色的包管理系统Portage而被开发人员广为喜爱。最近,GentooLinux社区宣布:发行版将不再允...
-
五个简单好用的本地运行大模型的方法
出品 | 51CTO技术栈(微信号:blog51cto) 像ChatGPT、Claude.ai和phind这样的聊天机器人非常有用,但可能并不总是希望的问题或敏感数据由外部应用程序处理。在平台上尤其如此,在这些平台上,你的互动可能会被人类审查,并以其他方...
-
影子人工智能:对企业采用生成式人工智能的隐藏威胁
生成式人工智能(GenAI 技术,尤其是像OpenAI的GPT-4这样的大型语言模型,不断引起渴望获得竞争优势的企业的兴趣。许多企业认识到这些技术的潜力,以彻底改变其运营的各个方面。然而,尽管人们的兴趣日益浓厚,但在企业内部采用生成式人工智能方面存在明...
-
以自组织映射算法促进高效的LLM检索增强生成
想了解更多AIGC的内容,请访问: 51CTO AI.x社区 https://www.51cto.com/aigc/ 背景 当今社会,人们使用大量数据训练包含数百万和数十亿模型参数的大型语言模型(LLM),目标是生成文本,如文本完成、文本摘要、语言翻译...
-
国内百模谁第一?清华14大LLM最新评测报告出炉,GLM-4、文心4.0站在第一梯队
在2023年的「百模大战」中,众多实践者推出了各类模型,这些模型有的是原创的,有的是针对开源模型进行微调的;有些是通用的,有些则是行业特定的。如何能合理地评价这些模型的能力,成为关键问题。 尽管国内外存在多个模型能力评测榜单,但它们的质量参差不齐,排名差...
-
自回归超越扩散!北大、字节 VAR 范式解锁视觉生成 Scaling Law
新一代视觉生成范式「VAR: Visual Auto Regressive」视觉自回归来了!使 GPT 风格的自回归模型在图像生成首次超越扩散模型,并观察到与大语言模型相似的 Scaling Laws 缩放定律、Zero-shot Task General...
-
RAG 2.0架构详解:构建端到端检索增强生成系统
关于检索增强生成(RAG)的文章已经有很多了,如果我们能创建出可训练的检索器,或者说整个RAG可以像微调大型语言模型(LLM)那样定制化的话,那肯定能够获得更好的结果。但是当前RAG的问题在于各个子模块之间并没有完全协调,就像一个缝合怪一样,虽然能够工作...
-
K8s和大模型真的搭吗?
编译|言征 出品 | 51CTO技术栈(微信号:blog51cto) K8s和大模型真的搭吗? 本文抛出了一个问题,但答案仍有待验证。 1.K8s迎来了新的受众群体 假设一位机器学习研究人员阅读了一篇研究论文,并想在PyTorch环境中使用基于Pytho...
-
提高 RAG 应用准确度,时下流行的 Reranker 了解一下?
检索增强生成(RAG)是一种新兴的 AI 技术栈,通过为大型语言模型(LLM)提供额外的“最新知识”来增强其能力。 基本的 RAG 应用包括四个关键技术组成部分: Embedding 模型:用于将外部文档和用户查询转换成 Embedding 向量...
-
5亿个token之后,我们得出关于GPT的七条宝贵经验
自 ChatGPT 问世以来,OpenAI 一直被认为是全球生成式大模型的领导者。2023年3月,OpenAI 官方宣布,开发者可以通过 API 将 ChatGPT 和 Whisper 模型集成到他们的应用程序和产品中。在 GPT-4发布的同时 OpenA...
-
开源大模型Llama 3王者归来!最大底牌4000亿参数,性能直逼GPT-4
扎克伯格:「有了 Llama3,全世界就能拥有最智能的 AI。」 ChatGPT 拉开了大模型竞赛的序幕,Meta 似乎要后来居上了。 本周四,AI 领域迎来重大消息,Meta 正式发布了人们等待已久的开源大模型 Llama3。 扎克伯格在 Faceboo...
-
人工智能将以三种方式改变能源行业
2024年,人工智能将在改善客户体验和减少碳排放方面发挥作用。虽然人工智能在2023年才开始成为主流,但多年来它已应用于各个行业,以优化和自动化运营。在能源领域,我们已经看到人工智能改变了预测性维护、电网管理以及供需预测等方面。 然而,人工智能仍有巨大...
-
GPT Store都开不下去,这家国产平台怎么敢走这条路的??
注意看,这个男人把超1000种大模型接入,让你可插拔无缝切换使用。 最近还上线了可视化的AI工作流: 给你一个直观的拖放界面,拖拖、拉拉、拽拽,就能在无限画布上编排自己个儿的Workflow。 正所谓兵贵神速,量子位听说,这个AI Workflow上线不...
-
Gartner揭示2024年GenAI网络安全主要趋势
组织、政府、学者和无数其他人都在寻找利用GenAI技术的变革力量的方法。大多数IT领导者(67% 将在未来18个月内优先考虑GenAI。虽然人们对GenAI的前景感到非常兴奋,但也有一些担忧,包括GenAI对多个方面的网络安全影响的不确定性。 为了帮助...
-
GPT-4 Turbo重回王座,ChatGPT免费升级!数学暴涨10%/上下文全面碾压
今天起,最新版的GPT-4 Turbo,正式向ChatGPT Plus用户开放了! 图片 有了GPT-4 Turbo加持后,ChatGPT写作、数学、逻辑推理和编码的能力得到提升。 小编小试,果然ChatGPT最新数据已经更新到了4月。 图片 根据基准测...
-
Meta AI推MA-LMM:用于长视频理解的记忆增强多模态大模型
Meta AI近日推出了一种名为MA-LMM的新型模型,旨在解决长期视频理解中的挑战。LLMs在处理文本数据时表现出了令人印象深刻的能力,但在处理视频输入方面存在一些限制,例如上下文长度限制和GPU内存限制。 为了克服这些限制,研究人员提出了MA-LMM,...
-
等等我还没上车!LLM赋能端到端全新范式LeGo-Drive,车速拉满
本文经自动驾驶之心公众号授权转载,转载请联系出处。 写在前面&笔者个人理解 这篇论文介绍了一种名为LeGo-Drive的基于视觉语言模型的闭环端到端自动驾驶方法。该方法通过预测目标位置和可微分优化器规划轨迹,实现了从导航指令到目标位置的端到端闭...
-
“梗王”大模型,靠讲笑话登上CVPR | 中山大学
谁能想到,只是让大模型讲笑话,论文竟入选了顶会CVPR! 没开玩笑,这还真真儿的是一项正儿八经的研究。 例如看下面这张图,如果让你根据它来讲个笑话或梗,你会想到什么? 现在的大模型看完后会说: 脑子短路。 再看一眼 蜘蛛侠 的海报,大模型会配一句“刚擦的...
-
史上首次,AI超越人类奥赛金牌得主!吴方法加持,30题做出27道破纪录
首位超越国际奥林匹克竞赛金牌得主的AI,刚刚诞生了! 印度理工学院海得拉巴分校、图宾根AI中心、剑桥大学的研究者发现—— 通过「吴方法」,可以让AI变成和人类数学奥赛银牌得主同样的水平,而「AI数学大师」AlphaGeometry,则直接超越了IMO金牌...
-
编程的“Devin AI 时代”,软件开发者的喜与忧
作者 | Keith Pitt 编译 | 伊风 出品 | 51CTO技术栈(微信号:blog51cto) 这篇文章的作者基思-皮特(Keith Pitt),是一家软件开发公司Buildkite的创始人兼CEO。2013年,他和另一位软件工程师蒂姆-卢卡...
-
如何评估大语言模型(LLM)的质量——框架、方法、指标和基准。
在人工智能领域,由于大模型(LLM)技术的发展以及其广阔的市场前景,MaaS 以及开源大模型呈现出百家争鸣的景象。现阶段,大型语言模型的开发和应用已经成为各个领域智能化提升的重要方向。为了利用大模型实现业务和产品的提升或创新,就需要对大模型进行系统的评估...
-
研究发现,GPT-4在说服力方面比人类表现优秀82%
瑞士洛桑联邦理工学院(EPFL)的研究人员最近进行的一项研究表明,GPT-4在说服力方面比人类表现更出色,优势接近82%,准确来说是81.7%。该研究涉及820人围绕一系列主题展开辩论。这些主题包括是否应该考虑种族因素作为大学录取标准,以及像是否应该继续发...
-
十个大型语言模型(LLM)常见面试问题和答案解析
今天我们来总结以下大型语言模型面试中常问的问题 一、哪种技术有助于减轻基于提示的学习中的偏见? A.微调 Fine-tuning B.数据增强 Data augmentation C.提示校准 Prompt calibration D.梯度裁剪 Gra...
-
为什么要纯C语言手搓GPT-2,Karpathy回应网友质疑
几天前,前特斯拉 Autopilot 负责人、OpenAI 科学家 Andrej Karpathy 发布了一个仅用 1000 行代码即可在 CPU/fp32 上实现 GPT-2 训练的项目「llm.c」。 llm.c 旨在让大模型(LM)训练变得简单...
-
「大模型+强化学习」最新综述!港中文深圳130余篇论文:详解四条主流技术路线
强化学习(RL)通过与环境交互的试错反馈来优化顺序决策问题。 虽然RL在允许大量试错的复杂电子游戏环境中实现了超越人类的决策能力(例如王者荣耀,Dota 2等),但很难在包含大量自然语言和视觉图像的现实复杂应用中落地,原因包括但不限于:数据获取困难、样本...
-
激发大语言模型空间推理能力:思维可视化提示
大语言模型(LLMs)在语言理解和各种推理任务中展现出令人印象深刻的性能。然而,它们在人类认知的关键一面——空间推理上,仍然未被充分研究。人类具有通过一种被称为 心灵之眼 的过程创造看不见的物体和行为的心智图像的能力,从而使得对未见世界的想象成为可能。...
-
使用BERT的LLM提取摘要
想了解更多AIGC的内容,请访问: 51CTO AI.x社区 https://www.51cto.com/aigc/ 在当今快节奏的世界里,充斥着太多的信息,并且难以处理。人们越来越习惯于在更短的时间内接收更多的信息,当他们不得不阅读大量的文件或书籍时...
-
探索智能体的边界:AgentQuest,一个全面衡量和提升大型语言模型智能体性能的模块化基准框架
随着大模型的不断进化,LLM智能体——这些强大的算法实体已经展现出解决复杂多步骤推理任务的潜力。从自然语言处理到深度学习,LLM智能体正逐渐成为研究和工业界的焦点,它们不仅能够理解和生成人类语言,还能在多变的环境中制定策略、执行任务,甚至使用API调用和...
-
大模型做时序预测也很强!华人团队激活LLM新能力,超越一众传统模型实现SOTA
大语言模型潜力被激发—— 无需训练大语言模型就能实现高精度时序预测,超越一切传统时序模型。 来自蒙纳士大学、蚂蚁、IBM研究院提出了一种通用框架,结果成功激活大语言模型跨模态处理时序数据的能力。 时序预测有益于城市、能源、交通、遥感等典型复杂系统的决策...
-
2024-03-26 AIGC-大模型学习路线
摘要: 2024-03-26 AIGC-大模型学习路线 大模型学习路线 建议先从主流的Llama开始,然后选用中文的Qwen/Baichuan/ChatGLM,先快速上手体验prompt工程,然后再学习其架构,跑微调脚本 如果要深入学习,建...
-
得物 AIGC 算法岗(日常实习生) 面经分享
节前,我们组织了一场算法岗技术&面试讨论会,邀请了一些互联网大厂朋友、参加社招和校招面试的同学,针对算法岗技术趋势、大模型落地项目经验分享、新手如何入门算法岗、该如何准备、面试常考点分享等热门话题进行了深入的讨论。 最大的感受就是,今年的算法面试...
-
生成式AI大模型之提示词工程实践
提示工程是一个新兴的领域,专注于开发、设计和优化提示,以增强 LLM 的输出,从而满足您的需求。它为您提供了一种引导模型的行为从而达到您想要实现的结果的方法。 提示工程与微调不同。在微调中,使用训练数据调整权重或参数,目标是优化成本函数。就计算时间和实...
-
神仙掐架!24届视觉算法岗(AIGC方向)秋招经验分享!
节前,我们组织了一场算法岗技术&面试讨论会,邀请了一些互联网大厂朋友、参加社招和校招面试的同学,针对算法岗技术趋势、大模型落地项目经验分享、新手如何入门算法岗、该如何准备、面试常考点分享等热门话题进行了深入的讨论。 今天我来介绍我们星球社群一位很...
-
RAG 修炼手册|一文讲透 RAG 背后的技术
在之前的文章中《RAG 修炼手册|RAG敲响丧钟?大模型长上下文是否意味着向量检索不再重要》,我们已经介绍过 RAG 对于解决大模型幻觉问题的不可或缺性,也回顾了如何借助向量数据库提升 RAG 实战效果。 今天我们继续剖析 RAG,将为大家大家详细介绍...
-
陈巍:LLaMA-2的多模态版本架构与训练详解(收录于GPT-4/ChatGPT技术与产业分析)
陈巍:2023年9月,Meta的研究人员推出了AnyMAL(任意模态增强语言模型,Any-Modality Augmented Language Model)。该模型能够理解多种模态信号并生成文本回应,即多模态输入,单模态输出。输入的模态可包括图像、视频、...
-
Llama架构比不上GPT2?神奇token提升10倍记忆?
一个 7B 规模的语言模型 LLM 能存储多少人类知识?如何量化这一数值?训练时间、模型架构的不同将如何影响这一数值?浮点数压缩 quantization、混合专家模型 MoE、以及数据质量的差异 (百科知识 vs 网络垃圾 又将对 LLM 的知识容量...
-
ELLA官网体验入口 腾讯AI文本到图像语义对齐工具使用介绍
ELLA是一种轻量级方法,可将现有的基于CLIP的扩散模型配备强大的LLM。ELLA提高了模型的提示跟随能力,使文本到图像模型能够理解长文本。我们设计了一个时间感知语义连接器,从预训练的LLM中提取各种去噪阶段的时间步骤相关条件。我们的TSC动态地适应了不...
-
大概是最全的开源大模型LLM盘点了吧!
LLM(Large Language Model, 大型语言模型 是指那些规模庞大、参数数量众多的深度神经网络模型,用于理解和生成自然语言文本。在自然语言处理(NLP)领域有着广泛的应用,因其强大的语言理解和生成能力,能够处理各种复杂的文本任务,包括但不...
-
苹果新AI模型研究Ferret-UI:或将提升Siri,读懂屏幕内容
尽管苹果在生成式 AI 热潮开始后并未推出任何 AI 模型,但近期公司正在着手一些 AI 项目。上周,苹果研究人员分享了一篇揭示公司正在研发的新语言模型的论文,内部消息称苹果正在研发两款 AI 驱动的机器人。 如今,又一份研究论文的发布显示苹果才刚刚开始。...
-
【总结】在嵌入式设备上可以离线运行的LLM--Llama
文章目录 Llama 简介 运用 另一种:MLC-LLM 一个令人沮丧的结论在资源受限的嵌入式设备上无法运行LLM(大语言模型)。 一丝曙光:tinyLlama-1.1b(10.1亿参数,需要至少2.98GB的RAM) Llam...
-
破解36年前魔咒!Meta推出反向训练大法消除大模型「逆转诅咒」
【新智元导读】大语言模型的「逆转诅咒」,被解开了。近日,来自Meta FAIR的研究人员推出了反向训练大法,让模型从反方向上学到了事实之间的逻辑,终于改进了这个困扰人们已久的问题。 大语言模型的「逆转诅咒」,被解开了! 这个诅咒在去年9月首次被发现,一时间...
-
盘点六大Devin替代方案:自动化你的编程任务
编译丨诺亚 出品 | 51CTO技术栈(微信号:blog51cto) 上个月,成立不久的初创公司Cognition推出了全球首位“AI工程师”——Devin。 凭借自动生成代码、调试错误及自行部署应用等能力,Devin充分实现了软件开发过程的部分自动...
-
纯C语言手搓GPT-2,前OpenAI、特斯拉高管新项目火了
众所周知,大语言模型还在快速发展,应该有很多可以优化的地方。我用纯 C 语言来写,是不是能优化一大截? 也许很多人开过这样的脑洞,现在有大佬实现了。 今天凌晨,前特斯拉 Autopilot 负责人、OpenAI 科学家 Andrej Karpathy...
-
120亿Stable LM 2上线即开源!2万亿token训练,碾压Llama 2 70B
继16亿轻量级Stable LM 2推出之后,12B参数的版本在今天亮相了。 见状,不少网友纷纷喊话:干的漂亮!但,Stable Diffusion 3啥时候出啊? 总得来说,Stable LM 2 12B参数更多,性能更强。 120亿参数版本包含了...
-
什么阻碍了GenAI的投资回报?
企业正在向生成式人工智能(GenAI)投资数千亿美元,希望它能改善他们的运营。然而,这些公司中的大多数还没有看到他们在大型语言模型(LLM)和新兴的GenAI上的投资回报。那么,是什么阻碍了我们实现GenAI所承诺的巨大回报呢? 英伟达首席执行官黄仁勋...
-
Ferret-UI官网体验入口 苹果AI生成理解UI工具使用地址
Ferret-UI是一个新的MLLLM,专门为提高对移动UI屏幕的理解而设计。具备引用、定位和推理能力,处理UI屏幕上的任务。具有“任何分辨率”技术,通过放大细节解决小对象识别问题。涉及任务制定、训练样本收集、模型架构与数据集建立等,表现突出在高级任务的对...
-
Tavily官网体验入口 AI研究助手使用地址
Tavily是您的 AI 研究助手,为您提供快速准确的洞察和全面研究。它可以帮助您的 AI 做出更好的决策,提供智能搜索 API,以快速、准确、实时的方式获取信息。通过连接 LLMs 和 AI 应用程序到可信实时知识,减少幻觉和偏见。 点击前往Tavil...
-
OpenAI创始大神手搓千行C代码训练GPT,附PyTorch迁移教程
大神卡帕西(Andrej Karpathy)刚“复工”,立马带来神作: 纯C语言训练GPT,1000行代码搞定!,不用现成的深度学习框架,纯手搓。 发布仅几个小时,已经揽星2.3k。 它可以立即编译和运行,和PyTorch完全兼容。 卡帕西使用的示例是...
-
1000行C语言搓出GPT-2!AI大神Karpathy新项目刚上线就狂揽2.5k星
【新智元导读】训大模型的方法可能要被革新了!AI大神Karpathy发布的新项目仅用1000行的C语言训完GPT-2,而不再依赖庞大的GPT-2库。他本人预告,即将上线新课。 断更近一个月,Karpathy终于上线了。 这次不是AI大课,而是带来一个新项目...