-
一文了解大语言模型(LLM)
人工智能的发展给我们的生活带来很多不一样的体验。面部识别可以解锁设备,激光雷达可以实现自动驾驶。当2023年,OpenApi的chatGPT可以“理解”人类的语言并与我们进行沟通时,大语言模型的概念出现在我们面前。 在自然语言处理领域的大语言模型(La...
-
ChatGPT能预测未来特定事件,准确率高达97%
贝勒大学经济学院的Pham Hoang Van和Scott Cunningham两位教授,基于OpenAI的GPT-3.5、GPT-4深度研究了大模型对事情的预测能力。 研究人员使用了直接预测和未来叙述(Future Narrative)两种提示方法,进行...
-
新测试基准发布,最强开源Llama 3尴尬了
如果试题太简单,学霸和学渣都能考90分,拉不开差距…… 随着Claude 3、Llama 3甚至之后GPT-5等更强模型发布,业界急需一款更难、更有区分度的基准测试。 大模型竞技场背后组织LMSYS推出下一代基准测试Arena-Hard,引起广泛关注。...
-
五个免费使用ChatGPT API的开源项目
今天给大家介绍Github上5个比较火的免费获取GPT key的项目,希望大家能用到。真正来讲并不是GPT key,而是转发key和转发api接口,但是不管什么原理,最终只要可以实现AI问答的效果,就算完美。我们不讲过程,只要结果。以上都是白嫖的信息差果...
-
GPT-4化身黑客搞破坏,成功率87%,OpenAI要求保密提示词,网友复现ing
91行代码、1056个token,GPT-4化身黑客搞破坏! 测试成功率达87%,单次成本仅8.8美元(折合人民币约63元)。 这就是来自伊利诺伊大学香槟分校研究团队的最新研究。他们设计了一个黑客智能体框架,研究了包括GPT-4、GPT-3.5和众多开源模...
-
采用OpenAI还是DIY?揭开自托管大型语言模型的真实成本
你自豪地将你的服务标榜为“AI驱动”,通过整合大型语言模型。你的网站首页自豪地展示了你的AI驱动服务带来的革命性影响,通过互动演示和案例研究,这也是你的公司在全球GenAI领域留下的第一个印记。 你的小而忠实的用户基础正在享受提升后的客户体验,并且你可...
-
GPT-4化身黑客搞破坏,成功率87%!OpenAI要求保密提示词,网友复现ing
91行代码、1056个token,GPT-4化身黑客搞破坏! 测试成功率达87%,单次成本仅8.8美元(折合人民币约63元)。 这就是来自伊利诺伊大学香槟分校研究团队的最新研究。他们设计了一个黑客智能体框架,研究了包括GPT-4、GPT-3.5和众多开源模...
-
以自组织映射算法促进高效的LLM检索增强生成
想了解更多AIGC的内容,请访问: 51CTO AI.x社区 https://www.51cto.com/aigc/ 背景 当今社会,人们使用大量数据训练包含数百万和数十亿模型参数的大型语言模型(LLM),目标是生成文本,如文本完成、文本摘要、语言翻译...
-
大模型开源还是闭源好,周鸿祎与李彦宏针尖对麦芒
开源大模型还是闭源大模型,究竟谁才是“版本答案”?围绕这个问题,360创始人周鸿祎和百度创始人李彦宏最近就来了一次隔空论战。 先是在4月12日,有媒体曝光了李彦宏在百度内部的讲话。其中就有他认为闭源大模型在能力上会持续领先、而不是一时领先,并且开源大模型的...
-
“百模大战” 必有一战 | 2024 中国 “百模大战” 竞争格局分析
近日,亿欧智库发布了《2024 中国 “百模大战” 竞争格局分析报告》,从 “百模大战” 的关键进程切入,分析大战爆发原因及核心竞争力,评估通用大模型厂商的综合竞争力,洞察垂类大模型的行业发展前景,最后结合技术、产品和市场走向探析 “百模大战” 的未来趋势...
-
RAG 修炼手册|一文讲透 RAG 背后的技术
在之前的文章中《RAG 修炼手册|RAG敲响丧钟?大模型长上下文是否意味着向量检索不再重要》,我们已经介绍过 RAG 对于解决大模型幻觉问题的不可或缺性,也回顾了如何借助向量数据库提升 RAG 实战效果。 今天我们继续剖析 RAG,将为大家大家详细介绍...
-
英伟达竞品来了,训练比H100快70%,英特尔发最新AI加速卡
英伟达的 AI 加速卡,现在有了旗鼓相当的对手。 今天凌晨,英特尔在 Vision 2024 大会上展示了 Gaudi 3,这是其子公司 Habana Labs 的最新一代高性能人工智能加速器。 Gaudi 3 将于 2024 年第三季度推出,英特尔现...
-
【总结】在嵌入式设备上可以离线运行的LLM--Llama
文章目录 Llama 简介 运用 另一种:MLC-LLM 一个令人沮丧的结论在资源受限的嵌入式设备上无法运行LLM(大语言模型)。 一丝曙光:tinyLlama-1.1b(10.1亿参数,需要至少2.98GB的RAM) Llam...
-
ChatGPT 将提供动态模式Dynamic 可根据情况自动选择适合用户的模型
近日,ChatGPT宣布将推出一项名为"Dynamic"的新功能。这个功能的特点是,当用户选择"Dynamic"选项后,系统将根据智能、能力和速度的综合情况,自动选择最适合用户要求的模型。这意味着系统将根据具体情况自动调用GPT-4或GPT-3.5来回答问...
-
[论文笔记]LLaMA: Open and Efficient Foundation Language Models
引言 今天带来经典论文 LLaMA: Open and Efficient Foundation Language Models 的笔记,论文标题翻译过来就是 LLaMA:开放和高效的基础语言模型。 LLaMA提供了不可多得的大模型开发思路,为很多国...
-
OpenAI发布全新微调API :ChatGPT支持更详细可视化微调啦!
4月5日凌晨,OpenAI在官网宣布新增6个全新微调API功能,以扩展自定义模型,帮助企业、开发人员更好地构建特定领域、精细化的ChatGPT应用。 这些功能包括:基于Epoch的检查点创建、Playground新功能、第三方集成、全面验证指标、超参数配置...
-
LLM超长上下文查询-性能评估实战
在大型语言模型(LLM)的应用中,有几个场景需要以结构化的方式呈现数据,其中信息提取和查询分析是两个典型的例子。我们最近通过更新的文档和一个专门的代码仓库强调了信息提取的重要性。对于查询分析,我们同样更新了相关文档。在这些场景中,数据字段可能包括字符串、...
-
科技驱动未来:ChatGPT3.5、GPT4.0、DALL·E 3和Midjourney联手重构人工智能生态
MidTool (kk.zlrxjh.top)(亦称迷图网或者是免费的ChatGPT中文版以及Midjourney的AI绘画聊天工具)是一款综合了众多科技前沿的人工智能助手,其中就包括了ChatGPT3.5、GPT4.0、DALL·E 3以及Midjour...
-
OpenAI 宣布用户无需注册账号即可使用 ChatGPT,但有部分限制
IT之家 4 月 2 日消息,OpenAI 宣布将降低其 AI 聊天机器人 ChatGPT 的使用门槛,即使没有账号的用户也能使用,不过会有一定限制。 从即日起,部分地区的用户访问 chat.openai.com 将不再需要登录即可直接与 ChatGP...
-
苹果AI放大招!声称其设备端模型性能优于GPT-4
快科技4月2日消息,据媒体报道,在最近的一篇论文中,苹果的研究团队宣称,他们提出了一个可以在设备端运行的模型ReALM,这个模型在某些方面可以超过GPT-4。 ReALM的参数量分别为80M、250M、1B和3B,体积都非常小,适合在手机、平板电脑等设备端...
-
Paper Digest | GPT-RE:基于大语言模型针对关系抽取的上下文学习
笔记整理:张廉臣,东南大学硕士,研究方向为自然语言处理、信息抽取 链接:https://arxiv.org/pdf/2305.02105.pdf 持...
-
ChatGPT官宣免注册,全球互联网变天!OpenAI将取代谷歌搜索?
今天起,ChatGPT不用注册,就可以直接使用了! 这份愚人节礼物,可太大了。用户都在欢呼,竞品都在颤抖。 不需要登录,就可以直接使用,这意味着什么? 是的,答案就像你想的那样——ChatGPT,从此将成为互联网基础设施。 今天,就是它取代搜索引擎宏...
-
苹果AI放大招?新设备端模型超过GPT-4,有望拯救Siri
在最近的一篇论文中,苹果的研究人员宣称,他们提出了一个可以在设备端运行的模型,这个模型在某些方面可以超过 GPT-4。 具体来说,他们研究的是 NLP 中的指代消解(Reference Resolution)问题,即让 AI 识别文本中提到的各种实体...
-
性能强,成本低,运行快!最强开源大模型出现,超越ChatGPT和Llama!
大数据人工智能公司 Databricks放大招了! 3月27日,该公司开源了通用大模型 DBRX,并声称该模型是迄今为止全球最强大的开源大型语言模型,比 Meta 的 Llama 2 更为强大。 GPT-3.5研究测试: https://huj...
-
重磅!OpenAI宣布无需注册即可使用ChatGPT
快科技4月2日消息,日前,OpenAI宣布放开限制,允许用户无需注册ChatGPT即可直接使用该服务,这将让人们更容易体验人工智能的潜力。 OpenAI表示,将从周一开始逐步推出这一功能,让185个国家和地区的超1亿用户使用ChatGPT来学习新事物、寻找...
-
苹果研究人员称其设备端模型 ReALM 性能优于 GPT-4,可大幅提升 Siri 智能程度
IT之家 4 月 2 日消息,虽然目前 Siri 可以尝试描述信息中的图像,但效果并不稳定。不过,苹果公司并没有放弃人工智能领域的探索。在最近的一篇研究论文中,苹果的人工智能团队描述了一种可以显著提升 Siri 智能的模型,而且他们认为这个名为 ReA...
-
ChatGPT 与 Bard 评测,GPT 与 Gemini 谁的成果更好?
最近 AI 界的大新闻,莫过于 Google 的 Gemini 模型正式推出。 Google 在推出 Gemini 时,同时秀出了跑分,在 32 项跑分中,Gemini Ultra 有 30 项超越目前业界最强的 GPT-4,这引起了社群的广泛讨论。毕竟过...
-
最神秘国产大模型团队冒泡,一出手就是万亿参数MoE,两款应用敞开玩
国内基础大模型创业公司,最后一位强实力选手终于正式来到台前。 它就是微软前全球副总裁姜大昕所创办的阶跃星辰。 一年前,量子位就对这位大牛的创业动向有所耳闻。 姜大昕在微软工作16年有余,曾任职微软全球副总裁,微软亚洲互联网工程院(STCA)首席科学家,...
-
比人类便宜20倍!谷歌DeepMind推出「超人」AI系统
AI的同行评审来了! 一直以来,大语言模型胡说八道(幻觉)的问题最让人头疼,而近日,来自谷歌DeepMind的一项研究引发网友热议: 大模型的幻觉问题,好像被终结了? 论文地址:https://arxiv.org/pdf/2403.18802.pdf...
-
吴恩达:别光盯着GPT-5,用GPT-4做个智能体可能提前达到GPT-5的效果
AI 智能体是去年很火的一个话题,但是 AI 智能体到底有多大的潜力,很多人可能没有概念。 最近,斯坦福大学教授吴恩达在演讲中提到,他们发现,基于 GPT-3.5 构建的智能体工作流在应用中表现比 GPT-4 要好。当然,基于 GPT-4 构建的智能体工...
-
AIGC工具系列之——基于OpenAI的GPT大模型搭建自己的AIGC工具
今天我们来讲讲目前非常火的人工智能话题“AIGC”,以及怎么使用目前的AI技术来开发,构建自己的AIGC工具什么是AIGC? AIGC它的英文全称为(Artificial Intelligence Generated Content ,中文翻译过来就是“人...
-
python调用GPT-4-API/gpt3.5-api/chatGML-API/llama2-API/文心一言ERNIE-BOT-API
目录 调用GPT-4进行单轮对话 调用GPT3.5 调用llama2-70B(百度接口) 调用chatGML 调用ERNIE-BOT 4.0 关于如何开通GPT-API服务,请参考这一篇文章 目前仅使用到单轮对话,记录一下,之后拓展需...
-
DeepMind终结大模型幻觉?标注事实比人类靠谱、还便宜20倍,全开源
DeepMind 这篇论文一出,人类标注者的饭碗也要被砸了吗? 大模型的幻觉终于要终结了? 今日,社媒平台 reddit 上的一则帖子引起网友热议。帖子讨论的是谷歌 DeepMind 昨日提交的一篇论文《Long-form factuality in la...
-
【AIGC调研系列】AIGC企业级模型Command-R介绍
Command-R与其他大语言模型的主要区别在于其专为企业级应用设计,特别是在检索增强生成(RAG)和工具使用方面。Command-R是一个350亿参数的高性能生成模型,具有开放式权重,能够支持多种用例,包括推理、摘要和问答[2]。它特别针对大规模生产工作...
-
开源大模型DBRX:1320亿参数,比Llama2-70B快1倍
大数据公司Databricks最近发布了一款名为DBRX的MoE大模型,引发了开源社区的热议。DBRX在基准测试中击败了Grok-1、Mixtral等开源模型,成为了新的开源之王。这款模型的总参数量达到了1320亿,但每次激活只有360亿参数,并且其生成速...
-
今日AI:全球最强开源模型一夜易主;清明节前AI复活亲人成热门生意;Heygen 数字人连动作姿态都能复制了;大模型一口气可调用数百万个API
欢迎来到【今日AI】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。 新鲜AI产品点击了解:https://top.aibase.com/ 📰🤖📢AI新鲜事 DBRX抢占开源...
-
铁了心要打败OpenAI!坚信开源打败闭源!这家知名数据厂商4个月打造最强开源大模型!性能超越Claude3,速度是羊驼2倍
撰稿 | 言征 出品 | 51CTO技术栈(微信号:blog51cto) 大模型领域,迭代的速度简直要以天计算。昨天,大家还在热议Claude3超大杯版Opus在Elo Rating榜单上取代GPT4-Turbo-1106成为了新王。今天大家又发现开源...
-
号称全球最强开源 AI 模型,DBRX 登场:1320 亿参数,语言理解、编程能力等均超 GPT-3.5
3 月 28 日消息,初创公司 Databricks 近日发布公告,推出了开源 AI 模型 DBRX,声称是迄今为止全球最强大的开源大型语言模型,比 Meta 的 Llama 2 更为强大。 DBRX 采用 transformer 架构,包含 1320...
-
Claude 3反超GPT-4竞技场登顶!小杯Haiku成开发者新宠:性价比无敌
GPT-4真的被反超了! 大模型竞技场上,Claude 3大杯Opus新王登基,Elo分数来到榜首。 连小杯Haiku也跻身第二梯队,超过了GPT-4-0613这个型号,把GPT-3.5-turbo远远甩在身后。 Haiku的输入token价格,可...
-
智能体DS-Agent基于案例推理,让GPT-4数据科学任务接近100%
在大数据时代,数据科学覆盖了从数据中挖掘见解的全周期,包括数据收集、处理、建模、预测等关键环节。鉴于数据科学项目的复杂本质以及对人类专家知识的深度依赖,自动化在改变数据科学范式方面拥有极大的发展空间。随着生成式预训练语言模型的兴起,让大语言模型智能体处理...
-
Transformer技术的过去、现在与未来
2017年春季,八位谷歌研究人员发表了里程碑式论文《Attention is All You Need》,临近论文发表七周年,这篇论文及其介绍的Transformers架构已经成为AI领域的传奇。Transformers改变了从神经网络技术到生成类似外星...
-
AIGC实战——Transformer模型
AIGC实战——Transformer模型 0. 前言 1. T5 2. GPT-3 和 GPT-4 3. ChatGPT 小结 系列链接 0. 前言 我们在 GPT (Generative Pre-trained Transfo...
-
新研究:大语言模型“涌现”能力不令人惊讶也不难预测
3月26日消息,一项新的研究认为,大语言模型性能的显著提升并不令人意外,也并非无法预测,实际上这是由我们衡量人工智能性能的方式所决定的。 两年前,450位研究人员在一个名为超越模仿游戏基准(Beyond the Imitation Game Bench...
-
一文告诉你如何用 Python 操作 ChatGPT
楔子 ChatGPT 相信大家都用过,你觉得它给你的工作带来了多少帮助呢?目前我们使用 ChatGPT 的方式是通过浏览器访问 chat.openai.com,然后输入问题,就像下面这样。 图片 除了网页之外,ChatGPT 还提供了 API...
-
OpenAI公关跳起来捂他嘴:Transformer作者公开承认参与Q*!|八位作者最新专访
Q* Transformer作者中唯一去了OpenAI的那位,公开承认了: 他参与了Q*项目,是这项新技术的发明者之一。 这几天除了英伟达老黄组局把Transformer作者聚齐,他们中的几位还接受了连线杂志的采访,期间出了这么一个小插曲。 当记者试图询问...
-
UC伯克利「LLM排位赛」结果出炉!Claude 3追平GPT-4并列第一
Claude 3和GPT-4到底谁厉害? 自从Claude 3发布以来,Anthropic官方对外宣称的说法就是「全面超越GPT-4」,在技术报告中给出的各个测试集的数据来看,也都几乎稳压GPT-4-Turbo一头。 但之前的新模型出来都要在跑分上「吊...
-
清华微软开源全新提示词压缩工具,长度骤降80%!GitHub怒砍3.1K星
在自然语言处理中,有很多信息其实是重复的。 如果能将提示词进行有效地压缩,某种程度上也相当于扩大了模型支持上下文的长度。 现有的信息熵方法是通过删除某些词或短语来减少这种冗余。 然而,作为依据的信息熵仅仅考虑了文本的单向上下文,进而可能会遗漏对于压缩至关...
-
OpenAI公关跳起来捂他嘴:Transformer作者公开承认参与Q*!
Transformer作者中唯一去了OpenAI的那位,公开承认了: 他参与了Q*项目,是这项新技术的发明者之一。 这几天除了英伟达老黄组局把Transformer作者聚齐,他们中的几位还接受了连线杂志的采访,期间出了这么一个小插曲。 当记者试图询问Lu...
-
微软新工具LLMLingua-2:可将 AI 提示压缩高达80%,节省时间和成本
微软研究发布了名为 LLMLingua-2的模型,用于任务不可知的提示压缩。该模型通过智能地去除长提示中的不必要词语或标记,同时保留关键信息,使得提示长度可减少至原长度的20%,从而降低成本和延迟。研究团队写道:“自然语言存在冗余,信息量不尽相同。” LL...
-
AIGC 实战:Ollama 和 Hugging Face 是什么关系?
HuggingFace(拥抱脸)和Ollama都与**大型语言模型(LLMs)**有关,但它们的用途不同: HuggingFace: HuggingFace 是一个知名的平台,提供各种预训练的LLMs,包括流行的模型如GPT-3、BERT和...