-
CoT提出者Jason Wei:大模型评估基准的「七宗罪」
在 CV 领域,研究者一直把李飞飞等人创建的 ImageNet 奉为模型在下游视觉任务中能力的试金石。 在大模型时代,我们该如何评估 LLM 性能?现阶段,研究者已经提出了诸如 MMLU、GSM8K 等一些评估基准,不断有 LLM 在其上刷新得分。 但这...
-
OpenAI 有望在两到三年内成为价值万亿美元的公司
中国投资者和连续创业者李开复最近表示,他看好 OpenAI 在两到三年内成为一家万亿美元的公司。 李开复在最近接受《财富》杂志采访时表示:“OpenAI 很可能在不久的将来(两到三年)成为一家价值万亿美元的公司。”“我对 OpenAI 的未来非常乐观...
-
离大模型落地应用最近的工程化技术(RAG)
虽然大规模语言模型(LLM)在自然语言处理(NLP)方面表现出了其强大的文本生成和理解能力,但是它们在实际应用中仍然面临一些挑战,如处理大规模知识库和实时获取最新信息的能力,并且会产生幻觉。为了解决这些问题,检索增强生成(Retrieval-Augmen...
-
只需单卡RTX 3090,低比特量化训练就能实现LLaMA-3 8B全参微调
自 2010 年起,AI 技术历经多个重大发展阶段,深度学习的崛起和 AlphaGo 的标志性胜利显著推动了技术前进。尤其是 2022 年底推出的 ChatGPT,彰显了大语言模型(LLM)的能力达到了前所未有的水平。自此,生成式 AI 大模型迅速进入高...
-
GPT-4被证实有人类心智!网友:连AI都可以看出他在嘲讽你了
Nature杂志上发表的最新研究显示,GPT-4在心智理论(Theory of Mind, ToM)方面的表现与人类相当,甚至在某些方面超过了人类。这项研究由James W. A. Strachan等人进行,他们通过一系列测试来评估GPT-4、GPT-3....
-
谷歌 CEO 承认 AI 摘要功能存在“幻觉”问题:尚无解决方案
5 月 26 日消息,谷歌搜索新推出的“AI 摘要(AI Overviews)”功能近日备受诟病,原因是该功能经常提供严重错误的搜索结果信息,例如,该功能曾建议用户使用胶水来防止披萨上的奶酪滑落。 本周早些时候,据科技媒体 The Verge 报道,谷...
-
一文深度剖析 ColBERT
近年来,向量搜索领域经历了爆炸性增长,尤其是在大型语言模型(LLMs)问世后。学术界开始重点关注如何通过扩展训练数据、采用先进的训练方法和新的架构等方法来增强 embedding 向量模型。 在之前的文章中,我们已经深入探讨了各种类型的 embeddin...
-
尴尬!谷歌手动删除搜索中奇怪的 AI 回答
谷歌的 AI Overview 产品最近推出后,社交媒体上涌现了一些怪异的回答,例如建议用户在披萨上涂胶水或吃石头。这个失误导致谷歌不得不手动禁用特定搜索的 AI Overviews,因为各种有趣的回答很快就被发布到社交网络上。 谷歌的发言人梅根・法恩斯沃...
-
Meta LlaMA 3模型深度解析
想了解更多AIGC的内容,请访问: 51CTO AI.x社区 https://www.51cto.com/aigc/ 拉玛的故事 “在安第斯山脉崎岖的山区,生活着三种非常美丽的生物——里约、洛基和塞拉。它们有着光泽的皮毛和闪闪发光的眼睛,是力量和韧性的...
-
人工智能辅导应用在美国学生中炙手可热 多款来自中国AI厂商开发
美国学生正热衷于使用基于人工智能的家庭作业应用进行课后辅导。这些应用利用大型语言模型如ChatGPT为学生提供个性化、按需的学习帮助,从解答数学题到写作论文无所不包。 休斯顿高中生埃文就是其中一例。他曾请私人家教辅导,时薪高达60美元。现在他改用名为Ans...
-
为何说小语言模型是AI界的下一大热门?
译者 | 布加迪 审校 | 重楼 在AI领域,科技巨头们一直在竞相构建越来越庞大的语言模型,如今出现了一个令人惊讶的新趋势:小就是大。随着大语言模型(LLM)方面的进展出现了停滞的迹象,研究人员和开发人员日益开始将注意力转向小语言模型(SLM)。这种紧凑...
-
LLM大模型推理加速实战:vllm、fastllm与llama.cpp使用指南
随着人工智能技术的飞速发展,大型语言模型(LLM)在诸如自然语言处理、智能问答、文本生成等领域的应用越来越广泛。然而,LLM模型往往具有庞大的参数规模,导致推理过程计算量大、耗时长,成为了制约其实际应用的关键因素。为了解决这个问题,一系列大模型推理加速工具...
-
Llama大型语言模型原理详解
Llama大型语言模型是一种基于深度学习的自然语言处理模型,它在文本生成、问答、摘要等多种NLP任务中展现出强大的性能。本文将详细解析Llama模型的原理,包括其结构、训练过程以及工作机制,帮助读者深入理解这一先进的模型。 一、模型结构 Llama模型...
-
在个人 Linux 机器 (GPU/CPU) 上本地运行 LLaMA-3(Docker+Ollama+Open WebUI+LLama3教程含详细步骤)
在当今快速发展的人工智能环境中,部署开源大型语言模型 (LLM 通常需要复杂的计算基础设施。然而,Ollama 的创新平台正在改变这一规范,支持在标准个人计算机上使用这些强大的模型,支持CPU和GPU配置。本指南介绍了如何使用 Ollama 在您自己的设...
-
本地环境运行Llama 3大型模型:可行性与实践指南
简介: Llama 是由 Meta(前身为 Facebook)的人工智能研究团队开发并开源的大型语言模型(LLM),它对商业用途开放,对整个人工智能领域产生了深远的影响。继之前发布的、支持4096个上下文的Llama 2模型之后,Meta 进一步推出了性...
-
Shortened LLaMA:针对大语言模型的简单深度剪枝法
? CSDN 叶庭云:https://yetingyun.blog.csdn.net/ 论文标题 & 发表会议:Shortened LLaMA: A Simple Depth Pruning for Large Language Model...
-
Llama模型下载
最近llama模型下载的方式又又变了,所以今天简单更新一篇文章,关于下载的,首先上官网,不管在哪里下载你都要去官网登记一下信息:https://llama.meta.com/llama2 然后会出现下面的信息登记网页: 我这里因为待业所以or...
-
在Mac电脑上本地部署Llama大型语言模型
Llama大型语言模型以其出色的性能和广泛的应用场景,吸引了众多NLP研究者和开发者的关注。在Mac电脑上本地部署Llama模型,可以让我们更加便捷地利用这一强大工具进行各种NLP任务。本文将详细介绍在Mac电脑上本地部署Llama模型的步骤和注意事项。...
-
AI大模型日报#0418:Stable Diffusion 3开放API、Meta新研究让AI Agent理解物理世界
导读: 欢迎阅读《AI大模型日报》,内容基于Python爬虫和LLM自动生成。目前采用“文心一言”生成了每条资讯的摘要。标题: 微软刚发布了VASA-1 这个人工智能可以让单张图像具有生动的说话和歌唱能力 摘要: 微软发布了VASA-1人工智能,...
-
阿里开源截止目前为止参数规模最大的Qwen1.5-110B模型:MMLU评测接近Llama-3-70B,略超Mixtral-8×22B!
本文原文来自DataLearnerAI官方网站:阿里开源截止目前为止参数规模最大的Qwen1.5-110B模型:MMLU评测接近Llama-3-70B,略超Mixtral-8×22B! | 数据学习者官方网站(Datalearner https://www...
-
如何本地运行Llama 2大语言模型并实现无公网IP远程访问
文章目录 1. 拉取相关的Docker镜像 2. 运行Ollama 镜像 3. 运行Chatbot Ollama镜像 4. 本地访问 5. 群晖安装Cpolar 6. 配置公网地址 7. 公网访问 8. 固定公网地址 随着ChatGPT...
-
知识分享系列五:大模型与AIGC
大模型(LLM,Large Language Mode)是指通过在海量数据上依托强大算力资源进行训练后能完成大量不同下游任务的深度学习模型。大模型主要用于进行自然语言相关任务,给模型一些文本输入,它能返回相应的输出,完成的具体任务包括生成、分类、总结、改写...
-
llama-factory/peft微调千问1.5-7b-chat
目标 使用COIG-CQIA数据集和通用sft数据集对qwen1.5-7b-chat进行sft微调,使用公开dpo数据集进行dpo对齐。学习千问的长度外推方法。 一、训练配置 使用Lora方式, 将lora改为full即可使用全量微调。具体的参数...
-
AIGC提示(prompt)飞升方法:走向专家之路
大家好,我是herosunly。985院校硕士毕业,现担任算法研究员一职,热衷于机器学习算法研究与应用。曾获得阿里云天池比赛第一名,CCF比赛第二名,科大讯飞比赛第三名。拥有多项发明专利。对机器学习和深度学习拥有自己独到的见解。曾经辅导过若干个非计算机...
-
文心一言4.0 VS ChatGPT4.0 图片生成能力大比拼!
大家好,我是木易,一个持续关注AI领域的互联网技术产品经理,国内Top2本科,美国Top10 CS研究生,MBA。我坚信AI是普通人变强的“外挂”,所以创建了“AI信息Gap”这个公众号,专注于分享AI全维度知识,包括但不限于AI科普,AI工具测评,AI效...
-
【优质书籍推荐】AIGC时代的PyTorch 深度学习与企业级项目实战
大家好,我是herosunly。985院校硕士毕业,现担任算法研究员一职,热衷于机器学习算法研究与应用。曾获得阿里云天池比赛第一名,CCF比赛第二名,科大讯飞比赛第三名。拥有多项发明专利。对机器学习和深度学习拥有自己独到的见解。曾经辅导过若干个非计算机...
-
李飞飞:大模型不具备知觉,参数再多也不行
大模型已经具备知觉? AI教母李飞飞的最新回答旗帜鲜明:No。 她和斯坦福逻辑学家、哲学家John Etchemendy刚刚发表一篇合著文章,标题很直接: 文章中还写道: 这与图灵奖得主Yann LeCun的最新观点不谋而合。LeCun的言论还要更...
-
使用LM Studio与Anything LLM基于Llama-3高效构建本地知识库系统
本文详细介绍了如何使用LM Studio和Anything LLM工具来构建和部署本地知识库。文中首先解释了安装和配置大模型的步骤,随后展示了如何将模型部署为后台服务,并通过API进行调用。此外,文章还涉及了如何使用这些工具快速构建知识库应用,包括知识库的...
-
李飞飞亲自撰文:大模型不存在主观感觉能力,多少亿参数都不行
「空间智能是人工智能拼图中的关键一环。」知名「AI 教母」李飞飞曾这样表示。 近段时间,李飞飞开始把目光瞄准到这一领域,并为此创建了一家初创公司。她曾表示,「大自然创造了一个以空间智能为动力的观察和行动的良性循环。」她所在的斯坦福大学实验室正在尝试教计...
-
马斯克预测AI世界:人类无需再为生计奔波 工作将变成爱好
快科技5月24日消息,近日,埃隆马斯克在巴黎的欧洲科技创新展览会上分享了他对未来人工智能世界的预测。 他认为,随着AI技术的快速发展,未来社会将能够按需提供所有商品和服务。 在这样的环境下,人们将不再为了生计而工作,而是根据个人兴趣和爱好选择职业,更多地去...
-
生成式AI赋能零售银行产业:发掘潜力空间,规避业务陷阱
银行业领导者,对于生成式AI(GenAI)重塑客户体验和优化运营的潜力感到兴奋。麦肯锡的一项调查发现,生成式AI每年可增加2000亿至3400亿美元价值,推动收入增长2.8%至4.7%。零售银行业务成为银行业的第二大盈利部门,创造了540亿美元的新价值...
-
微软Build 2024:Azure生成式AI开发工具库获得大量更新
微软近日对其开发者工具进行了大量更新,试图让生成式AI开发者的工作更轻松。 软件和云巨头微软表示,这些更新将有助于团队构建能力更强的、知识更丰富的AI模型,包括专门的Copilot,可以完成更广泛的企业相关任务。这次微软在Microsoft Buil...
-
LLMs之Llama3:Llama-3的简介、安装和使用方法、案例应用之详细攻略
LLMs之Llama3:Llama-3的简介、安装和使用方法、案例应用之详细攻略 导读:2024年4月18日,Meta 重磅推出了Meta Llama 3,本文章主要介绍了Meta推出的新的开源大语言模型Meta Llama 3。模型架构 Llam...
-
LLaMA Factory多卡微调的实战教程
大家好,我是herosunly。985院校硕士毕业,现担任算法研究员一职,热衷于机器学习算法研究与应用。曾获得阿里云天池比赛第一名,CCF比赛第二名,科大讯飞比赛第三名。拥有多项发明专利。对机器学习和深度学习拥有自己独到的见解。曾经辅导过若干个非计算机...
-
详解苹果和微软的AI集成策略
当OpenAI在其春季更新会议上宣布推出macOS的ChatGPT桌面应用时,人们不禁疑惑为什么它没有先从Windows开始,毕竟,微软是OpenAI的主要投资者,理应最早获得新ChatGPT功能的访问权限。 现在我们知道原因了,在Build会议上宣布...
-
利用大语言模型增强网络抓取:一种现代化的方法
想了解更多AIGC的内容,请访问: 51CTO AI.x社区 https://www.51cto.com/aigc/ 本文将探讨大语言模型(LLMs 与网络抓取的集成,以及如何利用LLMs高效地将复杂的HTML转换为结构化的JSON。 作为一名数据工程...
-
LLaMA Factory单机微调的实战教程
大家好,我是herosunly。985院校硕士毕业,现担任算法研究员一职,热衷于机器学习算法研究与应用。曾获得阿里云天池比赛第一名,CCF比赛第二名,科大讯飞比赛第三名。拥有多项发明专利。对机器学习和深度学习拥有自己独到的见解。曾经辅导过若干个非计算机...
-
字节携港大南大升级 LLaVA-NeXT:借 LLaMA-3 和 Qwen-1.5 脱胎换骨,轻松追平 GPT-4V
文 | 王启隆 出品 | 《新程序员》编辑部 2023 年,威斯康星大学麦迪逊分校、微软研究院和哥伦比亚大学的研究人员共同开发的 LLaVA 首次亮相,彼时它被视为一个端到端训练的大型多模态模型,展现了在视觉与语言融合领域的潜力。今年...
-
AI大模型探索之路-训练篇25:ChatGLM3微调实战-基于LLaMA-Factory微调改造企业级知识库
系列篇章? AI大模型探索之路-训练篇1:大语言模型微调基础认知AI大模型探索之路-训练篇2:大语言模型预训练基础认知AI大模型探索之路-训练篇3:大语言模型全景解读AI大模型探索之路-训练篇4:大语言模型训练数据集概览AI大模型探索之路-训练篇5:大...
-
Meta大佬亲授LLaMA 3的奥秘
大家好,我是herosunly。985院校硕士毕业,现担任算法研究员一职,热衷于机器学习算法研究与应用。曾获得阿里云天池比赛第一名,CCF比赛第二名,科大讯飞比赛第三名。拥有多项发明专利。对机器学习和深度学习拥有自己独到的见解。曾经辅导过若干个非计算机...
-
自回归模型的优缺点及改进方向
在学术界和人工智能产业中,关于自回归模型的演进与应用一直是一个引发深入讨论和多方观点交锋的热门议题。尤其是Yann LeCun,这位享誉全球的AI领域学者、图灵奖的获得者,以及被誉为人工智能领域的三大巨擘之一,他对于自回归模型持有独特的批判视角。值得注意...
-
腾讯AI实验室开发新型智能体框架TRANSAGENTS 专用于处理超长文学内容的翻译工作
腾讯AI实验室开发的"TRANSAGENTS"是一个创新的多智能体框架,专门设计用于处理超长文学内容的翻译工作。这个系统通过创建一个虚拟的翻译出版公司来模拟真实的翻译流程,其中包含多个具有不同职责和专业技能的虚拟角色。 以下是TRANSAGENTS系统的...
-
除了RAG,还有这五种方法消除大模型幻觉
出品 | 51CTO技术栈(微信号:blog51cto) 众所周知,LLM会产生幻觉——即生成不正确、误导性或无意义的信息。 有意思的是,一些人,如OpenAI的CEO Sam Altman,将AI的幻觉视为创造力,而另一些人则认为幻觉可能有助于做出新...
-
综述!全面概括基础模型对于推动自动驾驶的重要作用
写在前面&笔者的个人理解 近年来,随着深度学习技术的发展和突破,大规模的基础模型(Foundation Models)在自然语言处理和计算机视觉领域取得了显著性的成果。基础模型在自动驾驶当中的应用也有很大的发展前景,可以提高对于场景的理解和推理。...
-
AI搜索AI浏览器表现亮眼,三六零入选AIGC先锋榜
近日,AICon全球人工智能开发与应用大会暨大模型应用生态展在北京开幕。今年InfoQ再次面向AIGC赛道推出中国技术力量2024之AIGC先锋榜,360集团凭借其优秀创新实践案例上榜“AIGC最 佳实践案例 TOP20”。 “中国技术力量2024之AI...
-
Meta首席科学家:大模型永远达不到人类智力
快科技5月23日消息,据媒体报道,Meta的首席人工智能科学家、深度学习领域的先驱杨立昆(Yann LeCun)近日对ChatGPT等生成式AI产品背后的大语言模型的能力提出了质疑。 他表示,大模型永远无法实现像人类一样的推理和规划能力。 杨立昆明确指出,...
-
OpenAI CEO坚称公司的 AI 技术安全可广泛使用
OpenAI 首席执行官 Sam Altman 在微软活动中坚称,OpenAI 的 AI 技术已经足够安全,可以广泛应用。这一表态发生在一场新的争议爆发之际,涉及一款 OpenAI 的 AI 语音与女演员斯嘉丽・约翰逊的声音极为相似。 Altman 在20...
-
IBM加倍投入企业AI,发布 Watsonx 助手、模型更新
IIBM 公布了其生成式 AI 平台 watsonx 的新更新,包括新的助手工具、第三方模型和对开源 AI 的更广泛承诺。 在公司年度 Think 大会上,IBM 宣布将重点转向支持开源。该公司已经将其一系列 Granite 大型语言模型开源,这意味着企业...
-
Hinton万字访谈:用更大模型「预测下一个词」值得全力以赴
「这份访谈的每一秒都是精华。」最近,图灵奖得主 Geoffrey Hinton 的一个访谈视频得到了网友的高度评价。 视频链接:https://www.youtube.com/watch?v=tP-4njhyGvo&t=660s 在访谈中,Hi...
-
微软颠覆生产力:Copilot推自定义版,AI PC原生支持PyTorch,奥特曼预告新模型
AI 生产力的未来会是什么样子?全世界都在等待微软的答案。 5 月 22 日凌晨,微软 Build 2024 开发者大会在美国西雅图召开,今天的发布有关 AI 技术,更有关 AI 带来的新工具。 「三十多年来,微软对于计算机一直有两个梦想 —— 首先是...