-
AI日报:骨折价!通义千问模型费用下降97%;豆包大模型也拼性价比;从零复现Llama3代码库爆火;智谱开源大模型CogVLM2
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。 新鲜AI产品点击了解:https://top.aibase.com/ 1、阿里云宣布GPT-4级主力模型...
-
KubeAI大模型推理加速实践|得物技术
除了上面提到的技术外,提高大模型推理速度的还有大模型的量化技术等,这里先不探讨,后面有机会,我们会单独发文章来介绍。 二、大模型发展面临的挑战 未来大模型的参数量肯定会越来越大,这也是大模型的发展趋势,对推理加速的要求会越来越高。 OpenAI在其论...
-
击穿全球底价!阿里云通义千问GPT-4级主力模型降价97%:约为GPT-4价格的1/400
快科技5月21日消息,今日阿里云宣布,通义千问GPT-4级主力模型Qwen-Long,API输入价格从0.02元/千tokens降至0.0005元/千tokens,直降97%。 这意味着,1块钱可以买200万tokens,相当于5本《新华字典》的文字量。...
-
通过检索增强生成(RAG) 增强LLM的实战演练
想了解更多AIGC的内容,请访问: 51CTO AI.x社区 https://www.51cto.com/aigc/ 拥有正确的数据来支持用例对于在任何业务中成功采用大型语言模型(LLM 都是至关重要的。虽然大多数现成的LLM在完成一般任务上表现出色,...
-
150B token从头训练,普林斯顿Meta发布完全可微MoE架构Lory
不同于大多数模型使用字母缩略起名,论文作者在脚注中解释道,Lory是一种羽毛有彩虹颜色的鹦鹉,和「软MoE」的精神非常相似。 论文的作者团队也可以称之为「明星阵容」。 论文地址:https://arxiv.org/abs/2405.03133 主要作者...
-
时隔一年Falcon回归!110亿参数5.5万亿token,性能超越Llama 3
这几天,全世界的目光仿佛都被OpenAI发布的GPT-4o所吸引,与此同时,OpenAI的挑战者们也在同步创造历史。 就在5月14日,阿布扎比先进技术研究委员会(ATRC)下属的技术创新研究所(TII),发布了新一代的Falcon 2模型。 Falco...
-
Karpathy称赞,从零实现LLaMa3项目爆火,半天1.5k star
一个月前,Meta 发布了开源大模型 llama3 系列,在多个关键基准测试中优于业界 SOTA 模型,并在代码生成任务上全面领先。 此后,开发者们便开始了本地部署和实现,比如 llama3 的中文实现、llama3 的纯 NumPy 实现等。 十几个小...
-
Meta首发「变色龙」挑战GPT-4o,34B参数引领多模态革命!10万亿token训练刷新SOTA
GPT-4o的横空出世,再次创立了一个多模态模型发展的新范式! 为什么这么说? OpenAI将其称为「首个『原生』多模态」模型,意味着GPT-4o与以往所有的模型,都不尽相同。 传统的多模态基础模型,通常为每种模态采用特定的「编码器」或「解码器」,将不...
-
一文读懂常见的几种 LangChain 替代品
Hello folks,我是 Luga,今天我们来聊一下人工智能(AI 生态领域相关的技术 - LLM 开发框架 。 在 LLM (大规模语言模型 应用开发领域,开源框架扮演着至关重要的角色,为广大开发者提供了强大的工具支持。作为这一领域的领军者,Lan...
-
70B模型秒出1000token,代码重写超越GPT-4o,来自OpenAI投资的代码神器Cursor团队
70B模型,秒出1000token,换算成字符接近4000! 研究人员将Llama3进行了微调并引入加速算法,和原生版本相比,速度足足快出了快了13倍! 不仅是快,在代码重写任务上的表现甚至超越了GPT-4o。 这项成果,来自爆火的AI编程神器Curso...
-
Hugging Face承诺免费提供1000万美元GPU计算资源,帮助小型开发者对抗大型AI公司
机器学习公司 Hugging Face 承诺投入1000万美元的 GPU 计算资源,帮助开发者和初创公司对抗大型人工智能公司。 Hugging Face 的首席执行官 Clem Delangue 表示:“我们很幸运能够投资社区。” 该公司最近筹集了2.35...
-
GPT-4o:实现跨越文本与视觉的智能交互 原创
想了解更多AIGC的内容,请访问: 51CTO AI.x社区 https://www.51cto.com/aigc/ 摘要 OpenAI最新发布的GPT-4o模型及其在多模态处理上的卓越能力,标志着人机交互迈向新的高度。GPT-4o能够处理文本、音频、...
-
使用开源GenAI时需要注意的十个问题
如今似乎任何人都可以制作AI模型。即使你没有训练数据或编程技巧,你也可以选择你喜欢的开源模型,对其进行调整,并以新的名字发布。 根据斯坦福大学在4月发布的AI指数报告,2023年发布了149个基础模型,其中三分之二是开源的,而且有大量的变体。Huggi...
-
一文读懂主流领先的 SLM(小型语言模型)
Hello folks,我是 Luga,今天我们来聊一下人工智能(AI 生态领域相关的技术 - SLM(小型语言模型 。 在 AI 狂卷的浪潮中,LLM(大型语言模型 无疑成为了整个互联网乃至科技界的焦点所在。以 GPT-3、BERT 等为代表的 LL...
-
一些 Llama3 微调工具以及如何在 Ollama 中运行
Llama3是Meta提供的一个开源大模型,包含8B和 70B两种参数规模,涵盖预训练和指令调优的变体。这个开源模型推出已经有一段时间,并且在许多标准测试中展示了其卓越的性能。特别是Llama3 8B,其具备小尺寸和高质量的输出使其成为边缘设备或者移动设...
-
Ollama如何构建自己的Llama3中文模型
Ollama Ollama 是一个开源的大型语言模型(LLM)服务工具,它允许用户在本地机器上运行和部署大型语言模型。Ollama 设计为一个框架,旨在简化在 Docker 容器中部署和管理大型语言模型的过程,使得这一过程变得简单快捷。用户可以通过简单的...
-
UIUC发布StarCoder2-15B-Instruct代码大模型 无需OpenAI数据登上性能榜单
UIUC与BigCode组织的研究者们最近发布了StarCoder2-15B-Instruct代码大模型,这一创新成果在代码生成任务方面取得了显著突破。这款模型成功超越了CodeLlama-70B-Instruct,登上了代码生成性能榜单之巅。 StarC...
-
无需OpenAI数据,跻身代码大模型榜单!UIUC发布StarCoder-15B-Instruct
在软件技术的前沿,UIUC张令明组携手BigCode组织的研究者,近日公布了StarCoder2-15B-Instruct代码大模型。 这一创新成果在代码生成任务取得了显著突破,成功超越CodeLlama-70B-Instruct,登上代码生成性能榜单之...
-
谷歌 I/O开发者大会汇总:AI模型全面更新 几乎覆盖所有生成模型类型
在昨晚的Google I/O发布会上,Google宣布了一系列AI模型的更新,涵盖了从文本到视觉和音乐的多个领域: Gemini1.5Pro:支持200万上下文,针对翻译、编码、推理等关键用例进行了质量改进,但未发布测试结果。 Gemini Flash:针...
-
Llama-3的竞争对手来了——可运行在iPhone上的小体量高性能LLM模型Phi-3
想了解更多AIGC的内容,请访问: 51CTO AI.x社区 https://www.51cto.com/aigc/ 简介 熟悉我的文章的读者可能还记得我以前报道《课本就是你所需要的一切》(https://medium.com/@mgunton7/th...
-
使用Quarkus和LangChain4j,LLM在Java中可以实现哪些功能?
想了解更多AIGC的内容,请访问: 51CTO AI.x社区 https://www.51cto.com/aigc/ 本文试图通过一个有趣的原创项目,利用Quarkus和LangChain4j来揭开LLM在Java中使用的神秘面纱。 自从2022年11...
-
思维链不存在了?纽约大学最新研究:推理步骤可省略
红极一时的思维链技术,可能要被推翻了! 还在惊讶于大模型居然能够利用思维链分步骤思考? 还在苦于不会写思维链提示词? 来自纽约大学的研究人员表示:「没关系的,都一样」, 推理步骤不重要,不想写提示词也可以不写,用省略号代替就行了。 论文地址:https...
-
网友缝合Llama3 120B竟意外能打,轻松击败GPT2-chatbot和GPT-4
Llama 3首发阵容里没有的120B型号竟意外“曝光”,而且十分能打?! 最近这样一个号称是「Llama3-120b」的神秘大模型火了起来,原因在于它表现太出色了—— 轻松击败GPT-4、gpt2-chatbot那种。 比如,面对像「观察希格斯场是否会...
-
Refuel AI 推出专为数据标注和清洗设计的开源语言模型 RefuelLLM-2
Refuel AI 最近宣布推出两个新版本的大型语言模型(LLM),RefuelLLM-2和 RefuelLLM-2-small,这两个模型专为数据标注、清洗和丰富任务而设计,旨在提高处理大规模数据集的效率。 RefuelLLM-2的主要特点包括: 自...
-
美国教授用2岁女儿训AI模型登Science!人类幼崽头戴相机训练全新AI
【新智元导读】为训练AI模型,纽约州立大学的一名教授Brenden Lake,竟让自己不到2岁女儿头戴相机收集数据!要知道,Meta训Llama3直接用了15万亿个token,如果Lake真能让AI模型学习人类幼崽,从有限的输入中学习,那LLM的全球数据荒...
-
70亿LLaMA媲美5400亿PaLM!MIT惊人研究用「博弈论」改进大模型|ICLR 2024
遇到一个问题用不同表达方式prompt时,大模型往往会给出两种不同的答案。 比如,「秘鲁的首都是什么」,「利马是秘鲁的首都吗」。 对于这种回答不一致的问题,科学家们纷纷为大模型的「智商」担忧起来。 正如了LeCun所言: LLM确实比狗积累了更多的事实知...
-
AI手机,活成产业“摇钱树”
早几年出现的折叠屏没能拯救颓势的手机市场,直接证据就是去年全球出货量依旧拉胯,同比下滑3.2%至11.7亿部,为近十年来最低。 好在Q4出现了些许回暖,全球和中国市场分别有8.5%和1.2%的同比增幅,尤其是后者,在连续同比下降10个季度后首次转正。 很难...
-
Siri Ultra:快捷命令激活iPhone上的大模型进行对话与搜索
Siri Ultra是一款由大型语言模型(LLMs)支持的智能助手,它能够与iPhone上的快捷命令集成,实现包括Llama3、GPT等模型在内的对话功能。用户现在可以享受实时语音交互和联网搜索的便利。 Siri Ultra利用Cloudflare Wo...
-
太酷了!手机上部署最新AI大模型!只需两步!
在当前的AI革命中,大模型扮演着至关重要的角色,而这背后的基础便是Scaling Law。简而言之,随着数据、参数和计算能力的不断提升,大模型的能力也随之增强,展现出小规模模型所无法比拟的“涌现能力”。越来越多的AI企业纷纷推出开源大模型,按照扩展定律实...
-
原作者带队,LSTM真杀回来了!
20 世纪 90 年代,长短时记忆(LSTM)方法引入了恒定误差选择轮盘和门控的核心思想。三十多年来,LSTM 经受住了时间的考验,并为众多深度学习的成功案例做出了贡献。然而,以可并行自注意力为核心 Transformer 横空出世之后,LSTM 自身所...
-
闭源赶超GPT-4 Turbo、开源击败Llama-3-70B,歪果仁:这中国大模型真香
国内的开发者们或许没有想到,有朝一日,他们开发的 AI 大模型会像出海的网文、短剧一样,让世界各地的网友坐等更新。甚至,来自韩国的网友已经开始反思:为什么我们就没有这样的模型? 这个「别人家的孩子」就是阿里云的通义千问(英文名为 Qwen)。在过去的一...
-
阿里云发布通义千问2.5版 性能赶超GPT-4 Turbo
阿里云今日正式发布通义千问2.5版本,该版本在模型性能上全面赶超了GPT-4Turbo,展现了其强大的技术实力。与此同时,通义千问最新开源的1100亿参数模型Qwen1.5-110B在多个基准测评中取得了卓越成绩,超越了Meta的Llama-3-70B模型...
-
开源领域最强大模型!阿里云发布通义千问2.5:全面赶超GPT-4 Turbo
快科技5月9日消息,阿里云正式发布了通义千问2.5,模型性能全面赶超GPT-4 Turbo,声称地表最强中文大模型。 据了解,通义千问2.5最新开源的1100亿参数模型在多个基准测评中均取得了最佳成绩,成功超越了Meta的Llama-3-70B模型,成为开...
-
AlphaGo核心算法增强,7B模型数学能力直逼GPT-4,阿里大模型新研究火了
把AlphaGo的核心算法用在大模型上,“高考”成绩直接提升了20多分。 在MATH数据集上,甚至让7B模型得分超过了GPT-4。 一项来自阿里的新研究引发关注: 研究人员用蒙特卡洛树搜索(MCTS)给大语言模型来了把性能增强,无需人工标注解题步骤,也能...
-
一文读懂多家厂商的大模型训练、推理、部署策略
大合影 get ✅ 披萨和礼物不能少! 接下来进入主题演讲回顾环节。可扫描下方二维码、关注“OSC 开源社区”视频号,进入“直播回放”页面查看完整视频回顾: 刘昊:大模型分析与趋势展望 武汉人...
-
Deepseek-V2技术报告解读!全网最细!
深度求索Deepseek近日发布了v2版本的模型,沿袭了1月发布的 Deepseek-MoE(混合专家模型)的技术路线,采用大量的小参数专家进行建模,同时在训练和推理上加入了更多的优化。沿袭了一贯的作风,Deepseek对模型(基座和对话对齐版本)进行了...
-
《2024年人工智能准备度报告》发布!6成企业拟采用AI,投入生产的仅占其中三分之一;OpenAI稳坐王位;比起RAG更爱微调…
整理 | 伊风 出品 | 51CTO技术栈(微信号:blog51cto) 最近,人工智能公司 Scale AI发布 《2024年人工智能准备度报告》。 该系列报告已经是连续第三年进行发布,本次报告调查采访了1800 多名在企业中构建或应用人...
-
理论+实践,带你了解分布式训练
本文分享自华为云社区《大模型LLM之分布式训练》,作者: 码上开花_Lancer。 随着语言模型参数量和所需训练数据量的急速增长,单个机器上有限的资源已无法满足大语言模型训练的要求。需要设计分布式训练(Distributed Training)系统来解决...
-
大佬说AI|听OpenAI CEO、巴菲特、李开复谈AI取代人类工作
5月8日消息,基于Transformer架构的大模型,其强大的泛化能力和自我学习特性,使得它们在某些任务中表现出接近甚至超越人类的水平。 去年底,谷歌推出其最强人工智能模型Gemini,并贴出了图片展示“Gemini在大规模多任务语言理解上超越人类专家”。...
-
联发科最强5G AI芯片!天玑9300 发布:支持阿里云、文心等大模型
快科技5月7日消息,今日,联发科天玑9300 旗舰5G生成式AI移动芯片正式发布,不仅进一步提升性能,还带来了突破性生成式AI体验。 据了解,天玑9300 是业界首款实现更高速Llama2 7B端侧运行、业界首款生成式AI端侧双LORA融合的芯片,并且支持...
-
一块钱100万token,超强MoE模型开源,性能直逼GPT-4-Turbo
开源大模型领域,又迎来一位强有力的竞争者。 近日,探索通用人工智能(AGI)本质的 DeepSeek AI 公司开源了一款强大的混合专家 (MoE 语言模型 DeepSeek-V2,主打训练成本更低、推理更加高效。 项目地址:https://gi...
-
微调和量化竟会增加越狱风险!Mistral、Llama等无一幸免
大模型又又又被曝出安全问题! 近日,来自Enkrypt AI的研究人员发表了令人震惊的研究成果:量化和微调竟然也能降低大模型的安全性! 论文地址:https://arxiv.org/pdf/2404.04392.pdf 在作者的实际测试中,Mistra...
-
国产开源MoE指标炸裂:GPT-4级别能力,API价格仅百分之一
最新国产开源MoE大模型,刚刚亮相就火了。 DeepSeek-V2性能达GPT-4级别,但开源、可免费商用、API价格仅为GPT-4-Turbo的百分之一。 因此一经发布,立马引发不小讨论。 从公布的性能指标来看,DeepSeek-V2的中文综合能力超越...
-
全球最强开源 MoE 模型来了,中文能力比肩 GPT-4,价格仅为 GPT-4-Turbo 的近百分之一
想象一下,一个人工智能模型,不仅拥有超越传统计算的能力,还能以更低的成本实现更高效的性能。这不是科幻,DeepSeek-V2[1],全球最强开源 MoE 模型来了。 DeepSeek-V2 是一个强大的专家混合(MoE)语言模型,具有训练经济、推理高效...
-
联发科天玑 9300+ 处理器发布 支持Llama27B端侧大模型运行
在今日上午的MediaTek天玑开发者大会MDDC2024上,备受瞩目的天玑9300++旗舰处理器终于揭开了神秘的面纱。这款处理器的CPU架构精心布局,融合了1个高达3.40GHz的Cortex-X4核心,3个2.85GHz的核心,以及4个2.00GHz的...
-
那些可免费使用的在线大语言模型服务
2022年底以ChatGPT[1]为代表的大语言模型的出现掀起了人工智能应用的新浪潮。这些庞大的语言模型经过对海量文本数据的训练,能够理解和生成逼近人类水平的自然语言,在对话、问答、文本生成、代码编写等领域展现出了惊人的能力。 最初这种能力“垄断”在Op...
-
手机可跑,3.8B参数量超越GPT-3.5!微软发布Phi-3技术报告:秘密武器是洗干净数据
过去几年,借助Scaling Laws的魔力,预训练的数据集不断增大,使得大模型的参数量也可以越做越大,从五年前的数十亿参数已经成长到今天的万亿级,在各个自然语言处理任务上的性能也越来越好。 但Scaling Laws的魔法只能施加在「固定」的数据源上,...
-
开发者的LlamaIndex入门指南
想了解更多AIGC的内容,请访问: 51CTO AI.x社区 https://www.51cto.com/aigc/ LlamaIndex是一个专注于检索增强生成(RAG 的工具,可以协助您丰富大模型的数据提示。本文将用实例向您展示和介绍。 众所周知,...
-
58行代码把Llama 3扩展到100万上下文,任何微调版都适用
堂堂开源之王Llama 3,原版上下文窗口居然只有……8k,让到嘴边的一句“真香”又咽回去了。 在32k起步,100k寻常的今天,这是故意要给开源社区留做贡献的空间吗? 开源社区当然不会放过这个机会: 现在只需58行代码,任何Llama 3 70b的微调...
-
分享几个.NET开源的AI和LLM相关项目框架
现如今人工智能(AI)技术的发展可谓是如火如荼,它们在各个领域都展现出了巨大的潜力和影响力。今天大姚给大家分享4个.NET开源的AI和LLM相关的项目框架,希望能为大家提供一些参考。 https://github.com/YSGStudyHards/D...