-
如何通过机器学习算法设计软传感器?
通过理解机器学习算法的功能,工程师可以为他们的应用生成有效的软传感器。 软传感器(soft sensor),也称为虚拟传感器,是一种可以综合处理数百个测量数据的软件。想要添加软传感器的工厂管理者可能会对使软传感器工作的机器学习的范围感到不知所措。然而,...
-
OpenAI新GPT-4 Turbo模型上线:可供付费ChatGPT用户使用
快科技4月12日消息,据媒体报道,OpenAI的全新GPT-4 Turbo模型已全面上线,并正式向付费ChatGPT用户开放。 GPT-4 Turbo更新标志着人工智能领域的又一重要进步,为用户提供了更强大、更高效的文本处理、数学计算、逻辑推理以及编码能力...
-
Meta AI推MA-LMM:用于长视频理解的记忆增强多模态大模型
Meta AI近日推出了一种名为MA-LMM的新型模型,旨在解决长期视频理解中的挑战。LLMs在处理文本数据时表现出了令人印象深刻的能力,但在处理视频输入方面存在一些限制,例如上下文长度限制和GPU内存限制。 为了克服这些限制,研究人员提出了MA-LMM,...
-
新版GPT-4 Turbo现已向所有付费 ChatGPT 用户开放
近日,OpenAI宣布推出最新版的GPT-4Turbo,这一消息在人工智能领域引起了广泛关注。目前新版 GPT-4Turbo 已向所有付费 ChatGPT 用户开放,这标志着人工智能技术在语言理解和生成方面的又一重大进步。 GPT-4Turbo在多个方面...
-
如何评估大语言模型(LLM)的质量——框架、方法、指标和基准。
在人工智能领域,由于大模型(LLM)技术的发展以及其广阔的市场前景,MaaS 以及开源大模型呈现出百家争鸣的景象。现阶段,大型语言模型的开发和应用已经成为各个领域智能化提升的重要方向。为了利用大模型实现业务和产品的提升或创新,就需要对大模型进行系统的评估...
-
十个大型语言模型(LLM)常见面试问题和答案解析
今天我们来总结以下大型语言模型面试中常问的问题 一、哪种技术有助于减轻基于提示的学习中的偏见? A.微调 Fine-tuning B.数据增强 Data augmentation C.提示校准 Prompt calibration D.梯度裁剪 Gra...
-
大模型做时序预测也很强!华人团队激活LLM新能力,超越一众传统模型实现SOTA
大语言模型潜力被激发—— 无需训练大语言模型就能实现高精度时序预测,超越一切传统时序模型。 来自蒙纳士大学、蚂蚁、IBM研究院提出了一种通用框架,结果成功激活大语言模型跨模态处理时序数据的能力。 时序预测有益于城市、能源、交通、遥感等典型复杂系统的决策...
-
7B超越百亿级,北大开源aiXcoder-7B最强代码大模型,企业部署最佳选择
当下,大语言模型集成至编程领域、完成代码生成与补全任务成为重要趋势。业界已经出现了一批引人瞩目的代码大模型,比如 OpenAI 的 CodeX、谷歌 DeepMind 的 AlphaCode、HuggingFace 的 StarCoder,帮助程序员更迅捷...
-
谷歌向微软英特尔全面宣战:首款自研Arm CPU,最强大模型公测,AI视频对垒Sora
昨晚的Google Cloud Next2024大会上,谷歌接连放出一堆模型和产品王炸:Gemini1.5Pro公开可用、上线音频处理能力;代码模型CodeGemma上新,首款自研Arm处理器Axion正式向微软和亚马逊宣战……这次,谷歌要以量取胜。 昨天...
-
生成式AI大模型之提示词工程实践
提示工程是一个新兴的领域,专注于开发、设计和优化提示,以增强 LLM 的输出,从而满足您的需求。它为您提供了一种引导模型的行为从而达到您想要实现的结果的方法。 提示工程与微调不同。在微调中,使用训练数据调整权重或参数,目标是优化成本函数。就计算时间和实...
-
开源模型首胜GPT-4!竞技场最新战报引热议,Karpathy:这是我唯二信任的榜单
能打得过GPT-4的开源模型出现了! 大模型竞技场最新战报: 1040亿参数开源模型Command R+攀升至第6位,与GPT-4-0314打成平手,超过了GPT-4-0613。 图片 这也是第一个在大模型竞技场上击败GPT-4的开放权重模型。 大模型竞...
-
RAG 修炼手册|一文讲透 RAG 背后的技术
在之前的文章中《RAG 修炼手册|RAG敲响丧钟?大模型长上下文是否意味着向量检索不再重要》,我们已经介绍过 RAG 对于解决大模型幻觉问题的不可或缺性,也回顾了如何借助向量数据库提升 RAG 实战效果。 今天我们继续剖析 RAG,将为大家大家详细介绍...
-
全面突围,谷歌昨晚更新了一大波大模型产品
当地时间本周二,谷歌在 Google’s Cloud Next 2024 上发布了一系列 AI 相关的模型更新和产品,包括 Gemini 1.5 Pro 首次提供了本地音频(语音)理解功能、代码生成新模型 CodeGemma、首款自研 Arm 处理器 A...
-
陈巍:LLaMA-2的多模态版本架构与训练详解(收录于GPT-4/ChatGPT技术与产业分析)
陈巍:2023年9月,Meta的研究人员推出了AnyMAL(任意模态增强语言模型,Any-Modality Augmented Language Model)。该模型能够理解多种模态信号并生成文本回应,即多模态输入,单模态输出。输入的模态可包括图像、视频、...
-
万变不离AI!直击 Google Cloud Next 2024 大会更多细节,不只Gemini 1.5 Pro !
AI显然成了谷歌Cloud Next 2024的一条主线! 这一在拉斯维加斯举行的技术大会,自周二起持续至周四,谷歌宣布了大量新的以云为中心的产品和服务,涵盖从Gemin、平台、Workspace到网络安全工具等一切内容。 Google Cloud Ne...
-
每周AI新闻(2024年第11周)Meta公布Llama 3集群细节 | Sora将于年内推出 | 全球首个AI软件工程师发布
这里是陌小北,一个正在研究硅基生命的碳基生命。正在努力成为写代码的里面背诗最多的,背诗的里面最会写段子的,写段子的里面代码写得最好的…厨子。 每周日解读每周AI大事件。 欢迎关注同名公众号【陌北有棵树】,关注AI最新技术与资讯。 大厂动向 M...
-
谷歌向微软英特尔全面宣战!首款自研Arm CPU,最强大模型公测,AI视频对垒Sora
昨天的谷歌Next大会可是太精彩了,谷歌一连放出不少炸弹。 - 升级「视频版」Imagen 2.0,下场AI视频模型大混战 - 发布时被Sora光环掩盖的Gemini 1.5 Pro,正式开放 - 首款Arm架构CPU发布,全面对垒微软/亚马逊/英伟达/...
-
刚刚,Mistral AI最新磁力链放出!8x22B MoE模型,281GB解禁
【新智元导读】初创团队Mistral AI再次放出一条磁力链,281GB文件解禁了最新的8x22B MoE模型。 一条磁力链,Mistral AI又来闷声不响搞事情。 281.24GB文件中,竟是全新8x22B MOE模型! 全新MoE模型共有56层,...
-
GPT-5:我们期待看到的4个新功能
尽管我们不知道GPT-5何时发布,但是我们依然可以期待一下GPT-5的新功能。 OpenAI的GPT-4目前是市场上最好的生成式AI工具,但这并不意味着我们不展望未来。随着OpenAI首席执行官Sam Altman定期暗示GPT-5的信息,似乎我们不久将...
-
大概是最全的开源大模型LLM盘点了吧!
LLM(Large Language Model, 大型语言模型 是指那些规模庞大、参数数量众多的深度神经网络模型,用于理解和生成自然语言文本。在自然语言处理(NLP)领域有着广泛的应用,因其强大的语言理解和生成能力,能够处理各种复杂的文本任务,包括但不...
-
Claude 3 横空出世,亚马逊云科技携手Anthropic引领企业级生成式 AI 新纪元
2024 年 3 月,OpenAI 的主要竞争对手之一 Anthropic 推出最新的 Claude 3 大语言模型系列:Claude 3 Haiku、Claude 3 Sonnet 和 Claude 3 Opus。自从 GPT-3.5 推出以来,业界对...
-
大模型在金融领域落地思路与实践
一、恒生电子的大模型应用实践 1. 大模型的发展趋势 (1)大模型推动第三次信息化浪潮 上图是恒生电子董事长刘曙峰先生经常引用的经典图,将金融领域的数字化推进分为三个阶段,恒生电子目前正处于 2.0 到 3.0 的过渡阶段。在迁徙的过程中,最重要的生产...
-
120亿Stable LM 2上线即开源!2万亿token训练,碾压Llama 2 70B
继16亿轻量级Stable LM 2推出之后,12B参数的版本在今天亮相了。 见状,不少网友纷纷喊话:干的漂亮!但,Stable Diffusion 3啥时候出啊? 总得来说,Stable LM 2 12B参数更多,性能更强。 120亿参数版本包含了...
-
北大开源最强aiXcoder-7B代码大模型!聚焦真实开发场景,专为企业私有部署设计
从科技圈最新动态来看,最近AI代码生成概念实火。 可是,小伙伴们有没有感觉,AI刷程序题比较亮眼,到了企业真实开发场景中,总感觉欠点火候? 恰在此时,一位低调的资深大玩家aiXcoder出手了,放出大招: 它就是全新开源的代码大模型——aiXcoder-...
-
五种常用于LLM的令牌遮蔽技术介绍以及Pytorch的实现
本文将介绍大语言模型中使用的不同令牌遮蔽技术,并比较它们的优点,以及使用Pytorch实现以了解它们的底层工作原理。 令牌掩码Token Masking是一种广泛应用于语言模型分类变体和生成模型训练的策略。BERT语言模型首先使用,并被用于许多变体(Ro...
-
大模型技术实践(二)|关于Llama 2你需要知道的那些事儿
在上期文章中,我们简要回顾了Llama模型的概况,本期文章我们将详细探讨【关于Llama 2】,你需要知道的那些事儿。 01-Llama 2的性能有多好? 作为Meta新发布的SOTA开源大型语言模型,Llama 2是Llama模型的延续和升级。Lla...
-
谷歌AI研究人员提出噪声感知训练方法(NAT)用于布局感知语言模型
在文档处理中,特别是在视觉丰富的文档(VRDs)中,高效信息提取(IE 的需求变得越来越关键。VRDs,如发票、水电费单和保险报价,在业务工作流中随处可见,通常以不同的布局和格式呈现类似信息。自动从这些文档中提取相关数据可以显著减少解析所需的手动工作量。然...
-
阿里刚开源32B大模型,我们立马测试了“弱智吧”
阿里的通义千问(Qwen),终于拼齐了1.5系列的最后一块拼图—— 正式开源Qwen 1.5-32B。 话不多说,直接来看“成绩单”。 这次官方pick同台竞技的“选手”是Mixtral 8x7B模型和同为Qwen 1.5系列的72B模型。 从结果上...
-
ai人工智能写作是什么
AI人工智能写作是指利用人工智能技术和算法来生成文本内容的过程和方法。它结合了自然语言处理、机器学习和深度学习等技术,使得计算机能够模仿人类的写作风格和创造力,生成各种类型的文章、故事、新闻、评论等内容。 AI人工智能写作可以通过训练模型来学习大量的文本...
-
人工智能将缩小网络安全技能差距
随着我们开始超越GenAI所能实现的范围,大量切实的机会正在涌现,有助于解决困扰网络安全的一系列长期问题,尤其是技能短缺和不安全的人类行为。今年的热门预测范围显然不在于技术,因为人为因素继续受到更多关注。任何希望建立有效且可持续的网络安全计划的CISO都...
-
【AIGC调研系列】kimi与其他AI助手相比的优势和劣势是什么
Kimi与其他AI助手相比,具有以下优势和劣势: 优势: 服务稳定性:Kimi的服务在境内,使用稳定[2]。 多客户端支持:支持网页、APP、小程序等多个客户端,提高了用户的使用便捷性[2][4]。 中文处理能力:Kimi在中文处理方面表现出色...
-
生成型人工智能优化框架研究
想了解更多AIGC的内容,请访问: 51CTO AI.x社区 https://www.51cto.com/aigc/ 简介 生成类似人类的文本和语音曾经只有在科幻小说中才成为可能。但是,GPT-3和PaLM等大型语言模型(LLM)的快速发展...
-
「有效上下文」提升20倍!DeepMind发布ReadAgent框架
想了解更多AIGC的内容, 请访问: 51CTO AI.x社区 https://www.51cto.com/aigc/ 基于Transformer的大语言模型(LLM)具有很强的语言理解能力,但LLM一次能够读取的文本量仍然受到极大限制。 除了上下文窗口...
-
论文笔记:Llama 2: Open Foundation and Fine-Tuned Chat Models
导语 Llama 2 是之前广受欢迎的开源大型语言模型 LLaMA 的新版本,该模型已公开发布,可用于研究和商业用途。本文记录了阅读该论文的一些关键笔记。 链接:https://arxiv.org/abs/2307.09288 1 引言 大型语言...
-
AI程序员哪家强?探索Devin、通义灵码和SWE-agent的潜力
4月3日,距世界首个AI程序员Devin诞生不足一个月,普林斯顿大学的NLP团队开发了一个开源AI程序员SWE-agent,它利用GPT-4模型在GitHub存储库中自动解决问题。SWE-agent在SWE-bench测试集上的表现与Devin相似,平均...
-
首个开源世界模型!百万级上下文,长视频理解吊打GPT-4,UC伯克利华人一作
想了解更多AIGC的内容, 请访问: 51CTO AI.x社区 https://www.51cto.com/aigc/ 首个开源「世界模型」来了! 来自UC berkeley的研究人员发布并开源了LWM(LargeWorldModel)系列模型: 论文...
-
2024-03-21 AIGC-FastGPT-本地知识库问答系统
相关文档: 接入 ChatGLM2-6B | FastGPT (fastai.site 相关步骤: FastGPT配置文件及OneAPI程序:百度网盘 请输入提取码 提取码:wuhe 创建fastgpt目录:mkdir fastgpt...
-
GPT-5红队测试邮件曝光,最早6月发布?网友在线逼问Altman,数十亿美元超算26年启动
GPT-5已经开始红队测试了? 就在这几天,网上已经有多人晒出了OpenAI发给自己的红队录取通知书。 此前有传闻说,GPT-5将于今年6月发布。看起来,红队测试与模型发布的时间线十分吻合。 有网友直接晒出了自己收到OpenAI邮件邀请的截图。 这...
-
【保姆级】VsCode 安装GitHub Copilot实操教程
0. 前言 GitHub Copilot,俗称“副驾驶”,是GitHub携手OpenAI共同打造的一款革命性的人工智能代码辅助工具。通过将其插件化集成至编辑器(如VS Code),Copilot能够为用户提供强大的代码自动补全功能,并根据用户输入的注释快...
-
【AIGC调研系列】苹果MM1大模型与其他模型相比的优势和劣势
苹果MM1大模型与其他模型相比,具有以下优势和劣势: 优势: 多模态能力:MM1是基于大规模多模态预训练的,这意味着它能够处理和理解多种类型的数据(如文本、图像等),在上下文预测、多图像和思维链推理等方面表现出色[7][10]。 少样本学习能力:...
-
【AIGC调研系列】通义灵码与copilot的对比
通义灵码与GitHub Copilot的对比主要集中在几个方面:代码编写能力、免费性、操作界面和适配性。 首先,在代码编写能力上,虽然GitHub Copilot在整体上要强于通义灵码,但通义灵码的能力也不算弱,并且在某些特定的小类任务上表现更好[1][...
-
有网友曝光OpenAI 发给红队测试人员邀请邮件:GPT-5已经开始红队测试
今天,有网友曝光了 OpenAI 发给红队测试人员的邀请邮件,表明 GPT-5已经开始红队测试,可能最早在6月发布。网友们开始对 GPT-5展开畅想,呼唤 Altman 发布这一新模型。同时,有外媒报道称,OpenAI 计划启动一项数十亿美元的超级计算机项...
-
LLaMA Factory+ModelScope实战——使用 Web UI 进行监督微调
LLaMA Factory+ModelScope实战——使用 Web UI 进行监督微调 文章原始地址:https://onlyar.site/2024/01/14/NLP-LLaMA-Factory-web-tuning/ 引言 大语...
-
AIGC批量图生成的一些思考
从技术到先进生产力,从先进装备到作战能力,中间隔了一道GAP。现在AI技术进展很快,开源的模型大部分是单点或者一个模块单元的突破。如何把这些技术整装成作战单元,为业务带来实际的价值是我们必须要解决的一个问题。 消费侧技术点 中文clip: 这...
-
首个开源世界模型LWM :百万级上下文,长视频理解超GPT-4
来自加州大学伯克利分校的研究人员最近发布并开源了首个世界模型,被称为 LWM(LargeWorldModel)系列模型。这一模型采用了大量视频和书籍数据集,通过 RingAttention 技术实现了长序列的可扩展训练,使得模型的上下文长度达到了1M to...
-
探索未来编程利器:Code GeeX、Copilot、通义灵码
各位小伙伴们,大家好!小米今天给大家带来的是一篇关于未来编程利器的探索文章。近年来,随着人工智能技术的不断发展,我们看到了越来越多的智能编程辅助工具的出现,其中包括了Code GeeX、Copilot和通义灵码。那么,究竟这三种工具各自是什么,又有什么样的...
-
长文本之罪:Claude团队新越狱技术,Llama 2到GPT-4无一幸免
想了解更多AIGC的内容,请访问: 51CTO AI.x社区 https://www.51cto.com/aigc/ 刚刚,人工智能初创公司 Anthropic 宣布了一种「越狱」技术(Many-shot Jailbreaking)—— 这种技术可以用来...
-
OpenAI竞对用256轮对话「灌醉」大模型,Claude被骗造出炸弹!
大模型又被曝出安全问题? 这次是长上下文窗口的锅! 今天,Anthropic发表了自己的最新研究:如何绕过LLM的安全限制?一次越狱不够,那就多来几次! 图片 论文地址:https://www-cdn.anthropic.com/af5633c94ed2...
-
80M参数打平GPT-4!苹果发超强上下文理解模型ReALM,聪明版Siri马上就来
【新智元导读】苹果公司发布了一款参数量仅为80M的最新模型——ReALM,能够将各种形式的上下文转换为文本进行理解,包括解析屏幕、多轮对话以及上下文引用,提升了Siri等智能助手的反应速度和智能程度。 会读心的Siri想不想要? 今天,苹果发布了自家的最新...
-
华人又来炸场!一个命令工具让GPT-4干掉Devin和RAG!Jim Fan:提示工程2.0没必要了!
出品 | 51CTO技术栈(微信号:blog51cto) 华人又来炸场了!昨天,普林斯顿的CS/NLP硕士生John Yang在Github上开源了一款堪比Devin的利器。不到一天,就在Github上斩获了1.3k 星,异常生猛。据悉,4月10日,详细...