-
LLM、RAG虽好,但XGBoost更香!
编译 | 言征 出品 | 51CTO技术栈(微信号:blog51cto) 数据&AI企业家、投资人Oliver Molander 近日在LinkedIn上的帖子中打趣道:“如果你在2022年[ChatGPT推出]之前问人工智能专家什么是LL...
-
谷歌推出通用AI代理:能自动执行600多种动作,游玩复杂3D游戏
谷歌DeepMind的研究人员推出了一种面向3D环境的通用AI代理——SIMA。 SIMA无需访问游戏的源代码,也不需要定制的API。只需要输入图像和用户提供的简单自然语言文本指令,SIMA就能像人类玩家一样执行走路、跑步、建造、打开地图等各种游戏中的操作...
-
符尧大佬一作发文,仅改训练数据,就让LLaMa-2上下文长度扩展20倍!
引言:探索语言模型的长上下文能力 近日,谷歌推出了Gemini Pro 1.5,将上下文窗口长度扩展到100万个tokens,目前领先世界。而其他语言模型也正在不断探索长上下文能力,也就是模型处理和理解超出其训练时所见上下文长度的能力。例如,一个模型可能...
-
免费 Copilot 用户可以访问 OpenAI 的 GPT-4 Turbo;面向 3D 虚拟环境的多面手 AI 代理
? AI新闻 ? 免费 Copilot 用户可以访问 OpenAI 的 GPT-4 Turbo 摘要:微软宣布免费版Copilot已升级到GPT-4 Turbo模型,所有用户都可以免费使用。此外,Copilot Pro新增了GPT Builder工...
-
Transformer七子重聚GTC,老黄亲自赠送签名版DGX-1!7年奠基之作背后佚事揭秘
GTC大会上,老黄与Transformer八位作者一场最新访谈,简直火爆了! 演讲前一个半小时,现场门外就挤满了人。许多人早早排起了长队,期待着这场别致的访谈。 就连老黄也提前到场,在人群中合影。 老黄主旨演讲当天,现场虚无坐席,网友戏称他为AI届的...
-
端到端加速企业GenAI创新,英伟达NIM微服务成为软件企业看中的亮点!
3月20日,软件开发企业Cloudera宣布了一项重要的合作信号:要与NVIDIA一起加速生成式AI应用的部署。具体来讲,就是通过将NVIDIA的AI微服务集成到其Cloudera数据平台(CDP)中,帮助企业能够快速构建和扩展基于自身数据的定制化大型语...
-
使用 QLoRA 进行微调Llama 2 和 Mistral的初学者指南
本指南适用于任何想要为自己的项目定制强大的语言模型(如 Llama 2 和 Mistral)的人。使用 QLoRA,我们将逐步完成...
-
【UE5】离线AI聊天-接入LLAMA语言模型 教程
前言:LLAMA是一种神经网络模型,全称为Language Model with an Average Attention Mechanism(具有平均注意机制的语言模型)。它是一种用于自然语言处理任务的模型,特别适用于生成文本和回答问题。LLAMA模...
-
英伟达推出NeMo,极大简化自定义生成式AI开发
为了帮助全球开发者、企业更好的开发定制大模型和生成式AI产品,例如,聊天机器人、编程代码助手等。 NVIDIA宣布推出了NeMo Curator、NeMo Customizer和NeMo Evaluator等微服务的早期访问计划。这些微服务涵盖了从数据整理...
-
【文心一言】获取统计数据以及自动计算增长率,非常不错的一个使用例子
欢迎来到《小5讲堂》 大家好,我是全栈小5,这是《文心一言》系列文章 温馨提示:博主能力有限,理解水平有限,若有不对之处望指正! 目录 前言 搜索内容 输入内容 输出内容 界面效果 优化输入内容 输入内容 输出内容 界面效果...
-
为何大语言模型不会取代码农?
译者 | 布加迪 审校 | 重楼 生成式人工智能(GenAI)会取代人类程序员吗?恐怕不会。不过,使用GenAI的人类可能会取代程序员。但是如今有这么多的大语言模型(LLM),实际效果不一而足。 如果您在努力跟上所有LLM,并非只有您一个人。我们目睹一...
-
快手程一笑:快意大模型或在半年内达 GPT4.0 水平
今日,快手公司发布了其2023年第四季度及全年业绩报告,数据显示,快手在2023年全年实现了显著的收入增长,总收入高达1134.7亿元,同比增长了20.5%。更值得一提的是,经过调整后,快手的净利润首次突破了百亿元大关,达到了102.7亿元。 在随后的业绩...
-
快手CEO程一笑:自研大模型有信心半年内达GPT4.0水平
快科技3月20日消息,今日,快手发布2023年第四季度及全年业绩,2023全年总收入达1134.7亿元,同比增长20.5%,经调整净利润首次超百亿达102.7亿元。 据媒体报道,在快手业绩电话会上,快手创始人兼CEO程一笑透露,2023年公司启动AI战略后...
-
库克在中国首谈苹果生成式AI 今年晚些时候推出
今日,苹果公司CEO蒂姆・库克亲临上海,就一系列话题与媒体进行了交流。 其中,针对提问:“iPhone在人工智能领域取得了哪些进展?”库克详尽地回应称,AI技术已深入渗透至苹果产品的众多功能中。举例来说,Apple Watch的摔倒检测功能以及iPhone...
-
HPT官网体验入口 HyperGAI多模态语言开源模型框架免费使用地址
HPT是HyperGAI研究团队推出的新型多模态大型语言模型框架。它具有高效且可扩展地训练大型多模态基础模型的能力,能够理解包括文本、图像、视频等多种输入模态。HPT框架不仅可以从头开始训练,还可以通过现有的预训练视觉编码器和/或大型语言模型进行高效适配。...
-
Ai绘画工具,Stable Diffusion Lora使用攻略
一、Lora是什么 LoRA,英文全称Low-Rank Adaptation of Large Language Models,直译为大语言模型的低阶适应,这是微软的研究人员为了解决大语言模型微调而开发的一项技术。 可以理解为Stable-Diffus...
-
如何从头开始编写LoRA代码,这有一份教程
LoRA(Low-Rank Adaptation)作为一种用于微调 LLM(大语言模型)的流行技术,最初由来自微软的研究人员在论文《 LORA: LOW-RANK ADAPTATION OF LARGE LANGUAGE MODELS 》中提出。不同于其...
-
亚马逊云科技与英伟达扩展合作 加速超万亿参数级大模型训练
亚马逊云科技与英伟达扩展合作,加速生成式 AI 创新。双方将在亚马逊云科技上提供 NVIDIA Blackwell 架构 GPU,包括 GB200Grace Blackwell 超级芯片和 B100Tensor Core GPU,以帮助客户解锁新的生成式...
-
百万token上下文窗口也杀不死向量数据库?CPU笑了
“Claude 3、Gemini 1.5,是要把RAG(检索增强生成)给搞死了吗?” 随着新晋大语言模型们的上下文窗口(Context Window)变得越发得长,业界人士针对“RAG终将消亡”观点的讨论也是愈演愈烈。 之所以如此,是因为它们二者都是为...
-
近屿智能成功获得A轮资金,其首创的AIGC工程师与产品经理学习路径图引起业界广泛关注。
2024年1月,上海近屿智能科技有限公司(简称近屿智能)宣布其A轮融资圆满成功,智望资本作为领投方,金沙江创投也进行了追加投资。这一轮融资的成功,标志着近屿智能在AIGC技术领域的领先地位获得了业界的广泛认可,并反映了投资者对其技术实力和未来增长潜力的充分...
-
如何扩展大模型的上下文长度
一、背景 大模型的上下文长度是指我们在使用大模型的时候,给大模型的输入加上输出的字符(Token)总数,这个数字会被限制,如果超过这个长度的字符会被大模型丢弃。目前开源的大模型上下文长度一般不长,比如 Llama 2 只有 4K,Code-Llama 系...
-
英伟达吞噬世界!新架构超级GPU问世,AI算力一步提升30倍
「这不是演唱会。你们是来参加开发者大会的!」老黄出场时,现场爆发出了巨大的欢呼声。 今天凌晨四点,加州圣何塞,全球市值第三大公司英伟达一年一度的 GTC 大会开始了。 今年的 GTC 大会伴随着生成式 AI 技术爆发,以及英伟达市值的暴涨。相对的是,算...
-
AIGC元年大模型发展现状手册
零、AIGC大模型概览 AIGC大模型在人工智能领域取得了重大突破,涵盖了LLM大模型、多模态大模型、图像生成大模型以及视频生成大模型等四种类型。这些模型不仅拓宽了人工智能的应用范围,也提升了其处理复杂任务的能力。a. LLM大模型通过深度学习和自然语...
-
谷歌AI推出新型评分器Cappy 助力多任务语言模型性能提升
在最新的研究论文中,谷歌研究人员引入了一种名为Cappy的预训练评分器模型,旨在增强和超越大型多任务语言模型的性能。这项研究旨在解决大型语言模型(LLM)所面临的挑战,其中包括高昂的计算资源成本和效率低下的训练和推理过程。 目前,多任务法学硕士如T0、F...
-
全球首个基于大语言模型的自动驾驶语言控制模型
Arxiv论文链接:https://arxiv.org/abs/2312.03543项目主页:https://github.com/Petrichor625/Talk2car_CAVG 近年来,工业界和学术界都争先恐后地研发全自动驾驶汽车(AVs)。尽...
-
巨人网络:计划构建 AI 游戏开发平台 降低开发门槛
巨人网络表示,在2024年春季招聘中首次重点招募 AI 算法实习生,标志着公司在游戏和人工智能深度融合领域的新动向。招聘对象为2025届海内外高校在校生,涵盖多个技术岗位,旨在培养新一代游戏 AI 人才加速公司发展。 招聘涉及游戏策划、技术、美术、市场运营...
-
英伟达发布最强AI加速卡 大语言模型性能比H100提升30倍
英伟达在 GTC 开发者大会上发布了最强 AI 加速卡 Blackwell GB200,计划今年晚些时候发货。 GB200采用新一代 AI 图形处理器架构 Blackwell,其 AI 性能可达20petaflops,比之前的 H100提升了5倍。每个 B...
-
ChatGPT参数规模被扒:只有7B
ChatGPT惨遭攻击,参数规模终于被扒出来了—— 很可能只有7B(70亿)。 消息来自南加州大学最新研究,他们使用一种攻击方法,花费不到1000美元就把最新版gpt-3.5-turbo模型的机密给挖了出来。 果然,OpenAI不Open,自有别人帮他...
-
从直观物理学谈到认知科学,Sora不是传统物理模拟器盖棺定论了?
本文篇幅很长,主题很多,但循序渐进,对「Sora 究竟是不是世界模拟器」这一说法给出了非常详实的解读。 最近,OpenAI 的文生视频模型 Sora 爆火。除了能够输出高质量的视频之外,OpenAI 更是将 Sora 定义为一个「世界模拟器」(world...
-
NVIDIA大语言模型落地的全流程解析
包括三部分内容: 第一部分是关于 NeMo Framework。NeMo Framework 是 NVIDIA 大语言模型的全栈解决方案,它通过不同组件完成生成式 AI 各个环节的任务,包括数据预处理、分布式训练、模型微调、模型推理加速及部署(Ten...
-
无需训练,Fast-DetectGPT让文本检测速度提升340倍
大语言模型如 ChatGPT 和 GPT-4 在各个领域对人们的生产和生活带来便利,但其误用也引发了关于虚假新闻、恶意产品评论和剽窃等问题的担忧。本文提出了一种新的文本检测方法 ——Fast-DetectGPT,无需训练,直接使用开源小语言模型检测各种大...
-
什么情况用Bert模型,什么情况用LLaMA、ChatGLM类大模型,咋选?
选择使用哪种大模型,如Bert、LLaMA或ChatGLM,取决于具体的应用场景和需求。下面是一些指导原则: Bert模型:Bert是一种预训练的语言模型,适用于各种自然语言处理任务,如文本分类、命名实体识别、语义相似度计算等。如果你的任务是通用的文...
-
AI写作的奥秘:从七个维度揭秘疑似度与创造力的纠缠
大家好,小发猫降重今天来聊聊AI写作的奥秘:从七个维度揭秘疑似度与创造力的纠缠,希望能给大家提供一点参考。 以下是针对论文重复率高的情况,提供一些修改建议和技巧,可以借助此类工具: 标题:AI写作的奥秘:从七个维度揭秘疑似度与创造力的纠缠 随着人...
-
大模型增速远超摩尔定律!MIT最新研究:人类快要喂不饱AI了
我们人类可能要养不起AI了! 近日,来自MIT FutureTech的研究人员发表了一项关于大模型能力增长速度的研究, 结果表明:LLM的能力大约每8个月就会翻一倍,速度远超摩尔定律! 论文地址:https://arxiv.org/pdf/2403.0...
-
微软AI程序员登场,10倍AI工程师真来了?996自主生成代码,性能超GPT-4 30%
全球首个AI程序员Devin的横空出世,可能成为软件和AI发展史上一个重要的节点。 它掌握了全栈的技能,不仅可以写代码debug,训模型,还可以去美国最大求职网站Upwork上抢单。 一时间,网友们惊呼,「程序员不存在了」? 甚至连刚开始攻读计算机学位...
-
LLM4Decompile官网体验入口 AI代码反编译工具免费使用下载地址
LLM4Decompile是一个开源项目,旨在创建并发布第一个专门用于反编译的LLM(大型语言模型),并通过构建首个专注于可重编译性和可执行性的反编译基准测试来评估其能力。该项目通过编译大量C代码样本到汇编代码,然后使用这些数据对DeepSeek-Code...
-
【AIGC调研系列】embeding模型有哪些,各有什么优势
在AIGC中,Embedding模型是一种将文本数据转换为多维向量数组的技术,这些向量可以代表任何事物,如文本、音乐、视频等[2]。有几种不同的Embedding模型,它们各有其优势和应用领域。 Word2vec:这是一种经典的嵌入模型,通过学习单词...
-
AI大模型控制红绿灯,港科大(广州)智慧交通新成果已开源
大模型“上路”,干起了交通信号控制(TSC)的活~ 模型名为LightGPT,以排队及不同区段快要接近信号灯的车辆对路口交通状况分析,进而确定最好的信号灯配置。 该模型由香港科技大学(广州)的研究团队提出,其背后关键是一个名为LLMLight的框架。...
-
联想moto X50 Ultra AI手机官宣:首批搭载第三代骁龙8s
快科技3月18日消息,联想宣布,联想moto X50 Ultra AI手机首批搭载第三代骁龙8s移动平台,带给用户AI 性能的甜点体验”。 从命名来看,联想moto X50 Ultra AI手机主打的功能是AI”。 想要承载AI技术,一方面需要手机在硬件上...
-
高通推出第三代骁龙8s移动平台 支持100亿AI参数模型
今日,高通技术公司震撼发布全新旗舰级移动平台——第三代骁龙®8s,为Android旗舰智能手机市场注入了全新活力。这款平台不仅继承了骁龙8系平台广受欢迎的特性,更在多个方面实现了显著升级,为用户带来前所未有的顶级移动体验。 在第三代骁龙8s上,我们看到了诸...
-
第五次工业革命,中国AI企业如何打造新质生产力?
人类历史的叙述与技术进步的影响深深交织在一起。 迄今为止,每一次工业革命都彻底改变了我们社会的轮廓,引入了机械化、大规模生产和数字化,并重新定义了人类生存的规范。 自2022年11月30日OpenAI发布ChatGPT以来,从GPT3.5发展到如今的G...
-
全球最大开源大模型!马斯克正式开源Grok AI
马斯克此前曾宣布,开源Grok的举措将于本周实施。现在,任何其他企业家、程序员、公司或个人都可以体验和测试Grok——模型的人工神经元或软件模块之间的连接强度,这些模块使模型能够做出决策、接受输入并以文本形式提供输出——以及其他相关文档,并将模型的副本...
-
微调大型语言模型进行命名实体识别
大型语言模型的目标是理解和生成与人类语言类似的文本。它们经过大规模的训练,能够对输入的文本进行分析,并生成符合语法和语境的回复。这种模型可以用于各种任务,包括问答系统、对话机器人、文本生成、翻译等。 命名实体识别(Named Entity Recogn...
-
迄今最大!马斯克AI大模型Grok开源:参数量达3140亿
快科技3月18日消息,据媒体报道,马斯克的AI创企xAI正式宣布其大语言模型Grok-1已实现开源,并向公众开放下载。 据了解,Grok-1是一款基于混合专家系统(Mixture-of-Experts,MoE)技术构建的大语言模型,拥有3140亿参数,远超...
-
基于ChatGPT的人型机器人Figure01据称能帮忙做家务
据报道,由OpenAI的ChatGPT驱动的最新自动人型机器人在外观上与科幻电影中的机器人形象有相似之处,但并非杀人机器。这款名为Figure01的新机器人能够执行基本的自主任务,并能够与人进行实时对话,这都是在ChatGPT的帮助下实现的。 据Figur...
-
大模型能自己优化Prompt了,曾经那么火的提示工程要死了吗?
2022 年底,ChatGPT 上线,同时引爆了一个新的名词:提示工程(Prompt Engineering)。 简而言之,提示工程就是寻找一种编辑查询(query)的方式,使得大型语言模型(LLM)或 AI 绘画或视频生成器能得到最佳结果或者让用户能绕...
-
大模型“路由器”OpenRouter 为LLM何其他AI模型提供统一接口
OpenRouter是一个创新性的项目,它为大语言模型(LLM)和其他AI模型提供了一个统一的接口。通过这个接口,用户可以直接访问和使用几十种AI模型,包括GPT、LLama、Claude、Command-R等80多个模型,未来还将扩展到数百种。 Open...
-
AI干6周=生物学家134年!斯坦福生物学基础模型开启生物学AI时代
人类花了134年才发现Norn细胞,AI用了6周就做到了! 来自斯坦福大学的研究人员使用数百万个真实细胞的化学和基因组成作为原始数据训练了一个AI大模型, 通过自行学习到的知识,模型可以将之前从未见过的细胞归类为1000多种类别中的某一种,Norn细胞就...
-
马斯克开源Grok-1:3140亿参数迄今最大,权重架构全开放,磁力下载
说到做到,马斯克承诺的开源版大模型 Grok 终于来了! 今天凌晨,马斯克旗下大模型公司 xAI 宣布正式开源 3140 亿参数的混合专家(MoE)模型「Grok-1」,以及该模型的权重和网络架构。 这也使得Grok-1成为当前参数量最大的开源大语言...
-
超详细!AIGC面试系列 大模型基础(1)
关于我 从2022年末开始接触AIGC,便一直紧跟最近技术与实践落地。期间参与copilot项目研发,落地了多个垂类AIGC大模型应用,熟悉各种AIGC相关技术如Agent,Langchain,chatdoc,向量数据库等。 关于本系列 请你认真看完...