-
谷歌推出”自我发现“框架,极大增强GPT-4等大模型推理能力
随着ChatGPT的出现,大语言模型在生成连贯文本和遵循指令方面获得了巨大技术突破。然后在推理和解决复杂内容方面,面临内容不准确、安全等难题。 谷歌Deepmind和南加州大学的研究人员提出了“SELF-DISCOVER”。这是一种用于大语言模型的通用框架...
-
【wails】(8):发现一个用golang重写llama.cpp的llama.go项目,经测试支持f32模型,半年未更新,找到llama.cpp对应的版本,可以转换f32模型
1,项目地址 https://github.com/gotzmann/llama.go 项目最后的发布时间是2023年4月28日 项目是把 llama.cpp 的项目重写使用 golang 重写了下。 https://www.bilibili.co...
-
CLIP-BEVFormer:显式监督BEVFormer结构,提升长尾检测性能
本文经自动驾驶之心公众号授权转载,转载请联系出处。 写在前面&笔者的个人理解 目前,在整个自动驾驶系统当中,感知模块扮演了其中至关重要的角色,行驶在道路上的自动驾驶车辆只有通过感知模块获得到准确的感知结果后,才能让自动驾驶系统中的下游规控模块做...
-
耳机革命!高通发布第三代S3、S5音频平台:AI性能提升超50倍
快科技3月26日消息,高通今日推出两款全新的先进音频平台第三代高通S3音频平台和第三代高通S5音频平台。 两大平台分别将面向中端和高端层级耳塞、耳机和音箱提升无线音频体验。 高通公司表示,这两款平台是各自系列中最强大的平台,将为S5和S3层级带来前所未有的...
-
新研究:大语言模型“涌现”能力不令人惊讶也不难预测
3月26日消息,一项新的研究认为,大语言模型性能的显著提升并不令人意外,也并非无法预测,实际上这是由我们衡量人工智能性能的方式所决定的。 两年前,450位研究人员在一个名为超越模仿游戏基准(Beyond the Imitation Game Bench...
-
CNN、Transformer、Uniformer之外,我们终于有了更高效的视频理解技术
视频理解的核心目标在于对时空表示的把握,这存在两个巨大挑战:短视频片段存在大量时空冗余和复杂的时空依赖关系。尽管曾经占主导地位的三维卷积神经网络 (CNN 和视频 Transformer 通过利用局部卷积或长距离注意力有效地应对其中之一的挑战,但它们在...
-
AI时代CPU不老!Intel五代至强五大革新:340亿参数小意思
AI漫长的历史中,ChatGPT绝对是浓墨重彩的一笔。正是它引爆了AI大模型概念,也让以往高高在上的AI飞入了寻常百姓家,开始融入每个人的日常工作、生活,AI PC、AI手机、AI边缘也都在大踏步前进,变革千行百业。 有调研数据显示,预计到2026年,AI...
-
【AIGC调研系列】智普GLM-3与GLM-4分别适用于什么使用场景
智普GLM-3与GLM-4分别适用于不同的使用场景。GLM-4是一款性能全面提升的新型大模型,它在总结、信息抽取、复杂推理、代码等应用场景中表现出色[1]。GLM-4支持更长的上下文、更强的多模态支持和更快速的推理[2],能够完成文件处理、数据分析、图表绘...
-
昇思MindSpore 2.3全新发布 | 昇思人工智能框架峰会2024圆满举办
北京时间3月22日消息,人工智能框架作为软件根技术,已成为加速人工智能大模型开发、推动产业智能化发展的核心力量。以“为智而昇,思创之源”为主题的昇思人工智能框架峰会2024今日在北京国家会议中心举办,旨在汇聚AI产业界创新力量,推动根技术持续创新,共建人...
-
为什么说GPU再火,AI平台也少不了强力的CPU
AIGC的这把火,燃起来的可不只是百模大战的热度和雨后春笋般的各式AI应用。 更是由于算力与通信需求的爆发式增长,使得底层的专用加速芯片、以及配备这些芯片的AI加速服务器再次被拉到了大众的聚光灯下。 据统计,2023年全球范围内的AI服务器市场规模已经达到...
-
GPT-5有望今夏推出 知情人透露:表现有“质的飞跃”
快科技3月20日消息,据媒体报道,OpenAI有望在今年夏季推出GPT-5,这一消息已经引起了业界的广泛关注。 目前,部分企业客户已经提前收到了关于这一最新模型及其ChatGPT工具相关改进的演示。 一位企业CEO观看了GPT-5演示后表示:它的表现太棒了...
-
DualBEV:大幅超越BEVFormer、BEVDet4D,开卷!
本文经自动驾驶之心公众号授权转载,转载请联系出处。 这篇论文探讨了在自动驾驶中,从不同视角(如透视图和鸟瞰图)准确检测物体的问题,特别是如何有效地从透视图(PV)到鸟瞰图(BEV)空间转换特征,这一转换是通过视觉转换(VT)模块实施的。现有的方法大致...
-
OpenAI计划年中发布GPT-5:性能飞跃或将改变人类历史
在最新消息中,OpenAI计划在今年夏季发布GPT-5,这一新一代模型的性能大幅提升,有望进一步推动OpenAI的营收增长。奥特曼在不久前的一次推文中暗示OpenAI的产品将改变人类历史,而最近在硅谷的活动上,他更是表示GPT-5的性能提升将超出预期。...
-
亚马逊云科技与英伟达扩展合作 加速超万亿参数级大模型训练
亚马逊云科技与英伟达扩展合作,加速生成式 AI 创新。双方将在亚马逊云科技上提供 NVIDIA Blackwell 架构 GPU,包括 GB200Grace Blackwell 超级芯片和 B100Tensor Core GPU,以帮助客户解锁新的生成式...
-
解读AI通用计算芯片:GPU训练CPU推理,用最优的成本降低AI算力支出
当前,人工智能已经成为推动企业业务创新和可持续发展的核心引擎。我们知道,算力、算法和数据是人工智能的三大核心要素,缺一不可。今天,笔者就从通用计算芯片这个维度出发,跟大家详细聊聊关于算力的相关技术与市场竞争态势。 所谓AI计算芯片(也称逻辑芯片),就是指...
-
百万token上下文窗口也杀不死向量数据库?CPU笑了
“Claude 3、Gemini 1.5,是要把RAG(检索增强生成)给搞死了吗?” 随着新晋大语言模型们的上下文窗口(Context Window)变得越发得长,业界人士针对“RAG终将消亡”观点的讨论也是愈演愈烈。 之所以如此,是因为它们二者都是为...
-
奥特曼首次自曝GPT-5细节!史诗级性能跃升 小看它的公司都会被碾压
快科技3月19日消息,据媒体报道,OpenAI CEO奥特曼首次公开表示,GPT-5提升将非常大,任何低估这一点的人和公司都将被碾压。 报道称,奥特曼在硅谷出席一个活动时现场表示,GPT-5的性能提升的程度将超出预期: GPT每次开发下一个模型时,都强调需...
-
奥特曼专访自曝全新GPT-5细节:性能跃升超想象,算力足可达AGI!
大家可能还没从刚刚开源的Grok中回过味来。 图片 外媒就又曝料了,Altman首次公开表示: GPT-5提升将非常大!任何低估这一点的人和公司都将被碾压。 图片 Altman前段时间发推暗示今年OpenAI的产品将会改变人类历史。 他硅谷出席一个活动时...
-
图片采集卡:数字影像世界的关键纽带
在数字影像技术日新月异的今天,图片采集卡作为连接模拟与数字世界的桥梁,发挥着越来越重要的作用。它不仅是专业影像处理的核心组件,也日渐成为普通消费者追求高质量数字生活的一部分。本文将深入探讨图片采集卡的原理、应用及其对数字影像技术发展的推动作用。一、图片采集...
-
荣耀MagicBook Pro 16发布 首发AI PC技术
荣耀今日召开AI PC技术沟通会,发布MagicBook Pro16笔记本。 荣耀MagicBook Pro16不仅在AI技术方面有所突破,更在软硬件结合上进行了全面布局,实现了AI使能智能硬件、人机交互和跨端生态。这一创新设计将为用户带来前所未有的智能体...
-
1.3ms耗时!清华最新开源移动端神经网络架构 RepViT
论文地址:https://arxiv.org/abs/2307.09283 代码地址:https://github.com/THU-MIG/RepViT 可以看出,RepViT 相比于其它主流的移动端 ViT 架构确实时很优异。接下来让我们来看下本工...
-
用AI短视频「反哺」长视频理解,腾讯MovieLLM框架瞄准电影级连续帧生成
在视频理解这一领域,尽管多模态模型在短视频分析上取得了突破性进展,展现出了较强的理解能力,但当它们面对电影级别的长视频时,却显得力不从心。因而,长视频的分析与理解,特别是对于长达数小时电影内容的理解,成为了当前的一个巨大挑战。 究其原因,导致模型理解长视...
-
AI加速引擎PAI-TorchAcc:OLMo训练加速最佳实践
作者:黄奕桐、沈雯婷、艾宝乐、王昂、李永 摘要 阿里云机器学习平台PAI开发的Pytorch训练加速框架PAI-TorchAcc已接入最新开源的大语言模型 OLMo。 在保证模型效果和易用性的前提下,PAI-TorchAcc相对 PyTorch 性能在...
-
怒斥Sora之后,LeCun放出「视觉世界模型」论文,揭示AI学习物理世界的关键
Sora 的发布让整个 AI 领域为之狂欢,但 LeCun 是个例外。 面对 OpenAI 源源不断放出的 Sora 生成视频,LeCun 热衷于寻找其中的失误: 归根结底,LeCun 针对的不是 Sora,而是 OpenAI 从 ChatGPT 到...
-
7B模型超越GPT4-V!港科大等发布「图推理问答」数据集GITQA:视觉图可提升推理能力
图神经网络(GNNs)擅长利用图的结构信息进行推理,但它们通常需要特定于领域的调优才能达到峰值性能,这阻碍了它们在不同任务之间的泛化性。 相比之下,基于大型语言模型(LLM)的图推理具有更强的跨任务和泛化能力,但它们在特定任务上的性能往往逊色于专用的图...
-
Meta AI提出MobileLLM:为在移动设备上部署LLM提供新思路
Meta AI 研究团队推出的 MobileLLM 标志着大语言模型(LLMs)朝着模拟人类理解和生成自然语言迈出了革命性的一步。LLMs 在处理和分析大量数据集方面的能力已经显著影响了自动化客户服务、语言翻译和内容创作等多个领域。然而,由于传统 LLMs...
-
厦门大学、Intel、大疆联合出品,从网络视频中学习零样本图像匹配大模型
图像匹配是计算机视觉的一项基础任务,其目标在于估计两张图像之间的像素对应关系。图像匹配是众多视觉应用如三维重建、视觉定位和神经渲染 (neural rendering 等的基础和前置步骤,其精确度和效率对于后续处理十分重要。 传统算法(SIFT)在面临...
-
老黄祭出全新RTX 500 GPU,AIGC性能狂飙14倍!AI应用的门槛彻底被打下来了
在巴塞罗那举行的世界移动大会(MWC 2024)上,英伟达发布了最新款的入门级移动版工作站GPU,RTX 500 Ada和RTX 1000 Ada。 这两款入门级移动工作站GPU与之前发布的RTX 2000、3000、3500、4000和5000一起,构...
-
8/8/6/3的Mamba论文,最终还是被ICLR 2024拒了,网友:悬着的心终于死了
几天前,ICLR 2024 的最终接收结果出来了。 大家应该还记得,Mamba 被 ICLR 2024 大会 Decision Pending(待定)的消息在 1 月份引发过一波社区热议。 当时,多位领域内的研究者分析,Decision Pending...
-
首席分析师揭秘爆火Groq,每小时要烧168美元!10倍H100拥有成本,老黄笑而不语
最近爆火的AI初创公司Groq,推出了比目前常见GPU推理系统快4倍,成本低70%的大模型推理解决方案。 他们提供的运行Mistral Mixtral 8x7b的API演示,让大部分习惯了其他LLM「娓娓道来」的用户直呼,简直是魔法! Groq在处理...
-
出圈的Sora带火DiT,连登GitHub热榜,已进化出新版本SiT
虽然已经发布近一周时间,OpenAI 视频生成大模型 Sora 的影响仍在继续! 其中,Sora 研发负责人之一 Bill Peebles 与纽约大学助理教授谢赛宁撰写的 DiT(扩散 Transformer)论文《Scalable Diffusion...
-
RNN模型挑战Transformer霸权!1%成本性能比肩Mistral-7B,支持100+种语言全球最多
在大模型内卷的同时,Transformer的地位也接连受到挑战。 近日,RWKV发布了Eagle 7B模型,基于最新的RWKV-v5架构。 Eagle 7B在多语言基准测试中,击败了所有的同级别模型,在单独的英语测试中,也和表现最好的模型基本打平。 同时...
-
政安晨:演绎在KerasCV中使用Stable Diffusion进行高性能图像生成
小伙伴们好,咱们今天演绎一个使用KerasCV的StableDiffusion模型生成新的图像的示例。 考虑计算机性能的因素,这次咱们在Colab上进行,Colab您可以理解为在线版的Jupyter Notebook,还不熟悉Jupyter的的小伙伴可以...
-
ChatGPT论文:大语言模型LLM之战:Dolly、LLaMA 、Vicuna、Guanaco、Bard、ChatGPT--在自然语言转SQL(NL2SQL、Text-to-SQL)的比较(二)
3 评价结果 3.1 Spider 数据集 表 2 列出了各种提示策略和模型组合的执行准确性 (EX 和测试套件 (TS 的准确性。我们的主要发现是: 开源模型在 Spider 数据集上遇到了困难:尽管参数数量和模型性能之间存在正相关关系...
-
云服务器ECS_GPU云服务器_AIGC_弹性计算-阿里云
阿里云高性能云服务器60%单实例最大性能提升,35Gbps内网带宽,网络增强&通用型云服务器、本地SSD型云服务器、大数据型云服务器、GPU异构型云服务器,阿里云百科aliyunbaike.com分享阿里云高性能云服务器: 阿里云高性能云...
-
AI绘画Stable Diffusion原理之扩散模型DDPM
前言 传送门: stable diffusion:Git|论文 stable-diffusion-webui:Git Google Colab Notebook部署stable-diffusion-webui:Git kaggle...
-
无需RLHF显著提升GPT-4/Llama2性能,北大团队提出Aligner对齐新范式
背景 大语言模型(LLMs)虽展现出了强大的能力,但也可能产生不可预测和有害的输出,例如冒犯性回应、虚假信息和泄露隐私数据,给用户和社会造成伤害。确保这些模型的行为与人类意图和价值观相对齐,是一个紧迫的挑战。 尽管基于人类反馈的强化学习(RLHF)提供了...
-
「天工2.0」MoE大模型发布
2月6日,昆仑万维正式发布新版MoE大语言模型「天工2.0」与新版「天工AI智能助手」APP,这是国内首个搭载MoE架构并面向全体C端用户免费开放的千亿级参数大语言模型AI应用。用户即日起可在各手机应用市场下载「天工AI智能助手」APP,体验昆仑万维「天...
-
罕见!苹果开源图片编辑神器MGIE,要上iPhone?
拍张照片,输入文字指令,手机就开始自动修图? 这一神奇功能,来自苹果刚刚开源的图片编辑神器「MGIE」。 把背景中的人移除 在桌子上添加披萨 最近一段时间,AI 在图片编辑这一应用上取得了不小的进展。一方面,在 LLM 的基础上,多模态大模型(MLL...
-
极限挑战:使用 Go 打造百亿级文件系统的实践之旅
JuiceFS 企业版是一款为云环境设计的分布式文件系统,单命名空间内可稳定管理高达百亿级数量的文件。 构建这个大规模、高性能的文件系统面临众多复杂性挑战,其中最为关键的环节之一就是元数据引擎的设计。JuiceFS 企业版于 2017 年上线,经过几年的...
-
iPhone动嘴10秒P图!UCSB苹果全华人团队发布多模态MGIE,官宣开源人人可玩
几天前,库克在苹果电话会上证实,「今年晚些时候会发布生成式AI」。 ChatGPT掀起全球热潮之后,苹果也在悄悄发力AI,曾曝出的大模型框架Ajax、AppleGPT等AI工具让业界充满了期待。 6月举办的WWDC上,这家曾霸占全球市值第一公司,将会宣布...
-
苹果研究团队揭示WRAP技术:用合成数据进行预训练大模型 成本低准确性高
近几个月来,大型语言模型(LLMs)在人工智能社区中引起了极大的关注和流行。这些模型在文本摘要、问答、代码完成、内容生成等任务中展示出了强大的能力。 然而,LLMs通常在不充分的网络抓取数据上进行训练。这些数据通常杂乱、无结构,表达不清晰。按照现有的扩展原...
-
VS Code 1.86版本亮点介绍:强化窗口缩放自由度,引入AI语音助手与多文件差异编辑器"
微软于2月2日发布了Visual Studio Code(VS Code)1.86版本,此次更新带来了多项重要功能升级和改进,旨在提升开发者的使用体验与工作效率。 一、窗口缩放功能优化与个性化设置 微软在Visual Studio Code(VS C...
-
图领域首个通用框架来了!入选ICLR'24 Spotlight,任意数据集、分类问题都可搞定
能不能有一种通用的图模型—— 它既能够根据分子结构预测毒性,又能够给出社交网络的朋友推荐? 或者既能预测不同作者的论文引用,还可以发现基因网络中的人类衰老机制? 你还真别说,被ICLR 2024接收为Spotlight的“One for All(OFA)...
-
云原生场景下,AIGC 模型服务的工程挑战和应对
“成本”、“性能”和 “效率”正在成为影响大模型生产和应用的三个核心因素,也是企业基础设施在面临生产、使用大模型时的全新挑战。AI 领域的快速发展不仅需要算法的突破,也需要工程的创新。 01 大模型推理对基础设施带来更多挑战 首先,AI 商业化的时代,...
-
揭秘NVIDIA大模型推理框架:TensorRT-LLM
一、TensorRT-LLM 的产品定位 TensorRT-LLM 是 NVIDIA 用于做 LLM(Large Language Model)的可扩展推理方案。该方案是基于 TensorRT 深度学习编译框架来构建、编译并执行计算图,并借鉴了许多 Fa...
-
重磅!讯飞星火V3.5马上发布!AI写作、AI编程、AI绘画等功能全面提升!
讯飞星火大模型相信很多友友已经不陌生了,可以说是国内GPT相关领域的龙头标杆,而对于1月30日即将在讯飞星火发布会发出的V3.5新版本来说,讯飞星火V3.5与之前版本相比,性能提升方面相当明显,在提示语义理解、内容生成、逻辑推理、实时交互等非常出色,几乎...
-
编程能力超GPT-4,羊驼代码版“超大杯”来了,小扎还亲自剧透Llama3
羊驼家族的“最强开源代码模型”,迎来了它的“超大杯”—— 就在今天凌晨,Meta宣布推出Code Llama的70B版本。 图片 在HumanEval测试中,Code Llama-70B的表现在开源代码模型中位列第一,甚至超越了GPT-4。 此次发布的超...
-
大模型也能切片,微软SliceGPT让LLAMA-2计算效率大增
大型语言模型(LLM)通常拥有数十亿的参数,用了数万亿 token 的数据进行训练,这样的模型训练、部署成本都非常高。因此,人们经常用各种模型压缩技术来减少它们的计算需求。 一般来讲,这些模型压缩技术可以分为四类:蒸馏、张量分解(包括低秩因式分解)、剪枝...
-
Baichuan 3体验入口 百川智能超千亿参数大语言AI模型在线使用地址
Baichuan 3是一款卓越的语言模型,拥有超过千亿的参数规模。在多个权威通用能力评测中,Baichuan3 展现出色,特别在中文任务上超越了GPT-4。它在自然语言处理、代码生成、医疗任务等领域表现出色,采用了多项创新技术手段提升模型能力,包括动态数据...