-
LLaMA-Factory参数的解答(命令,单卡,预训练)
前面这个写过,但觉得写的不是很好,这次是参考命令运行脚本,讲解各个参数含义。后续尽可能会更新,可以关注一下专栏!! *这是个人写的参数解读,我并非该领域的人如果那个大佬看到有参数解读不对或者有补充的请请反馈!谢谢(后续该文章可能会持续更新) * LLaMA...
-
CVPR 2024 | 风格迁移和人像生成汇总!扩散模型diffusion用于经典AIGC方向
风格迁移 1、DEADiff: An Efficient Stylization Diffusion Model with Disentangled Representations 基于文本到图像扩散模型在迁移参考风格方面具有巨大潜力。然而,...
-
基于分层自监督学习将视觉Transformer扩展到千兆像素图像
本文经计算机视觉研究院公众号授权转载,转载请联系出处。 Vision Transformers (ViT 及其多尺度和分层变体已成功地捕获图像表示,但它们的使用通常被研究用于低分辨率图像(例如256×256、384×384)。 1 概括 对于计算病...
-
[从0开始AIGC][Transformer相关]:Transformer中的激活函数:Relu、GELU、GLU、Swish
[从0开始AIGC][Transformer相关]:Transformer中的激活函数 文章目录 [从0开始AIGC][Transformer相关]:Transformer中的激活函数 1. FFN 块 计算公式? 2. GeLU 计...
-
PVTransformer: 可扩展3D检测的点到体素Transformer
本文经自动驾驶之心公众号授权转载,转载请联系出处。 原标题:PVTransformer: Point-to-Voxel Transformer for Scalable 3D Object Detection 论文链接:https://arxiv.org...
-
探索Llama 3模型在地理行业的应用
Llama 3模型简介 Llama 3模型是基于最新的神经网络架构设计而成,它融合了Transformer和图像注意力机制,能够同时处理自然语言和图像输入,实现跨模态信息的融合和理解。这使得Llama 3模型在地理信息处理和分析方面有着独特的优势...
-
AIGC-controlnet代码详细解读
hugging face 社区diffusers官方代码:stable_diffusion/controlnetcontrolnet.ipynb 原始代码的解读可以看看这个博主的:万字长文解读Stable Diffusion的核心插件—ControlNet...
-
论坛主题采集与发布的艺术
在互联网的世界中,论坛一直都扮演着重要的角色,它不仅为网友提供一个交流和信息分享的平台,更是一个汇聚各种观点、见解的热闹市集。论坛的活力很大程度上来源于其不断更新的主题,那么,如何高效地采集并发布引人注目的主题,就成了论坛运营中不可或缺的一环。本文将深入探...
-
CVPR 2024|多模态场景感知,小红书高保真人体运动预测方法来了!
设想一下,你在家中准备起身,前往橱柜取东西。一个集成 SIF3D 技术的智能家居系统,已经预测出你的行动路线(路线通畅,避开桌椅障碍物)。当你接近橱柜时,系统已经理解了你的意图,柜门在你达到之前就已自动打开,无需手动操作。 视频中,左边为 3D 场景...
-
250行代码从头搭建Llama 3,GitHub一天4.6k星!Karpathy大赞
Llama系列作为为数不多的优质开源LLM,一直受到开发者们的追捧。在Hugging Face社区的文本生成模型中,几乎是「霸榜」的存在。 就在520这天,一位名叫Nishant Aklecha的开发者在推特上宣布了自己的一个开源项目,名为「从头开始实...
-
KubeAI大模型推理加速实践|得物技术
除了上面提到的技术外,提高大模型推理速度的还有大模型的量化技术等,这里先不探讨,后面有机会,我们会单独发文章来介绍。 二、大模型发展面临的挑战 未来大模型的参数量肯定会越来越大,这也是大模型的发展趋势,对推理加速的要求会越来越高。 OpenAI在其论...
-
Karpathy称赞,从零实现LLaMa3项目爆火,半天1.5k star
一个月前,Meta 发布了开源大模型 llama3 系列,在多个关键基准测试中优于业界 SOTA 模型,并在代码生成任务上全面领先。 此后,开发者们便开始了本地部署和实现,比如 llama3 的中文实现、llama3 的纯 NumPy 实现等。 十几个小...
-
HuggingFace教你怎样做出SOTA视觉模型
前有OpenAI的GPT-4o,后有谷歌的系列王炸,先进的多模态大模型接连炸场。 其他从业者在震撼之余,也再次开始思考怎么追赶这些超级模型了。 刚好在这时,HuggingFace和法国索邦大学的一篇论文,总结出了构建视觉大模型的关键经验,给开发者指明了一...
-
Llama-3的竞争对手来了——可运行在iPhone上的小体量高性能LLM模型Phi-3
想了解更多AIGC的内容,请访问: 51CTO AI.x社区 https://www.51cto.com/aigc/ 简介 熟悉我的文章的读者可能还记得我以前报道《课本就是你所需要的一切》(https://medium.com/@mgunton7/th...
-
MIT等惊人发现:全世界AI已学会欺骗人类!背刺人类盟友,佯攻击败99.8%玩家
【新智元导读】AI系统越来越擅长欺骗、操作人类了。最近,来自MIT、ACU等机构的研究人员通过各种实例研究发现, AI在各类游戏中,通过佯装、歪曲偏好等方式欺骗人类,实现了目标。 AI教父Hinton的担心,不是没有道理。 他曾多次拉响警报,「如果不采取行...
-
OpenAI 推出 Mac 版 ChatGPT 应用,今年晚些时候推出 Windows 版
IT之家 5 月 14 日消息,OpenAI 终于推出了 ChatGPT 桌面版应用程序,该公司在官方公告中表示:“从今天开始,我们将首先向 Plus 用户推出 macOS 应用,并在未来几周内向更广泛的用户开放。我们还计划在今年晚些时候推出 Wind...
-
OpenAI 发布全新旗舰生成式 AI 模型 GPT-4o:语音对话更流畅,免费提供
IT之家 5 月 14 日消息,OpenAI 宣布推出其最新旗舰生成式 AI 模型 GPT-4o,该模型将在未来几周内分阶段集成至 OpenAI 的各个产品之中。最让人惊喜的是,GPT-4o 将免费提供给所有用户使用。 OpenAI 首席技术官穆里・穆...
-
人类成功实现「蓝牙上天」!接收来自600公里外太空信号
600公里!人类成功实现「蓝牙上天」,接收来自太空的信号。 以往认知中,蓝牙只是基于短距离的通信,但现在竟能直接连接卫星。这600公里相当于从伦敦到巴黎、从纽约到波士顿的距离。 这一壮举背后,是一家名为Hubble Network(后面简称Hubble)...
-
思维链不存在了?纽约大学最新研究:推理步骤可省略
红极一时的思维链技术,可能要被推翻了! 还在惊讶于大模型居然能够利用思维链分步骤思考? 还在苦于不会写思维链提示词? 来自纽约大学的研究人员表示:「没关系的,都一样」, 推理步骤不重要,不想写提示词也可以不写,用省略号代替就行了。 论文地址:https...
-
只需百行代码,让H100提速30%,斯坦福开源全新AI加速框架
AI 的快速发展,伴随而来的是大计算量。这就自然而然的引出了一个问题:如何减少 AI 对计算的需求,并提高现有 AI 计算效率。 为了回答这一问题,来自斯坦福的研究者在博客《GPUs Go Brrr》中给出了答案。 图片 博客地址:https://haz...
-
美国教授用2岁女儿训AI模型登Science!人类幼崽头戴相机训练全新AI
【新智元导读】为训练AI模型,纽约州立大学的一名教授Brenden Lake,竟让自己不到2岁女儿头戴相机收集数据!要知道,Meta训Llama3直接用了15万亿个token,如果Lake真能让AI模型学习人类幼崽,从有限的输入中学习,那LLM的全球数据荒...
-
力压Transformer?首篇Mamba综述来了!
本文经自动驾驶之心公众号授权转载,转载请联系出处。 写在前面&笔者的个人理解 Mamba是一种新的选择性结构状态空间模型,在长序列建模任务中表现出色。Mamba通过全局感受野和动态加权,缓解了卷积神经网络的建模约束,并提供了类似于Transfo...
-
超越ORB-SLAM3!SL-SLAM:低光、严重抖动和弱纹理场景全搞定
本文经自动驾驶之心公众号授权转载,转载请联系出处。 写在前面 今天我们探讨下深度学习技术如何改善在复杂环境中基于视觉的SLAM(同时定位与地图构建)性能。通过将深度特征提取和深度匹配方法相结合,这里介绍了一种多功能的混合视觉SLAM系统,旨在提高在诸如低...
-
Flash Attention稳定吗?Meta、哈佛发现其模型权重偏差呈现数量级波动
Meta FAIR 联合哈佛优化大规模机器学习时产生的数据偏差,提供了新的研究框架。 众所周知,大语言模型的训练常常需要数月的时间,使用数百乃至上千个 GPU。以 LLaMA2 70B 模型为例,其训练总共需要 1,720,320 GPU hours。由...
-
Paper Digest | 基于原型学习的实体图谱预训练跨域推荐框架
可以看到,通过映射得到对应item相关的entity后,基于图谱推理流程,我们可以得到许多和映射得到的entity相关的高阶信息,如苹果这个公司有手机产品,而手机这类产品相关的公司有三星等,从而可以潜在的拉近和其他相关实体(如三星生产的手机等)间的关系。...
-
研究称 AI、ChatGPT 和社交媒体可能加剧气候危机
一项发表在《全球环境政治》期刊上的论坛文章指出,生成式人工智能(AI)包括像 OpenAI 的 ChatGPT 这样的大型语言模型,以及社交体可能会削弱应对气候变化的努力。 来自英属哥伦比亚大学(UBC)的研究人员出,人们普遍认为 AI、社交媒体和其他技术...
-
原作者带队,LSTM真杀回来了!
20 世纪 90 年代,长短时记忆(LSTM)方法引入了恒定误差选择轮盘和门控的核心思想。三十多年来,LSTM 经受住了时间的考验,并为众多深度学习的成功案例做出了贡献。然而,以可并行自注意力为核心 Transformer 横空出世之后,LSTM 自身所...
-
Deepseek-V2技术报告解读!全网最细!
深度求索Deepseek近日发布了v2版本的模型,沿袭了1月发布的 Deepseek-MoE(混合专家模型)的技术路线,采用大量的小参数专家进行建模,同时在训练和推理上加入了更多的优化。沿袭了一贯的作风,Deepseek对模型(基座和对话对齐版本)进行了...
-
LLM全搞定!OmniDrive:集3D感知、推理规划于一体(英伟达最新)
本文经自动驾驶之心公众号授权转载,转载请联系出处。 写在前面&笔者的个人理解 这篇论文致力于解决当前多模态大语言模型 (MLLMs 在自动驾驶应用中存在的关键挑战,尤其是将MLLMs从2D理解扩展到3D空间的问题。由于自动驾驶车辆 (AVs ...
-
一览Occ与自动驾驶的前世今生!首篇综述全面汇总特征增强/量产部署/高效标注三大主题
本文经自动驾驶之心公众号授权转载,转载请联系出处。 写在前面&笔者的个人理解 近年来,自动驾驶因其在减轻驾驶员负担和提高驾驶安全方面的潜力而越来越受到关注。基于视觉的三维占用预测是一种新兴的感知任务,适用于具有成本效益的自动驾驶感知系统,它可以...
-
一块钱100万token,超强MoE模型开源,性能直逼GPT-4-Turbo
开源大模型领域,又迎来一位强有力的竞争者。 近日,探索通用人工智能(AGI)本质的 DeepSeek AI 公司开源了一款强大的混合专家 (MoE 语言模型 DeepSeek-V2,主打训练成本更低、推理更加高效。 项目地址:https://gi...
-
手机可跑,3.8B参数量超越GPT-3.5!微软发布Phi-3技术报告:秘密武器是洗干净数据
过去几年,借助Scaling Laws的魔力,预训练的数据集不断增大,使得大模型的参数量也可以越做越大,从五年前的数十亿参数已经成长到今天的万亿级,在各个自然语言处理任务上的性能也越来越好。 但Scaling Laws的魔法只能施加在「固定」的数据源上,...
-
ChatGPT们的幕后先驱,斯坦福教授Manning的四十年NLP生涯
今年 1 月份,2024 年度 IEEE 冯诺伊曼奖项结果正式公布,斯坦福大学语言学和计算机科学教授、AI 学者克里斯托弗・曼宁(Christopher Manning)获奖。 曼宁教授是将深度学习应用于 NLP 领域的早期领军人物,在词向量 GloVe...
-
看透物体的3D表示和生成模型:NUS团队提出X-Ray
项目主页:https://tau-yihouxiang.github.io/projects/X-Ray/X-Ray.html 论文地址:https://arxiv.org/abs/2404.14329 代码地址:https://github.com...
-
还在YOLO-World?DetCLIPv3出手!性能大幅度超出一众SOTA!
本文经自动驾驶之心公众号授权转载,转载请联系出处。 现有的开词汇目标检测器通常需要用户预设一组类别,这大大限制了它们的应用场景。在本文中,作者介绍了DetCLIPv3,这是一种高性能检测器,不仅在开词汇目标检测方面表现出色,同时还能为检测到的目标生成...
-
最新综述!万字长文彻底搞懂单目3D车道线检测
本文经自动驾驶之心公众号授权转载,转载请联系出处。 写在前面&笔者的个人理解 3D车道检测在自动驾驶中起着至关重要的作用,通过从三维空间中提取道路的结构和交通信息,协助自动驾驶汽车进行合理、安全和舒适的路径规划和运动控制。考虑到传感器成本和视觉数...
-
Adobe推出全新AI技术VideoGigaGAN:视频清晰度提升8倍
快科技4月26日消息,Adobe公司宣布了一项革命性的新技术VideoGigaGAN,这是一项基于人工智能的视频超分辨率技术,能够将视频清晰度提高8倍。 VideoGigaGAN技术的发布,标志着视频放大技术的又一重要进步,为视频编辑、增强和修复等领域带来...
-
人工智能和绿色技术如何帮助企业实现净零排放
在过去的几个月里,世界各地的人们都感受到了气候变化的影响。因此,企业必须集中精力满足日益增长的对环境责任的期望。现在,投资者、员工和合作伙伴比以往任何时候都更希望确保企业遵守其环境、社会和治理(ESG 承诺。 鉴于监管和信息披露要求的不断增加,有效的E...
-
聊聊机器学习与人力资源管理碰撞什么火花?
前 言 近年来,机器学习领域取得了许多重大突破,人工智能技术驱动的人力资源管理服务产品也拥有一个庞大且充满活力的市场。越来越多的企业和政府机构逐渐开始思考将机器学习技术应用于人力资源管理,通过神经网络做出正确有效的决策,准确地预测人力资源管理的结果。...
-
OpenAI Preparedness团队首席Aleksander Madry:机器学习模型的内部计算如何将输入转化为预测?
考虑一个标准的ResNet50模型,该模型经过训练用于图像分类任务。我们是否能够理解这个模型中的卷积滤波器如何将输入图像转换为其预测的标签?或者,GPT-3中的注意力头如何contribute到下一个标记的预测?理解这些模型组件——包括滤波器或头等架构...
-
华人持续炸场!8倍于SOTA模型发布,超分辨率细节还原度逆天,终于可以看清楚蜘蛛网丝了!网友:质量真不错!电影时长9秒才够用!
撰稿 | 言征 出品 | 51CTO技术栈(微信号:blog51cto) Sora带火了“视频一致性”的研究,但单纯在时间一致性已经不能满足业内对于高逼真视频的渴望。这不,华人又出来炸场了! 近日,一个名为VideoGigaGAN的视频模型在业界走红。...
-
在线地图还能这样?MapTracker:用跟踪实现在线地图新SOTA!
本文经自动驾驶之心公众号授权转载,转载请联系出处。 写在前面&笔者的个人理解 太强了,在线高精地图还能用跟踪的方式来做!!!本文提出了一种矢量HD建图算法,该算法将在线高精建图公式化为跟踪任务,并使用memory latents的历史来确保随着时...
-
苹果卷开源大模型,公开代码、权重、数据集、训练全过程,OpenELM亮相
要说 ChatGPT 拉开了大模型竞赛的序幕,那么 Meta 开源 Llama 系列模型则掀起了开源领域的热潮。在这当中,苹果似乎掀起的水花不是很大。 不过,苹果最新放出的论文,我们看到其在开源领域做出的贡献。 近日,苹果发布了 OpenELM,共四种变...
-
超越BEVFusion!DifFUSER:扩散模型杀入自动驾驶多任务(BEV分割+检测双SOTA)
本文经自动驾驶之心公众号授权转载,转载请联系出处。 写在前面&笔者的个人理解 目前,随着自动驾驶技术的越发成熟以及自动驾驶感知任务需求的日益增多,工业界和学术界非常希望一个理想的感知算法模型,可以同时完成如3D目标检测以及基于BEV空间的语义分...
-
AI日报:Model3模型重磅发布;阿里云全面支持Llama 3训练推理;Gorq推出iOS应用;批量去水印工具VSR来了
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。 新鲜AI产品点击了解:https://top.aibase.com/ 1、Blockade Labs发布...
-
Llama3突然来袭!开源社区再次沸腾:GPT4级模型自由访问时代到来
Llama 3来了! 就在刚刚,Meta官网上新,官宣了Llama 3 80亿和700亿参数版本。 并且推出即为开源SOTA: Meta官方数据显示,Llama 3 8B和70B版本在各自参数规模上超越一众对手。 8B模型在MMLU、GPQA、Huma...
-
如何利用Transformer有效关联激光雷达-毫米波雷达-视觉特征?
本文经自动驾驶之心公众号授权转载,转载请联系出处。 笔者个人理解 自动驾驶的基础任务之一是三维目标检测,而现在许多方法都是基于多传感器融合的方法实现的。那为什么要进行多传感器融合?无论是激光雷达和相机融合,又或者是毫米波雷达和相机融合,其最主要的目的就是...
-
新加坡国立大学 | 通过语言分割任何3D目标
本文经自动驾驶之心公众号授权转载,转载请联系出处。 写在前面&笔者的个人理解 本文研究了具有自由形式语言指令的开放词汇3D实例分割(OV-3DIS)。先前的作品只依赖于注释的基本类别进行训练,对看不见的长尾类别的泛化能力有限。最近的工作通过生成类...
-
轨迹预测系列 | HiVT之进化版QCNet到底讲了啥?
本文经自动驾驶之心公众号授权转载,转载请联系出处。 HiVT的进化版(不先看HiVT也能直接读这篇),性能和效率上大幅提升。 文章也很容易阅读。 【轨迹预测系列】【笔记】HiVT: Hierarchical Vector Transformer for...
-
十个大型语言模型(LLM)常见面试问题和答案解析
今天我们来总结以下大型语言模型面试中常问的问题 一、哪种技术有助于减轻基于提示的学习中的偏见? A.微调 Fine-tuning B.数据增强 Data augmentation C.提示校准 Prompt calibration D.梯度裁剪 Gra...