-
大规模语言模型--LLaMA 家族
LLaMA 模型集合由 Meta AI 于 2023 年 2 月推出, 包括四种尺寸(7B 、13B 、30B 和 65B 。由于 LLaMA 的 开放性和有效性, 自从 LLaMA 一经发布, 就受到了研究界和工业界的广泛关注。LLaMA 模型在开放基准...
-
理解老司机,超越老司机!LeapAD:具身智能加持下的双过程自驾系统(上海AI Lab等)
本文经自动驾驶之心公众号授权转载,转载请联系出处。 论文信息 论文题目:Continuously Learning, Adapting, and, Improving: A Dual-Process Approach to Autonomous Dr...
-
【AIGC半月报】AIGC大模型启元:2024.05(下)
AIGC大模型启元:2024.05(下) (1 豆包大模型(抖音大模型) (2 Project Astra(谷歌对标GPT-4o) (3 Chameleon(meta对标GPT-4o) (4 MiniCPM-Llama3-V 2.5(面...
-
Yann LeCun:ViT慢且效率低,实时图像处理还得看卷积
在 Transformer 大一统的时代,计算机视觉的 CNN 方向还有研究的必要吗? 今年年初,OpenAI 视频大模型 Sora 带火了 Vision Transformer(ViT)架构。此后,关于 ViT 与传统卷积神经网络(CNN)谁更厉害的争...
-
开源模型进展盘点:最新Mixtral、Llama 3、Phi-3、OpenELM到底有多好?
深度学习领域知名研究者、Lightning AI 的首席人工智能教育者 Sebastian Raschka 对 AI 大模型有着深刻的洞察,也会经常把一些观察的结果写成博客。在一篇 5 月中发布的博客中,他盘点分析了 4 月份发布的四个主要新模型:Mix...
-
原来这才是生成式AI!
随着ChatGPT、文心一言等AI产品的火爆,生成式AI已经成为了大家茶余饭后热议的话题。 可是,为什么要在AI前面加上“生成式”这三个字呢? 难道还有别的AI吗? 且听文档君慢慢道来~ 1.生成式AI究竟是个啥? 如果将人工智能按照用途进行简单分类的话...
-
7B?13B?175B?解读大模型的参数
大模型也是有大有小的,它们的大小靠参数数量来度量。GPT-3就有1750亿个参数,而Grok-1更是不得了,有3140亿个参数。当然,也有像Llama这样身材苗条一点的,参数数量在70亿到700亿之间。 这里说的70B可不是指训练数据的数量,而是指模型中...
-
斯坦福爆火Llama3-V竟抄袭国内开源项目,作者火速删库
在 GPT-4o 出世后,Llama3 的风头被狠狠盖过。GPT-4o 在图像识别、语音理解上卓越的性能展现了它强大多模态能力。开源领域的领头羊 Llama3 曾在几乎所有基准测试中都超越了 GPT-3.5,甚至在某些方面超越了 GPT-4。这次就要闷声...
-
ICML2024高分!魔改注意力,让小模型能打两倍大的模型
改进Transformer核心机制注意力,让小模型能打两倍大的模型! ICML 2024高分论文,彩云科技团队构建DCFormer框架,替换Transformer核心组件多头注意力模块(MHA),提出可动态组合的多头注意力(DCMHA)。 DCMHA解除...
-
AIGC-音频生产十大主流模型技术原理及优缺点
音频生成(Audio Generation 指的是利用机器学习和人工智能技术,从文本、语音或其他源自动生成音频的过程。 音频生成行业是AIGC技术主要渗透的领域之一。AI音频生成行业是指利用人工智能技术和算法来生成音频内容的领域。按照输入...
-
多模态大模型不够灵活,谷歌DeepMind创新架构Zipper:分开训练再「压缩」
最近的一系列研究表明,纯解码器生成模型可以通过训练利用下一个 token 预测生成有用的表征,从而成功地生成多种模态(如音频、图像或状态 - 动作序列)的新序列,从文本、蛋白质、音频到图像,甚至是状态序列。 能够同时生成多种模态输出的多模态模型一般是通过某...
-
探索文心一言指令:AI与自然语言处理的新篇章
引言:自然语言处理与文心一言指令的探索 (1)自然语言处理的发展及其重要性 自然语言处理(NLP)是人工智能(AI)的一个关键领域,致力于使机器能够理解、解释和响应人类语言的方式。自从20世纪50年代计算机科学诞生以来,NLP已经从简单的模式识...
-
【独家】万字长文带你梳理Llama开源家族:从Llama-1到Llama-3
Datawhale干货 作者:张帆,陈安东,Datawhale成员 引言 在AI领域,大模型的发展正以前所未有的速度推进技术的边界。 北京时间4月19日凌晨,Meta在官网上官宣了Llama-3,作为继Llama-1、Llama-...
-
ControlNet作者搞起大模型:让天下没有难写的生图提示词,一句话变构图小作文
ControlNet作者新项目,居然也搞起大模型和Agent了。 当然还是和AI绘画相关:解决大伙不会写提示词的痛点。 现在只需一句超简单的提示词说明意图,Agent就会自己开始“构图”: 这就是ControlNet作者Lvmin Zhang的新玩具...
-
AIGC视频生成-CameraCtrl
0. 资源链接 论文: CameraCtrl: Enabling Camera Control for Text-to-Video Generation 项目: https://hehao13.github.io/projects-CameraC...
-
Llama 3 模型家族构建安全可信赖企业级AI应用之 CyberSecEval 2:量化 LLM 安全和能力的基准(一)
LlaMA 3 系列博客 基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (一) 基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (二) 基于 LlaMA 3 + LangGraph 在w...
-
Sora底层技术原理:Stable Diffusion运行原理
AIGC 热潮正猛烈地席卷开来,可以说 Stable Diffusion 开源发布把 AI 图像生成提高了全新高度,特别是 ControlNet 和 T2I-Adapter 控制模块的提出进一步提高生成可控性,也在逐渐改变一部分行业的生产模式。惊...
-
Datawhale |【独家】万字长文带你梳理Llama开源家族:从Llama-1到Llama-3
本文来源公众号“Datawhale”,仅用于学术分享,侵权删,干货满满。 原文链接:【独家】万字长文带你梳理Llama开源家族:从Llama-1到Llama-3 0. 引言 在AI领域,大模型的发展正以前所未有的速度推进技术的边界。 北京时间4月1...
-
Stable Diffusion 3.0技术论文解读
前几周 AI绘画领域扔出了一颗重磅炸弹 那就是Stability AI发布了备受期待的Stable Diffusion 3.0 简称SD3 一周后 官方放出了一篇详尽的技术论文 阐述了SD3实现突破性进展的底层原理 但是同时也引发了一连串疑问...
-
北航发布LlamaFactory,零代码大模型微调平台,一键快速实现大模型训练/微调/评估
“LLAMAFACTORY: Unified Efficient Fine-Tuning of 100+ Language Models” 在大模型发展如火如荼的今天,训练和微调一个大模型对于绝大部分普通工程师来说仍然是一个难题。为了降低大模型训练、...
-
MonoDETRNext:下一代准确高效的单目3D检测方法!
本文经自动驾驶之心公众号授权转载,转载请联系出处。 写在前面&笔者的个人理解 基于单目视觉的3D目标检测在各个领域都至关重要,但现有方法在准确性和计算效率方面面临着重大挑战。在2D检测和深度估计的成功策略的基础上,本文提出了MonoDETRNe...
-
Stable Diffusion文生图技术详解:从零基础到掌握CLIP模型、Unet训练和采样器迭代
文章目录 概要 Stable Diffusion 底层结构与原理 文本编码器(Text Encoder) 图片生成器(Image Generator) 那扩散过程发生了什么? stable diffusion 总体架构 主要模块分析 Un...
-
超详细!AIGC面试系列 大模型进阶(2)
本期问题快览 1. 如何让大模型处理更长的文本? 2. 如果想要在某个模型基础上做全参数微调,究竟需要多少显存? 3. 什么是有监督微调SFT 4. SFT 指令微调数据如何构建? 5. 领域数据训练后,通用能力往往会有所下降,如何缓解模型遗忘...
-
Kohya 训练器 Stable Diffusion工作流中训练LoRA模型方法
本文档是关于Stable Diffusion工作流中训练LoRA模型方法的文档 一.前置训练集准备 第一步: 准备训练集:准备训练模型时使用的训练集。注意:训练集应当能尽量涵盖训练对象的“多样化样本”。如角色立绘图,各个角度不同的图片。...
-
详解各种LLM系列|LLaMA 2模型架构、 预训练、SFT内容详解 (PART1)
作者 | Sunnyyyyy 整理 | NewBeeNLP https://zhuanlan.zhihu.com/p/670002922 大家好,这里是 NewBeeNLP。之前我们分享了详解各种LLM系列|...
-
Karpathy新教程爆火,网友抢着送他H100:从头复现GPT-2训练
大神Karpathy已经不满足于用C语言造Llama了! 他给自己的最新挑战:复现OpenAI经典成果,从基础版GPT-2开始。 挑战成功本身并不意外,但是只花费20美元、90分钟完成训练,Loss和评测还超越原版,就!有!点!过!分!了!。 不仅如此,...
-
通俗易懂的Stable Diffusion模型结构介绍
目录 SD的发展历程 SD 模型的网络结构 ClipText 文本编码器 文本向量输入Unet VAE模型 总结图 SD的发展历程 Stab...
-
马斯克烧60亿美元难题,国内大厂有解?开源MoE模算效率黑马登场,3.7B参数单挑Llama 3-70B
如今,想训个SOTA的大模型,不仅缺数据和算力,甚至连电都不够用了。 最近马斯克就公开表示,因为苦于买不到足够的芯片,xAI只能推迟Gork 2的训练和发布。 Grok 3及更高版本,甚至需要10万个H100,按每台H100售价3万美元来算,仅芯片就要花...
-
自动驾驶系统架构转变思考
本文经自动驾驶之心公众号授权转载,转载请联系出处。 自动驾驶系统架构转变思考 从事辅助驾驶系统架构一段时间后,感觉到了疲惫和无力感,更加深刻的理解到道德经,道生于有,有生于无,有无相生,难易相承,.....是以圣人处无为之事,行不言之教,万物作焉而不辞...
-
Meta的 Llama-3 在线使用与下载
前言 2024年4月19日,全球社交巨头Meta在他们的官网,正式发布了开源大模型 Llama-3 !! 该版本包括预训练和指令调整的 Llama 3 语言模型的模型权重和起始代码 - 包括 8B 到 70B 参数! 简介 Llama 3 在 2...
-
传统图像处理岗切换AIGC方向分享
引言 传统图像岗转AIGC,经过半个月学习,了解文生图模型Stable Diffusion SD所依赖的模块及算法流程,了解ControlNet算法流程,成功部署云端WebUI,进行阶段性总结。 了解一个新领域或新技术,首先了解基础概念,才能有效阅...
-
马斯克xAI估值240亿美元,LeCun隔空开怼,竟上升到人身攻击!
昨日,AI领域两位重量级人物Yann LeCun和Elon Musk就人工智能的安全性和监管问题在社交媒体上「隔空交锋」。 人工智能先驱LeCun在X上表达了他对正在进行的人工智能监管的看法。 LeCun认为,现在担心人工智能带来「生存风险」还为时过早,...
-
实战whisper语音识别第一天,部署服务器,可远程访问,实时语音转文字(全部代码和详细部署步骤)
Whisper是OpenAI于2022年发布的一个开源深度学习模型,专门用于语音识别任务。它能够将音频转换成文字,支持多种语言的识别,包括但不限于英语、中文、西班牙语等。Whisper模型的特点是它在多种不同的音频条件下(如不同的背景噪声水平、说话者的口音...
-
AIGC实践|用AI工具打造动态有声绘本
前言: 在深入体验了WHEE的强大基础功能之后,我们不仅掌握了如何绘制出梦幻般的图像,还学会了如何打造独具特色的风格模型。学会这些技能后,可以转化为许多创意实践成果,比如创作一本儿童故事绘本。 本文将向你展示如何运用WHEE及其他AI工具,创作出一本充...
-
智慧建筑:基于YOLOv7的建筑外墙缺陷检测
01 前景概要 现有的基于深度学习的方法在识别速度和模型复杂性方面面临一些挑战。为了保证建筑外墙缺陷检测的准确性和速度,我们研究了了一种改进的YOLOv7方法BFD-YOLO。首先,将YOLOv7中原有的ELAN模块替换为轻量级的MobileOne模块,...
-
解读注意力机制原理,教你使用Python实现深度学习模型
本文分享自华为云社区《使用Python实现深度学习模型:注意力机制(Attention)》,作者:Echo_Wish。 在深度学习的世界里,注意力机制(Attention Mechanism)是一种强大的技术,被广泛应用于自然语言处理(NLP)和计算机视...
-
可解释性人工智能:解释复杂的AI/ML模型
译者 | 李睿 审校 | 重楼 人工智能(AI 和机器学习(ML 模型如今变得越来越复杂,这些模型产生的输出是黑盒——无法向利益相关者解释。可解释性人工智能(XAI)旨在通过让利益相关者理解这些模型的工作方式来解决这一问题,确保他们理解这些模型实际上是如...
-
YOLOv10来啦!真正实时端到端目标检测
本文经自动驾驶之心公众号授权转载,转载请联系出处。 过去几年里,YOLOs因在计算成本和检测性能之间实现有效平衡而成为实时目标检测领域的主流范式。研究人员针对YOLOs的结构设计、优化目标、数据增强策略等进行了深入探索,并取得了显著进展。然而,对非极大...
-
DiffMap:首个利用LDM来增强高精地图构建的网络
本文经自动驾驶之心公众号授权转载,转载请联系出处。 论文标题: DiffMap: Enhancing Map Segmentation with Map Prior Using Diffusion Model 论文作者: Peijin Jia, Tuo...
-
手撕Llama3第1层: 从零开始实现llama3
一、Llama3的架构在本系列文章中,我们从头开始实现llama3。 Llama3的整体架构: 图片 Llama3的模型参数: 让我们来看看这些参数在LlaMa 3模型中的实际数值。 图片 [1] 上下文窗口(context-window)在实例化Lla...
-
Meta LlaMA 3模型深度解析
想了解更多AIGC的内容,请访问: 51CTO AI.x社区 https://www.51cto.com/aigc/ 拉玛的故事 “在安第斯山脉崎岖的山区,生活着三种非常美丽的生物——里约、洛基和塞拉。它们有着光泽的皮毛和闪闪发光的眼睛,是力量和韧性的...
-
Llama大型语言模型原理详解
Llama大型语言模型是一种基于深度学习的自然语言处理模型,它在文本生成、问答、摘要等多种NLP任务中展现出强大的性能。本文将详细解析Llama模型的原理,包括其结构、训练过程以及工作机制,帮助读者深入理解这一先进的模型。 一、模型结构 Llama模型...
-
Shortened LLaMA:针对大语言模型的简单深度剪枝法
? CSDN 叶庭云:https://yetingyun.blog.csdn.net/ 论文标题 & 发表会议:Shortened LLaMA: A Simple Depth Pruning for Large Language Model...
-
AI绘画之网上大火的 “隐藏字” 效果怎么制作?只需 5 步教会你!
大家好,我是灵魂画师向阳 一、什么是“隐藏字”? 废话不多说,上图! 我不说,你能看出来这张图片有字吗? 很多人可能觉得不可思议,这张图哪来的字啊?就一张正常的图而已。而有些人可能依稀觉得是有文字的,但是又说不出来到底是什么。 让我们换种...
-
Llama模型下载
最近llama模型下载的方式又又变了,所以今天简单更新一篇文章,关于下载的,首先上官网,不管在哪里下载你都要去官网登记一下信息:https://llama.meta.com/llama2 然后会出现下面的信息登记网页: 我这里因为待业所以or...
-
阿里开源截止目前为止参数规模最大的Qwen1.5-110B模型:MMLU评测接近Llama-3-70B,略超Mixtral-8×22B!
本文原文来自DataLearnerAI官方网站:阿里开源截止目前为止参数规模最大的Qwen1.5-110B模型:MMLU评测接近Llama-3-70B,略超Mixtral-8×22B! | 数据学习者官方网站(Datalearner https://www...
-
Llama 3大模型发布!快速体验推理及微调
Meta,一家全球知名的科技和社交媒体巨头,在其官方网站上正式宣布了一款开源的大型预训练语言模型——Llama-3。 据了解,Llama-3模型提供了两种不同参数规模的版本,分别是80亿参数和700亿参数。这两种版本分别针...
-
CVPR 2024 | 图像超分、图像恢复汇总!用AIGC扩散模型diffusion来解决图像low-level任务的思路...
1、Arbitrary-Scale Image Generation and Upsampling using Latent Diffusion Model and Implicit Neural Decoder 超分辨率(SR)和图像生成是计算...
-
知识分享系列五:大模型与AIGC
大模型(LLM,Large Language Mode)是指通过在海量数据上依托强大算力资源进行训练后能完成大量不同下游任务的深度学习模型。大模型主要用于进行自然语言相关任务,给模型一些文本输入,它能返回相应的输出,完成的具体任务包括生成、分类、总结、改写...
-
「AIGC」AIGC技术入门
人工智能(AI)领域的多个重要概念和实践。 一、思考问题 什么是AI? 什么是AIGC? 什么是AGI? 什么是模型? 什么是大模型(LLM ,什么是小模型? 什么是提示词工程?如何写提示词 什么是神经网络? 召回率是什么含义?...