-
Stable Diffusion的常用命令行介绍及示例
Stable Diffusion是一种基于扩散模型的深度学习技术,它特别适用于生成高质量的图像。通过命令行操作,用户可以灵活配置Stable Diffusion模型,以满足不同的图像生成需求。本文将详细介绍Stable Diffusion的常用命令行参数,...
-
【AI学习】LLaMA 系列模型的进化(二)
在前面LLaMA 系列模型的进化(一)中学习了LLama模型的总体进化发展,再来看看其中涉及的一些重要技术。 PreLayerNorm Layer Norm有Pre-LN和Post-LN两种。Layer Normalization(LN)在Trans...
-
大模型行业,根本没有什么“真”开源?
最近一段时间开源大模型市场非常热闹,先是苹果开源了 70 亿参数小模型DCLM,然后是重量级的Meta的Llama 3.1 和Mistral Large2 相继开源,在多项基准测试中Llama 3. 1 超过了闭源SOTA模型。 不过开源派和闭源派之间的争...
-
Llama 3.1要来啦?!测试性能战胜GPT-4o
哎呀,Meta声称将于今晚发布的Llama 3.1,数小时前就在Hugging Face上泄露出来了?泄露的人很有可能是Meta员工? 还是先来看泄露出来的llama3.1吧。新的Llama 3.1模型包括8B、70B、405B三个版本。 而经...
-
击败GPT-4o的开源模型如何炼成?关于Llama 3.1 405B,Meta都写在这篇论文里了
经历了提前两天的「意外泄露」之后,Llama 3.1 终于在昨夜由官方正式发布了。 Llama 3.1 将上下文长度扩展到了 128K,拥有 8B、70B 和 405B 三个版本,再次以一已之力抬高了大模型赛道的竞争标准。 对 AI 社区来说,...
-
【扩散模型】LCM LoRA:一个通用的Stable Diffusion加速模块
潜在一致性模型:[2310.04378] Latent Consistency Models: Synthesizing High-Resolution Images with Few-Step Inference (arxiv.org 原文:Pape...
-
【07】LLaMA-Factory微调大模型——微调模型导出与微调参数分析
上文介绍了如何对微调后的模型进行使用与简单评估。本文将介绍对微调后的模型进行导出的过程。 一、llama-3微调后的模型导出 首先进入虚拟环境,打开LLaMA-Factory的webui页面 conda activate GLM cd LLaMA-F...
-
AIGC助力ResNet分类任务:跃升10个百分点
目录 AIGC?缓解数据稀缺问题❓ 论文研究的动机✏️ 作者是怎么做的❓ 实验配置? 实验结果? 结论✅ 实践? 要增强的裂缝图片 按照论文中的参数在stable-diffusionv1-5上进行textual inversion微调...
-
苹果AI震撼上线iPhone,进化版Siri却没有ChatGPT!47页技术报告揭秘自研模型
【新智元导读】今早,所有开发者们被突如其来iOS18.1测试版砸晕了!没想到,苹果AI这就可以上手尝鲜了,一大波测评刷屏全网。更惊喜的是,苹果AI背后的基础模型47页技术报告,也一并上线了。 一大早,人们期待已久的「苹果AI」首个预览版,正式向开发者们推送...
-
不是NVIDIA!苹果官宣AI模型训练用的谷歌芯片
快科技7月30日消息,苹果公司在其技术论文中透露,其人工智能系统Apple Intelligence所依赖的模型并非基于NVIDIA芯片,而是在谷歌设计的云端芯片上进行预训练的。 NVIDIA的GPU一直以高价位和高需求著称,是许多大型科技公司AI训练的首...
-
我国发布首个亿级参数量地震波大模型:名为“谛听”
快科技7月29日消息,据成都科技局官方公众号介绍,日前谛听”地震波大模型在四川成都发布。 谛听”由国家超级计算成都中心、中国地震局地球物理研究所以及清华大学联合开发,是首个亿级参数量的地震波大模型。 同时,谛听”也是目前国内外最大规模、样本类型和标注最为全...
-
LLaMA-MoE:基于参数复用的混合专家模型构建方法探索
自Mixtral以来,大家对混合专家模型(Mixture-of-Experts,MoE)的关注越来越高。然而从零训练MoE模型的成本极大,需要耗费海量的计算资源。为此,我们探索了一种基于参数复用的MoE快速构建方法。 该方法首先将LLaMA...
-
常见的文心一言的指令
文心一言,作为百度研发的预训练语言模型“ERNIE 3.0”的一项功能,能够与人对话互动,回答问题,协助创作,高效便捷地帮助人们获取信息、知识和灵感。以下是一些常见的文心一言指令类型及其具体示例: 1. 查询类指令 知识问答:用于获取特定领域的知...
-
一文速览Llama 3.1——对其92页paper的全面细致解读:涵盖语言、视觉、语音的架构、原理
前言 按我原本的计划,我是依次写这些文章:解读mamba2、解读open-television、我司7方面review微调gemma2,再接下来是TTT、nature审稿微调、序列并行、Flash Attention3.. 然TTT还没写完,7.23日...
-
AIGC生成式人工智能
AIGC生成式人工智能 什么是生成式AI,什么是AIGC?今天我们来详细的认识一下: 生成式人工智能AIGC(Artificial Intelligence Generated Content)是人工智能1.0时代进入2.0时代的重要标志。...
-
Llama 对决 GPT:AI 开源拐点已至?|智者访谈
Meta 发布 Llama3.1405B,开放权重大模型的性能表现首次与业内顶级封闭大模型比肩,AI 行业似乎正走向一个关键的分叉点。扎克伯格亲自撰文,坚定表明「开源 AI 即未来」,再次将开源与封闭的争论推向舞台中央。 回望过去,OpenAI 从开源到封...
-
【AIGC】Llama-3 官方技术报告
Llama-3 技术报告(中文翻译) 欢迎关注【youcans的AGI学习笔记】原创作品 0. 简介 现代人工智能(AI)系统的核心驱动力来自于基础模型。 本文介绍了一组新的基础模型,称为 Llama 3。它是一个语言模型系列,原生支持多语言...
-
Stable Diffusion系列(六):原理剖析——从文字到图片的神奇魔法(潜空间篇)
文章目录 LDM 概述 原理 模型架构 自编码器模型 扩散模型 条件引导模型 图像生成过程 实验结果 指标定义 IS(越大越好) FID(越小越好) 训练成本与采样质量分析 不带条件的图片生成 基于文本的图片生成 基于语义框的图片生...
-
AIGC学习笔记—LLM(前言)
大语言模型本身我不是很了解,但是掌握一些基础的知识点,由于要准备某个公司的二面,所以浅学一下这个技术,也是边摸索边学习...... 首先,我先简单的解释一下大模型,大模型是指具有大规模参数和复杂计算结构的机器学习模型,通常由深度神经网络构建而成,拥有数十...
-
hunyuandit_pytorch AIGC 以文生图模型
HunyuanDiT 论文 Hunyuan-DiT : A Powerful Multi-Resolution Diffusion Transformer with Fine-Grained Chinese Understanding https:/...
-
AI绘画软件Stable Diffusion的Lora模型详解与使用教程
一、引言 在AI绘画领域,Stable Diffusion作为一种强大的文本到图像的生成模型,已经吸引了众多艺术家和爱好者的关注。而Lora(Low-Rank Adaptation)模型作为Stable Diffusion的一个重要扩展,进一步提升了模...
-
LLama 405B 技术报告解读
LLama 405B 技术报告解读 果然传的消息都是真的,meta在24号凌晨发布了llama 3的405B版本,这次还是做一个技术报告解读。 值得一提的是,在技术报告的开头,meta特意强调了一个 Managing complexity,大意是管控...
-
开源语音转文本 Speech-to-Text 大模型实战之Whisper篇
前言 随着深度学习技术的不断发展,语音转文本(Speech-to-Text,STT)技术取得了显著的进步。开源社区涌现了许多高效的STT大模型,为开发者提供了强大的工具。本文将以OpenAI推出的Whisper模型为例,详细介绍如何使用该模型进行语音转文...
-
每日AIGC最新进展(36):以色列Lightricks提出视频中眼镜擦除技术V-LASIK、史蒂文斯理工学院提出实时交互式数字头像框架RITA、清华大学提出神经残差扩散模型Neural-RDM
Diffusion Models专栏文章汇总:入门与实战 V-LASIK: Consistent Glasses-Removal from Videos Using Synthetic Data 本文介绍了一种名为V-LASIK的视频编辑技术,...
-
LoRA6~Stable Diffusion
这里说LoRA 在 Stable Diffusion 中的三种应用 LoRA 是当今深度学习领域中常见的技术。对于 SD,LoRA 则是能够编辑单幅图片、调整整体画风,或者是通过修改训练目标来实现更强大的功能。LoRA 的原理非常简单,它其实就是用两个参...
-
LlaMa 2
目录 LlaMa 2 介绍: Llama 的诞生: Llama 2 的训练数据集是如何构建和选择的? Llama 2 在自然语言处理(NLP)任务中的具体应用案例有哪些? Llama 2 模型在商业应用中的表现如何,有哪些成功案例? Ll...
-
AI训AI惨遭投毒9次大崩溃,牛津剑桥等惊天发现登Nature封面!
9次迭代后,模型开始出现诡异乱码,直接原地崩溃!就在今天,牛津、剑桥等机构的一篇论文登上了Nature封面,称合成数据就像近亲繁殖,效果无异于投毒。有无破解之法?那就是——更多使用人类数据! 用AI生成的数据训练AI,模型会崩溃? 牛津、剑桥、帝国理工、多...
-
【大语言模型LLMs】Llama系列简介
【大语言模型LLMs】Llama系列简介 文章目录 【大语言模型LLMs】Llama系列简介 1. LLaMa 1.1 引言 1.2 方法 1.2.1 预训练数据 1.2.2 架构 1.2.3 优化器 1.2.4 效率 2....
-
开源=最强大模型!Llama3.1发布,405B超越闭源GPT-4o,扎克伯格:分水岭时刻
刚刚,LIama3.1正式发布,登上大模型王座! 在150多个基准测试集中,405B版本的表现追平甚至超越了现有SOTA模型GPT-4o和Claude3.5Sonnet。 也就是说,这次,最强开源模型即最强模型。 在此之前,Llama3.1已经被多番曝光...
-
一文看懂 LLaMA 2:原理与模型训练介绍
近年来,人工智能领域的进展使得自然语言处理(NLP)技术得到了显著提升。LLaMA 2 是一种先进的语言模型,它在处理语言生成和理解任务上表现出色。本文将介绍 LLaMA 2 的基本原理、模型结构以及训练方法,帮助你全面了解这一技术。 1. LLaMA...
-
探究AIGC的底层逻辑:从技术到应用的全面解析
目录 探究AIGC的底层逻辑:从技术到应用的全面解析 技术原理 使用方法 最佳实践和注意事项 结论 探究AIGC的底层逻辑:从技术到应用的全面解析 在人工智能领域,AIGC(AI对话大师)是一种语言生成模型,由OpenAI开发并用于构建...
-
一文者懂LLaMA 2(原理、模型、训练)
引言 LLaMA(Large Language Model Meta AI)是Meta(前身为Facebook)开发的自然语言处理模型家族之一,LLaMA 2作为其最新版本,展示了在语言理解和生成方面的显著进步。本文将详细解读LLaMA 2的基本原理、...
-
AIGC背后的技术基石:自然语言处理与机器学习
目录 AIGC背后的技术基石:自然语言处理与机器学习 自然语言处理(NLP) 机器学习 AIGC的应用 AIGC背后的技术基石:自然语言处理与机器学习 自然语言处理(NLP)和机器学习是构建AI教学工具"风变科技"中的语言模型所依赖的重要...
-
首个超越GPT4o级开源模型!Llama 3.1泄密:4050亿参数,下载链接、模型卡都有了
Llama3.1终于现身了,不过出处却不是 Meta 官方。 今日,Reddit 上新版 Llama 大模型泄露的消息遭到了疯传,除了基础模型,还包括8B、70B 和最大参数的405B 的基准测试结果。 下图为 Llama3.1各版本与 OpenAI G...
-
【05】LLaMA-Factory微调大模型——初尝微调模型
上文【04】LLaMA-Factory微调大模型——数据准备介绍了如何准备指令监督微调数据,为后续的微调模型提供高质量、格式规范的数据支撑。本文将正式进入模型微调阶段,构建法律垂直应用大模型。 一、硬件依赖 LLaMA-Factory框架对硬件和软件的...
-
快速微调 Whisper 模型:LoRA 加速版
快速微调 Whisper 模型:LoRA 加速版 简述 在当今的AI世界中,模型的大小和复杂性已成为性能的关键驱动力。然而,这也带来了新的挑战:如何在有限的资源下对大型模型进行有效且高效的微调?现在,借助开源项目——Faster Whisper Fine...
-
视频大语言模型调研论文《Video-LLaMA: An Instruction-tuned Audio-Visual Language Model for Video Understanding》解读
本文是关于论文《Video-LLaMA: An Instruction-tuned Audio-Visual Language Model for Video Understanding》的简要介绍。Video-LLaMA是阿里达摩院的一个多模态大语言模型...
-
AIGC领域综述
AIGC领域综述 2023 1. A Survey of Large Language Models 2. A Complete Survey on Generative AI (AIGC : Is ChatGPT from GPT-4 to...
-
OpenAI掀小模型血战!苹果DCLM强势登场,碾压Mistral 7B全开源
【新智元导读】小模型时代来了?OpenAI带着GPT-4o mini首次入局小模型战场,Mistral AI、HuggingFace本周接连发布了小模型。如今,苹果也发布了70亿参数小模型DCLM,性能碾压Mistral-7B。 小模型的战场,打起来了!...
-
AIGC的行业发展
1. AIGC的行业发展 AIGC(Artificial Intelligence Generated Content,人工智能生成内容)是利用人工智能技术来自动生成内容的一种新型内容创作方式。它基于生成对抗网络(GAN 、大型预训练模型等技术,通过对已...
-
Llama模型家族之拒绝抽样(Rejection Sampling)(九) 强化学习之Rejection Sampling
LlaMA 3 系列博客 基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (一) 基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (二) 基于 LlaMA 3 + LangGraph 在w...
-
【AIGC调研系列】VILA-1.5版本的视频理解功能如何
VILA-1.5版本的视频理解功能表现出色,具有显著的突破。这一版本不仅增强了视频理解能力,还提供了四种不同规模的模型供用户选择,以适应不同的应用需求和计算资源限制[1][2][3]。此外,VILA-1.5支持在笔记本等边缘设备上部署,这得益于其高效的模型...
-
Stable Diffusion模型训练 — Embeddings(附Demo)
文本反演 提到文本反演你可能会比较陌生,但它产出的模型类型Embeddings(词嵌入)一定是你出图过程里经常会使用到的,它是一种轻量、小巧的微调模型格式,文件名后缀一般为.pt(或.safetensor),每个Embeddings文件的大小在几KB到几...
-
AIGC是什么,与AI绘画有什么关系,一篇文章带你了解AI绘画的前世今生
在讲解AIGC和AI绘画之前,我们先看看什么是AI以及AI的历史。 AI历史发展轨迹 什么是人工智能 人工智能(Artificial intelligence,简称AI 亦称机器智能,指由人制造出来的机器所表现出来的智能。通常人工智能是指用普通计...
-
LLaMA-Factory:开源的低代码大模型训练框架
LLaMA-Factory 是一个由零隙智能(SeamLessAI)开源的低代码大模型训练框架,它集成了业界最广泛使用的微调方法和优化技术,并支持众多开源模型的微调和二次训练。 一、功能特点 支持多种开源模型:LLaMA-Factory支持包括...
-
GPT-4o mini特点功能介绍及使用教程指南 OpenAI最新模型免费体验地址入口
GPT-4o mini简介 GPT-4o mini是一款成本效益极高的小型智能模型,由OpenAI推出。它在多模态推理和文本智能方面超越了其他小型模型,并支持与GPT-4o相同的语言范围。该模型在数学推理和编码任务上表现出色,能够处理大量上下文信息,并支持...
-
(5-5-01)金融市场情绪分析:使用Llama 2 大模型实现财经信息的情感分析微调(1)
5.5 使用Llama 2 大模型实现财经信息的情感分析微调 情感分析在金融和经济领域具有重要意义,可以帮助企业从市场洞察、风险管理和投资决策等方面获得有价值的信息。然而,在金融和经济文本方面的标注数据相对稀缺,因此需要使用自然语言处理技术和预训练模型...
-
AIGC从入门到实战:关于企业和组织
作者:禅与计算机程序设计艺术 Artificial Intelligence (人工智能 G: Generation (生成 C: Content (内容 背景介绍 随着全球数字化转型的加速,企业与组织面临着前所未有的机遇与挑战。人工智能(A...
-
Llama - 微调
本文翻译整理自:https://llama.meta.com/docs/how-to-guides/fine-tuning 文章目录 微调 实验跟踪 Recipes PEFT LoRA torchtune Hugging Face PE...
-
用AIGC技术打造多样的室内装修风格
随着人工智能不断进步的创造能力,AI生成内容(AIGC)技术已经成为设计行业的一大助力。本文将详细介绍相关的技术原理和细节以及它们在室内装修设计中的应用案例,为读者揭示如何利用AIGC技术打造多样且个性化的室内装修风格。...