-
如何在复杂对话中准确识别每位说话人的声音?OpenAI Whisper系统带来新突破,尽管在面对重叠声音时仍需进一步优化。
在复杂对话中准确识别每位说话人的声音是一个挑战,尤其是在面对重叠声音的情况下。OpenAI的Whisper系统虽然在自动语音识别(ASR)方面取得了显著进展,但在处理重叠声音时仍需进一步优化。 Whisper系统通过利用大规模预训练模型和弱监督学习来提取...
-
大模型之二十七-语音识别Whisper实例浅析
Whisper简介 Whisper是OpenAI于2022年9月开源的一个多语种识别模型,目前支持99种语言,是目前性能最好的开源多语种识别ASR大模型,第一版版使用了68万小时标注好的语料预训练模型,而large-v3的标注数据超过了500万小时,其...
-
AIGC初体验 Datawhale X 魔搭夏令营
跟DataWhale的步骤跑通baseline 环境安装 !pip install simple-aesthetics-predictor !pip install -v -e data-juicer !pip uninstall pytorch...
-
AIGC 与 ChatGPT 的区别与联系
前言 在人工智能技术飞速发展的今天,生成式人工智能内容(AIGC)和对话式 AI(如 ChatGPT)成为了备受瞩目的话题。虽然这两者在技术基础和应用领域上有很多重叠之处,但它们也各自有独特的特点和用途。本文将深入探讨 AIGC 与 ChatGPT 的...
-
Stable-Diffusion-WebUI-Collab 在 Google Colab 上的使用教程
Stable-Diffusion-WebUI-Collab 在 Google Colab 上的使用教程 stable-diffusion-webui-colabstable diffusion webui colab项目地址:https://gitco...
-
Llama中的曼巴:通过推测解码加速推理
大型语言模型(LLMs)已经彻底改变了自然语言处理领域,但在处理非常长的序列时面临重大挑战。主要问题来自于Transformer架构的计算复杂度随序列长度呈二次方增长以及其巨大的键值(KV)缓存需求。这些限制严重影响了模型的效率,特别是在推理过程中,使生成...
-
DIFFUSION 系列笔记| Latent Diffusion Model、Stable Diffusion基础概念、数学原理、代码分析、案例展示
目录 Latent Diffusion Model LDM 主要思想 LDM使用示例 LDM Pipeline LDM 中的 UNET 准备时间步 time steps 预处理阶段 pre-process 下采样过程 down sampl...
-
《Llama 3大模型》技术报告中英文版,95页pdf
现代人工智能(AI)系统由基础模型驱动。本文介绍了一套新的基础模型,称为Llama 3。它是一群本地支持多语言、编码、推理和工具使用的语言模型。我们最大的模型是一个具有4050亿参数和高达128K令牌上下文窗口的密集Transformer。本文对Llama...
-
基于大模型的原神对话系统尝试
一.简介 该项目为一次大模型+游戏的尝试,成功实现了一个与原神内角色的对话系统。 演示视频:https://www.bilibili.com/video/BV1b48CeuELL github地址:https://github.com/goodlu...
-
Datawhale X 魔搭 AI夏令营 第四期AIGC_task03笔记
工具初探一ComfyUI 认识ComfyUI ComfyUI 是"Graphical User Interface"(图形用户界面)的缩写,简单来说,GUI 就是你在电脑屏幕上看到的那种有图标、按钮和菜单的交互方式。ComfyUI 是GUI的一种,是...
-
专用于理解游戏场景的开源大模型-VideoGameBunny
大模型在游戏开发领域扮演了重要角色,从AI机器人生成到场景搭建覆盖各个领域。但在游戏场景理解、图像识别、内容描述方面很差。 为了解决这些难题,加拿大阿尔伯塔的研究人员专门开源了一款针对游戏领域的大模型VideoGameBunny(以下简称“VGB”)。 V...
-
RAG 入门指南:从零开始构建一个 RAG 系统
本文正文字数约 3300 字,阅读时间 10 分钟。 从零开始构建一个应用可以让我们快速理解应用的各个部分。 这个方法其实非常适用于 RAG。 我在以前的文章中有介绍过 RAG 的概念、原理以及应用等,但其实,亲自动手来构建一个 RAG 系统或许能够...
-
5 分钟 Stable Diffusion 本地安装指南
一、Stable Diffusion 简介 Stable Diffusion 是一款非常强大的基于深度学习的 AI 图像生成技术。它由众多研究团队和开发者共同努力而成,其中包括德国慕尼黑大学和总部位于纽约的 RunwayML 公司的国际研究团队。...
-
记录Linux上安装LLaMA Factory v0.8.3 增量预训练/监督微调
序:SFT 和 PT 的区分 sft(Supervised Fine-Tuning,监督微调) 定义:sft是一种基于监督学习的微调方法,它使用标记好的数据(即带有输入、指令和期望输出的数据集)来进一步训练已经预训练好的模型。这种方法允许模型...
-
基于AIACC加速器快速实现Stable Diffusion生成特定物体图片
本文介绍如何使用GPU云服务器搭建Stable Diffusion模型,并基于ControlNet框架,快速生成特定物体图片。 背景信息 Stable Diffusion(简称SD)是一种AI模型,它经过训练可以逐步对随机高斯噪声进行去噪以生成所需要的...
-
Llama-X 开源项目指南
Llama-X 开源项目指南 Llama-XOpen Academic Research on Improving LLaMA to SOTA LLM项目地址:https://gitcode.com/gh_mirrors/ll/Llama-X 项目...
-
Datawhale X 魔搭 AI夏令营第四期AIGC方向笔记task3
part1:工具初探一ComfyUI应用场景探索 初识ComfyUI 什么是ComfyUI GUI 是 "Graphical User Interface"(图形用户界面)的缩写。简单来说,GUI 就是你在电脑屏幕上看到的那种有图标、按钮和菜单的...
-
一文看懂llama2(原理&模型&训练)
一文看懂Llama2(原理&模型&训练) 一、引言 Llama2是Meta(原Facebook AI)最新开源的大型语言模型,它基于Transformer架构进行了多项优化和改进,旨在提供更高效、更准确的自然语言处理能力。Llama2...
-
【AI】准备放弃“文心一言”,不再续费
百度真是把一手好牌打的稀烂,最近感觉文心一言起步很猛,但是能力越来越差。 不要说毫无技术极客精神,几乎没有斗志和追求了。 有2个案例,让我非常的失望。 第一个案例体现了它的不诚实,过度的商业“考量”。第二个案例体现了它的不专业。 第一个提示词对比:...
-
6小时完成Llama 3.1-8B适配并开源!MindSpore Transformers大模型套件使能开发者创新
北京时间7月24号, Meta 正式发布 Llama 3.1开源大语言模型, 包含8B、70B 及 405B 参数版本。其中的Llama 3.1 405B模型,在多项基准测试中可以媲美GPT4、Claude3.5等目前最强的闭源大模型。此外,8B 与 70...
-
Chinese-Llama-2-7b 开源项目教程
Chinese-Llama-2-7b 开源项目教程 Chinese-Llama-2-7b开源社区第一个能下载、能运行的中文 LLaMA2 模型!项目地址:https://gitcode.com/gh_mirrors/ch/Chinese-Llama-2...
-
【大模型理论篇】关于LLaMA 3.1 405B以及小模型的崛起
前不久,Meta开源了LLaMA 3.1 405B【1】,模型扩展了上下文长度至 128K,支持八种语言,效果非常惊艳,是首个在通用知识、可操控性、数学、工具使用和多语言翻译方面能够与最先进闭源 AI 模型媲美的公开可用模型,已经赶上截至目...
-
AIGC大模型产品经理高频面试大揭秘‼️
近期有十几个学生在面试大模型产品经理(薪资还可以,详情见下图),根据他们面试(包括1-4面)中出现高频大于3次的问题汇总如下,一共32道题目(有答案)。 29.讲讲T5和Bart的区别,讲讲Bart的DAE任务 T5(Text-to-Text Tr...
-
DataWhale多模态赛事Task1
赛事链接:https://tianchi.aliyun.com/competition/entrance/532251/introduction?spm=a2c22.12281925.0.0.2f307137p8qZmp 赛事描述:在当下大数据、大模型时...
-
精通 Stable Diffusion 调优秘籍
一、Stable Diffusion 调优概览 Stable Diffusion 作为一款强大的 AI 绘画工具,其调优具有至关重要的意义。通过合理的调优,可以显著提升图像生成的质量、速度和准确性,满足用户更加多样化和精细化的需求。 调优主要涵盖了...
-
Stable Diffusion的微调方法原理总结
目录 1、Textural Inversion(简易) 2、DreamBooth(完整) 3、LoRA(灵巧) 4、ControlNet(彻底) 5、其他 1、Textural Inversion(简易) 不改变网络结构...
-
AIGC总体相似度:定义、意义及潜在影响
大家好,小发猫降重今天来聊聊AIGC总体相似度:定义、意义及潜在影响,希望能给大家提供一点参考。 以下是针对论文重复率高的情况,提供一些修改建议和技巧,可以借助此类工具: AIGC总体相似度:定义、意义及潜在影响 在人工智能领域,AIGC(Art...
-
AIGC-视频生成-AnimateDiff-基于T2I模型的动态生成论文详细解读
AnimateDiff: Animate Your Personalized Text-to-Image Diffusion Models without Specific Tuning 代码:https://github.com/guoyww/a...
-
The Llama 3 Herd of Models
本文是LLM系列文章,针对《The Llama 3 Herd of Models》的翻译。 LLama3模型 摘要 1 引言 2 一般概述 3 预训练 3.1 预训练数据 3.1.1 网络数据管...
-
Datawhale AI夏令营第四期AIGC-3进阶上分-实战优化
Task3学习链接 Datawhale (linklearner.com 1. ComfyUI的安装与使用 ComfyUI 是GUI"Graphical User Interface"(图形用户界面)的一种,是基于节点工作的用户界面,主要用于操作图...
-
Datawhale AI夏令营第四期魔搭-AIGC文生图方向Task3笔记
①初识ComfyUI 1.GUI是“图形用户界面”(Graphical User Interface)的缩写。它是一种使用图形元素如图标、按钮和窗口等来帮助用户与软件或操作系统进行交互的用户界面类型。通过GUI,用户可...
-
AIGC——微调技术(Datawhale X 魔搭 Al夏令营)
微调(Fine-tuning)是一种在深度学习和机器学习领域中常用的技术,旨在通过调整预训练模型的参数来使其更好地适应特定任务。其基本原理和参数的理解对于实现更好的效果至关重要。 前言 了解微调的基本原理,对微调的各种参数有一个更加清楚的了解,...
-
Datawhale AI夏令营第四期魔塔-AIGC文生图方向 task03笔记
目录 一、工具初探一ComfyUI应用场景探索 1.初识ComfyUI 2.20分钟速通安装ComfyUI 3.浅尝ComfyUI工作流 二、Lora微调 1.Lora简介 2.Lora详解 一、工具初探一ComfyUI应用场景...
-
初识LLM大模型:入门级工程知识探索与解析
前言 源自脉脉上面刷到的大模型业务工程落地可以做的方向。其实如果不是接触相关工作,有的人可能不会想了解这方面,自己实习做的方向与之相关,因此想调研总结一下行业热点方向与基础入门知识,还有一些的专业词汇的解释。包括但不限于Prompt工程、模型微调fin...
-
NVIDIA把Llama-3的上下文长度扩展16倍,长上下文理解能力超越GPT-4
在 Llama-3.1 模型发布之前,开源模型与闭源模型的性能之间一直存在较大的差距,尤其是在长上下文理解能力上。 大模型的上下文处理能力是指模型能够处理的输入和输出 Tokens 的总数。这个长度有一个限制,超过这个限制的内容会被模型忽略。一般而...
-
苹果AI iPhone定档;Llama 3.1爆冷;马斯克站台AI安全监管法案 | AI头条
整理 | 王启隆 出品 | AI 科技大本营(ID:rgznai100) 一分钟速览新闻点! 苹果宣布 9 月 10 日举行发布会 马斯克宣布将支持 SB 1047 AI 安全监管法案 特朗普:没人比马斯克更懂 A...
-
Datawhale AI夏令营第四期 魔搭-AIGC方向 task 01笔记
简介 从零入门AI生图原理&实践,是 Datawhale 2024 年 AI 夏令营第四期的学习活动(“AIGC”方向),基于魔搭社区“可图Kolors-LoRA风格故事挑战赛”开展的实践学习 适用人群: 想入门并实践 AIGC文生图、工...
-
VAD-LLaMA:基于大语言模型的视频异常检测和解释(Video Anomaly Detection and Explanation via Large Language Models)
文章目录 问题 方法 整体架构 VE and Feature Extraction Long-Term Context (LTC Module Feature Adaptor LLaMA 训练 流程图 第一阶段:训练VADor 第二阶段...
-
LORA模型在Stable Diffusion中的注意力机制优化
LORA模型在Stable Diffusion中的注意力机制优化 引言 1.1 Stable Diffusion在生成模型领域的地位和作用 1.2 介绍LORA模型及其在微调预训练模型时的效率和灵活性 1.3 强调注意力机制在LORA模型优化...
-
GPT-5降临,代号猎户座?OpenAI疑用草莓训练,数学推理暴涨超越所有模型
OpenAI的下一代旗舰大语言模型,要来了? 据悉,新模型代号Orion(猎户座),就是能超越GPT-4的下一代模型。 而猎户座的预训练数据,正是由草莓模型生成的。 而草莓模型驱动的聊天机器人,很可能就会在今年秋天上线! 关于OpenAI的草莓,外媒The...
-
AIGC-SparseCtrl: Adding Sparse Controls to Text-to-Video Diffusion Models
论文: https://arxiv.org/pdf/2311.16933 代码:https://guoyww.github.io/projects/SparseCtrl MOTIVATION relying solely on text p...
-
Llama 3模型:多维度损失函数铸就大语言模型新巅峰
在人工智能领域,大型语言模型(Large Language Models, LLMs 的发展如火如荼。作为这一领域的佼佼者,Llama系列模型一直备受关注。随着Llama 3的横空出世,其在模型架构、训练方法等方面的创新再次引发业界热议。本文将深入探讨Ll...
-
LLaMA3技术报告解读
前言 LLaMA系列算法是Meta公司发布的开源大模型。近期Meta公司又发布了LLaMA 3.1系列的模型,在这一系列模型中参数量最大的高达405B,上下文窗口多达128K个token。同时对模型进行了广泛的实证评估,发现在很多任务中,LLaMA 3...
-
Datawhale X 魔搭 AI夏令营-AIGC Task 02 精读代码,实战进阶 --笔记
前言 Task 01 通过预训练模型的调用,在baseline上跑通模型,实现内容→图片。即,根据prompt中输入的文本描述,模型生成对应的图片。Task 02 深入学习。 目录 一、AI生图技术 1.1 基础点 1.2 技术难点 1.3...
-
ECCV2024 | 小成本微调CLIP大模型!CLAP开源来袭:零样本和少样本训练有救了!
论文链接:https://arxiv.org/pdf/2311.16445 代码链接:https://github.com/YichaoCai1/CLAP 亮点直击 解耦潜在内容和风格因素:本文提出了一种通过对比学习和数据增强,从因果角度微...
-
一文看懂llama2 (原理&模型&训练)
LLaMA2是一种基于Transformer架构的先进语言模型,广泛应用于自然语言处理(NLP)任务,如文本生成、机器翻译和问答系统等。本文将从其核心原理、模型结构以及训练方法三个方面进行详细探讨。 一、核心原理 LLaMA2的核心原理是基于自注意力机...
-
Llama 3.1论文中文对照翻译
The Llama 3 Herd of Models 模型群 Llama 3 Llama Team, Al @ Meta 1...
-
Datawhale X 魔搭 AI夏令营 AIGC人物风格赛
工具初探一ComfyUI应用场景探索 什么是ComfyUI GUI 是 "Graphical User Interface"(图形用户界面)的缩写。简单来说,GUI 就是你在电脑屏幕上看到的那种有图标、按钮和菜单的交互方式。 ComfyUI 是GU...
-
Datawhale X 魔搭 AI夏令营第四期 | AIGC文生图——进阶上分 实战优化 Task3笔记
Hi,大家好,我是半亩花海。在上一个任务中,我们逐行精读baseline,掌握了利用AI工具提升学习效率,并制作了话剧连环画,初步了解Secpter WebUI。今天,我们将深入探讨微调的基本原理及其参数,旨在优化效果。同时,介绍文生图工作流平台Comfy...
-
深度解读 Llama 3.1 技术报告:从405B参数到24000块H100集群
Meta在最近发布了他们的开源大模型Llama 3.1,引起了广泛的关注和讨论。随着热度逐渐退潮,Llama 3.1 的详细技术报告也公开了。这份报告揭示了很多关于Llama 3.1 的技术细节和实现原理。本文将从模型参数、基础设施、预训练、后训练等方面,...