-
Chinese-Vicuna: 一个基于LLaMA的中文指令跟随模型
Chinese-Vicuna简介 Chinese-Vicuna是一个基于LLaMA的中文指令跟随模型,由研究者开发,旨在以低资源的方式实现高效的中文语言模型训练。该项目的主要目标是构建和分享可以在单个Nvidia RTX-2080TI上训练的中文指令跟随...
-
OpenAI开发者大会推出四大创新:提示词缓存可减少50%输入token成本
10月2日消息,美东时间10月1日OpenAI举行了年度开发者大会DevDay,推出系列新工具,包括四大创新:实时API(Realtime API)、视觉微调(Vision Fine-Tuning)、提示词缓存(Prompt Caching)、模型蒸馏(M...
-
AIGC从入门到实战:天工人巧日争新:生成你的数字人分身
AIGC从入门到实战:天工人巧日争新:生成你的数字人分身 关键词:AIGC,数字人,人工智能,生成模型,训练,应用 1. 背景介绍 1.1 问题的由来 随着人工智能技术的飞速发展,人工智能生成内容(AIGC,AI Generated Co...
-
[从0开始AIGC][LLM]:LLM中Encoder-Only or Decoder-Only?为什么主流LLM是Decoder-Only?
LLM中Encoder-Only or Decoder-Only & 为什么主流LLM是Decoder-Only? 文章目录 LLM中Encoder-Only or Decoder-Only & 为什么主流LLM是Dec...
-
探索Negative Prompt Weight:为Stable Diffusion Web UI带来全新控制力
探索Negative Prompt Weight:为Stable Diffusion Web UI带来全新控制力 stable-diffusion-NPW Negative Prompt Weight: Extension for Stable D...
-
Llama 3.2来了,多模态且开源!AR眼镜黄仁勋首批体验,Quest 3S头显价格低到离谱
如果说 OpenAI 的 ChatGPT 拉开了「百模大战」的序幕,那 Meta 的 Ray-Ban Meta 智能眼镜无疑是触发「百镜大战」的导火索。自去年 9 月在 Meta Connect 2023 开发者大会上首次亮相,短短数月,Ray-Ban M...
-
新秀 FLUX.1 来袭,超越sd3!吊打Midjourney?效果惊艳
前言 最近最火的模型非FLUX.1莫属,这款由Stable Diffusion原创团队精心打造的开源AI绘画大模型,正引领着创作领域的新风尚。 接下来,我们就来一起认识一下这款模型。 一、Flux.1背后的神秘团队 Flux.1模型由Black...
-
Stable Diffusion训练LoRA模型参数详细说明(阿里巴巴堆友AI)
工具:线上模型训练堆友AI 一、训练参数 批量大小 (Batch Size 作用:每次训练中使用的样本数量。 参考值:可以从 8 到 64,取决于显存大小。 训练轮数 (Epochs 作用:完整遍历训练数据的次数。 参考值:通...
-
Nvidia AI 发布 Llama-Minitron 3.1 4B:通过修剪和提炼 Llama 3.1 8B 构建的新语言模型
Nvidia 刚刚发布了语言模型的新版本,不过这次是一个小型语言模型:Llama-3.1-Minitron 4B 模型。这意味着它是语言模型不断发展的重要步骤之一,通过剪枝和知识提炼等尖端技术,将大型模型的效率与小型模型相结合。 Llama-3.1-...
-
使用llama-factory和llama.cpp微调量化Qwen2
使用llama-factory和llama.cpp微调量化Qwen2 准备数据集 微调 测试 合并 使用llama.cpp量化 准备数据集 1.选定数据集的格式 2.将处理好的数据集上传到/data 文件夹下面,并修改datase...
-
每日AIGC最新进展(57):小红书提出视频理解模型VideoLLM-MoD、香港大学提出脉冲神经扩散模型、香港大学提出使用反球面插值改进基于扩散模型的数据增强方法
Diffusion Models专栏文章汇总:入门与实战 VideoLLM-MoD: Efficient Video-Language Streaming with Mixture-of-Depths Vision Computation 随着...
-
200美元的ChatGPT Pro正式上线,聪明N倍的新模型草莓要来了。
半夜10点,The Information发了个新闻,透露了OpenAI的新模型,草莓,要来了。 两个小时后,我的好朋友@solitude(美东时间),作为一个常年拥有第一手资料和信息的人,跟我说,ChatGPT Pro会员上线了,售价200刀/月,他已...
-
Gemini Pro, Claude 3/3.5, GPT4 turbo/4o, 文心一言, GLM4系列, 月之暗面Kimi, Llama3系列设计推理大比拼
随着大语言模型的发展,各模型的语言对话能力也都得到了大家的认可,随之而来推理分析能力成为大模型下一轮角逐的一个要点。以下也是一家奥林匹克评测机构对于大模型推理能力的评分。 权威评测机构固然测评全面,但是其设计的问题并不一定适合我们日常产品设计,对价格...
-
【大模型】llama系列模型基础
前言:llama基于transformer架构,与GPT相似,只用了transformer的解码器部分。本文主要是关于llama,llama2和llama3的结构解读。 目录 1. llama 1.1 整体结构 1.2 RoPE 1...
-
AI日报:苹果首款AI手机iPhone 16发布;Kimi API已支持联网搜索功能;AI面部表情编辑神器Reshot AI
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。 新鲜AI产品点击了解:https://top.aibase.com/ 1、苹果首款AI手机发布!iPho...
-
一文彻底搞懂 Fine-tuning - 超参数(Hyperparameter)
最近这一两周看到不少互联网公司都已经开始秋招提前批了。不同以往的是,当前职场环境已不再是那个双向奔赴时代了。求职者在变多,HC 在变少,岗位要求还更高了。 最近,我们又陆续整理了很多大厂的面试题,帮助一些球友解惑答疑,分享技术面试中的那些弯弯绕绕。 《...
-
微软用AI Agent生成2500万对高质量数据,极大提升大模型性能!
随着ChatGPT、Copliot等生成式AI产品的快速迭代,对训练数据的需求呈指数级增长,同时也是提升大模型性能的关键环节之一。 为了解决训练数据短缺和质量差的难题,微软研究院发布了一个专门用于生成高质量合成数据的的AI Agent——Agent Ins...
-
中国版“Scale AI” 蚂蚁数科发布 AI 数据标注产品
提高数据数量、安全和多样性,对提升大模型性能,推动产业落地至关重要。记者从2024Incluison·外滩大会上了解到,蚂蚁数科发布新一代数据标注产品,向企业客户提供AI 驱动的全流程数据服务。 传统数据标注以人工为主,进入大模型时代,企业面对数据指数级增...
-
Llama-factory的yaml配置参数--学习记录
最近llama-factory的配置参数有很多不懂的地方,整理了一些但也有可能有错,仅供大家参考。 # 可选参数 # 模型和适配器相关 --adapter_name_or_path # 描述: 适配器的名称或路径。 --adapter_folder...
-
【Stable diffusion】绘世启动器绘画有多简单?
文章目录 目录 文章目录 概要 整体架构流程 一、插件与模型集成 二、对新手友好 三、绘画高手如虎添翼 技术细节 小结 概要 随着秋叶大神的绘世启动器4.8版本发布,AI绘画的搭建过程越来越...
-
外滩大会显露AI产业实践六大趋势 下一代超级应用是智能体
9月5日,2024·Inclusion外滩大会在上海开幕。AI产业的发展是本届外滩大会与会专家和企业家热议的话题,无论是企业界的实践,还是专家学者的研究,各方都认为AI产业实践正呈现六大趋势,涵盖小模型、智能体、专业AI、具身智能等方面,指明了大模型产业落...
-
【06】LLaMA-Factory微调大模型——微调模型评估
上文【05】LLaMA-Factory微调大模型——初尝微调模型,对LLama-3与Qwen-2进行了指令微调,本文则介绍如何对微调后的模型进行评估分析。 一、部署微调后的LLama-3模型 激活虚拟环境,打开LLaMA-Factory的webui页面...
-
Meta最新SAM2模型开源直接封神
2024年7月29日,Meta在官网发布SAM2开源消息:segment-anything-2 开源地址:https://github.com/facebookresearch/segment-anything-2 paper:sam-2-seg...
-
【开发心得】Dify部署ollama模型的坑[1]
本文接续上次的文章【开发心得】三步本地化部署llama3大模型_dify llama3-CSDN博客 经过几次调试,目前部署终于稳定下来,由于算力问题产生的300 time out也逐渐减少了。因此,把后续在测试过程中碰到的一些坑和怎么爬出来,做一个记录...
-
苹果AI iPhone定档;Llama 3.1爆冷;马斯克站台AI安全监管法案 | AI头条
整理 | 王启隆 出品 | AI 科技大本营(ID:rgznai100) 一分钟速览新闻点! 苹果宣布 9 月 10 日举行发布会 马斯克宣布将支持 SB 1047 AI 安全监管法案 特朗普:没人比马斯克更懂 A...
-
LORA模型在Stable Diffusion中的注意力机制优化
LORA模型在Stable Diffusion中的注意力机制优化 引言 1.1 Stable Diffusion在生成模型领域的地位和作用 1.2 介绍LORA模型及其在微调预训练模型时的效率和灵活性 1.3 强调注意力机制在LORA模型优化...
-
一文看懂llama2 (原理&模型&训练)
LLaMA2是一种基于Transformer架构的先进语言模型,广泛应用于自然语言处理(NLP)任务,如文本生成、机器翻译和问答系统等。本文将从其核心原理、模型结构以及训练方法三个方面进行详细探讨。 一、核心原理 LLaMA2的核心原理是基于自注意力机...
-
Datawhale X 魔搭 AI夏令营-AIGC方向-LoRA学习笔记
LoRA(Low-Rank Adaptation)是一种用于优化大规模预训练模型的微调技术,特别适用于在资源有限的情况下,对模型进行高效且低成本的微调。LoRA的核心思想是通过低秩分解方法,仅微调模型的少数参数,从而显著减少计算成本和内存占用。 1. 背...
-
LLAMA 3.1 论文的见解
这有什么大不了的? LLAMA 3.1 的发布标志着 AI 开发的一个重要里程碑。开源模型首次接近领先的闭源模型的性能水平。这一转变预示着未来开源模型同样有效,任何人都可以灵活地修改和调整它们。马克·扎克伯格将此与 Linux 的开源性质进行了比较,...
-
基于LORA的Stable Diffusion模型在虚拟试衣中的应用
基于LORA的Stable Diffusion模型在虚拟试衣中的应用 引言 1.1 简述虚拟试衣的市场背景和技术需求 1.2 介绍LORA与Stable Diffusion模型的结合在虚拟试衣领域的潜力 1.3 强调基于LORA的Stable...
-
Datawhale X 魔搭 AI夏令营(AIGC Task3)学习笔记
目录 认识ComfyUI 1. 什么是 ComfyUI 2. ComfyUI 核心部件 3. ComfyUI 图片生成流程 4. ComfyUI 的优势 使用ComfyUI 下载ComfyUI: 运行ComfyUI: 自我学习: LOR...
-
Dreambooth-Stable-Diffusion 使用教程
Dreambooth-Stable-Diffusion 使用教程 Dreambooth-Stable-DiffusionImplementation of Dreambooth (https://arxiv.org/abs/2208.12242 by...
-
MSRA古纾旸:2024年,视觉生成领域最重要的问题有哪些?
文章链接: https://arxiv.org/pdf/2407.18290 亮点直击 概述了视觉生成领域中的各种问题。 这些问题的核心在于如何分解视觉信号,其他所有问题都与这一核心问题密切相关,并源于不适当的信号分解方法。 本文旨...
-
论文阅读-Transformer Layers as Painters
1. 摘要 尽管大语言模型现在已经被广泛的应用于各种任务,但是目前对其并没有一个很好的认知。为了弄清楚删除和重组预训练模型不同层的影响,本文设计了一系列的实验。通过实验表明,预训练语言模型中的lower和final layers与中间层分布不一致,并且...
-
Post-Training有多重要?AI2研究员长文详解前沿模型的后训练秘籍
越来越多研究发现,后训练对模型性能同样重要。Allen AI的机器学习研究员Nathan Lambert最近发表了一篇技术博文,总结了科技巨头们所使用的模型后训练配方。 随着LLM学界和工业界日新月异的发展,不仅预训练所用的算力和数据正在疯狂内卷,后训练(...
-
Stable Diffusion 模型的安装和使用
一、SD模型简介 Stable Diffusion的绘图风格主要由模型来控制,基础模型主要由二次元图片训练获得,所以在不安装其他模型的情况下,只能生成二次元风格的图像。 模型能够有效地控制生成的画风和内容。 常用的模型网站有: Stable...
-
Lag-Llama 开源项目实战指南
Lag-Llama 开源项目实战指南 lag-llamaLag-Llama: Towards Foundation Models for Probabilistic Time Series Forecasting项目地址:https://gitcode...
-
开源模型应用落地-qwen2-7b-instruct-LoRA微调-LLaMA-Factory(五)
一、前言 本篇文章将使用LLaMA-Factory去高效微调QWen2系列模型,通过阅读本文,您将能够更好地掌握这些关键技术,理解其中的关键技术要点,并应用于自己的项目中。 二、术语介绍 2.1. LoRA微调 LoRA (Low...
-
Playground v2.5最新的文本到图像生成模型,官方宣称V2.5的模型优于 SDXL、Playground v2、PixArt-α、DALL-E 3 和 Midjourney
Playground v2.5介绍 Playground在去年发布Playground v2.0之后再次开源新的文生图模型Playground v2.5。新版本提升了图像的美学质量,增强了颜色和对比度、改进了多纵横比图像生成,可以生成各种比例图像以及人像...
-
大模型笔记之-Llama-3.1-405B-Instruct-FP8离线部署[8*A800] 基于vLLM 版本v0.5.3.post1
提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档 文章目录 前言 一、硬件环境 二、软件环境 三 . 模型下载 1.环境准备 新建 conda虚拟环境 安装vLLM 启动命令 启动日志截取 FP8 量化损失 对接...
-
llama模型,nano
目录 llama模型 Llama模型性能评测 nano模型是什么 Gemini Nano模型 参数量 MMLU、GPQA、HumanEval 1. MMLU(Massive Multi-task Language Understanding)...
-
谷歌发布大模型数据筛选方法:效率提升13倍,算力降低10倍
随着GPT-4o、Gemini等多模态大模型的出现,对训练数据的需求呈指数级上升。无论是自然语言文本理解、计算机视觉还是语音识别,使用精心标注的数据集能带来显著的性能提升,同时大幅减少所需的训练数据量。 但目前多数模型的数据处理流程严重依赖于人工筛选,不仅...
-
扎克伯格:Llama将成AI界的Linux
? AI新闻 ? 扎克伯格:Llama将成AI界的Linux 摘要:Meta创始人兼CEO马克·扎克伯格在博文中阐述了Llama开源AI的愿景,认为其有潜力成为AI领域的Linux。他表示,开源AI能满足不同组织的需求,提供数据保护和经济实惠的解决...
-
AI写作不懂提示词 大象Prompt 保姆级系列教程三
一、提示词的核心价值究竟是啥? 最近跟不少业内朋友探讨这事儿,我觉得:提示词的核心价值在于对方法论的封装以及由此带来的知识传播速度加快。 通俗讲,假如你熟悉的行业里有个厉害的“老师傅”,他在核心业务上有好多心得、经验和方法,有的能量化或结构化,...
-
LLaMA-Factory:大语言模型微调框架(大模型)
简介: LLaMA-Factory 是一个国内北航开源的低代码大模型训练框架,专为大型语言模型(LLMs)的微调而设计 LLaMA-Factory:大语言模型微调框架 一、功能特点 LLaMA-Factory 是一个国内北航开源的低代码大模...
-
最强大模型 Llama 3.1-405B 架构设计剖析
—1— 最强大模型 Llama 3.1-405B 简介 在历经了两天的提前“泄露风波”后,Llama 3.1 终于正式揭开面纱,由官方对外公布。 新版 Llama 3.1 将其上下文处理能力扩展至 128K,推出了 8B、70B 及 405B 三个不...
-
LLaMA模型量化方法优化:提高性能与减小模型大小
LLaMA模型量化方法优化:提高性能与减小模型大小 LLaMA模型量化方法优化:提高性能与减小模型大小 引言 新增量化方法 性能评估 7B模型 13B模型 结果分析 结论 LLaMA模型量化方法优化:提高性能与减小模型大小...
-
贾扬清:大模型尺寸正在重走CNN的老路;马斯克:在特斯拉也是这样
Transformer大模型尺寸变化,正在重走CNN的老路! 看到大家都被LLaMA3.1吸引了注意力,贾扬清发出如此感慨。 拿大模型尺寸的发展,和CNN的发展作对比,就能发现一个明显的趋势和现象: 在ImageNet时代,研究人员和技术从业者见证了参数规...
-
llama 2 改进之 RMSNorm
RMSNorm 论文:https://openreview.net/pdf?id=SygkZ3MTJE Github:https://github.com/bzhangGo/rmsnorm?tab=readme-ov-file 论文假设LayerNorm...
-
AI多模态模型架构之LLM主干(3):Llama系列
〔探索AI的无限可能,微信关注“AIGCmagic”公众号,让AIGC科技点亮生活〕 本文作者:AIGCmagic社区 刘一手 前言 AI多模态大模型发展至今,每年都有非常优秀的工作产出,按照当前模型设计思路,多模态大模型的架构主要包括...