-
扩散模型实战(十一):剖析Stable Diffusion Pipeline各个组件
推荐阅读列表: 扩散模型实战(一):基本原理介绍 扩散模型实战(二):扩散模型的发展 扩散模型实战(三):扩散模型的应用 扩散模型实战(四):从零构建扩散模型 扩散模型实战(五):采样过程 扩散模型实战(六):Diffusers DDPM初...
-
MCT Self-Refine:创新集成蒙特卡洛树搜索 (MCTS)提高复杂数学推理任务的性能,超GPT4,使用 LLaMa-3 8B 进行自我优化
? 文献卡 题目: Accessing GPT-4 level Mathematical Olympiad Solutions via Monte Carlo Tree Self-refine with LLaMa-3 8B 作者: Di Zh...
-
Llama模型家族训练奖励模型Reward Model技术及代码实战(二)从用户反馈构建比较数据集
LlaMA 3 系列博客 基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (一) 基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (二) 基于 LlaMA 3 + LangGraph 在w...
-
使用 Llama-Index、Llama 3 和 Qdrant 构建高级重排-RAG 系统
原文:Plaban Nayak Build an Advanced Reranking-RAG System Using Llama-Index, Llama 3 and Qdrant 引言 尽管 LLM(语言模型)能够生成有意义且语法正确的文本...
-
Llama模型家族之RLAIF 基于 AI 反馈的强化学习(一)
LlaMA 3 系列博客 基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (一) 基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (二) 基于 LlaMA 3 + LangGraph 在w...
-
微软大模型phi-3速览-3.7B比llama-3 8B更好?
背景 模型发布者:Microsoft 模型发布时间:2024年4月23日 发布内容:介绍了phi-3系列语言模型,包括phi-3-mini、phi-3-small和phi-3-medium。 重点关注:整体性能可与 Mixtral 8x7B...
-
LLaMa系列模型详解(原理介绍、代码解读):LLaMA 2
LLaMA 2 大型语言模型(LLMs)作为高度能力的人工智能助手,在需要跨多个领域专家知识的复杂推理任务中表现出巨大潜力,包括编程和创意写作等专业领域。它们通过直观的聊天界面与人类互动,这导致了快速和广泛的公众采用。考虑到训练方法的看似简单性,LLM...
-
llama 3 震撼来袭 8B 150k 词元 8Ktoken长度 4T token 参与预训练与对齐训练 使用GQA
Meta开发了并发布了Meta Llama 3系列大型语言模型(LLMs ,这是一组在8亿和70亿参数规模下预训练和指令调整的生成文本模型。Llama 3的指令调整模型针对对话用例进行了优化,并在常见的行业基准测试中超越了众多开源聊天模型。在开发这些模型时...
-
每日AIGC最新进展(24):用于图像质量和审美评估的统一视觉-语言预训练模型UniQA、可控生成图像压缩框架Control-GIC、3D感知扩散模型Ouroboros3D
Diffusion Models专栏文章汇总:入门与实战 UniQA: Unified Vision-Language Pre-training for Image Quality and Aesthetic Assessment 本文提出了一...
-
Stable diffusion采样器详解
在我们使用SD web UI的过程中,有很多采样器可以选择,那么什么是采样器?它们是如何工作的?它们之间有什么区别?你应该使用哪一个?这篇文章将会给你想要的答案。 什么是采样? Stable Diffusion模型通过一种称为“去噪”的过程来生成...
-
llama-7B、vicuna-7b-delta-v1.1和vicuna-7b-v1.3——使用体验
Chatgpt的出现给NLP领域带来了让人振奋的消息,可以很逼真的模拟人的对话,回答人们提出的问题,不过Chatgpt参数量,规模,训练代价都很昂贵。 幸运的是,出现了开源的一些相对小的模型,可以在本地或者云端部署体验, 动手体验了下Vicuna-7b...
-
一遍就会!Stable Diffusion 文生图最全、最强教程!
文生图/txt2img 文生图是Stable Diffusion中最基础、最实用也是最好玩的功能。顾名思义,文生图通过简单的文字描述(英文)就能生成你想要的图片。当然这个图片肯定不是完美的,如若你想生成完美的、惊艳的图片,还需要深入了解和学习文生图详细...
-
LLMs:Chinese-LLaMA-Alpaca的简介(扩充中文词表+增量预训练+指令精调)、安装、案例实战应用之详细攻略
LLMs:Chinese-LLaMA-Alpaca的简介(扩充中文词表+增量预训练+指令精调 、安装、案例实战应用之详细攻略 导读 :2023年4月17日,哈工大讯飞联合实验室,本项目开源了中文LLaMA模型和指令精调的Alpaca大模型,以进一步...
-
在Windows上用Llama Factory微调Llama 3的基本操作
这篇博客参考了一些文章,例如:教程:利用LLaMA_Factory微调llama3:8b大模型_llama3模型微调保存-CSDN博客 也可以参考Llama Factory的Readme:GitHub - hiyouga/LLaMA-Factory: U...
-
用 LLama-Factory 训练和微调 LLama3,打造你的专属 AI 模型!
用 LLama-Factory 训练和微调 LLama3,打造你的专属 AI 模型! 文章目录 用 LLama-Factory 训练和微调 LLama3,打造你的专属 AI 模型! 什么是模型微调? 为什么使用 LLama-Fact...
-
GPT-4o攻破ARC-AGI无法被挑战的神话!71%准确率成新SOTA
【新智元导读】号称不可能轻易被击败的AGI基准ARC-AGI被GPT-4o撼动,GPT-4o以在公共测试集50%、在训练集71%的准确率成为了新的SOTA! ARC-AGI是唯一可以用来衡量通用人工智能进展的基准,创造者François Chollets曾...
-
[论文阅读] (32)南洋理工大学刘杨教授——网络空间安全和AIGC整合之道学习笔记及强推(InForSec)
首先祝大家五一节快乐!《娜璋带你读论文》系列主要是督促自己阅读优秀论文及听取学术讲座,并分享给大家,希望您喜欢。由于作者的英文水平和学术能力不高,需要不断提升,所以还请大家批评指正,非常欢迎大家给我留言评论,学术路上期待与您前行,加油。 本文是南洋理工大...
-
Llama 3 构建语音助手:将本地 RAG 与 Qdrant、Whisper 和 LangChain 集成
Llama 3 构建语音助手:将本地 RAG 与 Qdrant、Whisper 和 LangChain 集成 文章目录 Llama 3 构建语音助手:将本地 RAG 与 Qdrant、Whisper 和 LangChain 集成 不同行...
-
Stable Diffusion【二次元模型】:质量高细节丰富的动漫风格大模型anima_pencil-XL
今天给大家介绍的是一个动漫风格的大模型anima_pencil-XL,这个模型出自一位日本的创作者。最早的版本是V1.0.0是今年1月份才发布的,短短的2个月已经更新了5个版本,最新的版本是V2.6.0,可见作者更新版本的频率有多高。 提到anima_p...
-
Stable diffusion prompts 使用语法、参数讲解、插件安装教程
Stable diffusion prompts 使用语法、参数讲解、插件安装教程 本文基于 Stable diffusion WebUI 进行讲解(安装在 AutoDL 上,安装在本地电脑上的也同样适用本教程)。 初始界面: 文件目录结构:...
-
Midjourney 控图王炸:局部重绘
你是不是也遇到过,明明想要一个白色的兔耳朵偏偏给我红色的兔耳朵,在尝试了修改权重后还是无果。 你是不是也遇到过,终于经过 28 次刷新发送生成了一张老板满意的图片,老板突然说能不能把这个沙发换个颜色? 恭喜你,这个时候不用打开 PS,直接继续 midj...
-
【Tokenizer原理篇】超详细!AIGC面试系列 大模型进阶(5)
本期问题聚焦于大模型Tokenizer相关问题 本期问题快览 模型中的Tokenization是指的什么 常用的Tokenization方法了解有哪些吗 了解什么是Byte-Pair Encoding(BPE 吗 介绍下Byte-Pair E...
-
大规模语言模型从理论到实践 LLaMA的模型结构
1.背景介绍 随着人工智能技术的不断发展,大规模语言模型(Large Language Models, LLMs)已经成为自然语言处理领域的热点。这些模型通过在大规模数据集上进行训练,能够生成连贯、相关且有趣的文本输出。LLaMA 是 Meta AI 开...
-
英伟达开源3400亿巨兽,98%合成数据训出最强开源通用模型!性能对标GPT-4o
【新智元导读】刚刚,英伟达全新发布的开源模型Nemotron-4 340B,有可能彻底改变训练LLM的方式!从此,或许各行各业都不再需要昂贵的真实世界数据集了。而且,Nemotron-4 340B直接超越了Mixtral 8x22B、Claude sonn...
-
大模型理解复杂表格,字节&中科大出手了
只要一个大模型,就能解决打工人遇到的表格难题! 字节联手中科大推出了一款统一表格理解大模型,可以以用户友好的方式解决多种表格理解任务。 同时提出的还有一套开源测试基准,可以更好地评估模型在表格理解任务上的表现。 该模型名为TabPedia,利用多模态大模...
-
大型语言模型(LLMs)在AIGC中的核心地位
本文收录于专栏:精通AI实战千例专栏合集 https://blog.csdn.net/weixin_52908342/category_11863492.html 从基础到实践,深入学习。无论你是初学者还是经验丰富的老手,对于本专栏案例和项目实践...
-
Stable Diffusion AI绘画:绘画参数与原理全攻略参上!千万别错过!
一、基础模型和外挂VAE模型 Ⅰ. 基本术语讲解 基础模型(大模型/底模型):属于预调模型,它决定了AI图片的主要风格。 VAE模型:全称Variational auto enconder变分自编码器,它类似于图片生成后的滤镜。 “基础模型”和...
-
stable diffusion官方版本复现
踩了一些坑,来记录下 环境 CentOS Linux release 7.5.1804 (Core 服务器 RTX 3090 复现流程 按照Stable Diffusion的readme下载模型权重、我下载的是stable-diffusio...
-
LLM 评估汇总:真的吊打 LLaMA-3,媲美 GPT-4 吗?
一、背景 在过去的一年多里,国内在大模型领域的发展异常迅速,涌现出上百个大模型,许多模型已经迭代了多个版本,并且各种指标不断刷新。与此同时,我们也经常在国内的一些文章中看到声称“吊打 LLaMA 3”或“媲美 GPT-4”的说法。那么,国内的大模型真的已...
-
Perplexica 是 Perplexity.ai 的开源 AI 搜索引擎替代品
Perplexica 是一个开源项目,旨在提供一个隐私保护的 AI 搜索引擎,作为 Perplexity AI 等专有选项的替代方案。它利用大型语言模型(LLMs)和人工智能功能,提供了一个开放的搜索解决方案。 产品入口:https://top.aiba...
-
AIGC-Stable Diffusion进阶1(附代码)
在上篇文章中对Stable Diffusion进行了初步的认识,也给出了使用案例,这篇文章将进一步的去刨析一下SD模型。 SD模型的组成 在之前也讲过了,SD由CLIP、UNet、Schedule,VAE组成。再来回顾一下知识点: 1.CLIP Te...
-
《The end of Software》争议不断:AIGC下的软件行业是不是80年代的传统媒体行业?
要理解软件将如何变化,我们可以从研究技术如何改变其他行业中获益。如果你倾听,历史往往会有韵律。 在互联网之前,媒体的行为方式非常不同——它很贵。 你必须支付人们制作内容、编辑它和分发它。因为内容的制作成本很高,所以它必须赚钱。消费者为报纸、杂志、书籍、有线...
-
LLaMA 2语言大模型的微调策略:LoRA与全参数选择
随着自然语言处理(NLP)技术的飞速发展,大型语言模型(LLMs)在各个领域都展现出了强大的能力。LLaMA 2作为其中的佼佼者,具有巨大的潜力。然而,如何有效地对LLaMA 2进行微调,以适应特定的任务或数据集,成为了一个关键问题。本文将对LoRA技术与...
-
使用LLM2Vec将Llama 3转变为一个嵌入模型
文章目录 LLM2Vec:您的LLM也是一个嵌入模型 使用LLM2Vec将Llama 3转变为文本嵌入模型 为 RAG 设置 Llama 3 文本嵌入模型 结论 原文:Benjamin Marie Turn Llama 3 into a...
-
国产大模型最近挺猛啊!使用Dify构建企业级GPTs;AI阅读不只是「总结全文」;我的Agent自媒体团队;官方AI绘画课完结啦! | ShowMeAI日报
?日报&周刊合集 | ?生产力工具与行业应用大全 | ? 点赞关注评论拜托啦! ? 大模型近期重大进展:百川、讯飞、智源发布新模型,GLM-4、DeepSeek上线开放平台,Google Bard 反超,Mixtral medium 泄...
-
Llama模型家族之使用 Supervised Fine-Tuning(SFT)微调预训练Llama 3 语言模型(十) 使用 LoRA 微调常见问题答疑
LlaMA 3 系列博客 基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (一) 基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (二) 基于 LlaMA 3 + LangGraph 在w...
-
AI | LLaMA-Factory 一个好用的微调工具
‘’ LLama Factory,这个工具能够高效且低成本地支持对 100 多个模型进行微调。LLama Factory 简化了模型微调的过程,并且易于访问,使用体验友好。此外,它还提供了由 Hiyouga 提供的 Hugging Face 空间,可...
-
LLM之RAG之LlaMAIndex:llama-index(一块轻快构建索引来查询本地文档的数据框架神器)的简介、安装、使用方法之详细攻略
LLM之RAG之LlaMAIndex:llama-index(一块轻快构建索引来查询本地文档的数据框架神器 的简介、安装、使用方法之详细攻略 目录 LlamaIndex的简介 1、LlamaIndex有什么帮助? 2、核心原理 llama-i...
-
Llama模型家族之使用 Supervised Fine-Tuning(SFT)微调预训练Llama 3 语言模型(一) LLaMA-Factory简介
LlaMA 3 系列博客 基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (一) 基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (二) 基于 LlaMA 3 + LangGraph 在w...
-
【Diffusion实战】基于Stable Diffusion实现文本到图像的生成(Pytorch代码详解)
来试试强大的Stable Diffusion吧,基于Stable Diffusion的pipeline,进一步了解Stable Diffusion的结构~ Diffusion实战篇: 【Diffusion实战】训练一个diffusion模型生成...
-
全新推理框架SymbCoT 让大模型实现类人的符号逻辑推理能力
新加坡国立大学联合加州大学圣芭芭拉分校与奥克兰大学的研究人员提出了一种名为SymbCoT(Symbolic Chain-of-Thought)的全新推理框架,旨在提升大语言模型(LLMs 的符号逻辑推理能力。这一框架结合了符号化逻辑表达式与思维链,极大提升...
-
每日AIGC最新进展(6):视觉一致插图序列生成、阿里巴巴电商人物产品互动图生成、Text-to-Vector生成、多视图扩散模型3D重建
Diffusion Models专栏文章汇总:入门与实战 Generating Coherent Sequences of Visual Illustrations for Real-World Manual Tasks http://arxiv....
-
基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (四)
基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (四) 大家继续看 https://lilianweng.github.io/posts/2023-06-23-agent/的文档内容 第三部分:工具使用 工具的使用是人类...
-
Llama模型家族训练奖励模型Reward Model技术及代码实战(一)
LlaMA 3 系列博客 基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (一) 基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (二) 基于 LlaMA 3 + LangGraph 在w...
-
LLM微调技术LoRA图解
译者 | 朱先忠 审校 | 重楼 简介 当涉及到大型语言模型时,微调可能是人们讨论最多的技术方面的内容之一。大多数人都知道,训练这些模型是非常昂贵的,需要大量的资本投资;所以,看到我们可以通过采用现有的模型并用自己的数据对模型进行微调,从而创建一个具有...
-
从提示工程到代理工程:构建高效AI代理的策略框架概述
自ChatGPT推出以来,仅仅一年多的时间里,公众对于“人工智能”(AI)的认识已经发生了根本性的变化。这种变化部分源于公众意识的提高,更多则是基于这样一个认识:AI驱动的系统不仅可能,而且可能已经具备了与人类相当的能力和表现。ChatGPT不仅是AI能...
-
Github万星!北航发布零代码大模型微调平台LlamaFactory
在人工智能领域,大语言模型(LLMs)已成为推动技术进步的关键力量。它们在理解和生成自然语言方面展现出了卓越的能力,从而在问答系统、机器翻译、信息提取等多样化任务中发挥着重要作用。然而,要将这些模型适配到特定的下游任务中,通常需要进行微调(fine-tun...
-
使用llama-index连接neo4j知识图谱 达成大模型构建查询知识图谱功能
使用llama-index连接neo4j知识图谱 达成本地大模型构建查询知识图谱功能 概述 目标 主要步骤 1. 安装依赖项 2. 配置环境 配置ollama 3. 使用Neo4j构建知识图谱 准备Neo4j 实例化Neo4jGraph...
-
CLIP当RNN用入选CVPR:无需训练即可分割无数概念|牛津大学&谷歌研究院
循环调用CLIP,无需额外训练就有效分割无数概念。 包括电影动漫人物,地标,品牌,和普通类别在内的任意短语。 牛津大学与谷歌研究院联合团队的这项新成果,已被CVPR 2024接收,并开源了代码。 团队提出名为CLIP as RNN(简称CaR)的新技...
-
Stable Diffusion学习记录
文章目录 前言 电脑配置推荐 环境搭建 下载地址 安装步骤 步骤一,打开下载的秋叶整合包,路径秋叶整合包/sd-wenui-aki 步骤二,打开下载好的sd-webui-aki-v4.8.7解压包 Stable Diffusion软件配...