-
使用QLoRA对Llama 2进行微调的详细笔记
使用QLoRA对Llama 2进行微调是我们常用的一个方法,但是在微调时会遇到各种各样的问题,所以在本文中,将尝试以详细注释的方式给出一些常见问题的答案。这些问题是特定于代码的,大多数注释都是针对所涉及的开源库以及所使用的方法和类的问题。 导入库...
-
【多模态】4、Chinese CLIP | 专为中文图文匹配设计
文章目录 一、背景 二、方法 2.1 基础内容 2.2 数据集 2.3 预训练方法 2.4 模型尺寸 三、效果 四、代码 4.1 推理 论文:Chinese CLIP: Contrastive Vision-Language Pr...
-
stable-diffusion-webui 本地部署git报错问题解决
项目场景: 运行时python launch.py --autolaunch 产生Error code:1 问题描述 由于git安全机制问题,导致项目读取不到相应的stable-diffusion-stability-ai等插件。 Runt...
-
能总结经验、持续进化,上交把智能体优化参数的成本打下来了
大模型的出现引发了智能体设计的革命性变革,在 ChatGPT 及其插件系统问世后,对大模型智能体的设计和开发吸引了极大的关注。帮助完成预订、下单等任务,协助编写文案,自主从网络上搜索最新的知识与新闻等等,这种通用、强大的智能助理,让大模型强大的语义理解、...
-
OpenAI神秘新模型Q*曝光,太强大让董事会警惕,或是奥特曼被开除导火索
OpenAI宫斗大戏刚刚落幕,马上又掀起另一场轩然大波! 路透社曝光,在奥特曼被解雇之前,几位研究人员给董事会写的警告信可能是整个事件导火索: 内部名为Q (发音为Q-Star)*的下一代AI模型,过于强大和先进,可能会威胁人类。 Q*正是由这场风暴的中...
-
2023年的深度学习入门指南(20) - LLaMA 2模型解析
2023年的深度学习入门指南(20 - LLaMA 2模型解析 上一节我们把LLaMA 2的生成过程以及封装的过程的代码简单介绍了下。还差LLaMA 2的模型部分没有介绍。这一节我们就来介绍下LLaMA 2的模型部分。 这一部分需要一些深度神经网络的...
-
LLMs之LLaMA-2:源码解读之所有py文件(包括example_text_completion.py/example_chat_completion.py+model.py/generation
LLMs之LLaMA-2:源码解读之所有py文件(包括example_text_completion.py/example_chat_completion.py+model.py/generation.py/tokenizer.py 目录 一、l...
-
2023年微软开源八个人工智能项目
作者 | Tsamia Ansari 策划 | 言征 自2001年软件巨头微软前首席执行官史蒂夫·鲍尔默对开源(尤其是Linux)发表尖刻言论以来,微软正在开源方面取得了长足的进步。继ChatGPT于去年年底发布了后,微软的整个2023年,大多数技术...
-
以Llama-2为例,在生成模型中使用自定义StoppingCriteria
以Llama-2为例,在生成模型中使用自定义StoppingCriteria 1. 前言 2. 场景介绍 3. 解决方法 4. 结语 1. 前言 在之前的文章中,介绍了使用transformers模块创建的模型,其generate...
-
用diffuser代码方式打造Ai作画流水线(1)
背景: stablediffusion已经成为作画人的标配,通过sd的ps插件,或者通过SD webui就可以快速的构建出一套属于自己的Ai作画环境。这种可视化的界面确实方便也是更好艺术家个代码工程师协同合作的模式,可视化界面方便艺术家创造,需要...
-
Stable Diffusion如何生成高质量的图-prompt写法介绍
文章目录 Stable Diffusion 使用 尝试下效果 prompt的编写技巧 prompt 和 negative prompt Prompt格式 Prompt规则细节 优化 Guidance Scale 总结 Sta...
-
基于 huggingface diffuser 库本地部署 Stable diffusion
前言 Stable Diffusion 是用 LAION-5B 的子集(图像大小为512*512)训练的扩散模型。此模型冻结 CLIP 的 ViT-L/14 文本编码器建模 prompt text。模型包含 860M UNet 和123M 文本编码器,...
-
【A卡,Windows】stable diffusion webui下载安装避坑指南
观前提醒 本文内容都是本人亲身经历的,一个一个安装下载测试所感,当然如果你更想用傻瓜式集成包的,那还是跳过这篇文章吧。 当然我不推荐这篇文章的操作,因为我用了差不多1h才有一副图,有N卡,就用N卡,这只是无奈之举而已,方便那些像我一样暂时没有换机子打...
-
微调 Code Llama 完整指南
一、前言 今天这篇文章将向大家详细介绍如何对 Code Llama 进行微调,让它变成适合 SQL 开发的有利工具。对于编程开发任务,经过适当微调后的 Code Llama 的性能通常都会比普通的 Llama 强很多,特别是当我们针对具体任务进行优化时:...
-
OSError: CompVis/stable-diffusion-v1-4 does not appear to have a file named config.json
最近刚开始研究Stable Diffusion model 想尝试一下fine-tuning任务。在本地加载模型后,爆显存了。。。于是不得已,在云平台租用服务器来进行训练。 创建服务器实例时,我直接选的的平台提供的算法镜像,这样可以免去配环境之苦:...
-
Stable Diffusion 安装
一、安装 GPU 驱动(CPU 环境跳过这一步) 手动安装GPU驱动参考:https://docs.nvidia.com/datacenter/tesla/tesla-installation-notes/index.html?spm=a2c4g.11...
-
LLMs之LLaMA:《LLaMA: Open and Efficient Foundation Language Models》翻译与解读
LLMs之LLaMA:《LLaMA: Open and Efficient Foundation Language Models》翻译与解读 导读:该论文提出了一个开源的大规模语言模型LLaMA,2048个A100-80G训练21天。该...
-
教你如何使用PyTorch解决多分类问题
本文分享自华为云社区《使用PyTorch解决多分类问题:构建、训练和评估深度学习模型》,作者: 小馒头学Python。 引言 当处理多分类问题时,PyTorch是一种非常有用的深度学习框架。在这篇博客中,我们将讨论如何使用PyTorch来解决多分类...
-
尝试Google Bard并对比OpenAI ChatGPT,一个擅长创造性,一个擅长事实查询?
文章目录 尝试Google Bard并对比OpenAI ChatGPT,一个擅长创造性,一个擅长事实查询? Google Bard 的自我介绍 Google Bard 暂时不支持中文 Google Bard除了支持英语外,还支持日语 Goog...
-
ChatGPT 使用到的机器学习技术
作者 | Bright Liao 在《程序员眼中的 ChatGPT》一文中,我们聊到了开发人员对于ChatGPT的认知。本文来聊一聊ChatGPT用到的机器学习技术。 机器学习技术的发展 要聊ChatGPT用到的机器学习技术,我们不得不回顾一下机器学...
-
2022年32篇最佳AI论文:DALL·E 2、Stable Diffusion、ChatGPT等入选
Mila在读博士Louis Bouchard总结的论文列表,总体比较靠谱。GitHub上还有很多论文的短视频和文字解读、代码链接等。 下面的列表我们添加了论文的主要贡献机构(有些机构虽然有贡献但排名较后有挂名嫌疑的,都被忽略不计了),似乎可以反映出各公司...
-
PyTorch团队重写「分割一切」模型,比原始实现快八倍
从年初到现在,生成式 AI 发展迅猛。但很多时候,我们又不得不面临一个难题:如何加快生成式 AI 的训练、推理等,尤其是在使用 PyTorch 的情况下。 本文 PyTorch 团队的研究者为我们提供了一个解决方案。文章重点介绍了如何使用纯原生 PyTo...
-
逐行对比LLaMA2和LLaMA模型源代码
几个小时前(2023年7月18日),Meta发布了允许商用的开源模型LLaMA2。笔者逐行对比了LLaMA2模型源代码,和LLaMA相比,几乎没有改动,细节如下: 是否改动 LLaMA2 LLaMA 模型整体构架 无 Transformer T...
-
大模型微调踩坑记录 - 基于Alpaca-LLaMa+Lora
前言 为了使用开放权重的LLM(大语言模型 ,基于自己的训练集,微调模型,会涉及到如下一些技术要点: 配置运行环境 下载、加载基础模型 收集语料、微调训练 检验训练效果 在实施过程中,遇到不少困难,因此写下这篇文档,做为记录。 环境配置...
-
【文心一言 vs. 通义千文】一言对千问:自百度之后,阿里终于还是出手了——通义千问
通义千问 : https://tongyi.aliyun.com/通义千问https://tongyi.aliyun.com/ 目录 通义千问 : 达摩院 GPT-30B 模型复现 GPT-3 模型介绍 GPT3中文30B参数量文本生...
-
【AI绘图】一、stable diffusion的发展史
一、stable diffusion的发展史 本文目标:学习交流 对于熟悉SD的同学,一起学习和交流使用过程中的技巧和心得。 帮助新手 帮助没有尝试过SD但又对它感兴趣的同学快速入门,并且能够独立生成以上效果图。 1.发展史介绍: 2...
-
程序员眼中的 ChatGPT
作者 | Bright Liao 作为一个一直对AI 技术很感兴趣的软件开发工程师,早在深度学习开始火起来的2015、2016年,我就开始了相关技术的学习。当时还组织了公司内部同样有兴趣的同学一起研究,最终的成果汇集成几次社区中的分享以及几篇学习文章(见...
-
图像相似度比较之 CLIP or DINOv2
在人工智能领域,计算机视觉的两大巨头是CLIP和DINOv2。CLIP改变了图像理解的方式,而DINOv2为自监督学习带来了新的方法。在本文中,我们将探索定义CLIP和DINOv2的强项和微妙之处的旅程。我们旨在发现这些模型中哪一个在图像相似度任务的世界...
-
NLP实践——使用Llama-2进行中文对话
NLP实践——使用Llama-2进行中文对话 1. 前言 2. 利用prompt 3. 利用Logit Processor 3.1 修改1 3.2 修改2 3.3 修改3 3.4 修改4 1. 前言 在之前的博客 NLP实践—...
-
Ubuntu llama 2搭建及部署,同时附问题与解决方案
本机环境: AMD Ryzen7480 OH with Radeon Graphics(16 CPUs ,~2.9GHz Card name: NVIDIA GeForce RTX 2060 虚拟机环境: 内存:4G 存储:100G 一、搭建...
-
基于llama模型进行增量预训练
目录 1、llama模型转换(pytorch格式转换为HuggingFace格式 1.1、拉取Chinese-LLaMA-Alpaca项目 1.2、准备文件夹 1.3、下载llama官方原始模型 1.4、移动文件到指定位置 1.5、执行转换脚...
-
stable diffusion教程,详细版,包括解决各种问题
前提: 需要环境 git git下载地址Git - Downloading Package 直接装即可 python3.10.6 下载地址 Python Release Python 3.10.6 | Python.org 记得p...
-
Grounding dino + segment anything + stable diffusion 实现图片编辑
目录 总体介绍 总体流程 模块介绍 目标检测: grounding dino 目标分割:Segment Anything Model (SAM 整体思路 模型结构: 数据引擎 图片绘制 集成 样例 其他问题 附录 总体介绍...
-
深入理解LLaMA, Alpaca, ColossalChat 系列模型
知乎:紫气东来https://zhuanlan.zhihu.com/p/618695885 一、从 LLaMA 到 Alpaca:大模型的小训练 1.1 LLaMA 概要与实践 LLaMA(Large Language Mo...
-
大语言模型-中文chatGLM-LLAMA微调
微调大语言模型-ChatGLM-Tuning大语言模型-微调chatglm6b大语言模型-中文chatGLM-LLAMA微调大语言模型-alpaca-lora 本地知识库大语言模型2-document ai解读大语言模型-DocumentSearch解...
-
处理stable-diffusion-webui本地部署过程中的commit hash <none>问题的一个方法
安装webui时一直卡在commit hash none RuntimeError: Couldn't determine Stable Diffusion's hash: 69ae4b35e0a0f6ee1af8bb9a5d0016ccb27e36dc...
-
大语言模型之七- Llama-2单GPU微调SFT
(T4 16G)模型预训练colab脚本在github主页面。详见Finetuning_LLama_2_0_on_Colab_with_1_GPU.ipynb 在上一篇博客提到两种改进预训练模型性能的方法Retrieval-Augmented Gener...
-
LLM - Model Load_in_8bit For LLaMA
一.引言 LLM 量化是将大语言模型进行压缩和优化以减少其计算和存储需求的过程。 博主在使用 LLaMA-33B 时尝试使用量化加载模型,用传统 API 参数控制量化失败,改用其他依赖尝试成功。这里先铺下结论: ◆ Load_in_8bit ✔️...
-
马斯克让盗梦空间成真?初创公司用Transformer诱导清醒梦,Neuralink技术操控梦境效果惊人
你是否曾有过在自己梦中醒来的奇怪经历? 那时,你还没有完全清醒,能感觉到周围有一个梦境,但你已经有足够的意识,来控制幻影的一部分。 对于大约一半的成年人来说,这种「清醒梦」有着非凡的意义,根据调查,他们一生中至少做过一次清醒梦。 这就是为什么科技初创公司...
-
Stable Diffusion系列(一):古早显卡上最新版 WebUI 安装及简单操作
文章目录 Stable Diffusion安装 AnimateDiff插件适配 sdxl模型适配 Stable Diffusion使用 插件安装 界面设置 基础文生图 加入lora的文生图 Stable Diffusion安...
-
stable diffusion安装踩坑
#本文为个人安装stable diffusion踩坑日志,内容比较凌乱,参考价值不大。 #踩坑花了三天时间#Q:491516541 环境:笔记本 win10,12G内存,GTX850m(2G显存 #准备工作: 安装Python 3.10.10 安装git...
-
谷歌为什么输给了OpenAI?科技公司创始人兼谷歌前员工带你一探究竟
在当今的人工智能浪潮中,OpenAI这样的新兴公司引领了革命。 ——而GPT的一些关键部分:Transformer、强化学习(AlphaGo ) 和 多模态(Flamingo)却都是由Google发明的。 那么为什么,作为科技领域巨无霸的Google,却...
-
自动驾驶中基于深度学习的预测和规划融合方法综述
本文经自动驾驶之心公众号授权转载,转载请联系出处。 Rethinking Integration of Prediction and Planning in Deep Learning-Based Automated Driving Systems: A...
-
揭秘百度文心一言大模型:设计、应用与实战
导言 在当今的深度学习领域,大型预训练模型如GPT、BERT等已经取得了显著的进展。而百度公司的文心一言大模型,作为一款基于Transformer结构的巨型模型,也在自然语言处理领域产生了重大影响。本文将详细介绍文心一言大模型的设计原理、特点以及应用场...
-
用Colab免费部署AI绘画云平台Stable Diffusion webUI
Google Colab 版的 Stable Diffusion WebUI 1.4 webui github 地址:https://github.com/sd-webui/stable-diffusion-webui 平台搭建 今天就来交大家如果来...
-
获得GitHub Copilot并结合VS Code使用
一·、什么是GitHub Copilot GitHub Copilot是一种基于AI的代码生成工具。它使用OpenAI的GPT(生成式预训练Transformer)技术来提供建议。它可以根据您正在编写的代码上下文建议代码片段甚至整个函数。 要使用Gi...
-
文心一言能成为中国版的ChatGPT吗?
第一个背景环境 2022年11月底,有这样一件事诞生了——人工智能聊天机器人ChatGPT,使其迅速在社交媒体上走红,短短五天之内,注册用户数就超过100万。 ChatGPT(全称:ChatGenerative Pre-trained Transfor...
-
SDXL-Stable Diffusion改进版
文章目录 1. 摘要 2. 算法: 2.1 结构: 2.2 微小的条件机制 2.3 多宽高比训练 2.4 改进自编码器 2.5 所有组合放到一起 2.6 主流方案比较 3. 未来工作 4. 限制 论文: 《SDXL: Improv...
-
文心一言发布我怎么看?
文心一言发布我怎么看? 文心一言发布会 我只简短的回答两个问题: 补充: 文心一言发布会 有想看发布会视频的朋友,关注爱书不爱输的程序猿,私信找我拿 我只简短的回答两个问题: 1.文心一言能否为百度止颓?...
-
AIGC:【LLM(一)】——LoRA微调加速技术
文章目录 一.微调方法 1.1 Instruct微调 1.2 LoRA微调 二.LoRA原理 三.LoRA使用 一.微调方法 Instruct微调和LoRA微调是两种不同的技术。 1.1 Instruct微调 Instr...