-
引领Midjourney Logo设计新潮流:激发创意,探索无限可能 - V5版 (上)
大家好!天,我们非常高兴地为大家带来一项精彩教程——利用Midjourney来设计和制作精美的Logo。本教程将涵盖两个版本:Midjourney v5和v6,以满足不同用户的需求和创意发挥。 在v5版本中,我们将着重于激发您的无限创意。为此,我们精...
-
五一 Llama 3 超级课堂 | XTuner 微调 Llama3 图片理解多模态 实践笔记
基于 Llama3-8B-Instruct 和 XTuner 团队预训练好的 Image Projector 微调自己的多模态图文理解模型 LLaVA。 课程文档:Llama3-Tutorial/docs/llava.md at main · Smart...
-
LLMs之Llama3:基于Colab平台(免费T4-GPU)利用LLaMA-Factory的GUI界面(底层采用unsloth优化框架【加速训练5~30倍+减少50%的内存占用】)对llama-3-
LLMs之Llama3:基于Colab平台(免费T4-GPU 利用LLaMA-Factory的GUI界面(底层采用unsloth优化框架【加速训练5~30倍+减少50%的内存占用】 对llama-3-8b-Instruct-bnb-4bit模型采用alpa...
-
AIGC-Stable Diffusion进阶1(附代码)
在上篇文章中对Stable Diffusion进行了初步的认识,也给出了使用案例,这篇文章将进一步的去刨析一下SD模型。 SD模型的组成 在之前也讲过了,SD由CLIP、UNet、Schedule,VAE组成。再来回顾一下知识点: 1.CLIP Te...
-
20K star!搞定 LLM 微调的开源利器LLaMA Factory
20K star!搞定 LLM 微调的开源利器LLaMA Factory 关于LLM 微调 优化型技术 计算型技术 LLaMA Factory 是什么 使用 LLaMA Factory 模型导出 LLaMA-Factory 结构 总结 项目...
-
(js)通过js批量下载下载所有ChatGPT(文心一言示例)查询后的结果
因工作中需要用到ChatGPT,而gpt查询后的结果只能一个一个复制,查询的条目多的时候就比较麻烦,所以在这记录我的解决方案 一、通过脚本下载结果 以文心一言为例 1.首先是f12或右键查看元素找到对应块的元素 tps:文心一言会打开debug...
-
AIGC从入门到实战:AI 辅助写作:基于 ChatGPT 的自动创作和文本扩展
1. Background Introduction In the rapidly evolving digital age, artificial intelligence (AI has become an indispensable tool i...
-
【AIGC调研系列】llama3微调具体案例
Llama3的微调可以通过多种方式进行,具体案例包括: 使用XTuner进行微调,尝试让Llama3具有"它是SmartFlowAI打造的人工智能助手"的自我认知。这涉及到准备自我认知训练数据集,并通过脚本生成数据[2][8]。 利用Unsloth和G...
-
llama-factory SFT 系列教程 (四),lora sft 微调后,使用vllm加速推理
文章目录 文章列表: 背景 简介 llama-factory vllm API 部署 融合 lora 模型权重 vllm API 部署 HuggingFace API 部署推理 API 部署总结 vllm 不使用 API 部署,直接推理...
-
Llama模型家族之使用 Supervised Fine-Tuning(SFT)微调预训练Llama 3 语言模型(十) 使用 LoRA 微调常见问题答疑
LlaMA 3 系列博客 基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (一) 基于 LlaMA 3 + LangGraph 在windows本地部署大模型 (二) 基于 LlaMA 3 + LangGraph 在w...
-
AI | LLaMA-Factory 一个好用的微调工具
‘’ LLama Factory,这个工具能够高效且低成本地支持对 100 多个模型进行微调。LLama Factory 简化了模型微调的过程,并且易于访问,使用体验友好。此外,它还提供了由 Hiyouga 提供的 Hugging Face 空间,可...
-
llama_index微调BGE模型
微调模型是为了让模型在特殊领域表现良好,帮助其学习到专业术语等。 本文采用llama_index框架微调BGE模型,跑通整个流程,并学习模型微调的方法。 已开源:https://github.com/stay-leave/enhance_llm 一、...
-
用 LLaMA-Factory 在魔搭微调千问
今天在魔搭上把千问调优跑通了,训练模型现在在 Mac 还不支持,需要用 N 卡才可以,只能弄个N 卡的机器,或者买个云服务器。魔搭可以用几十个小时,但是不太稳定,有的时候会自动停止。 注册账号 直接手机号注册就可以. 找到对应模型 这步可能不需...
-
LLM之RAG之LlaMAIndex:llama-index(一块轻快构建索引来查询本地文档的数据框架神器)的简介、安装、使用方法之详细攻略
LLM之RAG之LlaMAIndex:llama-index(一块轻快构建索引来查询本地文档的数据框架神器 的简介、安装、使用方法之详细攻略 目录 LlamaIndex的简介 1、LlamaIndex有什么帮助? 2、核心原理 llama-i...
-
MVP 聚技站|生成式 AI 系列(五):M365 极致驾驭 - Copilot 实战攻略
点击蓝字 关注我们 MVP 聚技站 微软最有价值专家推出“MVP 聚技站”系列主题专栏,邀请多位微软最有价值专家,针对初学者、开发者感兴趣的技术话题,带来专业的技术课程讲解与实践经验分享,帮助大家更快掌握最新的技术技能。 随着人工智能...
-
Stable Diffusion XL之使用Stable Diffusion XL训练自己的AI绘画模型
文章目录 一 SDXL训练基本步骤 二 从0到1上手使用Stable Diffusion XL训练自己的AI绘画模型 2.1 配置训练环境与训练文件 2.2 SDXL训练数据集制作 (1 数据筛选与清洗 (2 使用BLIP自动标注cap...
-
pipeline-stable-diffusion.py文件逐行解释
本文是对stabled-diffusion的pipeline文件的代码逐行解释。 60-71行 该函数对经过cfg重组出来的noise_pred,再重组。 def rescale_noise_cfg(noise_cfg, noise_pred_t...
-
一文教你在MindSpore中实现A2C算法训练
本文分享自华为云社区《MindSpore A2C 强化学习》,作者:irrational。 Advantage Actor-Critic (A2C 算法是一个强化学习算法,它结合了策略梯度(Actor)和价值函数(Critic)的方法。A2C算法在许多强...
-
全网最详细的 Midjourney教程:品牌 Logo生成
我们需要学习提示词吗? 前一章各位搞懂了基础 prompt 后,从本章开始就会教大家更多垂直场景的 prompt。关于垂直场景,我看到大量的教程和分享都是分享各种提示词,比如 Logo 相关的提示词有: •modern •minimalist...
-
基于阿里云PAI部署LLaMA Factory 完成Llama3低代码微调和部署
一、引言 阿里云人工智能平台 PAI 提供了面向开发者与企业的深度学习工程平台,其中交互 式建模 PAI-DSW 集成了 Jupyter 等多种云端开发环境,提供丰富的计算资源与镜像环 境,实现开箱即用的高效开发模式。LLaMA Factory 则是一款...
-
AI绘画之Midjourney——提示词结构揭秘
大家好 今天分享的内容:Midjourney(以下简称MJ)提示词结构。 还没有注册MJ的,如果不能用MJ可以用国内的MEWX AI。 MJ的提示词不像直接跟大模型对话的提示词,结构需要那么复杂,主要是分清需要的各个部分,一般是由句子和短语组成,然后...
-
AIGC-常见图像质量评估MSE、PSNR、SSIM、LPIPS、FID、CSFD,余弦相似度----理论+代码
持续更新和补充中…多多交流! 参考:图像评价指标PNSR和SSIM函数 structural_similarity图片相似度计算方法总结 MSE和PSNR MSE:...
-
这个团队做了OpenAI没Open的技术,开源OpenRLHF让对齐大模型超简单
随着大型语言模型(LLM)规模不断增大,其性能也在不断提升。尽管如此,LLM 依然面临着一个关键难题:与人类的价值和意图对齐。在解决这一难题方面,一种强大的技术是根据人类反馈的强化学习(RLHF)。 但是,随着模型越来越大,RLHF 通常需要维持多个模型...
-
LLM微调技术LoRA图解
译者 | 朱先忠 审校 | 重楼 简介 当涉及到大型语言模型时,微调可能是人们讨论最多的技术方面的内容之一。大多数人都知道,训练这些模型是非常昂贵的,需要大量的资本投资;所以,看到我们可以通过采用现有的模型并用自己的数据对模型进行微调,从而创建一个具有...
-
清北爸爸辅导数学崩溃瞬间,这个国产大模型有解!AI启发问答关键情绪稳定
【新智元导读】辅导孩子写作业这件事,竟难倒了一众清北爸爸、海淀妈妈。不过,最近爆火的这个国产大模型,让无数家长疯狂冲进视频留言,直接把它评为国内家长最想要的AI! 前几天,微博热搜上的这个话题,可以说是让家长们哭笑不得。 既然补习老师不靠谱,那亲自上阵辅...
-
Stable Diffusion老板跑路开新坑,被抛下的SD3开源成了烂摊子
Stability AI前CEO的新公司,终于浮出水面: Schelling AI,就如他当初辞职跑路时所说,致力于“去中心化人工智能系统”。 △图源:?@irfan3 这一消息,由Emad Mostaque本人在最新一次公开亮相中现场宣布。 官网域名s...
-
斯坦福让“GPU高速运转”的新工具火了,比FlashAttention2更快
AI算力资源越发紧张的当下,斯坦福新研究将GPU运行效率再提升一波—— 内核只有100行代码,让H100比使用FlashAttention-2,性能还要提升30%。 怎么做到的? 研究人员从“硬件实际需要什么?如何满足这些需求?”这两个问题出发,设计了...
-
OpenAI 和谷歌 DeepMind已风险重重,13位硅谷AI大厂员工联名上信:我们需要对前沿AI发出警告的权利!
编辑 | 伊风出品 | 51CTO技术栈(微信号:blog51cto) 忍无可忍! 面对AI技术发展的各种风险隐患,这些前沿AI企业的一线员工再也不堪忍受任人捂嘴的现状了! 他们想要挣脱保密协议和公司报复的重重风险,获得对公众发出警告的权利。 昨...
-
Thoughtworks肖然:大模型走向大众,需要新的应用开发逻辑
嘉宾 | 肖然 采访 & 撰稿 | 云昭 出品 | 51CTO技术栈(微信号:blog51cto) 新年伊始,AI大佬们频繁被问及一个话题:“什么时候有杀手级AI应用”。几个月过去,诸如AI Pin、Rabbit R1、Devin等AI产品一闪...
-
Github万星!北航发布零代码大模型微调平台LlamaFactory
在人工智能领域,大语言模型(LLMs)已成为推动技术进步的关键力量。它们在理解和生成自然语言方面展现出了卓越的能力,从而在问答系统、机器翻译、信息提取等多样化任务中发挥着重要作用。然而,要将这些模型适配到特定的下游任务中,通常需要进行微调(fine-tun...
-
使用llama-index连接neo4j知识图谱 达成大模型构建查询知识图谱功能
使用llama-index连接neo4j知识图谱 达成本地大模型构建查询知识图谱功能 概述 目标 主要步骤 1. 安装依赖项 2. 配置环境 配置ollama 3. 使用Neo4j构建知识图谱 准备Neo4j 实例化Neo4jGraph...
-
使用LangChain和Llama-Index实现多重检索RAG
大家好,在信息检索的世界里,查询扩展技术正引领着一场效率革命。本文将介绍这一技术的核心多查询检索,以及其是如何在LangChain和Llama-Index中得到应用的。 1.查询扩展 查询扩展是一种信息检索技术,通过在原始查询的基础上增加相关或同义的词...
-
GPT-4o与SQL:大模型改变自身架构的能力有多强?
作者丨David Eastman 编译丨诺亚 出品 | 51CTO技术栈(微信号:blog51cto) 尽管没有任何大型语言模型(LLM)骑过自行车,但它们显然理解骑行在人类交通领域中的作用。它们似乎为软件开发者提供的是一种类似语义的现实世界知识,结合了...
-
Adobe犯众怒!亡者镜头再启?售卖AI生成已故摄影大师风格图片引争议
整理丨诺亚 出品 | 51CTO技术栈(微信号:blog51cto) Adobe最近遇到了麻烦,起因是已故摄影大师安塞尔·亚当斯的遗产管理方向公众谴责:该公司销售模仿亚当斯作品的生成式AI图像。 上周五,亚当斯的遗产管理方在Threads上发布了一张截图...
-
部署基于内存存储的 Elasticsearch - 一亿+条数据,全文检索 100ms 响应
1. 在主机上挂载内存存储目录 创建目录用于挂载 mkdir /mnt/memory_storage 挂载 tmpfs 文件系统 mount -t tmpfs -o size=800G tmpfs /mnt/memory_storage 存储空间会按需使...
-
YoloCS:有效降低特征图空间复杂度
本文经计算机视觉研究院公众号授权转载,转载请联系出处。 论文地址:YOLOCS: Object Detection based on Dense Channel Compression for Feature Spatial Solidificatio...
-
多语言模型微调统一框架 LlAMAFACTORY: 统一高效微调100多种语言模型
文章目录 摘要 1 引言 2 高效微调技术 2.1 高效优化 2.2 高效计算 3 LlAMAFACtORY框架 3.1 模型加载器 3.2 数据处理工作者 3.3 训练器 3.4 实用工具 3.5 LLAMABOARD:LLAMAFAC...
-
被作者删库的Llama 3-V原文再现!效果匹敌GPT4-V,训练费用暴降,区区不到500 美元,尺寸小100 倍,如何做到的
编译 | 言征 作者 | Aksh Garg 备注:发稿前作者已经删掉原文 出品 | 51CTO技术栈(微信号:blog51cto) 近日,一款Llama3V最近被“先红后黑”的出了圈。作为全球顶尖研究学府的团队,身陷“抄袭”中国大模型的泥潭后,火速删稿...
-
Mamba-2新架构出世一统江湖!普林斯顿CMU华人再出神作,性能狂飙8倍
年前,Mamba被顶会ICLR拒稿的消息曾引起轩然大波。 甚至有研究人员表示:如果这种工作都被拒了,那我们这些「小丑」要怎么办? 这次,新一代的Mamba-2卷土重来、再战顶会,顺利拿下了ICML 2024! 仍是前作的两位大佬(换了个顺序),仍是熟...
-
斯坦福回应抄袭清华系大模型 公开道歉并删除推文
斯坦福大学的一个AI团队在 5 月 29 日发布了一个名为Llama3-V的多模态大模型,并宣称只需 500 美元就能训练出一个性能与GPT4-V相媲美的模型。然而,该模型随后被指控抄袭,与国内由面壁智能和清华大学自然语言处理实验室联合推出的大模型Mini...
-
ChatGPT遭遇故障,数千名Open AI用户遭遇严重中断
数千名 ChatGPT 用户在今天早上因网站和应用遭遇严重故障而感到愤怒。 据 DownDetector 网站显示,全球范围内有超过3,000名用户受到了故障的影响。一位用户在社交媒体上抱怨道:"嘿 ChatGPT,选择了你没想到你会宕机。赶紧解决吧。"...
-
3B模型新SOTA!开源AI让日常调用不同大模型更简单
大模型,大,能力强,好用! 但单一大模型在算力、数据和能耗方面面临巨大的限制,且消耗大量资源。 而且目前最强大的模型大多为闭源,对AI开发的速度、安全性和公平性有所限制。 AI大模型的未来发展趋势,需要怎么在单一大模型和多个专门化小模型之间做平衡和选择?...
-
训练Stable Diffusion(XL) Lora的图片是否需要caption?
intro 目前很多风格lora模型的训练都会对图片进行caption,训练风格lora时使用image caption步骤是否能带来正向的效果? 在sdxl的代码实现中,lora插入的位置为unet中cross attention的QKV的线性投影部...
-
Ilya离开后,8位OpenAI新安全与保密委员会领军人物,你认识几位?
编辑 | 言征 出品 | 51CTO技术栈(微信号:blog51cto) OpenAI宣布成立新的安全与保密委员会,该委员会负责OpenAI项目和运营中的关键决策制定,这引发了互联网的广泛讨论,因为CEO山姆·阿尔特曼(Sam Altman)也是委员会成...
-
实时局部建图的深入思考 | MapTR继往开来的18篇论文剖析!
本文经自动驾驶之心公众号授权转载,转载请联系出处。 实时局部建图领域自从端到端方案MapTR(2023.1 [1]问世后已经又涌现出非常多优秀的工作,基本是在MapTR基本框架的基础上进行一系列改进,包括原班人马的升级作品MapTRv2(2023.8 ...
-
意外!老黄剧透下一代GPU芯片,新演讲又把摩尔定律按在地上摩擦
刚刚,中国台湾大学体育场,欢呼阵阵如同演唱会,但这次“摇滚巨星”,其实是英伟达创始人黄仁勋,再次回到学校,带来Computex重磅演讲,以及英伟达的新一代GPU。 是的,英伟达新架构Blackwell宣布不过3个月,老黄就把后三代路线图全公开了: 20...
-
Llama-Factory 简介 二, 脚本详解 LLaMA-Factory/src/train_bash.py LLaMA-Factory/src/llmtuner/train/pt/workfl
examples/ ├── lora_single_gpu/ │ ├── pretrain.sh: 基于 LoRA 进行增量预训练 │ ├── sft.sh: 基于 LoRA 进行指令监督微调 │ ├── reward.sh: 基于 LoRA...
-
腾讯元宝全面测评!国产AI“看剧”时代开启!读懂《庆余年》范闲,揭秘奥特曼宫斗!打通腾讯生态“全村的希望”!
编辑 | 伊风 出品 | 51CTO技术栈(微信号:blog51cto) 腾讯在大模型上的动作姗姗来迟。 对于“后发”的抉择,腾讯想得很清楚。 在“腾讯元宝”上线的发布会上,腾讯云副总裁、腾讯混元大模型负责人刘煜宏说,“虽然行业内看起来火热,但是中国移动...
-
大模型微调之 使用 LLaMA-Factory 微调 Llama3
大模型微调之 使用 LLaMA-Factory 微调 Llama3 使用 LLaMA Factory 微调 Llama-3 中文对话模型 安装 LLaMA Factory 依赖 %cd /content/ %rm -rf LLaMA-Factory...
-
老黄一口气解密三代GPU!粉碎摩尔定律打造AI帝国,量产Blackwell解决ChatGPT全球耗电难题
想了解更多AIGC的内容, 请访问:51CTO AI.x社区 https://www.51cto.com/aigc/ 就在刚刚,老黄手持Blackwell向全世界展示的那一刻,全场的观众沸腾了。 它,是迄今为止世界最大的芯片! 眼前的这块产品,凝聚着数...