-
Stable Diffusion原班人马最新力作,最强开源工具FLUX
前言 自从 Black Forest Labs 发布了他们的 FLUX.1 套件以来,它的热度便居高不下。 接下来,我们就来一起认识一下这款模型吧。 一、关于 Black Forest Labs Black Forest Labs 是一家专注于开...
-
【大模型与AIGC】VLM基础知识汇总
这里写目录标题 LLM输入时的理解 1. Tokenizer的实现:Word极大似然估计 LLM推理:关于Attention mask的理解 1. CausalModel 与 AttentionMask 2. attention mask乘法...
-
在矩池云使用 Llama-3.2-11B-Vision 详细指南
Llama 3.2-Vision是Meta开发的一系列多模态大型语言模型(LLMs),包含11B和90B两种规模的预训练和指令调整模型。 这些模型专门优化用于视觉识别、图像推理、字幕生成和回答有关图像的一般问题。Llama 3.2-Vision模型在常见...
-
从零预训练一个tiny-llama#Datawhale组队学习Task2
完整的教程请参考:datawhalechina/tiny-universe: 《大模型白盒子构建指南》:一个全手搓的Tiny-Universe (github.com 这是Task2的学习任务 目录 Qwen-blog Tokenizer(分词器...
-
Ubuntu LLaMA-Factory实战
一、Ubuntu LLaMA-Factory实战安装: CUDA 安装 CUDA 是由 NVIDIA 创建的一个并行计算平台和编程模型,它让开发者可以使用 NVIDIA 的 GPU 进行高性能的并行计算。 首先,在 https://develop...
-
【Llama3.1-8B-Instruct】Llama Factory 等部署实战
一、模型介绍 Meta Llama 3.1 系列是一个多语言大型语言模型 (LLM 集合,包括 8B、70B 和 405B 三种尺寸(文本输入/文本输出)。Llama 3.1 的指令调优版本(8B、70B、405B)针对多语言对话用例进行了优化,并在常...
-
使用 GaLore 预训练LLaMA-7B
项目代码: https://github.com/jiaweizzhao/galorehttps://github.com/jiaweizzhao/galore 参考博客: https://zhuanlan.zhihu.com/p/686686751...
-
LlaMa-Factory源码解析之预训练LLaMA-Factory/src/llamafactory/train/pt/workflow.py -> run_pt()
LLaMA-Factory/src/llmtuner/train/pt/workflow.py at main · hiyouga/LLaMA-Factory · GitHub 截止至2024年7月,该框架workflow.py目录从LLaMA-Fact...
-
丹摩智算平台部署 Llama 3.1:实践与体验
文章目录 前言 部署前的准备 创建实例 部署与配置 Llama 3.1 使用心得 总结 前言 在最近的开发工作中,我有机会体验了丹摩智算平台,部署并使用了 Llama 3.1 模型。在人工智能和大模型领域,Meta 推出的 Lla...
-
Insanely Fast Whisper CLI 使用教程
Insanely Fast Whisper CLI 使用教程 insanely-fast-whisper-cli The fastest Whisper optimization for automatic speech recognition a...
-
将LLaMA模型导出为ONNX格式的教程
将LLaMA模型导出为ONNX格式的教程 export_llama_to_onnx export llama to onnx 项目地址: https://gitcode.com/gh_mirrors/ex/export_llama_to_onn...
-
【一文读懂】Whisper 语音识别
Whisper 语音识别 Whisper 是由 OpenAI 开发的一款先进的语音识别模型,它能够将语音转换为文本。Whisper 是一个端到端的深度学习模型,具有多语言和多任务的能力,可以用于多种语音处理任务,包括语音转文本(transcription...
-
llama网络结构及源码
目录 模型初始化 config lm_head transformer wte h rms_1/rms_2 attn c_attn c_proj 线性层mlp ln_f rope_cache mask_cache kv_cac...
-
使用SageMaker对Whisper模型进行微调及部署教程
使用SageMaker对Whisper模型进行微调及部署教程 amazon-sagemaker-finetune-deploy-whisper-huggingface This is a demo project showing how to fi...
-
Lawyer LLaMA(中文法律大模型本地部署)
Lawyer LLaMA(中文法律大模型本地部署 1.模型选择(lawyer-llama-13b-v2) 2.运行环境 1.建议使用Python 3.8及以上版本。 2.主要依赖库如下: transformers >=...
-
LLM入门——在Colab上部署Llama2
LLM入门——在Colab上部署Llama2 2024/07/09 本文属于“LLM入门”系列,该系列是笔者自学LLM时记录的一些实践记录与心得,可能存在错误或过时的部分,请读者谅解。 对于LLM入门学者,我推荐从Large Language...
-
LLAMA-FACTORY:100+语言模型的统一高效微调框架
24年3月来自北航和北大的论文“LLAMA-FACTORY: Unified Efficient Fine-Tuning of 100+ Language Models”。 高效的微调对于将大语言模型 (LLM 适应下游任务至关重要。然而,在不同模型上...
-
【HuggingFace Transformers】LlamaModel源码解析
LlamaModel源码解析 1. LlamaModel 介绍 2. LlamaModel类 源码解析 3. 4维因果注意力掩码生成 1. LlamaModel 介绍 LlamaModel 是一个基于 Transformer 架构...
-
PyTorch-LLaMA 项目使用教程
PyTorch-LLaMA 项目使用教程 pytorch-llama LLaMA 2 implemented from scratch in PyTorch 项目地址: https://gitcode.com/gh_mirrors/py/pyt...
-
LongLLaMA 项目使用教程
LongLLaMA 项目使用教程 long_llamaLongLLaMA is a large language model capable of handling long contexts. It is based on OpenLLaMA and...
-
如何微调 Llama 3 进行序列分类?
节前,我们星球组织了一场算法岗技术&面试讨论会,邀请了一些互联网大厂朋友、参加社招和校招面试的同学. 针对算法岗技术趋势、大模型落地项目经验分享、新手如何入门算法岗、该如何准备、面试常考点分享等热门话题进行了深入的讨论。 汇总合集: 《大模...
-
手把手带你了解和实践扩充 LLaMA 大语言模型的 tokenizer 模型(实现中文token过程)
目前,大语言模型呈爆发式的增长,其中,基于llama家族的模型占据了半壁江山。而原始的llama模型对中文的支持不太友好,接下来本文将讲解如何去扩充vocab里面的词以对中文进行token化。 一般的,目前比较主流的是使用sentencepiece训练中...
-
用Transformers库运行Llama-3.1-Minitron-4B
我的笔记本来自8年前的旧时代,勉强能运行8B模型,于是打算试试看更小的…… Llama-3.1-Minitron 4B 简介 Llama-3.1-Minitron 4B 是基于Llama-3.1 8B模型,通过结构化权重剪枝和知识提炼技术优化而成的...
-
LLaMA-QRLHF 项目使用教程
LLaMA-QRLHF 项目使用教程 llama-qrlhf Implementation of the Llama architecture with RLHF + Q-learning 项目地址: https://gitcode.com/g...
-
【LLM大模型】使用QLoRa微调Llama 2
本篇文章将介绍使用PEFT库和QLoRa方法对Llama 27b预训练模型进行微调。我们将使用自定义数据集来构建情感分析模型。只有可以对数据进行微调我们才可以将这种大模型进行符合我们数据集的定制化。 一些前置的知识 如果熟悉Google Cola...
-
【扩散模型(八)】Stable Diffusion 3 diffusers 源码详解2 - DiT 与 MMDiT 相关代码(下)
系列文章目录 【扩散模型(一)】中介绍了 Stable Diffusion 可以被理解为重建分支(reconstruction branch)和条件分支(condition branch) 【扩散模型(二)】IP-Adapter 从条件分支的视角,快...
-
rk3588使用npu加速运行whisper语音识别模型
rk3588运行whisper模型有三种方法:1.使用纯cpu运行原始pytorch模型;2.将whisper模型转成onnx格式,再转成rknn格式使用npu运行;3.利用npu提供的矩阵运算功能,结合cpu一起运行原始pytorch模型。方法1做不到实...
-
FastAPI部署大模型Llama 3.1
项目地址:self-llm/models/Llama3_1/01-Llama3_1-8B-Instruct FastApi 部署调用.md at master · datawhalechina/self-llm (github.com 目的:使用Aut...
-
探索Meta新发布的大模型:Llama 3.1
最近正好关注到了meta发布的新大模型llama3.1,于是抱着好奇的态度来试一下。 近期,Meta发布了其最新的大模型——Llama 3.1。作为一名科技爱好者和人工智能的追随者,我迫不及待地想要了解这一新模型的性能和特点。本文将带你一起探索Llama...
-
Whisper Web 开源项目教程
Whisper Web 开源项目教程 whisper-webML-powered speech recognition directly in your browser项目地址:https://gitcode.com/gh_mirrors/wh/whi...
-
探索语言的极限:高效运行LLaMA模型的开源宝藏 —— llama_infer
探索语言的极限:高效运行LLaMA模型的开源宝藏 —— llama_infer llama_inferInference script for Meta's LLaMA models using Hugging Face wrapper项目地址:htt...
-
清华系公司强强联合,一张4090让安全大模型进入千亿时代|长亭x趋境
AI大行其道的时代,网络安全正面临前所未有的威胁。 化身黑客的AI学会了自动化攻击,还有相当高的成功率,伊利诺伊大学香槟分校研究团队的最新研究显示:GPT-4能够在阅读CVE漏洞描述后,学会利用漏洞攻击,成功率高达87%。 既然攻击方都与时俱进,用上AI新...
-
IBM中国研发裁员与AIGC浪潮下的中国IT产业新篇章:挑战、机遇与未来展望
文章目录 一、跨国公司战略调整与全球IT版图的重构 1. 跨国公司的战略考量 2. 中国IT产业的应对策略 二、人才市场的深刻变革与应对策略 1. 人才流失与再就业压力 2. 人才培养与引进策略 3. 个人职业规划与发展 三、AIGC浪...
-
LLaMA-Factory仓基础功能架构及NPU/GPU环境实战演练
LLaMA-Factory 基础篇 LLaMA-Factory简介 LLaMA-Factory是一个开源的大规模语言模型微调框架,设计用于简化大模型的训练过程。它提供了一个统一的平台,支持多种大模型的微调,包括LLaMA、BLOOM、Mist...
-
如何部署Meta开源大模型Llama2,转换为Huggingface模型的权重文件
如何部署Meta开源大模型Llama2 一、申请下载权限 通过Meta AI官网(https://llama.meta.com/llama-downloads/ 申请下载权限,注意Country/Region选择这里,可能会影响审查速度吧,...
-
大模型之二十七-语音识别Whisper实例浅析
Whisper简介 Whisper是OpenAI于2022年9月开源的一个多语种识别模型,目前支持99种语言,是目前性能最好的开源多语种识别ASR大模型,第一版版使用了68万小时标注好的语料预训练模型,而large-v3的标注数据超过了500万小时,其...
-
猫头虎 Gemma和Gemini模型的区别是什么?
猫头虎 ? Gemma和Gemini模型的区别是什么? 摘要? 在这篇文章中,我们将深入探讨Gemma和Gemini这两个由Google开发的AI模型。我们会对比它们的参数规模、计算资源需求和集成难度,帮助大家了解这两者之间的主要区别。无论你是AI...
-
Distil-Whisper 开源项目教程
Distil-Whisper 开源项目教程 distil-whisperDistilled variant of Whisper for speech recognition. 6x faster, 50% smaller, within 1% wor...
-
Stable-Diffusion1.5
SD1.5权重:https://huggingface.co/runwayml/stable-diffusion-v1-5/tree/main SDXL权重:https://huggingface.co/stabilityai/stable-diffus...
-
【国产AI绘图】快手把“可图”大模型开源了,这是一款支持中文的SDXL模型
Kolors 是由 Kuaishou Kolors 团队(快手可图)开发的基于潜在扩散的大规模文本到图像生成模型。经过数十亿对文本图像的训练,Kolors 在视觉质量、复杂语义的准确性以及中英文字符的文本渲染方面,与开源和专有模型相比都具有显著优势。此外,...
-
Stable diffusion: AttributeError: module ‘jax.random‘ has no attribute ‘KeyArray‘
错误提示 安装from diffusers import StableDiffusionPipeline 提示错误 AttributeError: module ‘jax.random’ has no attribute ‘KeyArray’...
-
6小时完成Llama 3.1-8B适配并开源!MindSpore Transformers大模型套件使能开发者创新
北京时间7月24号, Meta 正式发布 Llama 3.1开源大语言模型, 包含8B、70B 及 405B 参数版本。其中的Llama 3.1 405B模型,在多项基准测试中可以媲美GPT4、Claude3.5等目前最强的闭源大模型。此外,8B 与 70...
-
Chinese-Llama-2-7b 开源项目教程
Chinese-Llama-2-7b 开源项目教程 Chinese-Llama-2-7b开源社区第一个能下载、能运行的中文 LLaMA2 模型!项目地址:https://gitcode.com/gh_mirrors/ch/Chinese-Llama-2...
-
探索Llama 3.1 : 405B参数模型:部署、硬件配置、测试与训练的心得
引言 随着人工智能技术的快速发展,大规模语言模型(Large Language Models, LLMs)在自然语言处理(NLP)领域取得了显著的突破。MetaAI最新发布的Llama 3.1 : 405B参数模型,凭借其庞大的参数规模和先进的架构,展...
-
Code Llama使用手册
Code Llama 是 Llama 2 的一系列最先进的开放访问版本,专门用于代码任务,我们很高兴发布与 Hugging Face 生态系统的集成! Code Llama 已使用与 Llama 2 相同的宽松社区许可证发布,并且可用于商业用途。 今天,...
-
ChatGLM-6B入门
ChatGLM-6B ChatGLM-6B 一、介绍 ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡...
-
ComfyUI系列——新手安装ComfyUI,就是这么简单!
前言 比较Midjoury、WebUI和ComfyUI 在了解ComfyUI的时候,还有其它两款类似的产品,于是就搜集了一下资料,以下是Midjoury、WebUI(通常指的是Stable Diffusion Web UI)和ComfyUI三者之间...
-
微调LLama 3.1——七月论文审稿GPT第5.5版:拿早期paper-review数据集微调LLama 3.1
前言 为更好的理解本文,建议在阅读本文之前,先阅读以下两篇文章 七月论文审稿GPT第2版:用一万多条paper-review数据微调LLaMA2 7B最终反超GPT4 提升大模型数据质量的三大要素:找到早期paper且基于GPT摘要出来7方面revi...
-
Llama 3.1深度解析:405B、70B及8B模型的多语言与长上下文处理能力
Llama 3.1 发布了!今天我们迎来了 Llama 家族的新成员 Llama 3.1 进入 Hugging Face 平台。我们很高兴与 Meta 合作,确保在 Hugging Face 生态系统中实现最佳集成。Hub 上现有八个开源权重模型 (3 个...
-
快速体验LoRA微调Llama3-8B模型以及海光DCU推理加速(曙光超算互联网平台国产异构加速卡)
序言 本文以 LLaMA-Factory 为例,在超算互联网平台SCNet上使用异构加速卡AI 显存64GB PCIE,对 Llama3-8B-Instruct 模型进行 LoRA 微调、合并和推理。 一、参考资料 github仓库代码:LLaM...