-
用Transformers库运行Llama-3.1-Minitron-4B
我的笔记本来自8年前的旧时代,勉强能运行8B模型,于是打算试试看更小的…… Llama-3.1-Minitron 4B 简介 Llama-3.1-Minitron 4B 是基于Llama-3.1 8B模型,通过结构化权重剪枝和知识提炼技术优化而成的...
-
【AI绘画】零基础入门ComfyUI(一)初识ComfyUI
大家好,我是写编程的木木。 AIGC 中文本生成图片的两大阵营,Stable Diffusion 和 Midjourney 。 Midjourney 于 22 年3 月面世,22 年 7 月份的公测 v3 版本火出圈,迅速成为讨论焦点。同年7月Stabl...
-
Stable Diffusion 项目常见问题解决方案
Stable Diffusion 项目常见问题解决方案 stablediffusion High-Resolution Image Synthesis with Latent Diffusion Models 项目地址: https://git...
-
【AIGC】AI编程工具合集及其特点介绍
??欢迎大家来到我们的天空?? ??如果文章内容对您有所触动,别忘了点赞、关注,收藏! ? 作者简介:我们的天空 ?《头衔》:大厂高级软件测试工程师,阿里云开发者社区专家博主,CSDN人工智能领域新星创作者。 ?《博客》:人工智能,深度学习,...
-
使用 SAX 在 TPU v5e 上部署和提供 Llama 2 模型
创建 TPU 以下步骤展示了如何创建用于您的模型的 TPU 虚拟机。 创建环境变量: export PROJECT_ID=PROJECT_ID export ACCELERATOR_TYPE=ACCELERATOR_TYPE...
-
LLaMA-QRLHF 项目使用教程
LLaMA-QRLHF 项目使用教程 llama-qrlhf Implementation of the Llama architecture with RLHF + Q-learning 项目地址: https://gitcode.com/g...
-
【扩散模型(八)】Stable Diffusion 3 diffusers 源码详解2 - DiT 与 MMDiT 相关代码(下)
系列文章目录 【扩散模型(一)】中介绍了 Stable Diffusion 可以被理解为重建分支(reconstruction branch)和条件分支(condition branch) 【扩散模型(二)】IP-Adapter 从条件分支的视角,快...
-
在AutoDL平台上运行Meta-Llama-3-8B-Instruct模型
一、背景介绍 1. AutoDL平台(AutoDL算力云 | 弹性、好用、省钱。租GPU就上AutoDL):算力平台,类似阿里云,它主要提供GPU算力。通常按小时收费,显卡(RTX 3090 - 24GB显存)+ CPU(14核)+ 内存(45GB)的配...
-
使用Ollama本地部署Llama 3.1大模型
Llama 3.1 介绍 2024 年 7 月 24 日,Meta 宣布推出迄今为止最强大的开源模型——Llama 3.1 405B,Llama 3.1 405B 支持上下文长度为 128K Tokens, 增加了对八种语言的支持,号称第一个在常识、可操...
-
Llama-CPP-Python 教程
Llama-CPP-Python 教程 llama-cpp-pythonPython bindings for llama.cpp项目地址:https://gitcode.com/gh_mirrors/ll/llama-cpp-python 1....
-
stable-diffusion-webui-sonar 项目教程
stable-diffusion-webui-sonar 项目教程 stable-diffusion-webui-sonarWrapped k-diffuison samplers with tricks to improve the generate...
-
Python爬虫详解:原理、常用库与实战案例
一.爬虫介绍 1.什么是爬虫 爬虫(Spider),也被称为网络爬虫或网络蜘蛛,是一种自动化程序,用于在互联网上浏览和提取信息。爬虫通过模拟人类用户访问网页的行为,从网页中提取数据并将其存储或进行进一步处理。 爬虫可以自动遍历互联网上的各个网页,并...
-
人工智能 | MetaLlama大模型
llama 大模型介绍 我们介绍 LLaMA,这是一个基础语言模型的集合,参数范围从 7B 到 65B。我们在数万亿个Token上训练我们的模型,并表明可以专门使用公开可用的数据集来训练最先进的模型,而无需诉诸专有的和无法访问的数据集。特别是,...
-
苹果大模型系列之 从头开始在 Apple Silicon 上进行 ComfyUI(教程含完整步骤)
简介 如何在搭载 Apple Silicon 的 MacBook Pro 上安装 ComfyUI,并开始使用 Stable Diffusion 创作 AI 生成的艺术作品。无需开发技能。 在安装了 Python 3.9 的 M1 MacBook Pr...
-
WebLlama:基于Llama-3的网页浏览助手开发指南
WebLlama:基于Llama-3的网页浏览助手开发指南 webllamaLlama-3 agents that can browse the web by following instructions and talking to you项目地址:...
-
rk3588使用npu加速运行whisper语音识别模型
rk3588运行whisper模型有三种方法:1.使用纯cpu运行原始pytorch模型;2.将whisper模型转成onnx格式,再转成rknn格式使用npu运行;3.利用npu提供的矩阵运算功能,结合cpu一起运行原始pytorch模型。方法1做不到实...
-
stable-diffusion-webui-pixelization 使用教程
stable-diffusion-webui-pixelization 使用教程 stable-diffusion-webui-pixelizationstable-diffusion-webui-pixelization项目地址:https://gi...
-
本地搭建 Whisper 语音识别模型实现实时语音识别研究
目录 摘要 关键词 1. 引言 2. Whisper 模型简介 3. 环境准备 4. 系统架构与实现 4.1 模型加载 4.2 实时音频输入处理 4.3 实时转录处理 4.4 程序实现的框架 4.5 代码实现 5. 实验与结果 6...
-
audioWhisper 项目使用教程
audioWhisper 项目使用教程 audioWhisperListen to any audio stream on your machine and print out the transcribed or translated audio.项...
-
Midjourney自动化机器人使用教程
Midjourney自动化机器人使用教程 midjourney-automation-botThis repository hosts the Midjourney Automation Bot, a free script leveraging Op...
-
使用Amazon SageMaker JumpStart微调Meta Llama 3.1模型以进行生成式AI推理
文章目录 使用Amazon SageMaker JumpStart微调Meta Llama 3.1模型以进行生成式AI推理 Meta Llama 3.1 SageMaker JumpStart SageMaker JumpStart中Meta...
-
Jetson 部署 Faster Whisper
文章目录 Whisper Faster Whisper 安装使用 尝试WSL部署 尝试 Jetson 部署 时间戳 实时转录 Whisper Whisper 是一种通用语音识别模型。它是在大量不同音频数据集上进行训练的,也是一...
-
在自己笔记本上使用 Llama-3 生成 PowerPoint — 幻灯片自动化的第一步
在企业界幻灯片无处不在,它经常被用作交流想法和成就的方式。我个人在过去的四年里一直在大型跨国公司工作,制作幻灯片是大多数人每周都会做的事情。 如果幻灯片能够有效利用时间,那就不是什么大问题了。有很多人会贬低这一点,但在我看来,幻灯片在大多数公司中消耗了...
-
FastAPI部署大模型Llama 3.1
项目地址:self-llm/models/Llama3_1/01-Llama3_1-8B-Instruct FastApi 部署调用.md at master · datawhalechina/self-llm (github.com 目的:使用Aut...
-
探索Meta新发布的大模型:Llama 3.1
最近正好关注到了meta发布的新大模型llama3.1,于是抱着好奇的态度来试一下。 近期,Meta发布了其最新的大模型——Llama 3.1。作为一名科技爱好者和人工智能的追随者,我迫不及待地想要了解这一新模型的性能和特点。本文将带你一起探索Llama...
-
免费体验!快速生成超逼真真人美图的Stable Diffusion模型!
环境安装 1、安装Python 下载地址:https://www.python.org/ftp/python/3.10.6/python-3.10.6-amd64.exe。 备注:把安装目录加入环境变量! 2、安装git 下载地址:h...
-
Cog-Stable-Diffusion 开源项目指南
Cog-Stable-Diffusion 开源项目指南 cog-stable-diffusionDiffusers Stable Diffusion as a Cog model项目地址:https://gitcode.com/gh_mirrors/c...
-
Azure openai speech to text -Whisper “code“:“404“,“message“: “Resource not found“
题意:Azure OpenAI 语音转文本 - Whisper 报错 "code":"404","message": "Resource not found 问题背景: i'm trying to transcribe a audio file...
-
开源项目教程:Llama
开源项目教程:Llama llama项目地址:https://gitcode.com/gh_mirrors/llam/llama 项目介绍 此教程基于GitHub上的开源项目 nelhage/llama,不过请注意,上述提供的链接并非真实的项目地...
-
源码解析LLaMA-Factory/src/llmtuner/data/template.py + Qwen模板
@dataclass class Template: format_user: "Formatter" format_assistant: "Formatter" format_system: "Formatter" for...
-
GoAmzAI-全新的AIGC应用、AI系统程序,授权私有化部署 - 基于 Golang + Vue 的全新的个人、团队、企业私有化、运营的AIGC系统应用功能介绍
功能概览 极速部署,宝塔5分钟部署完成,低内存高并发,内存占用不到100MB! 配置简单快捷,配置文件仅需数据库配置即可启动 强大的在线配置框架及丝滑版的体验,95%数据都可以后台在线统一管理! 完美的自适应,支持手机、平板、电脑等多种尺寸设备的浏览...
-
Llama开源代码详细解读(2)
FlashAttention if is_flash_attn_available( : # 检查flashattention的可用性 from flash_attn import flash_attn_func, flash_attn_var...
-
在Ubuntu22.04 使用stable-diffusion-webui 秋叶整合包
背景 众所周知,赛博菩萨已经发布了windows下的整合包,开箱即用,且集成度较高。 那我为啥非要在Ubuntu下使用呢? 当然是因为主力机就是Ubuntu系统啦。而且涉及到sd webui API 的调用,在Ubuntu 下调试更加方便一点。 那有...
-
如何系统学习AIGC(人工智能生成内容):适合普通人的入门指南
随着人工智能技术的迅猛发展,AIGC(人工智能生成内容)已成为一大热点。对于非软件技术专业的普通人来说,如何系统地学习AIGC,了解底层知识结构、掌握常见工具用法,是一个非常实际的问题。本文将为大家推荐一些优质的中文学习资料和方法,帮助大家更好地入门AIG...
-
9、LLaMA-Factory项目微调介绍
1、LLaMA Factory 介绍 LLaMA Factory是一个在GitHub上开源的项目,该项目给自身的定位是:提供一个易于使用的大语言模型(LLM)微调框架,支持LLaMA、Baichuan、Qwen、ChatGLM等架构的大模型。更细致...
-
Faster Whisper 使用教程
Faster Whisper 使用教程 faster-whisper项目地址:https://gitcode.com/gh_mirrors/fas/faster-whisper 项目介绍 Faster Whisper 是一个基于 CTransla...
-
OpenAI Whisper 开源项目使用手册
OpenAI Whisper 开源项目使用手册 openai-whisperA sample web app using OpenAI Whisper to transcribe audio built on Next.js. It records a...
-
Whisper-Dictation:基于OpenAI语音转文本模型的开源录音转文字应用
Whisper-Dictation:基于OpenAI语音转文本模型的开源录音转文字应用 whisper_dictation Fast! Offline, privacy-focused, hands-free voice typing, 2-way...
-
Python 爬虫入门(一):从零开始学爬虫 「详细介绍」
Python 爬虫入门(一):从零开始学爬虫 「详细介绍」 前言 1.爬虫概念 1.1 什么是爬虫? 1.2 爬虫的工作原理 2. HTTP 简述 2.1 什么是 HTTP? 2.2 HTTP 请求 2.3 HTTP 响应 2.4 常见...
-
5分钟 Stable Diffusion本地安装
要在5分钟内完成Stable Diffusion的本地安装,可以参考以下步骤: 下载安装包:首先,需要下载Stable Diffusion的一键部署包。可以从多个资源网站或教程中找到下载链接,例如秋叶整合包。 解压安装包:下载完成后,解压安装包。...
-
分享一个AI开发者的强力助手:openMind Library
在人工智能的浪潮中,深度学习开发套件 openMind Library,以其强大的功能和易用性,逐步成为AI开发者们的强力助手。本文将通过魔乐社区近期关注挺高的大模型平台魔乐社区,深入了解openMind Library。 openMind Librar...
-
24最新Stable Diffusion 本地部署,超详细教程(手动+自动+整合包三种方式)总有一种适合你!
前言 一、 Stable Diffusion简介 2022年作为AIGC(Artificial Intelligence Generated Content)时代的元年,各个领域的AIGC技术都有一个迅猛的发展,给工业界、学术界、投资界甚至...
-
使用llama-factory和llama.cpp微调量化Qwen2
使用llama-factory和llama.cpp微调量化Qwen2 准备数据集 微调 测试 合并 使用llama.cpp量化 准备数据集 1.选定数据集的格式 2.将处理好的数据集上传到/data 文件夹下面,并修改datase...
-
Unsloth微调环境搭建与LLaMA 3.1-8B模型微调实践指南
本文将详细介绍如何使用Unsloth框架进行LLaMA 3.1-8B模型的微调,帮助您快速构建微调环境,并了解微调流程的基本步骤。本教程适合初学者,旨在帮助您在短时间内实现自己的专属模型微调。对于更复杂的微调参数和细节设置,将在后续文章中进一步阐述。 文...
-
Python 爬虫入门: 常见的爬虫库及相关工具
Python 爬虫入门: 常见的爬虫库及相关工具 前言 1. 爬虫框架 1.1 Scrapy 1.2 Scrapy-Redis 2. 解析 XML 和 HTML 文档 2.1 BeautifulSoup 2.2 lxml 2.3 Par...
-
llama.cpp本地部署大模型
llama.cpp 是一个C++库,用于简化LLM推理的设置,它使得在本地机器上运行大模型(GGUF格式)成为可能。 官网:https://github.com/ggerganov/llama.cpp 模型库: https://huggingface...
-
如何部署Meta开源大模型Llama2,转换为Huggingface模型的权重文件
如何部署Meta开源大模型Llama2 一、申请下载权限 通过Meta AI官网(https://llama.meta.com/llama-downloads/ 申请下载权限,注意Country/Region选择这里,可能会影响审查速度吧,...
-
AIGC工具推荐:构建自己的创作生态
AIGC工具推荐:构建自己的创作生态 在如今这个信息快节奏的时代,内容的创造与发布已成为越来越重要的趋势。人工智能生成内容(AIGC)技术的迅猛发展,使得创作变得更加高效、灵活且具创新性。通过合适的AIGC工具,创作者可以构建一个个人化的创作生态,释放...
-
python 使用文心一言大模型API
0 背景 生成式人工智能AIGC(Artificial Intelligence Generated Content)是人工智能1.0时代进入2.0时代的重要标志。 AIGC对于人类社会、人工智能的意义是里程碑式的。短期来看AIGC改变了基础的生产力工...
-
在纯净的虚拟机上安装及使用Stable Diffusion WebUI
一、环境准备 1、创建一台纯净的虚拟机 2、安装驱动 3、下载安装Anaconda 二、部署stable-diffusion-webui 1、Linux 上的自动安装 2、导航到您想要安装 webui 的目录并执行以下命令: 3、执行...