-
RWKV-7 预览版、大量新论文...RWKV 社区 9 月动态速览
欢迎大家收看《RWKV 社区最新动态》第五期,本期内容收录了 RWKV 社区 2024 年 9 月的最新动态。 9 月动态省流版(TL;DR) RWKV 官方新闻动态 RWKV-7 发布预览版 RWKV-7 论文撰写已面向社区开放...
-
CopilotChat.nvim 开源项目安装与使用教程
CopilotChat.nvim 开源项目安装与使用教程 CopilotChat.nvimChat with GitHub Copilot in Neovim项目地址:https://gitcode.com/gh_mirrors/co/CopilotC...
-
LLM | llama.cpp 安装使用(支持CPU、Metal及CUDA的单卡/多卡推理)
1. 详细步骤 1.1 安装 cuda 等 nvidia 依赖(非CUDA环境运行可跳过) # 以 CUDA Toolkit 12.4: Ubuntu-22.04/24.04(x86_64 为例,注意区分 WSL 和 Ubuntu,详见 http...
-
nvim (setup copilot)for code assit
4. Work with Neo Vim 4-1. Install Neo Vim (0.9.5 or higher neovim/neovim: Vim-fork focused on extensibility and usability (gith...
-
TaskbarDock:个性化定制你的Windows 10任务栏
TaskbarDock:个性化定制你的Windows 10任务栏 TaskbarDockCustomize Windows 10 Taskbar with few extra features项目地址:https://gitcode.com/gh_mi...
-
秋叶大神:SD-Web UI一键本地部署AI绘画 - 开启你的创意之旅
秋叶大神:SD-Web UI一键本地部署AI绘画 - 开启你的创意之旅 【下载地址】秋叶大神SD-WebUI一键本地部署AI绘画 本仓库提供了一个方便快捷的资源文件,帮助用户一键本地部署AI绘画工具。该资源文件基于秋叶大神的Stable Diffu...
-
基于 ROS 的Terraform托管服务轻松部署Stable Diffusion
介绍 Stable Diffusion是文本到图像的潜在扩散模型,它可以根据文本提示词生成对应的图像。Stable Diffusion模型是扩散模型的变种,可以通过逐步对随机高斯噪声进行去噪以获得感兴趣的样本。与传统生成模型相比,Stable Diff...
-
Windows安装docker,启动ollama运行open-webui使用AIGC大模型写周杰伦歌词
Windows安装docker,启动ollama运行open-webui使用AIGC大模型写周杰伦歌词 1、下载docker的Windows版本。 docker下载地址: https://docs.docker.com/desktop/insta...
-
使用Ollama本地部署Llama 3.1大模型
Llama 3.1 介绍 2024 年 7 月 24 日,Meta 宣布推出迄今为止最强大的开源模型——Llama 3.1 405B,Llama 3.1 405B 支持上下文长度为 128K Tokens, 增加了对八种语言的支持,号称第一个在常识、可...
-
【AI绘画教程】Flux.1工作流整合包准备好了,快来挑战Flux.1的创作极限!
F5 AI社区提供了工作流、提示词、一键整合包,有兴趣的来挑战一下! 提示词: Create a bustling marketplace in a fantastical floating city. Layer 1 (Background : D...
-
Whisper ASR Webservice 使用教程
Whisper ASR Webservice 使用教程 whisper-asr-webserviceOpenAI Whisper ASR Webservice API项目地址:https://gitcode.com/gh_mirrors/wh/whis...
-
【人工智能AIGC技术开发】第1课-RAG+Agent人工智能
RAG+Agent人工智能平台:RAGflow实现GraphRA知识库问答,打造极致多模态问答与AI编排流体验 1.RAGflow简介 最近更新: 2024-09-13 增加知识库问答搜索模式。 2024-09-09 在 Agent 中加入...
-
【记录贴 | 持续更新】搜广推/aigc 面试题记录
目录 nlp/搜广推 transformer结构? 位置编码的作用? 解释 self-attention? attention中 /√(d_k 的作用是什么? 解释Multi-Head Attention? FeedForward的作用...
-
用TensorRT-LLM进行LLama的推理和部署
Deploy an AI Coding Assistant with NVIDIA TensorRT-LLM and NVIDIA Triton | NVIDIA Technical BlogQuick Start Guide — tensorrt_llm...
-
AI助手崛起:开发者的新伙伴还是未来替代者?
你好,我是三桥君。 自从 ChatGPT 问市以来,AI 将取代开发者的声音不绝于耳,至今还是互联网异常火热的问题。 在软件开发领域,生成式人工智能(AIGC)正在改变开发者的工作方式。无论是代码生成、错误检测还是自动化测试,AI工具正在成...
-
LLaMA-Factory源码分析
搭建远程容器调试环境 docker-compose部署 使用LLaMA-Factory源码中的docker/docker-cuda下的Dockerfile和docker-compose.yml构建镜像,启动其服务。Dockerfile使用官方默认,只需...
-
ollama本地部署大语言模型记录
目录 安装Ollama 更改模型存放位置 拉取模型 Gemma Mistral Qwen1.5(通义千问 codellama 部署Open webui 测试性能 知识广度 问题1 问题2 代码能力 总结 最近突然对大语言...
-
Midjourney UI:开源AI绘图工具的全新体验
Midjourney UI:开源AI绘图工具的全新体验 midjourney-uiMidjourney UI is an open source AI painting UI based on Midjourney项目地址:https://gitcod...
-
使用 Ollama、Llama 3.1 和 Milvus 实现Function Calling 功能
将函数调用(Function Calling)与 LLM 相结合能够扩展您的 AI 应用的能力。通过将您的大语言模型(LLM)与用户定义的 Function 或 API 集成,您可以搭建高效的应用,解决实际问题。 本文将介绍如何将 L...
-
编译运行 llama.cpp (vulkan, Intel GPU SYCL)
llama.cpp 是一个运行 AI (神经网络 语言大模型的推理程序, 支持多种 后端 (backend , 也就是不同的具体的运行方式, 比如 CPU 运行, GPU 运行等. 但是编译运行 llama.cpp 并不是那么容易的, 特别是对于 SY...
-
Llama-GitHub 项目教程
Llama-GitHub 项目教程 llama-github Llama-github is an open-source Python library that empowers LLM Chatbots, AI Agents, and Auto...
-
AIGC 项目使用文档
AIGC 项目使用文档 AIGC 项目地址: https://gitcode.com/gh_mirrors/ai/AIGC 1. 项目目录结构及介绍 AIGC 项目的目录结构如下: AIGC/ ├── README.md ├──...
-
stable-diffusion-xl_pytorch生成高质量的图像的AIGC模型
stable-diffusion-xl_pytorch 论文 SDXL: Improving Latent Diffusion Models for High-Resolution Image Synthesis https://arxiv.org/...
-
Alluxio Enterprise AI on K8s 部署教程
? Alluxio Enterprise AI on K8s 部署教程 ? 链接为Alluxio Enterprise AI on K8s 部署视频教程。下面内容将通过文字方式主要介绍如何通过 Operator(Kubernetes 管理应用程序的扩展)在...
-
【笔记】扩散模型(七):Latent Diffusion Models(Stable Diffusion)论文解读与代码实现
论文链接:High-Resolution Image Synthesis with Latent Diffusion Models 官方实现:CompVis/latent-diffusion、CompVis/stable-diffusion 这一...
-
从零到一,打造顶尖RAG应用!揭秘RAG技术构建全流程!
通过本文你可以了解到: 什么是RAG? 如何搭建一个RAG应用? 目前开源的RAG应用有哪些? RAG简介 检索增强生成(Retrieval Augmented Generation,RAG)是一种强大的工具,整合了从庞大知识库中检索到...
-
LLaMA Cog 模板:轻松构建和部署大型语言模型
LLaMA Cog 模板:轻松构建和部署大型语言模型 cog-llama-templateLLaMA Cog template项目地址:https://gitcode.com/gh_mirrors/co/cog-llama-template 项目介...
-
【HuggingFace Transformers】LlamaModel源码解析
LlamaModel源码解析 1. LlamaModel 介绍 2. LlamaModel类 源码解析 3. 4维因果注意力掩码生成 1. LlamaModel 介绍 LlamaModel 是一个基于 Transformer 架构...
-
Stable Diffusion Fooocus批量绘图脚本
当当当挡~,流动传热数值计算之余发布点AIGC相关文章,希望大家能喜欢~ 1 Stable Diffusion各种UI分析对比 提示:此部分主要是对SD各种界面的简要介绍和对比,只关注Fooocus批量绘图的读者可直接跳到第二部分。 Stable D...
-
【愚公系列】《AIGC辅助软件开发》019-AI 辅助测试与调试:AI辅助测试与调试应用案例
? 作者简介,愚公搬代码 ?《头衔》:华为云特约编辑,华为云云享专家,华为开发者专家,华为产品云测专家,CSDN博客专家,CSDN商业化专家,阿里云专家博主,阿里云签约作者,腾讯云优秀博主,腾讯云内容共创官,掘金优秀博主,亚马逊技领云博主,51CTO博客专...
-
AIGC专栏15——CogVideoX-Fun详解 支持图&文生视频 拓展CogVideoX到256~1024任意分辨率生成
AIGC专栏15——CogVideoX-Fun详解 支持图&文生视频 拓展CogVideoX到256~1024任意分辨率生成 学习前言 项目特点 生成效果 相关地址汇总 源码下载地址 CogVideoX-Fun详解 技术储备 Dif...
-
本地化LLM应用:Local_Llama——离线文档聊天的未来
本地化LLM应用:Local_Llama——离线文档聊天的未来 local_llama This repo is to showcase how you can run a model locally and offline, free of Op...
-
使用 Elastic 和 LM Studio 的 Herding Llama 3.1
作者:来自 Elastic Charles Davison, Julian Khalifa 最新的 LM Studio 0.3 更新使 Elastic 的安全 AI Assistant 能够更轻松、更快速地与 LM Studio 托管模型一起运行。在...
-
GitHub Copilot Patterns & Exercises 使用教程
GitHub Copilot Patterns & Exercises 使用教程 copilot-patterns This document is a compilation of best practices for AI-Native...
-
使用 SAX 在 TPU v5e 上部署和提供 Llama 2 模型
创建 TPU 以下步骤展示了如何创建用于您的模型的 TPU 虚拟机。 创建环境变量: export PROJECT_ID=PROJECT_ID export ACCELERATOR_TYPE=ACCELERATOR_TYPE...
-
AI智能体研发-模型篇(一):大模型训练框架LLaMA-Factory在国内网络环境下的安装、部署及使用
一、引言 贫富差距的产生是信息差,技术贫富差距的产生亦如此。如果可以自我发现或者在别人的指导下发现优秀的开源项目,学习或工作效率真的可以事半功倍。 今天力荐的项目是LLaMA-Factory,我在去年8月份就开始使用这个项目进行模型部署和微调训练(fi...
-
ESP32-S3百度文心一言大模型AI语音聊天助手(支持自定义唤醒词训练)【手把手非常详细】【万字教程】
简介 此项目主要使用ESP32-S3实现一个AI语音聊天助手,可以通过该项目熟悉ESP32-S3 arduino的开发,百度语音识别,语音合成API调用,百度文心一言大模型API的调用方法,音频的录制及播放,SD卡的读写,Wifi的配置(smartconf...
-
使用Ollama本地部署Llama 3.1大模型
Llama 3.1 介绍 2024 年 7 月 24 日,Meta 宣布推出迄今为止最强大的开源模型——Llama 3.1 405B,Llama 3.1 405B 支持上下文长度为 128K Tokens, 增加了对八种语言的支持,号称第一个在常识、可操...
-
人工智能 | MetaLlama大模型
llama 大模型介绍 我们介绍 LLaMA,这是一个基础语言模型的集合,参数范围从 7B 到 65B。我们在数万亿个Token上训练我们的模型,并表明可以专门使用公开可用的数据集来训练最先进的模型,而无需诉诸专有的和无法访问的数据集。特别是,...
-
三步搞定私人AI助手 | LLaMA-3本地部署小白攻略
“ 在你的电脑上运行一个强大的AI助手,它不仅能力超群,还把所有秘密都藏在你的硬盘里。好奇这是如何实现的吗?动动手,三分钟就可以完成LLaMA-3的本地部署! ” 01、LLaMA-3 最近在试验检索增强生成(RAG)的项目,想试试换一个强点的...
-
本地搭建 Whisper 语音识别模型实现实时语音识别研究
目录 摘要 关键词 1. 引言 2. Whisper 模型简介 3. 环境准备 4. 系统架构与实现 4.1 模型加载 4.2 实时音频输入处理 4.3 实时转录处理 4.4 程序实现的框架 4.5 代码实现 5. 实验与结果 6...
-
Esp32S3通过文心一言大模型实现智能语音对话
前言 效果展示 效果展示录制 一、开发环境介绍 1、arduino开发平台; 2、所需设备:Esp32s3、inmp441、max98357、按键,杜邦线(接线 ; 3、大模型:百...
-
AIGC实践——asr识别FunASR手把手部署流程
? 大家好,我是可夫小子,《小白玩转ChatGPT》专栏作者,关注AIGC、互联网和自媒体。 FunASR是什么? FunASR 是一个基本的语音识别工具包,提供多种功能,包括语音识别 (ASR 、语音活动检测 (VAD 、标点符号恢复、语言模型...
-
大模型_基于医疗领域用lora微调医疗数据及LLaMA微调ChatDoctor模型
文章目录 ChatDoctor 目标 方法 结果 结论 收集和准备医患对话数据集 创建外部知识数据库 具有知识大脑的自主聊天医生的开发 模型培训 结果 数据和模型: 微调 推理 ChatDoctor 目标 这项研究的主要...
-
Llama开源代码详细解读(2)
FlashAttention if is_flash_attn_available( : # 检查flashattention的可用性 from flash_attn import flash_attn_func, flash_attn_var...
-
大模型+小模型协同处理跨文档理解任务,成本更低,性能更高
“Synergetic Event Understanding: A Collaborative Approach to Cross-Document Event Coreference Resolution with Large Language Mod...
-
集成 Sermant,ServiceStage 带你实现应用上下线平滑过渡
摘要:为了保证应用正确上下线、流量不丢失,ServiceStage 基于 Sermant 提供了一套优雅上下线的方案,包括预热、延迟下线等,避免了请求超时、连接拒绝、流量丢失等问题的发生。 本文分享自华为云社区《ServiceStage 集成 Ser...
-
OpenAI Whisper 开源项目使用手册
OpenAI Whisper 开源项目使用手册 openai-whisperA sample web app using OpenAI Whisper to transcribe audio built on Next.js. It records a...
-
Python 爬虫入门(一):从零开始学爬虫 「详细介绍」
Python 爬虫入门(一):从零开始学爬虫 「详细介绍」 前言 1.爬虫概念 1.1 什么是爬虫? 1.2 爬虫的工作原理 2. HTTP 简述 2.1 什么是 HTTP? 2.2 HTTP 请求 2.3 HTTP 响应 2.4 常见...
-
Python 爬虫入门: 常见的爬虫库及相关工具
Python 爬虫入门: 常见的爬虫库及相关工具 前言 1. 爬虫框架 1.1 Scrapy 1.2 Scrapy-Redis 2. 解析 XML 和 HTML 文档 2.1 BeautifulSoup 2.2 lxml 2.3 Par...