-
如何使用Midjourney-Proxy:一份详尽的指南
如何使用Midjourney-Proxy:一份详尽的指南 midjourney-proxy代理 MidJourney 的discord频道,实现api形式调用AI绘图项目地址:https://gitcode.com/gh_mirrors/mi/midj...
-
ubuntu 安装配置 ollama ,添加open-webui
ubuntu 安装配置 ollama 下载安装 [https://ollama.com/download](https://ollama.com/download 一 安装方法 1 命令行下载安装 一 安装方法 2 , 手动下载安装 二...
-
在纯净的虚拟机上安装及使用Stable Diffusion WebUI
一、环境准备 1、创建一台纯净的虚拟机 2、安装驱动 3、下载安装Anaconda 二、部署stable-diffusion-webui 1、Linux 上的自动安装 2、导航到您想要安装 webui 的目录并执行以下命令: 3、执行...
-
240810-Gradio自定义Button按钮+事件函数+按钮图标样式设定
A. 最终效果 B. 参考代码 要通过自定义HTML按钮来触发Gradio自带按钮的 click 函数,你可以使用JavaScript来模拟点击Gradio的按钮。这里是一个示例代码,展示了如何实现这一点: import gradio as...
-
基于云原生向量数据库 PieCloudVector 的 RAG 实践
近年来,人工智能生成内容(AIGC)已然成为最热门的话题之一。工业界出现了各种内容生成工具,能够跨多种模态产生多样化的内容。这些主流的模型能够取得卓越表现,归功于创新的算法、模型规模的大幅扩展,以及海量的高质量数据集。然而 AIGC 依然面临一系列挑战,检...
-
【愚公系列】《AIGC辅助软件开发》013-AI辅助客户端编程:AI辅助 iOS 应用开发
? 作者简介,愚公搬代码 ?《头衔》:华为云特约编辑,华为云云享专家,华为开发者专家,华为产品云测专家,CSDN博客专家,CSDN商业化专家,阿里云专家博主,阿里云签约作者,腾讯云优秀博主,腾讯云内容共创官,掘金优秀博主,亚马逊技领云博主,51CTO博客专...
-
解决llama_index中使用Ollama出现timed out 问题
现象: File "~/anaconda3/envs/leo_py38/lib/python3.8/site-packages/httpx/_transports/default.py", line 86, in map_httpcore_excep...
-
新AI编程工具爆火:手机2分钟创建一个APP
继Cursor之后,编程界又一新贵走红。 它就是由AI初创公司Replit推出的智能体——Replit Agent。 有了它,现在编程这事儿的“打开方式”就变这样了: 而且操作方式也是极其简单,只需一个提出Prompt的动作即可: 不难看出,Repli...
-
简洁实用的原创度检测工具AntiPlagiarism NET 4.132
AntiPlagiarism NET是一个适用于Windows的程序,它允许您检查文本的唯一性和从不同Internet来源借用的存在。使用AntiPlagiarism NET,您可以: 将程序用于不同的目的该程序适用于学生、教师、记者、文案作者和...
-
node-llama-cpp 使用与安装指南
node-llama-cpp 使用与安装指南 node-llama-cppRun AI models locally on your machine with node.js bindings for llama.cpp. Force a JSON s...
-
ootdiffusion_pytorch AIGC虚拟衣物试穿算法模型
OOTDiffusion 论文 OOTDiffusion: Outfitting Fusion based Latent Diffusion for Controllable Virtual Try-on https://arxiv.org/pdf/...
-
推荐项目:Hugo Whisper 文档主题
推荐项目:Hugo Whisper 文档主题 hugo-whisper-themeWhisper is a minimal documentation theme for Hugo.项目地址:https://gitcode.com/gh_mirrors...
-
LLM之基于llama-index部署本地embedding与GLM-4模型并初步搭建RAG(其他大模型也可,附上ollma方式运行)
前言 日常没空,留着以后写 llama-index简介 官网:https://docs.llamaindex.ai/en/stable/ 简介也没空,以后再写 注:先说明,随着官方的变动,代码也可能变动,大家运行不起来,可以进官网查查资料...
-
RAG 入门指南:从零开始构建一个 RAG 系统
本文正文字数约 3300 字,阅读时间 10 分钟。 从零开始构建一个应用可以让我们快速理解应用的各个部分。 这个方法其实非常适用于 RAG。 我在以前的文章中有介绍过 RAG 的概念、原理以及应用等,但其实,亲自动手来构建一个 RAG 系统或许能够...
-
记录Linux上安装LLaMA Factory v0.8.3 增量预训练/监督微调
序:SFT 和 PT 的区分 sft(Supervised Fine-Tuning,监督微调) 定义:sft是一种基于监督学习的微调方法,它使用标记好的数据(即带有输入、指令和期望输出的数据集)来进一步训练已经预训练好的模型。这种方法允许模型...
-
Copilot.el 开源项目教程
Copilot.el 开源项目教程 copilot.elAn unofficial Copilot plugin for Emacs.项目地址:https://gitcode.com/gh_mirrors/co/copilot.el 1. 项目的目...
-
手把手系列 | 使用Milvus、Llama 3、Ollama、LangChain本地设置RAG应用
随着 Llama、Mistral、Gemma 等开源大语言模型(LLM)的出现,我们越来越能感受到 LLM 的力量,而本地运行基于 LLM 的 RAG 应用的需求越来越强烈。在将应用推至生产环境前,我们往往都需要先本地运行和测试。 因此,本...
-
使用Llama 私有化模型检索文档回答问题
部署 Llama 模型 Llama 属于文字生成模型,可以用于聊天。使用 Ollama 部署 Llama 模型,先安装 Ollama sudo curl -L https://ollama.com/download/ollama-linux-amd64...
-
K8sGPT 搭配 LLaMA 3.1:8B,AI 运维也能轻松搞定
文章目录 1. 前言 2. 安装工具 3. 运行 k8s 集群 4. 运行本地 llama 模型 5. k8sgpt 模型认证管理 5.1 添加 openAI 模型认证 5.2 添加本地 llama3.1:8b模型认证 5.3 删除模型认证...
-
《史上最简单的SpringAI+Llama3.x教程》-05-打破界限,Function Calling在业务场景中的应用
什么是Function Calling Function Calling 是一种技术,它允许大型语言模型(如GPT)在生成文本的过程中调用外部函数或服务。 这种功能的核心在于,模型本身不直接执行函数,而是生成包含函数名称和执行函数所需参数的JSON,...
-
使用 Ollama、Llama 3.1 和 Milvus 进行函数调用案例
偶然看到一篇很短代码就能实现llama function call的文章。 秉着学习加分项的原则,进行了实验测试。这里给出案例和全部改写后的代码。 将 LLM 与函数调用相结合,就如同赋予您的 AI 连接世界的能力。通过将您的 LLM 与外部工具(例如用...
-
服务器部署llama3 并利用LLaMA-Factory实现微调
llama3的编译环境要求: 需要的软件,硬件资源: python=3.11 pytorch==2.1.2 torchvision==0.16.2 torchaudio==2.1.2 pytorch-cuda=12.2 第一步下载需要的pytho...
-
Github Copilot 使用技巧
?目标读者 本文不包含如何安装 Github Copilot 本文介绍了 Github Copilot 使用方法和一些技巧 本人已经使用 Github Copilot 2 年了,交了 3 次年费,每年 100$ 着实心痛,但是用着确实爽歪歪 但是...
-
【AIGC】训练数据入库(Milvus)
之前的文章有写如何获取数据、如何补充数据,也有说如何对数据进行清洗、如何使用结构化数据进行训练。但好像没有说如何将训练数据“入库”。这里说的入库不是指 MySQL 数据库,而是指向量检索库 Milvus。 众所周知,人工智能多用向量数据进行训练。数据先做...
-
全网最全RAG评估指南:全面解析RAG评估指标并提供代码示例
一、RAG痛点介绍 最近我一直在关注和优化RAG(Retrieval-Augmented Generation)相关的内容,总结了一下RAG的痛点和最佳实践,然后重点会介绍如何评估RAG。 二、RAG痛点优化 认识了RAG的痛点,就知道如...
-
使用FastChat快速部署LLM服务
原文:https://zhuanlan.zhihu.com/p/705915093 FastChat 是一个用于训练、服务和评估基于LLM的聊天机器人的开放平台,它的核心功能包括: 最先进模型(例如 Vicuna、MT-Bench)的训练和评估代码。...
-
springboot笔记
目录 一springboot 1.什么是springboot 2.springboot开发步骤 3.springboot优点 4.springboot的依赖管理 目录 springboot 1.什么是springboot 2.spri...
-
Llama 3.1论文中文对照翻译
The Llama 3 Herd of Models 模型群 Llama 3 Llama Team, Al @ Meta 1...
-
CopilotKit:开源 Copilot 框架,部署应用内 AI 代理,使用 Langchain 自动执行任何任务!
原文链接:(更好排版、视频播放、社群交流、最新AI开源项目、AI工具分享都在这个公众号!) CopilotKit:开源 Copilot 框架,部署应用内 AI 代理,使用 Langchain 自动执行任何任务! ?如何仅用一行代码将强大的 AI...
-
部署本地语音聊天机器人:在Seeed Studio reComputer Jetson上部署Riva和Llama2
本地语音聊天机器人:在Seeed Studio reComputer Jetson上部署Riva和Llama2 所有教程都免费开源,请动动小手点个小星星https://github.com/Seeed-Projects/jetson-examples...
-
AIStarter更新ollama+openwebui教程,使用千问2和llama3.1最新大模型
熊友们,从易到难啊,整合包做起来相对复杂一些,咱可以先学习一下怎么在AIStarter里面升级AI项目,因为Docker用不了,什么原因咱不知道,所以很多熊友迫切的希望熊哥更新ollama+openwebui这个项目,那就以这个项目为例,给大家演示一下熊哥...
-
【LLM】一、利用ollama本地部署大模型
目录 前言 一、Ollama 简介 1、什么是Ollama 2、特点: 二、Windows部署 1.下载 2.安装 3.测试安装 4.模型部署: 5.注意 三、 Docker部署 1.do...
-
comfyUI-MuseTalk用户交互体验的参数设计和设置
comfyUI-MuseTalk用户交互体验的参数设计和设置 目录 comfyUI-MuseTalk的参数设置 一、ComfyUI-VideoHelperSuite 二、comfyUI-MuseV合成的参考视频 2.1、什么时候会用到MuseV?...
-
Xinference安装及部署大模型
1. Xinference 介绍 Xorbits Inference (Xinference 是一个开源平台,用于简化各种 AI 模型的运行和集成。借助 Xinference,您可以使用任何开源 LLM、嵌入模型和多模态模型在云端或本地环境中运行推理...
-
用Ollama 和 Open WebUI本地部署Llama 3.1 8B
说明: 本人运行环境windows11 N卡6G显存。部署Llama3.1 8B 简介 Ollama是一个开源的大型语言模型服务工具,它允许用户在自己的硬件环境中轻松部署和使用大规模预训练模型。Ollama 的主要功能是在Docker容器内部署和...
-
16 使用Llama Index提取术语和定义的指南
使用Llama Index提取术语和定义的指南 Llama Index有许多用例(如语义搜索、总结等),这些用例都有很好的文档记录。然而,这并不意味着我们不能将Llama Index应用于非常特定的用例! 在本教程中,我们将介绍使用Llama Ind...
-
【愚公系列】《AIGC辅助软件开发》017-AI辅助后端编程:用ChatGPT写简单的生鲜小超市项目
? 作者简介,愚公搬代码 ?《头衔》:华为云特约编辑,华为云云享专家,华为开发者专家,华为产品云测专家,CSDN博客专家,CSDN商业化专家,阿里云专家博主,阿里云签约作者,腾讯云优秀博主,腾讯云内容共创官,掘金优秀博主,亚马逊技领云博主,51CTO博客专...
-
vllm 聊天模板
vllm 聊天模板 背景 如何使用chat template generation prompt & add_generation_prompt chat templates的额外输入 工具使用 / 函数调用 Chat Template...
-
如何在本地运行Llama 3系列:完整指南
今天咱们来聊聊 AI 界的重要事情——那些像 Llama3 系列这样的超大型语言模型(LLMs),现在居然可以在咱们自己的地盘上运行啦!想象一下,这就像是把一个超级智能的助手请进了家门,而且还是私密的,不用担心信息泄露的问题。 本文,虽然是基于之前 Ll...
-
本地部署,Whisper: 开源语音识别模型
目录 简介 特点 应用 使用方法 总结 GitHub - openai/whisper: Robust Speech Recognition via Large-Scale Weak SupervisionRobust Speech Reco...
-
stable diffusion 的四种换脸方法
前言: 很多人对ai 换脸换装都比较感兴趣,今天就记录一下目前主流的换脸方法!! 一、Roop插件 1.安装方法 roop安装及失败解决教程,你还没玩sd的换脸吗?_哔哩哔哩_bilibili 借用b站一个博主的视频教程,简单快捷方便 gi...
-
【2024W30】肖恩技术周刊(第 8 期):奥运会热度不高?
周刊内容: 对一周内阅读的资讯或技术内容精品(个人向)进行总结,分类大致包含“业界资讯”、“技术博客”、“开源项目”和“工具分享”等。为减少阅读负担提高记忆留存率,每类下内容数一般不超过3条。更新时间: 星期天历史收录: shawn-weekly订阅方式:...
-
Midjourney Imagine API 申请及使用(大陆地区)
注意:本 API 属于生成式人工智能 API,背后部分技术基于 Midjourney,为避免跨境数据传输给国家和企业带来的安全风险,请务必在使用时不要输入带有国家和企业机密的相关信息,同时本 API 也会严格遵循中华人民共和国《生成式人工智能服务管理办法》...
-
【深度学习】LLaMA-Factory 大模型微调工具, 大模型GLM-4-9B Chat ,微调与部署 (2)
文章目录 数据准备 chat 评估模型 导出模型 部署 总结 资料: https://github.com/hiyouga/LLaMA-Factory/blob/main/README_zh.md https:...
-
Ollama 部署本地大模型
目录 前言 下载安装 下载模型 接口调用 环境变量 其他模型 前言 工作需要,被指派对大模型做技术调研,又不想花钱买各大产商的key,所以就考虑部署本地的大模型,了解到 Ollama 开源框架,专为在本地机器上便捷部署和运行大型语言模...
-
本地部署 Llama 3.1:Ollama、OpenWeb UI 和 Spring AI 的综合指南
、 本文介绍如何使用 Ollama 在本地部署 Llama 3.1:8B 模型,并通过 OpenWeb UI 和 Spring AI 来增强模型交互体验和简化 API 的调用过程。 Ollama Ollama 是一个开源的大语言模型服...
-
使用GraphRAG+LangChain+Ollama:LLaMa 3.1跑通知识图谱与向量数据库集成(Neo4j)
我将向你展示如何使用 LLama 3.1(一个本地运行的模型)来执行GraphRAG操作,总共就50号代码。。。 首先,什么是GraphRAG?GraphRAG是一种通过考虑实体和文档之间的关系来执行检索增强生成的方式,关键概念是节点和关系。 ▲...
-
magic-animate_pytorch AIGC使图像中人物按照给定动作动起来
magic-animate 论文 MagicAnimate: Temporally Consistent Human Image Animation using Diffusion Model https://arxiv.org/pdf/2311.1...
-
Ollama 本地部署大模型 | Windows本地部署 Llama3.1 大模型
Get up and running with large language models. Run Llama 3.1, Phi 3, Mistral, Gemma 2, and other models. Customize and create yo...
-
在亚马逊云科技上部署Llama大模型并开发负责任的AI生活智能助手
项目简介: 小李哥将继续每天介绍一个基于亚马逊云科技AWS云计算平台的全球前沿AI技术解决方案,帮助大家快速了解国际上最热门的云计算平台亚马逊云科技AWS AI最佳实践,并应用到自己的日常工作里。 本次介绍的是如何在亚马逊云科技上利用SageMaker...