-
llama3.cuda: 纯C/CUDA实现的Llama 3模型使用教程
llama3.cuda: 纯C/CUDA实现的Llama 3模型使用教程 llama3.cudallama3.cuda is a pure C/CUDA implementation for Llama 3 model.项目地址:https://git...
-
探索无限创意:基于C++的Stable Diffusion图像生成库
探索无限创意:基于C++的Stable Diffusion图像生成库 axodox-machinelearning This repository contains a C++ ONNX implementation of StableDiffus...
-
Windows安装docker,启动ollama运行open-webui使用AIGC大模型写周杰伦歌词
Windows安装docker,启动ollama运行open-webui使用AIGC大模型写周杰伦歌词 1、下载docker的Windows版本。 docker下载地址: https://docs.docker.com/desktop/insta...
-
4060显卡+LLaMA-Factory微调LLM——(四)Web UI
本地配置 系统:win10 **硬件:**i5-12490f+RTX4060 前置准备 目前本地微调大模型最常用的就是LLaMA-Factory,既可以用指令微调,又有Web UI,方便的很 github:https://github.com/...
-
甲骨文AI集群配备131072万块NVIDIA B200 GPU:恐怖算力24万亿亿次
快科技9月12日消息,甲骨文宣布推出多款GPU计算集群,可通过甲骨文云基础设施提供AI训练服务,其中最顶级的一款配备了超过10万块的NVIDIA Blackwell GPU。 它一共使用了多达131072万块B200 GPU加速卡,FP8浮点、INT8整数...
-
NVIDIA GeForce RTX标志升级了!加入AI的力量
快科技9月3日消息,NVIDIA低调升级了其GeForce RTX”的标志,增加了一行小字Powering Advanced AI”,也就是打造先进AI”的意思。 未来的RTX显卡,无论是零售包装盒,还是预装台式机、笔记本,都是打上这个标志。 GeForc...
-
Whisper-Streaming:实时语音转写与翻译的革命性工具
Whisper-Streaming:实时语音转写与翻译的革命性工具 whisper_streamingWhisper realtime streaming for long speech-to-text transcription and transl...
-
5分钟 Stable Diffusion 本地安装
5分钟 Stable Diffusion 本地安装 5分钟 Stable Diffusion 本地安装 1. 引言 1.1 什么是Stable Diffusion? 1.2 本地安装的优势 2. 准备工作 2.1 系统要求 2.2 推荐...
-
4060显卡+LLaMA-Factory微调LLM环境准备——(一)安装cuda
本地配置 系统:win10**硬件:**i5-12490f+RTX4060 安装原因: 最近尝试在本地对开源LLM进行Fine-tune的时候,用到了LLaMA-Factory,在运行的时候,弹出未检测到GPU,后来才发现,是忘记安装cuda等...
-
使用llama.cpp启动GPU模型计算
查询GPU使用状态: watch -n 0.5 nvidia-smi 使用GPU编译llama.cpp: make LLAMA_CUBLAS=1 用过make的记得删除项目,重新再以上执行命令,要不还...
-
AI算法画小姐姐,AMD显卡比顶级CPU快30倍!AMD Radeon显卡Stable Diffusion AI画图体验测试
从Stable Diffusion这一AI应用出现之后,在极短时间内就迅速走红,成为众多玩家口口相传的“最美小姐姐”生成工具。不过这一AI计算画图工具在Stable Diffusion官方推出之初,无论是WEB UI的部署还是模型的训练生成,都基本是基于N...
-
Ubuntu安装大模型LLama,实操步骤
前言 因为国内镜像源不太清楚有没有最新的仓库源,我是推荐用科学上网工具,都已经玩大模型了,这个都没有的话就直接算了吧 这个是面向有一定的Linux使用经验的人员,有一些细节没有展开讲,而且每个人电脑环境都不同,就算严格按照步骤来,也有可能出现各种各...
-
推荐 3 款超好用的Whisper离线AI语音转文字客户端
Whisper 是 OpenAI 开源的一个强大的通用语音识别模型,它使用了超过 68 万小时多语言来训练,支持了 99 种不同语言的转录,够实现高准确性的语音识别,尤其对于英文,识别度接近人类水平。 下面给大家推荐 3 款集成了这个模型的客户端。...
-
#10 解决Stable Diffusion常见问题和错误
文章目录 前言 1. 环境配置错误 问题描述 解决方案 2. 模型加载失败 问题描述 解决方案 3. 图像生成质量差 问题描述 解决方案 4. 生成速度慢 问题描述 解决方案 5. 内存不足错误 问题描述 解决方案 结论...
-
探索Stable Diffusion:从零开始的代码接入创意图像生成指南
探索Stable Diffusion:从零开始的代码接入创意图像生成指南 一、Stable Diffusion:创意图像的魔术师 1.1 基本概念 1.2 作用说明 二、准备工具与环境 2.1 Python与依赖库 2.2 GPU配置(可...
-
在嵌入式处理器Jetson Orin上使用Whisper做语音内容识别(3)
1、简介 Nvidia的GPU+CUDA架构在大算力时代遥遥领先毫无疑问了,其通用的硬件特性使得它不再是以往的“显卡”,算力强大并且支持各种AI,软件生态的应用方式基本可以照搬PC端。相比于特定的核心NPU,它显得更加灵活,系统和显存的共用在带宽上有明显...
-
轻松上手!Midjourney AI绘画生成器免费使用秘籍全解析
Midjourney是一款AI绘画平台,通过智能化的算法和自学习的机制,为用户提供高效、精确、易用的创作工具。自2018年起,Midjourney已经在互联网创作和设计领域广泛应用,吸引了越来越多的用户和粉丝。在本文中,我们将为您详细介绍Midjourne...
-
利用SpringBoot和TensorFlow进行语音识别模型训练与应用
本专题系统讲解了如何利用SpringBoot集成音频识别技术,涵盖了从基础配置到复杂应用的方方面面。通过本文,读者可以了解到在智能语音填单、智能语音交互、智能语音检索等场景中,音频识别技术如何有效提升人机交互效率。无论是本地存储检索,还是云服务的集成,丰...
-
AI绘图cuda与stable diffusion安装部署始末与避坑
stable diffusion的安装说起来很讽刺,最难的不是stable diffusion,而是下载安装cuda。下来我就来分享一下我的安装过程,失败了好几次,几近放弃。 一、安装cuda 我们都知道cuda是显卡CPU工作的驱动(或者安装官网的...
-
【学习笔记】:Ubuntu 22 使用模型量化工具llama.cpp部署大模型 CPU+GPU
学习笔记:Ubuntu 22 使用模型量化工具llama.cpp部署大模型 CPU+GPU 前言 1 下载并编译llama.cpp 1.1 git下载llama.cpp仓库源码 1.2 编译源码(make) 1.2.1 选择一:仅在CPU上...
-
【个人开发】llama2部署实践(三)——python部署llama服务(基于GPU加速)
1.python环境准备 注:llama-cpp-python安装一定要带上前面的参数安装,如果仅用pip install装,启动服务时并没将模型加载到GPU里面。 # CMAKE_ARGS="-DLLAMA_METAL=on" FORCE_CMAK...
-
Meta打造巨型AI模型 为视频推荐引擎注入新活力
互联网巨头Meta正致力于开发一款超大规模的人工智能系统,旨在为其旗下的视频推荐引擎注入新的活力,从而提升用户体验。 Facebook的负责人汤姆·埃利森透露,这款巨型人工智能推荐模型是Meta到2026年技术路线图的关键组成部分。该模型不仅能为类似于Ti...
-
PyTorch 该怎么学?太简单了
挺多小伙伴问过PyTorch该怎么学,经过长期实践来看,初学者需要熟知的概念和用法真的不多,以下总结的简明指南一起看看吧! 构建Tensor PyTorch 中的 Tensors 是多维数组,类似于 NumPy 的 ndarrays,但可以在 GPU...
-
MyShell AI开发高质量语音合成工具MeloTTS 支持中英混合发音
MeloTTS是由MyShell AI开发的一个高质量的多语言文本到语音(TTS)库。这个库支持英语、西班牙语、法语、中文、日语和韩语等多种语言,使其在全球范围内具有广泛的应用价值。 项目地址:https://top.aibase.com/tool/me...
-
CUDA驱动深度学习发展 - 技术全解与实战
全面介绍CUDA与pytorch cuda实战 关注TechLead,分享AI全维度知识。作者拥有10+年互联网服务架构、AI产品研发经验、团队管理经验,同济本复旦硕,复旦机器人智能实验室成员,阿里云认证的资深架构师,项目管理专业人士,上亿营收...
-
llama.cpp中main函数参数
使模型类gpt式交互: ./main -m .\models\llama-2-7b-chat\ggml-model-q4_0.gguf -n 256 --repeat_penalty 1.0 --color -i -r "User:" -f prompt...
-
本地运行LlaMA 2的简易指南
大家好,像LLaMA 2这样的新开源模型已经变得相当先进,并且可以免费使用。可以在商业上使用它们,也可以根据自己的数据进行微调,以开发专业版本。凭借其易用性,现在可以在自己的设备上本地运行它们。 本文将介绍如何下载所需的文件和LLaMA 2模型,以运行C...
-
【AIGC扫盲】人工智能大模型快速入门
人工智能大模型的技术框架主要有以下几种: TensorFlow:这是一个由Google Brain团队开发的开源库,用于进行高性能数值计算,特别是用于训练和运行深度学习模型。TensorFlow提供了一种称为计算图的编程模型,它允许用户定义复杂的计算...
-
【stable diffusion】Win10部署本地教程
目录 一、stable diffusion部署,不使用启动器 s1:安装git s2:anaconda配置stable diffusion环境 s3:No module 'xformers'. Proceeding without it.的处...
-
利用colab实现AI绘画自由
利用colab实现AI绘画自由 最近AIGC真的很火,除了chatGPT外,AI绘画也是热度不减。最近也是决定抽空上手尝试一下,但奈何我的本本太渣,丐版Mac跑跑数据还行,跑Stable Diffusion根本没戏。所以还是决定白嫖谷歌的colab。...
-
超简单stable diffusion安装教程,最新吐血整理
SD没有中文版并且需要翻墙,如果不会的也可以直接用国内AI绘画工具:触站AI,是国内基于SD搭建的最好用站点,对国人来说更加方便,所以本教程面向sd海外用户。 随着AI技术的不断发展,越来越多的AI绘画软件被开发出来,让绘画的过程变得更加高效和有趣。...
-
AI万花筒官网体验入口 AI绘画在线工具免费使用地址
AI万花筒是一个集成了GPT、Stable Diffusion、AI绘画等在线AI工具的创意平台。创作者可以通过免费使用这些工具来生成创意素材。该平台提供免费和付费版本,付费用户可以享受GPU加速、增加使用次数等服务。AI万花筒的定位是提供优质、便捷的AI...
-
英文视频添加中英双语字幕(基于Whisper语音识别和Google翻译)
第一步:安装配置环境,这一步重要介绍安装的环境依赖,可以看完第二章再来看一遍 (1)Whisper环境配置 可以参考以下博客的内容讲显卡驱动,CUDA和cudnn的安装比较详细,我建议能用GPU加速就尽量使用,Whisper速度有点慢如何在你的电脑...
-
如何部署Stable Diffusion WebUI Windows + 无科学上网版
如何部署Stable Diffusion WebUI 无科学上网版 一些背景 一些需求 硬件需求(可选) 软件需求 一些细节 检查nvidia driver查看对应cuda版本 安装cuda 安装cuDNN 安装GPU版pytorch 安...
-
GPU+生成式人工智能助力提升时空数据分析
译者 | 朱先忠 审校 | 重楼 摘要:通过实战案例介绍,本文指出随着基于GPU加速的数据库技术为时间序列和空间数据带来更好的性能和精度水平,生成式人工智能技术将使得非领域专家也能够进行复杂的时空数据处理。 引言 时空数据来自手机、气候传感器、金融市场交...
-
软硬约束下的轨迹如何生成,理论&代码详解!
本文经自动驾驶之心公众号授权转载,转载请联系出处。 本项目代码: github.com/liangwq/robot_motion_planing 轨迹约束中的软硬约束 前面的几篇文章已经介绍了,轨迹约束的本质就是在做带约束的轨迹拟合。输入就是waypo...
-
whisper深入-语者分离
文章目录 学习目标:如何使用whisper 学习内容一:whisper 转文字 1.1 使用whisper.load_model( 方法下载,加载 1.2 使用实例对文件进行转录 1.3 实战 学习内容二:语者分离(pyannote.aud...
-
九大Pytorch最重要操作!!
今儿咱们聊聊pytorch的事情,今儿总结了九个最重要的pytorch的操作,一定会给你一个总体的概念。 张量创建和基本操作 PyTorch的张量类似于NumPy数组,但它们提供了GPU加速和自动求导的功能。张量的创建可以通过torch.tensor,...
-
【Stable Diffusion/NovelAI Diffusion的AMD GPU加速推理探索】
测试机子配置: 1:AMD RX6600(显存8g +i5 12600KF 16g内存 (台式机 2:RTX 3070 laptop(显存8g +i7 10870H 32g内存 (HP暗夜精灵笔记本 两台电脑平均性能差不多,当然N卡肯定更好一点 这边...
-
胜率达94.08%!李开复Yi-34B最新成绩超过LLaMA2等主流大模型
近期,李开复的Yi-34B-Chat模型在多个评测中大放异彩。其94.08%的胜率超越了LLaMA2和ChatGPT等主流大模型,尤其在加州大学伯克利分校主导的LMSYS ORG排行榜中,以1102的Elo评分追平了GPT-3.5。此外,在中文SuperC...
-
Stable-diffusion支持Intel和AMD显卡加速出图的操作方法
英伟达的显卡有CUDA加持Stable diffusion出图很快,但我无奈家徒四壁,只有AMD老显卡苦苦支撑着本不富裕的家庭,但是生活还是继续不是。来吧!兄弟,看看老显卡能不能加速出图就完事了。 说明,我在MacOs上操作成功,同时...
-
关于使用Bing AI或Copilot时GPU占用高的问题分析与解决
就在上周,我使用Bing AI时,发现单位老机子的风扇响个不停,开始没在意,后来在Bing的对话框长度越来越长后,电脑震动的越来越厉害,所以习惯性打开的WIN10的任务管理器一看,好家伙,Edge浏览器的GPU占用好高,达到了30%-40%,处于一种分析问...
-
开源大模型框架llama.cpp使用C++ api开发入门
llama.cpp是一个C++编写的轻量级开源类AIGC大模型框架,可以支持在消费级普通设备上本地部署运行大模型,以及作为依赖库集成的到应用程序中提供类GPT的功能。 以下基于llama.cpp的源码利用C++ api来开发实例demo演示加载本地模型文...
-
OpenAI开源语音识别模型Whisper在Windows系统的安装详细过程
文章目录 1、安装Python 2、安装FFmpeg 2.1、配置环境变量 3、安装显卡驱动 3.1、安装CUDA 4、安装PyTorch 5、安装whisper 6、whisper的使用 7、总结 8、源码下载 9、视频教程 1、...
-
今日思考(2) — 训练机器学习模型用GPU还是NUP更有优势(基于文心一言的回答)
前言 深度学习用GPU,强化学习用NPU。 1.训练深度学习模型,强化学习模型用NPU还是GPU更有优势 在训练深度学习模型时,GPU相比NPU有优势。GPU拥有更高的访存速度和更高的浮点运算能力,因此更适合深度学...
-
Llama2通过llama.cpp模型量化 Windows&Linux本地部署
Llama2通过llama.cpp模型量化 Windows&Linux本地部署 什么是LLaMA 1 and 2 LLaMA,它是一组基础语言模型,参数范围从7B到65B。在数万亿的tokens上训练的模型,并表明可以专门使用公开可用的数据...
-
计算机行业AIGC算力时代系列报告-ChatGPT芯片算力:研究框架
报告下载: 计算机行业AIGC算力时代系列报告-ChatGPT芯片算力:研究框架 简介 “AI算力时代已经来临,计算机行业正在经历着一场前所未有的变革!” 这是一个充满活力和兴奋的时代,人工智能(AI)已经成为了计算机行业中最为炙手可热的话题。随...
-
NVIDIA RTX显卡AI推理提速5倍!RTX PC轻松在本地搞定大模型
正在举行的微软Iginte全球技术大会上,微软发布一系列AI相关的全新优化模型、开发工具资源,帮助开发者更深入地释放硬件性能,拓展AI场景。 尤是对于当下在AI领域占据绝对主导地位的NVIDIA来说,微软这次送上了一份大礼包,无论是面向OpenAI Cha...
-
Mac安装Stable Diffusion教程【超详细教程】附带安装包
Mac安装Stable Diffusion教程 本机配置 Mac安装Stable Diffusion教程 配带官方说明 重要注意事项 安装所需文件已整理安装地址 自动安装 新安装: 自动安装 现有安装: 下载稳定扩散模型 故障排除 Web...
-
如何高效训练?综述汇总:大型深度学习训练的并行分布式系统
本文经自动驾驶之心公众号授权转载,转载请联系出处。 23年1月论文“Systems for Parallel and Distributed Large-Model Deep Learning Training“, 来自UCSD。 深度学习(DL)已经...