-
LLM | llama.cpp 安装使用(支持CPU、Metal及CUDA的单卡/多卡推理)
1. 详细步骤 1.1 安装 cuda 等 nvidia 依赖(非CUDA环境运行可跳过) # 以 CUDA Toolkit 12.4: Ubuntu-22.04/24.04(x86_64 为例,注意区分 WSL 和 Ubuntu,详见 http...
-
使用 CTranslate2 实现 Faster Whisper 的加速转录
使用 CTranslate2 实现 Faster Whisper 的加速转录 近年来,语音识别技术得到了快速发展。OpenAI 的 Whisper 模型作为其中的佼佼者,以其高精度和强大的性能广受欢迎。然而,其较长的推理时间和高内存消耗也成为了限制其应...
-
llama factory LoRA微调qwen大模型 | 新手炼丹记录(1)
往期回顾 llama factory LoRA微调qwen大模型 | 新手炼丹记录(1 -CSDN博客 大模型使用llama.cpp转换gguf格式并量化 | 新手炼丹记录(2 -CSDN博客 oll...
-
Llama 3 五一超级课堂中实践llama3的部署,微调,量化优化部署学习总结:第三部分LMDeploy部署llama3-8b模型及量化策略
本次学习分享基于Llama3-Tutorial(Llama 3 超级课堂)分享,git地址如下 GitHub - SmartFlowAI/Llama3-Tutorial: Llama3-Tutorial(XTuner、LMDeploy、OpenCompa...
-
llamafactory-llama3微调中文数据集
一、定义 https://github.com/SmartFlowAI/Llama3-Tutorial/tree/main 基准模型测试 opencompass 离线测评 数据准备 微调训练 合并 测试 人工审核对比 二、实现 基准模型测试...
-
本地化部署一个简单的AI大模型,Llama3.1
7 月 23 日消息,Meta 今晚正式发布llama3.1,提供 8B、70B 及 405B 参数版本。 Meta 称 4050 亿参数的 Llama 3.1-405B 在常识、可引导性、数学、工具使用和多语言翻译等一系列任务中,可与 GPT-4、GP...
-
笔记本电脑本地部署ollama大模型(显存不足调用CUDA Unified Memory方法)
软硬件:win11,NVIDIA GeForce RTX 3050 显存4g 一.ollama模型最低要求 1. Llama 3.1 (8B 模型 GPU: 至少需要 1 张具有 16 GB 显存的 GPU(例如 NVIDIA Tesla V1...
-
AI绘画Stable Diffusion插件—LayerDiffusion 分层控图新突破!生成透明图片&前后景图片融合,毫无违和感!
大家好,我是画画的小强 用AI绘画Stable Diffusion 生成透明图片怎么搞? 这要搁之前,我们需要生成完图片,然后放到去背景插件中调整参数去除背景!效果一般般 如果想要在一张图片上添加主体,该怎么搞?我有个张照片,想要毫无违和感的融合到其它...
-
AIGC新手炼丹师快速生成属于自己的lora--示范样例:北条时行(出自:擅长逃跑的殿下)
目录 一.准备工作:安装stable-diffusion和sd-trainer 二.准备数据集 2.1确定你想要的数据集 2.2准备数据集 2.2.1对于人物类的数据集 2.2.2数据集的处理 2.2.3数据集所在文件夹参考位置(出于方便...
-
Playground v2.5最新的文本到图像生成模型,官方宣称V2.5的模型优于 SDXL、Playground v2、PixArt-α、DALL-E 3 和 Midjourney
Playground v2.5介绍 Playground在去年发布Playground v2.0之后再次开源新的文生图模型Playground v2.5。新版本提升了图像的美学质量,增强了颜色和对比度、改进了多纵横比图像生成,可以生成各种比例图像以及人像...
-
Stable Diffusion教程|练丹师是如何炼丹的Lora模型训练
前言 还记得我们之前就讲过学习SD成为炼丹师不?那么今天就来手把手教大家炼丹,看看同一个角色或某种风格的小模型是如何制作出来的。 目录 1 炼丹介绍 2 环境准备 3 Lora模型训练 **一、**炼丹介绍 什么是炼丹? 早在学习SD地第...
-
LLaMA模型量化方法优化:提高性能与减小模型大小
LLaMA模型量化方法优化:提高性能与减小模型大小 LLaMA模型量化方法优化:提高性能与减小模型大小 引言 新增量化方法 性能评估 7B模型 13B模型 结果分析 结论 LLaMA模型量化方法优化:提高性能与减小模型大小...
-
使用go-llama.cpp 运行 yi-01-6b大模型,使用本地CPU运行,速度挺快的
1,视频地址 2,关于llama.cpp 项目 https://github.com/ggerganov/llama.cpp LaMA.cpp 项目是开发者 Georgi Gerganov 基于 Meta 释出的 LLaMA 模型(简易 Pyth...
-
ChatGLM3-6B使用lora微调实体抽取,工具LLaMA-Factory,医学数据集CMeEE
一、下载ChatGLM3-6B 下载地址,需要魔法 测试模型: 新建文件predict.py。运行下面测试代码。建议这里的transformers包最好和LLaMA-Factory环境的transformers包版本保持一致或者直接用LLaMA-Fa...
-
【Stable Diffusion】来了来了!属于SDXL的ControlNet模型它终于来了!
千呼万唤始出来!就在昨天,WebUI的ControlNet1.1.4版本终于更新,这次的更新支持了SDXL1.0的模型。我怀着兴奋的心情,打开了网站开始下载模型。这次总共出了四种控制类型,分别是Canny、Depth、Sketch和Openpose。 来...
-
原创:旗舰游戏显卡(980Ti,1080Ti,TiTan V,2080Ti,3090,4090),AI画图stable diffusion)和大模型(chatglm2-6b)推理性能横评
前言: 自从去年10月份以ChatGPT和stable diffusion的发布引发了一波生成式AI浪潮,但很多人特别是某些领导整天在会议上说人工智能带来的各种风险和不足,其实自己几乎没用过ChatGPT和stable diffusion,...
-
新手教程之使用LLaMa-Factory微调LLaMa3
文章目录 为什么要用LLaMa-Factory 什么是LLaMa-Factory LLaMa-Factory环境搭建 微调LLaMA3 参考博文 为什么要用LLaMa-Factory 如果你尝试过微调大模型,你就会知道,大模型的环...
-
LLaMA Factory多卡微调的实战教程(持续更新)
大家好,我是herosunly。985院校硕士毕业,现担任算法研究员一职,热衷于机器学习算法研究与应用。曾获得阿里云天池比赛第一名,CCF比赛第二名,科大讯飞比赛第三名。拥有多项发明专利。对机器学习和深度学习拥有自己独到的见解。曾经辅导过若干个非计算机...
-
Stable Diffusion XL(未待完续)
模型介绍 Stable Diffusion XL 是一种基于人工智能的图像生成模型,由Stability AI开发。它是Stable Diffusion系列模型中的一员,专门设计用来生成更高质量的图像。这个模型在原有的Stable Diffusion模型...
-
长文干货!老程序员测评文心一言4.0模型代码能力!
目录 前言:老程序员聊聊AI和国产大模型 第一关:代码质量和可用性——写个可运行的游戏代码 第二关:需求理解和记忆能力——多轮对话下的任务能力 总结 前言:老程序员聊聊AI和国产大模型 大家好,我是一名老程序员了,大模型出来后我算是一...
-
会颠勺的国产机器人来了!星尘智能推AI机器人Astribot S1 家务活全包
随着人工智能向通用人工智能(AGI)目标加速发展,星尘智能公司最新研发的AI机器人Astribot S1,以其卓越的操作性能,在同规格机器人中脱颖而出。Astribot S1在未经加速的1倍速视频中,展示了其在家居和工作场景中的多任务能力,包括叠衣、分拣物...
-
会颠勺的国产机器人来了:大模型加持,家务能力满分
随着 AI 向 AGI(通用人工智能)的圣杯方向加速发展,大模型与机器人的结合是必然趋势。数十年来,单一用途机器人市场已趋于饱和,AI 通用机器人的巨大潜力急待开垦。 刚刚,来自星尘智能公司的自研 AI 机器人 Astribot S1,在同规格机器人中展现...
-
Docker三分钟搞定LLama3开源大模型本地部署
概述 LLaMA-3(Large Language Model Meta AI 3)是由Meta公司开发的大型开源生成式人工智能模型。它在模型结构上与前一代LLaMA-2相比没有大的变动。 LLaMA-3模型分为不同规模的版本,包括小型、中型和大型,以适...
-
大模型一对一战斗75万轮,GPT-4夺冠,Llama 3位列第五
关于Llama 3,又有测试结果新鲜出炉—— 大模型评测社区LMSYS发布了一份大模型排行榜单,Llama 3位列第五,英文单项与GPT-4并列第一。 图片 不同于其他Benchmark,这份榜单的依据是模型一对一battle,由全网测评者自行命题并打分...
-
Stability AI发布最新代码模型升级版本Stable Code Instruct 3B
Stability AI 在昨晚发布了其最新的代码模型升级版本——Stable Code Instruct3B。这一开源项目是继之前工作的延续,暗示着SD3模型的开源发布应该能够顺利进行,尽管后续模型的发展情况还不太明朗。 这个模型以3B的规模提供了业界领...
-
LLaMA-Factory 8卡4090 deepspeed zero3 微调Qwen14B-chat
环境安装 推荐使用docker,Ubuntu20.04https://www.modelscope.cn/docs/%E7%8E%AF%E5%A2%83%E5%AE%89%E8%A3%85 docker pull registry.cn-beijin...
-
RNN效率媲美Transformer,谷歌新架构两连发:同等规模强于Mamba
这一次,谷歌 DeepMind 在基础模型方面又有了新动作。 我们知道,循环神经网络(RNN)在深度学习和自然语言处理研究的早期发挥了核心作用,并在许多应用中取得了实功,包括谷歌第一个端到端机器翻译系统。不过近年来,深度学习和 NLP 都以 Transf...
-
【AI绘画】Stable Diffusion 提示词——时尚日志封面
今天来给大家分享,如何用sd简单的咒语输出好看的图片的教程,今天做的是时尚杂志专题,话不多说直入主题。 一、基本设置: 正向提示词: 画质:Highest quality, ultra-high definition, masterpieces,...
-
AI视野:ChatGPT模型大更新;阿里云发布多模态大模型;Runway视频生成输给Pixverse;百度推多模态模型UNIMO-G
欢迎来到【AI视野】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。 新鲜AI产品点击了解:https://top.aibase.com/ ???AI应用 ChatGPT模型...
-
Runway竟然完败Pixverse?3款AI视频生成模型测试
近期歸藏进行了Pixverse、Pika和Runway三者的AI视频生成模型测试。总体而言,Pixverse和Pika在视频生成质量上相当接近,分别获得74.5分和73.5分的高分,而Runway的效果却相对较差,仅为64.5分。 Pixverse的模型被...
-
Stable Diffusion 真人照片转动漫风格
相信我们很多人在看过动漫/动画后,都想看一看二次元世界中的自己长什么样子,那今天就以客户照片为例,说说我们如何用 Stable Diffusion,让 AI 帮我们将真实照片转成一个绝美二次元少女,Let’s do it~ ...
-
AI绘画Stable Diffusion实战操作: 62个咒语调教-时尚杂志封面
今天来给大家分享,如何用sd简单的咒语输出好看的图片的教程,今天做的是时尚杂志专题,话不多说直入主题。 还不会StableDiffusion的基本操作,推荐看看这篇保姆级教程: AI绘画:Stable Diffusion 终极炼丹宝典:从入门到精通...
-
研究表明AI可以帮助发电厂捕获二氧化碳,减少36%电力消耗
近日,英国萨里大学的科学家通过人工智能技术成功对燃煤电厂系统进行调整,取得了在减少36.3%电力消耗的同时,捕获更多二氧化碳(CO2)的显著效果。 这项研究的关键在于科学家们采用了模型预测控制方法,使系统能够根据外部环境的变化做出实时调整。相较于传统的碳捕...
-
向量数据库:AIGC时代的必备基础工具
今天分享的AIGC系列深度研究报告:《向量数据库:AIGC时代的必备基础工具》。 (报告出品方:广发证券) 报告共计:47页 点击添加图片描述(最多60个字)编辑 一、向量数据库为 AI 大模型全生命周期管理提质增效 随着AI大模型的...
-
【 stable diffusion LORA模型训练最全最详细教程】
个人网站:https://tianfeng.space/ 文章目录 一、前言 二、朱尼酱的赛博丹炉 1.介绍 2.解压配置 3.使用 训练准备 首页设置 上传素材 查看进度 三、秋叶的lora训练器 1.下载 2.预处理 3.参...
-
3 任务3 使用趋动云部署自己的stable-diffusion
使用趋动云部署自己的stable-diffusion 1 创建项目: 2 初始化开发环境实例 3 部署模型 4 模型测试 1 创建项目: 1.进入趋动云用户工作台,选择:当前空间,请确保当前所在空间是注册时系统自动生成的空间。 a...
-
llama.cpp LLM模型 windows cpu安装部署;运行LLaMA2模型测试
参考: https://www.listera.top/ji-xu-zhe-teng-xia-chinese-llama-alpaca/ https://blog.csdn.net/qq_38238956/article/details/130113599...
-
昆仑万维或将引领国内 AIGC 技术发展
AIGC 发展历程 如果说 2021 年是元宇宙元年,那么 2022 年绝对可以称作 AIGC 元年。自从 Accomplice 于 2021 年 10 月推出 Disco Diffusion 以来,AIGC 受到了前所未有的关注,相关产品和技术更是以...
-
【AIGC】Chatglm2-lora微调
ChatGLM2介绍 ChatGLM2-6B源码地址:https://github.com/THUDM/ChatGLM2-6B ChatGLM2-6B 是开源中英双语对话模型 ChatGLM-6B 的第二代版本,在保留了初代模型对话流畅、部署门槛较低...
-
360智脑通过国家大模型标准符合性测试
12月22日,在全国信息技术标准化技术委员会人工智能分委会全体会议上,国内首个官方“大模型标准符合性评测”结果公布,360集团与百度、腾讯、阿里四家率先通过评测。 该测试由中国电子技术标准化研究院发起,旨在建立大模型标准符合性名录,引领人工智能产业健康有序...
-
国内首个官方大模型评测结果出炉!阿里云通义千问首批通过评测
快科技12月22日消息,国内首个官方大模型标准符合性评测”结果公布。 阿里云通义千问成为首批通过评测的四款国产大模型之一,在通用性、智能性等维度均达到国家相关标准要求。 据悉,本次通过评测的首批大模型中,通义千问是唯一的开源模型,在全球拥有广泛的开发者用户...
-
2.7B能打Llama 2 70B,微软祭出「小语言模型」!96块A100 14天训出Phi-2,碾压谷歌Gemini nano
大模型现在真的是越来越卷了! 11月OpenAI先是用GPTs革了套壳GPT们的命,然后再不惜献祭董事会搏了一波天大的流量。 谷歌被逼急了,赶在年底之前仓促发布了超大模型Gemini,卷起了多模态,甚至不惜「视频造假」。 就在今天,微软正式发布了曾在11...
-
ChatGPT模型在神经学考试中表现出色,超越人类学生水平
近期发表在JAMA Network Open期刊的一项研究中,研究人员评估了两个ChatGPT大型语言模型(LLMs)在回答美国精神病学和神经学委员会问题库的问题时的表现。他们比较了这两个模型在低阶和高阶问题上的结果与人类神经学生的表现。研究发现,其中一个...
-
揭秘AI魔法绘画:Stable Diffusion引领无限创意新纪元
文章目录 1. 无限的创意空间 2. 高效的创作过程 3. 个性化的艺术表达 4. 跨界合作的可能性 5. 艺术教育的革新 6. 艺术市场的拓展 《AI魔法绘画:用Stable Diffusion挑战无限可能》 编辑推荐 内容简介 作者简...
-
文心一言-适用的精美 prompt-调教手册
文心一言简介 文心一言是百度推出对标chatGPT的产品,也是国内大厂首个发布的大模型语言类产品。文心一言知识增强大语言模型百度全新一代知识增强大语言模型,文心大模型家族的新成员,能够与人对话互动,回答问题,协助创作,高效便捷地帮助人们获取信息、...
-
基于AI绘画的换脸教学(初级)
摸索了一段时间AI绘画,浅浅摸索到了一种基于AI绘画的换脸方法,先分享下初步简单方案。 后续会有更高效果的AI绘画换脸方法 效果展示如下 学习基础 先学会基础的AI绘画,知道图生图的用法。没玩过的小白想玩AI绘画,请移步b站找AI绘画一体包下...
-
Stable Diffusion - 采样器 DPM++ 3M SDE Karras 与 SDXL Refiner 测试
欢迎关注我的CSDN:https://spike.blog.csdn.net/ 本文地址:https://spike.blog.csdn.net/article/details/132978866 Paper: DPM-Solver++: Fas...
-
AIGC实战——卷积神经网络(Convolutional Neural Network, CNN)
AIGC实战——卷积神经网络 0. 前言 1. 卷积神经网络 1.1 卷积层 1.2 叠加卷积层 1.3 检查模型 2. 批归一化 2.1 协变量漂移 2.2 使用批归一化进行训练 2.3 使用批归一化进行预测 3. Dropout 4...
-
快速训练自己的大语言模型:基于LLAMA-7B的lora指令微调
目录 1. 选用工程:lit-llama 2. 下载工程 3. 安装环境 4. 下载LLAMA-7B模型 5. 做模型转换 6. 初步测试 7. 为什么要进行指令微调? 8. 开始进行指令微调 8.1. 数据准备 8.2 开始模型训练 8.3...
-
Hugging Face 的 H4 两人团队正在开发类似 ChatGPT 的人工智能聊天机器人
人工智能初创企业 Hugging Face 近日宣布,其由两人组成的 H4 团队正致力于开发工具和「配方」,以帮助 AI 社区构建类似于 ChatGPT 的人工智能聊天机器人。自 ChatGPT 发布以来,H4 团队的成立便是为了复制其功能,使用开源库和模...