-
在亚马逊云科技Amazon SageMaker上进行Stable Diffusion模型训练和推理
Stable Diffusion Quick Kit是一个基于亚马逊云科技Amazon SageMaker进行Stable Diffusion模型快速部署的工具包,包括了一组示例代码、服务部署脚本、前端UI,可以帮助可以快速部署一套Stable Diff...
-
LLama 2部署教程+私有模型分发
近日,Meta发布了LLama的最新版本——LLama2,尽管其对中文的处理能力尚有待提升,但其整体表现无疑是令人瞩目的。在发布当天,我便迫切地将其下载下来进行试用,发现相比之前的版本,LLama2在多个方面都实现了显著的进步,特别是在编程能力上的提升更为...
-
llama.cpp一种在本地CPU上部署的量化模型(超低配推理llama)
0x00 背景 前不久,Meta前脚发布完开源大语言模型LLaMA, 随后就被网友“泄漏”,直接放了一个磁力链接下载链接。 然而那些手头没有顶级显卡的朋友们,就只能看看而已了 但是 Georgi Gerganov 开源了一个项目llama.cpp...
-
【文生图系列】 Stable Diffusion v1复现教程
文章目录 Stable Diffusion v1 环境配置 权重下载 txt2img bug 超参数 Diffusers 参考 Stable Diffusion v1 stable diffusion是一个潜在的文本到图像...
-
使用 PAI-Blade 优化 Stable Diffusion 推理流程
背景 AIGC是人工智能计算领域里发展迅速的重要业务。Stable Diffusion 是其中最热门的开源模型,受到广泛关注。然而,随着应用场景不断扩大,Stable Diffusion所面临的推理时延和计算成本问题也越来越突出。 简介 PAI-Bl...
-
Stable Diffusion 本地部署教程
1.前言: 最近看Stable Diffusion开源了,据说比Disco Diffusion更快,于是从git上拉取了项目尝试本地部署了,记录分享一下过程~ 这里是官网介绍:https://stability.ai/blog/stable-diffu...
-
Windows10上使用llama-recipes(LoRA)来对llama-2-7b做fine-tune
刚刚在Windows10上搭建环境来对llama2做finetune,里面坑还是挺多的,这里把印象中的坑整理了一下以作备忘。 llama-recipes是meta的开源项目,Github地址为:GitHub - facebookresearch/llam...
-
开启想象翅膀:轻松实现文本生成模型的创作应用,支持LLaMA、ChatGLM、UDA、GPT2、Seq2Seq、BART、T5、SongNet等模型,开箱即用
开启想象翅膀:轻松实现文本生成模型的创作应用,支持LLaMA、ChatGLM、UDA、GPT2、Seq2Seq、BART、T5、SongNet等模型,开箱即用 TextGen: Implementation of Text Generation...
-
ChatGPT开源平替(2)llama
最近,FacebookResearch 开源了他们最新的大语言模型 LLaMA,训练使用多达14,000 tokens 语料,包含不同大小参数量的模型 7B、13B 、30B、 65B,研究者可以根据自身算力配置进行选择。 ...
-
用语言对齐多模态信息,北大腾讯等提出LanguageBind,刷新多个榜单
在现代社会,信息传递和交流不再局限于单一模态。我们生活在一个多模态的世界里,声音、视频、文字和深度图等模态信息相互交织,共同构成了我们丰富的感知体验。这种多模态的信息交互不仅存在于人类社会的沟通中,同样也是机器理解世界所必须面对的挑战。 如何让机器像人类...
-
Stable Diffusion web UI 运行报错 Error while deserializing header: MetadataIncompleteBuffer
Use --skip-version-check commandline argument to disable this check. ===========================================================...
-
【AI绘画】《超入门级教程:训练自己的LORA模型》,MM超爱的萌宠图片实战
目录 前言 一、SD-Trainer webui使用介绍 二、准备工作 2-1、登录在线训练平台 2-2、购买算力并创建工作空间 2-3、启动工作空间 三、开始训练 3-1、打开终端 3-2、准备训练数据 3-3、准备模型文件 3-3-...
-
10分钟定制一个「陈天奇GPT」,OpenAI新品大波实测来袭!Sam Altman降维打击,千家AI初创公司入土
OpenAI首届春晚,创业公司屠杀夜。 正如Sam Altman所言:「我们正在孕育新物种,它们正在迅速增殖。」 图片 可以说,基于OpenAI接口构建创业公司,产品忽然就失去了意义。许多初创公司的产品,已经没有了护城河。 杜克大学教授陈怡然表示,照这个...
-
姚班天才开发《完蛋!我被大模型包围了》游戏爆火,一日用户过万挤爆服务器
什么样的“大模型原生”游戏,让各大算法竞赛群里都在玩,还把服务器挤爆了? 这款突然爆火的《完蛋!LLM》,让你在解谜挑战之中轻松学会大模型提示词技巧,达成1日用户破万的成就。 难度循序渐进,比如第一题初来乍到只是“请你构造一个问题,使模型的回答是一字不...
-
LLMs:LLaMA Efficient Tuning(一款可高效微调【全参数/LoRA/QLoRA】主流大模型【ChatGLM-2/LLaMA-2/Baichuan等】的高效工具【预训练+指令监督微
LLMs:LLaMA Efficient Tuning(一款可高效微调【全参数/LoRA/QLoRA】主流大模型【ChatGLM-2/LLaMA-2/Baichuan等】的高效工具【预训练+指令监督微调+奖励模型训练+PPO 训练+DPO 训练】 的简介、...
-
Stable Diffusion WebUI linux部署问题
当我部署好环境后,准备大张旗鼓开搞时,进入项目地址运行python launch.py后发现 下面连接着的报错是 OSError: Can't load tokenizer for 'openai/clip-vit-large-patch14'....
-
语音识别开源框架 openAI-whisper
Whisper 是一种通用的语音识别模型。 它是OpenAI于2022年9月份开源的在各种音频的大型数据集上训练的语音识别模型,也是一个可以执行多语言语音识别、语音翻译和语言识别的多任务模型。 GitHub - yeyupiaoling/Whispe...
-
中文大语言模型 Llama-2 7B(或13B) 本地化部署 (国内云服务器、GPU单卡16GB、中文模型、WEB页面TextUI、简单入门)
本文目的是让大家先熟悉模型的部署,简单入门;所以只需要很小的算力,单台服务器 单GPU显卡(显存不低于12GB),操作系统需要安装 Ubuntu 18.04。 1 服务器&操作系统 1.1服务器的准备...
-
深度解析 Llama 2 的资源汇总:不容错过
“ 探索 Llama 2 背后的过程,包括了模型的全面解析,在线体验,微调,部署等,这份资源汇总将带您深入了解其内涵。” 01 — 周二发布了文章《中文大模型 Chinese-LLaMA-Alpaca-2 开源且可以商用》后,不少朋...
-
Stable Diffusion Lora模型训练详细教程
1. 介绍 通过Lora小模型可以控制很多特定场景的内容生成。 但是那些模型是别人训练好的,你肯定很好奇,我也想训练一个自己的专属模型(也叫炼丹~_~)。 甚至可以训练一个专属家庭版的模型(family model),非常有意思。 将自己的训练好...
-
【LLM】Windows本地CPU部署民间版中文羊驼模型(Chinese-LLaMA-Alpaca)踩坑记录
目录 前言 准备工作 Git Python3.9 Cmake 下载模型 合并模型 部署模型 前言 想必有小伙伴也想跟我一样体验下部署大语言模型, 但碍于经济实力, 不过民间上出现了大量的量化模型, 我们平民也能体验体验啦~...
-
AI视野:xAI首个大模型Grok炸场;李开复官宣开源大模型Yi-34B;ChatGPT原型Gizmo新功能曝光;百度网盘引入大模型智能助理
????大模型动态 李开复官宣全球最强开源大模型Yi-34B 一次可处理40万汉字 零一万物发布全球最强的开源大模型Yi-34B,具备超强的语言理解和处理能力,支持处理40万汉字,在中文指标上表现卓越,标志着中国在大模型领域的重大突破。 项目地址:htt...
-
李开复领队开源大模型 Yi,40万字上下文窗口破纪录
由李开复博士亲自下场创办的零一万物(01.ai),自3月底官宣成立后,于近日发布并开源了两个版本的中英文大模型 Yi-6B 和 Yi-34B。 在线上发布环节,李开复博士重点介绍了 Yi 系列大模型的三处性能亮点: 全球最长200K 上下文窗口,免费开...
-
李开复官宣全球最强开源大模型Yi-34B 一次可处理40万汉字
零一万物推出了「Yi」系列开源大模型,其中Yi-34B在全球开源大模型排行榜上取得了显著成就,击败了其他竞品模型,成为双料冠军,尤其在中文指标上表现卓越。Yi-34B的性能超越了全球其他大模型,拥有强大的语言理解和处理能力,可以满足国内市场的需求。 ht...
-
李开复称其创立的AI公司零一万物估值已超10亿美元 发布大模型Yi-34B
此前,李开复成立了一家初创公司,名为零一万物(01.AI),旨在为中国市场开发本土大型语言模型(LLM)。日前,李开复在接受采访时解释了创建零一万物的动机:“我认为需求是创新之母,在中国显然存在巨大的需求。与世界其他地方不同,中国无法使用OpenAI和Go...
-
蚂蚁集团发布DevOps领域大模型评测基准DevOps-Eval
蚂蚁集团联合北京大学发布了面向 DevOps 领域的大语言模型评测基准 ——DevOps-Eval。 该评测基准包含了计划、编码、构建、测试、发布、部署、运维和监控等8个类别的选择题,共计4850道题目。 此外,还针对 AIOps 任务做了细分,并添加了日...
-
AI视野:Stability AI推出Stable3D;阿里云发布通义灵码;OpenAI称ChatGPT意识已觉醒;全球AI网络安全协议签署
???AI应用 Stability AI推出Stable3D以及一键替换图片天空功能 Stability AI宣布推出Stable3D,一款支持文本生成高质量3D模型的新工具。用户可以使用文本、图片或插图来轻松生成3D模型,并在多个3D开发平台上进行编辑。...
-
Jina AI 推出“jina-embeddings-v2”:全球首个8k 开源文本嵌入模型
Jina AI 公布了其第二代文本嵌入模型的最新进展:jina-embeddings-v2。这个最先进的模型是唯一支持8K(8192个token)上下文长度的开源解决方案。这一成就使其在功能和在大规模文本嵌入基准 (MTEB 排行榜上的性能方面与 Ope...
-
使用Panda-Gym的机器臂模拟进行Deep Q-learning强化学习
强化学习(RL 是一种机器学习方法,它允许代理通过试错来学习如何在环境中表现。行为主体因采取行动导致预期结果而获得奖励,因采取行动导致预期结果而受到惩罚。随着时间的推移,代理学会采取行动,使其预期回报最大化。 RL代理通常使用马尔可夫决策过程(MDP ...
-
八张3090,1天压缩万亿参数大模型!3.2TB骤降至160GB,压缩率高达20倍
随着GPT-4的架构被知名业内大佬「开源」,混合专家架构(MoE)再次成为了研究的重点。 GPT-4拥有16个专家模型,总共包含1.8万亿个参数。每生成一个token需要使用大约2800亿参数和560TFLOPs 然而,模型更快、更准确的代价,则是巨大...
-
比Transformer更好,无Attention、MLPs的BERT、GPT反而更强了
从 BERT、GPT 和 Flan-T5 等语言模型到 SAM 和 Stable Diffusion 等图像模型,Transformer 正以锐不可当之势席卷这个世界,但人们也不禁会问:Transformer 是唯一选择吗? 斯坦福大学和纽约州立大学布法...
-
最好7B模型再易主!打败700亿LLaMA2,苹果电脑就能跑
花500刀“调教”的70亿参数模型,打败700亿参数的Llama 2! 且笔记本就能轻松跑,效果媲美ChatGPT。 重点:免费、不要钱。 HuggingFace H4团队打造的开源模型Zephyr-7B,鲨疯了。 其底层模型是前段时间爆火、由有着“欧...
-
元象 XVERSE 与腾讯音乐推出 lyraXVERSE 加速大模型
元象 XVERSE 与腾讯音乐合作推出 lyraXVERSE 加速大模型,将应用于音乐助手 “AI 小琴” 中。 用户可以通过点击 QQ 音乐上的 “AI 一起听” 按键来与升级版的 “AI 小琴” 互动,她将根据用户的提问、播放习惯和心情提供闲聊、推歌、...
-
你的GPU能跑Llama 2等大模型吗?用这个开源项目上手测一测
在算力为王的时代,你的 GPU 可以顺畅的运行大模型(LLM)吗? 对于这一问题,很多人都难以给出确切的回答,不知该如何计算 GPU 内存。因为查看 GPU 可以处理哪些 LLM 并不像查看模型大小那么容易,在推理期间(KV 缓存)模型会占用大量内存,例...
-
斯坦福公开十大主流模型透明度!Llama 2位列第一,GPT-4透明差,LeCun炮轰:盈利完全理解
GPT-4、Llama等基础模型(FM)相继诞生,已成为当前生成式AI的引擎。 尽管这些FM的社会影响力不断增大,但透明度反而下降。 GPT-4官宣后,OpenAI公布的技术报告中,并未提及关键信息。包括谷歌PaLM,以及其他闭源模型也是如此。 每个人...