-
孟子3-13B大模型正式开源
澜舟科技近日宣布,其研发的孟子3-13B大模型正式开源,并向学术研究领域全面开放,同时支持免费商用。这一轻量化大模型在多项基准测试中展现了优异的性能,特别是在参数量20B以内的模型中,其中英文语言能力尤为突出,数学和编程能力也位于行业前列。 孟子3-13B...
-
谷歌狂喜:JAX性能超越Pytorch、TensorFlow!或成GPU推理训练最快选择
谷歌力推的JAX在最近的基准测试中性能已经超过Pytorch和TensorFlow,7项指标排名第一。 而且测试并不是在JAX性能表现最好的TPU上完成的。 虽然现在在开发者中,Pytorch依然比Tensorflow更受欢迎。 但未来,也许有更多...
-
0门槛免费商用!孟子3-13B大模型正式开源,万亿token数据训练
澜舟科技官宣:孟子3-13B大模型正式开源! 这一主打高性价比的轻量化大模型,面向学术研究完全开放,并支持免费商用。 在MMLU、GSM8K、HUMAN-EVAL等各项基准测评估中,孟子3-13B都表现出了不错的性能。 尤其在参数量20B以内的轻量化大模...
-
如何修改大模型的位置编码 --以LLama为例
最近在看RoPE相关内容,一些方法通过简单修改位置编码就可以无需训练支持更长的文本内容。由于一些模型,已经训练好了,但是怎么修改已经训练好的模型位置编码。查了以下相关代码,记录一下。原理这里就不细讲了,贴几个相关博客。十分钟读懂旋转编码(RoPE)Tran...
-
Yuan2.0大模型,联合向量数据库和Llama-index,助力检索增强生成技术
1. 背景 在大模型爆发的时代,快速准确地从大量数据中检索出有价值的信息变得至关重要。检索增强生成(RAG)技术,结合了传统的信息检索和最新的大语言模型(LLM),不仅能够回答复杂的查询,还能在此基础上生成信息丰富的内容。 RAG技术的核心在于其能够将...
-
Stable Diffusion Webui 本地部署【踩坑记录】
1、安装python Python Release Python 3.10.6 | Python.org 2、安装git git是一个代码管理工具,通过它可以将开源项目仓库克隆到本地 下载地址:Git - Downloading Package...
-
AI21发布世界首个Mamba的生产级模型Jamba 支持256K上下文长度
AI21发布了世界首个Mamba的生产级模型:Jamba。这个模型采用了开创性的SSM-Transformer架构,具有52B参数,其中12B在生成时处于活动状态。Jamba结合了Joint Attention和Mamba技术,支持256K上下文长度。单个...
-
AI漫画自动生成器Al Comic Factory 支持批量生成不同语言的漫画
Al Comic Factory是一个独特的项目,它运用先进的技术自动生成具有情感和故事性的漫画内容。这个项目的核心是大型语言模型和SDXL技术,它们共同工作,根据用户提供的简单文本提示,自动创建出包含人物对话和场景描述的漫画。 项目地址:https:/...
-
如何开始定制你自己的大型语言模型
2023年的大型语言模型领域经历了许多快速的发展和创新,发展出了更大的模型规模并且获得了更好的性能,那么我们普通用户是否可以定制我们需要的大型语言模型呢? 首先你需要有硬件的资源,对于硬件来说有2个路径可以选。高性能和低性能,这里的区别就是是功率,因为精...
-
Champ首发开源:人体视频生成新SOTA,5天斩获1k星,demo可玩
近日,由阿里、复旦大学、南京大学联合发布的可控人体视频生成工作 Champ 火爆全网。该模型仅开源 5 天 GitHub 即收获 1k 星,在 Twitter 更是「火出圈」,吸引了大量博主二创,浏览量总量达到 300K。 目前 Champ 已经开源...
-
Mamba超强进化体一举颠覆Transformer!单张A100跑140K上下文
之前引爆了AI圈的Mamba架构,今天又推出了一版超强变体! 人工智能独角兽AI21 Labs刚刚开源了Jamba,世界上第一个生产级的Mamba大模型! Jamba在多项基准测试中表现亮眼,与目前最强的几个开源Transformer平起平坐。 特别是...
-
llama-index调用qwen大模型实现RAG
背景 llama-index在实现RAG方案的时候多是用的llama等英文大模型,对于国内的诸多模型案例较少,本次将使用qwen大模型实现llama-index的RAG方案。 环境配置 (1)pip包 llamaindex需要预装很多包,这里先把我...
-
首个基于SSM-Transformer混合架构,开源商业大模型Jamba
3月29日,知名AI研究实验室AI21在官网开源了,首个基于SSM-Transformer混合架构的商业大模型——Jamba。 目前,ChatGPT、Stable Difusion 、Lyria等产品使用的皆是Transformer架构,虽然在捕捉序列内长...
-
元象大模型开源30款量化版本 可更低成本部署
元象大模型开源了30款量化版本,支持 vLLM 和 llama.cpp 等主流框架的量化推理,无条件免费商用。 对量化前后的模型能力、推理性能进行评估,以 XVERSE-13B-GPTQ-Int4量化版本为例,量化后模型权重压缩了72%,总吞吐提高了1.5...
-
DBRX抢占开源大模型王座 编程、数学等领域超越GPT-3.5
最新开源大语言模型DBRX以其惊人的1320亿参数量成为业界新宠。该模型不仅在语言理解、编程和数学等方面超越了业内领先的开源模型,还在效率上有所突破。DBRX的基础和微调版本均已发布,为研究和商业应用提供了丰富的资源。 GitHub 链接:https:/...
-
Stability AI开源3B代码生成模型:可补全,还能Debug
本周一,Stability AI 开源了小体量预训练模型 Stable Code Instruct 3B。 Stable Code Instruct 3B 是一个基于 Stable Code 3B 的指令调整编码语言模型(Code LM)。给出自然语言...
-
Stability AI发布最新代码模型升级版本Stable Code Instruct 3B
Stability AI 在昨晚发布了其最新的代码模型升级版本——Stable Code Instruct3B。这一开源项目是继之前工作的延续,暗示着SD3模型的开源发布应该能够顺利进行,尽管后续模型的发展情况还不太明朗。 这个模型以3B的规模提供了业界领...
-
开源文生图大模型Playground v2.5发布:超越SD、DALL·E 3和 Midjourney
前言 在AI技术迅速发展的今天,文生图模型成为了艺术创作、设计创新等领域的重要工具。Playground v2.5的发布,不仅在技术上取得了突破,更在开源文化的推广与实践上迈出了重要一步。 Huggingface模型下载:https://huggi...
-
使用GaLore在本地GPU进行高效的LLM调优
训练大型语言模型(llm ,即使是那些“只有”70亿个参数的模型,也是一项计算密集型的任务。这种水平的训练需要的资源超出了大多数个人爱好者的能力范围。为了弥补这一差距,出现了低秩适应(LoRA 等参数高效方法,可以在消费级gpu上对大量模型进行微调。 G...
-
3140参数Grok-1推理加速3.8倍,PyTorch+HuggingFace版来了
马斯克说到做到开源Grok-1,开源社区一片狂喜。 但基于Grok-1做改动or商用,都还有点难题: Grok-1使用Rust+JAX构建,对于习惯Python+PyTorch+HuggingFace等主流软件生态的用户上手门槛高。 △图注:Grok登...
-
突发!Stability AI的CEO,跑路了
生成式 AI 的明星创业公司 Stability AI,现在是风雨飘摇的状态。 周六上午,Stability AI 突然发布一项公告,宣布公司 CEO Emad Mostaque 辞职。 公告全文内容如下: 今天早些时候,Emad Mo...
-
提升你的 AI 绘画技能:Stable Diffusion 进阶攻略
本文主要介绍的各种模型类型:模型底模、VAE 美化模型、Lora 模型和 hypernetwork 文末扫码可咨询! 使用模型 两个模型分享站,自备梯子哦。 C站:https://civitai.com/ huggingface:https://...
-
图像生成地表最强!Playground v2.5技术报告解读重磅来袭!超越SD、DALL·E 3和 Midjourney
文章链接:https://arxiv.org/pdf/2402.17245 模型地址: https://huggingface.co/playgroundai/playground-v2.5-1024px-aesthetic 本文分享了在文本到图像生成模...
-
stable diffusion webui升级bug问题解决思路(纯干货)
个人网站:https://tianfeng.space/ 文章目录 一、前言 二、个人方案 1.扼杀在萌芽中 A.解压后点击启动器运行依赖,然后点击A启动器 B.更新本体和扩展(全部到最新版本) C.把controlnet1.1放入sta...
-
AIGC 实战:Ollama 和 Hugging Face 是什么关系?
HuggingFace(拥抱脸)和Ollama都与**大型语言模型(LLMs)**有关,但它们的用途不同: HuggingFace: HuggingFace 是一个知名的平台,提供各种预训练的LLMs,包括流行的模型如GPT-3、BERT和...
-
秋神SD整合包 AI绘画 Stable Diffusion 整合包 V4版 解压即用 AI绘图模型LoRA + 最新
「 无套路!文末提供下载方式 」 2024年绘画圈最火的软件 那妥妥的就Stable Diffution V4升级版无需安装,直接解压就能用 (在此要感谢秋葉aaaki大佬的分享!)** 比之前版本的更加智能、高效和易操作 V4加强版小白也能轻...
-
Fastwhisper + Pyannote 实现 ASR + 说话者识别
文章目录 前言 一、faster-whisper简单介绍 二、pyannote.audio介绍 三、faster-whisper + pyannote.audio 实现语者识别 四、多说几句 前言 最近在研究ASR相关的业务,也...
-
对大型语言模型的安全性能进行基准测试,谁更胜一筹?
大型语言模型(LLM)机器学习技术正在迅速发展,催生了多个相互竞争的开源和专有架构。除了与ChatGPT等平台相关的生成式文本任务外,LLM还被证实在许多文本处理应用程序中具有实用价值,可以协助编写代码以及对内容进行分类。 SophosAI研究了许多在网...
-
大模型之Llama系列- LlaMA 2及LLaMA2_chat(上)
LlaMA 2是一个经过预训练与微调的基于自回归的transformer的LLMs,参数从7B至70B。同期推出的Llama 2-Chat是Llama 2专门为对话领域微调的模型。 在许多开放的基准测试中Llama 2-Chat优于其他开源的聊天模型,此外...
-
微软NaturalSpeech语音合成推出第三代,网友惊呼:超自然!实至名归
文本到语音合成(Text to Speech,TTS)作为生成式人工智能(Generative AI 或 AIGC)的重要课题,在近年来取得了飞速发展。在大模型(LLM)时代下,语音合成技术能够扩展大模型的语音交互能力,更是受到了广泛的关注。 多年来,微...
-
一个开源免费的实时AI绘画软件Krita
Krita是由Krita插件+ComfyUI+LCM插件结合的一个实时可预览的AI绘画工具,是一款自由开源、免费的专业级绘画软件,Krita采用的是GNU GPL许可证确保它将一直保持自由开源的本色。 一:搭建Krita创作平台 1、Krita客户...
-
【本地化部署Stable Diffusion WebUI(MACOS安装)】
提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档 文章目录 前言 一、Stable Diffusion WebUI适配三类芯片 二、安装 1.安装git、conda等 2.选定目录及下载Github远程仓库文件 3....
-
Stable Video 3D震撼登场:单图生成无死角3D视频、模型权重开放
Stability AI 的大模型家族来了一位新成员。 昨日,Stability AI 继推出文生图 Stable Diffusion、文生视频 Stable Video Diffusion 之后,又为社区带来了 3D 视频生成大模型「Stable Vi...
-
Python AI 之Stable-Diffusion-WebUI
Stable-Diffusion-WebUI简介 通过Gradio库,实现Stable Diffusion web 管理接口 Windows 11 安装Stable-Diffusion-WebUI 个人认为Stable-Diffusion-We...
-
如何扩展大模型的上下文长度
一、背景 大模型的上下文长度是指我们在使用大模型的时候,给大模型的输入加上输出的字符(Token)总数,这个数字会被限制,如果超过这个长度的字符会被大模型丢弃。目前开源的大模型上下文长度一般不长,比如 Llama 2 只有 4K,Code-Llama 系...
-
huggingface的diffusers训练stable diffusion记录
代码:https://github.com/huggingface/diffusers/tree/main/examples/text_to_image 2006.11239.pdf (arxiv.org 论文 2006.11239.pdf (ar...
-
Stable Diffusion放大器 StableSR超清无损放大图片,最大呈现出丰富的细节!
之前介绍了放大脚本Ultimate SD upscale 但是有一种极其重要的图像放大算法,名为stableSR。 今天,我们必须单独为大家介绍一下它。 这个算法不仅可以放大由stable diffusion生成的图像,即使你从网上随便下载一张图片,...
-
Stable Diffusion 跑通总结
记录了自己跑通Stable Diffusion的过程和踩过的坑,目前只是初步跑了一下,没有很深入的使用代码,希望能有一些参考价值。 在Windows系统运行,需要提前装好Conda 一、下载代码和模型 1、下载代码: 代码下载:代码地址 或者...
-
20240203在WIN10下配置stable-diffusion-webui.git
20240203在WIN10下配置stable-diffusion-webui.git 2024/2/3 11:55 【结论:在WIN10下,生成512x512分辨率的图像,大概需要9秒钟!】 【结论:在Ubuntu20.04.6下,生成512x512...
-
Stable diffusion安装以及汉化
安装参考:https://blog.csdn.net/weixin_72959097/article/details/136261658 (1)下载miniconda Miniconda是一个轻量级的包管理系统,用于管理和部署Python环境和软件包。...
-
Stable Diffusion XL on diffusers
Stable Diffusion XL on diffusers 翻译自:https://huggingface.co/docs/diffusers/using-diffusers/sdxl v0.24.0 非逐字翻译 Stable Dif...
-
【学习笔记】:Ubuntu 22 使用模型量化工具llama.cpp部署大模型 CPU+GPU
学习笔记:Ubuntu 22 使用模型量化工具llama.cpp部署大模型 CPU+GPU 前言 1 下载并编译llama.cpp 1.1 git下载llama.cpp仓库源码 1.2 编译源码(make) 1.2.1 选择一:仅在CPU上...
-
语音转字幕:Whisper模型的功能和使用
? 作者:知识浅谈,CSDN签约讲师,CSDN博客专家,华为云云享专家,阿里云专家博主 ? 擅长领域:全栈工程师、爬虫、ACM算法 ? 公众号:知识浅谈 ?语音转字幕:Whisper模型的功能和使用? 使用到的工具和模型: 公众号 知识浅谈 回复 w...
-
MACBOOK PRO M2 MAX 安装Stable Diffusion及文生图实例
以前偶尔会使用Midjourney生成一些图片,现在使用的头像就是当时花钱在Midjourney上生成的。前段时间从某鱼上拍了一台性价比还不错的macbook,想着不如自己部署Stable Diffusion(以下简称SD)尝试一下。 网上有很多教程,但...
-
史上AI绘画最全资料合集
stable-cascade 使用教程 MJ+SORA+副业教程(推荐) 米粒网 Magic Animate 地址: https://www.youtube.com/watch?v=RDH5lyurock SDXL Turbo...
-
运行StableDiffusionInpaintPipeline的Example时报错:OSError: Cannot load model runwayml/stable-diffusion-...
项目地址: https://huggingface.co/docs/diffusers/api/pipelines/stable_diffusion/inpainthttps://huggingface.co/docs/diffusers/api/pip...
-
LLM将成历史?开源bGPT或颠覆深度学习范式:直接模拟二进制,开启模拟数字世界新纪元!
微软亚洲研究院推出的最新成果bGPT,这种基于字节的Transformer模型,为我们探索数字世界开辟了新的大门。 与传统的基于词表的语言模型不同,bGPT的独特之处在于其对原始二进制数据的直接处理能力,不受特定格式或任务的限制,其目标是全面模拟数字世界...
-
【AI实战】从零开始搭建中文 LLaMA-33B 语言模型 Chinese-LLaMA-Alpaca-33B
【AI实战】从零开始搭建中文 LLaMA-33B 语言模型 Chinese-LLaMA-Alpaca-33B 简介 环境配置 环境搭建 依赖安装 代码及模型权重拉取 拉取 Chinese-LLaMA-Alpaca 拉取 llama-30b...
-
AIGC:语音克隆模型Bert-VITS2-2.3部署与实战
1 VITS2模型 1.1 摘要 单阶段文本到语音模型最近被积极研究,其结果优于两阶段管道系统。以往的单阶段模型虽然取得了较大的进展,但在间歇性非自然性、计算效率、对音素转换依赖性强等方面仍有改进的空间。本文提出VITS2,一种单阶段的文本到语音模型...
-
构建本地运行的LLM语音助理
译者 | 朱先忠 审校 | 重楼 引言 我不得不承认,我最初对大型语言模型(LLM)生成实际有效的代码片段的能力持怀疑态度。我抱着最坏的打算尝试了一下,结果我感到很惊喜。就像与聊天机器人的任何互动一样,问题的格式很重要;但随着时间的推移,你会知道如何...