-
数字人系列四:Motionverse 接入chatgpt、文心一言等国内外大语言模型
1. 下载插件:motionverse官网地址:概述 · Motionverse 接口文档 (deepscience.cn 2. 按照官方文档新建Unity工程:对接说明 · Motionverse 接口文档 (deepscience.cn ...
-
使用QLoRA对Llama 2进行微调的详细笔记
使用QLoRA对Llama 2进行微调是我们常用的一个方法,但是在微调时会遇到各种各样的问题,所以在本文中,将尝试以详细注释的方式给出一些常见问题的答案。这些问题是特定于代码的,大多数注释都是针对所涉及的开源库以及所使用的方法和类的问题。 导入库...
-
【Rust日报】2023-03-14 Rust实现的纯 CPU 运算的 LLaMA 模型
Rust实现的纯 CPU 运算的 LLaMA 模型 我试图让 LLaMA 语言模型在纯 CPU实现上工作,灵感来自于这里的一个很棒的CPU实现:https://github.com/ggerganov/ggml,它可以运行GPT-J 6B模型。...
-
【多模态】4、Chinese CLIP | 专为中文图文匹配设计
文章目录 一、背景 二、方法 2.1 基础内容 2.2 数据集 2.3 预训练方法 2.4 模型尺寸 三、效果 四、代码 4.1 推理 论文:Chinese CLIP: Contrastive Vision-Language Pr...
-
要点初见:Stable Diffusion NovelAI模型优质文字Tag汇总与实践【魔咒汇总】
目前贴吧、B站上有大量Stable Diffusion的模型资源、TAG、TAG生成器分享,其中居然有不少试图靠信息差把这些开源资源卖钱的。加上目前网上相关的TAG整理贴极少,不少TAG也是以图片的形式存在,故博主打算在此专门整理一下网友们实践过的成套的“...
-
LLaMA-2论文阅读
1. 基本介绍 LLaMA-2是2023年7月24日Meta发布的LLaMA第二代,跟LLaMA-1几个显著区别: 免费可商用版本的大模型 context上下文增加了一倍,从2K变为了4K 训练的总token数从1.0T/1.4T增加为2.0T(...
-
使用gradio部署自己的AI应用 AI对话 和 AI绘画
gradio部署自己的 AI应用 AI对话(chatglm) 和 AI绘画(stable diffusion) 前言 提前准备: 开始 1,飞浆操作 2,部署 对话 和 绘画 3,natapp操作 4,api方式启动sd和glm 5,编写gr...
-
whisper语音识别部署及WER评价
1.whisper部署 详细过程可以参照:? 创建项目文件夹 mkdir whisper cd whisper conda创建虚拟环境 conda create -n py310 python=3.10 -c conda-forge...
-
最新Claude 200K严重「虚标」?大神壕掷1016美元实测,90K后性能急剧下降
OpenAI正忙着政变的时候,他们在硅谷最大的竞争对手Anthropic,则悄悄地搞了个大新闻——发布了支持200K上下文的Claude 2.1。 看得出来,Claude 2.1最大的升级就是将本就很强大的100K上下文能力,又提升了一倍! 200K的...
-
星火大模型AI接口Spring中项目中使用【星火、AIGC】
星火大模型AI接口使用 讯飞的星火大模型是有免费版本赠送200万个Token,就个人学习来说完全够用了。 免费申请过后,到控制台,两个红色方框是最要紧的。 星火认知大模型Web文档 | 讯飞开放平台文档中心 (xfyun.cn 这是官方文档...
-
Hugging Face最受欢迎15大AI机构出炉!清华第五,OpenAI第十,冠军竟是它?
【新智元导读】Hugging Face作为开源AI社区的代表,总结了社区最欢迎的前15个公司和机构。让我们看看在开源社区眼里,哪些机构对于开源AI贡献最大。 Hugging Face上最受欢迎的15个AI公司出炉了! 目前的冠军,是Stability AI...
-
能总结经验、持续进化,上交把智能体优化参数的成本打下来了
大模型的出现引发了智能体设计的革命性变革,在 ChatGPT 及其插件系统问世后,对大模型智能体的设计和开发吸引了极大的关注。帮助完成预订、下单等任务,协助编写文案,自主从网络上搜索最新的知识与新闻等等,这种通用、强大的智能助理,让大模型强大的语义理解、...
-
OpenAI神秘新模型Q*曝光,太强大让董事会警惕,或是奥特曼被开除导火索
OpenAI宫斗大戏刚刚落幕,马上又掀起另一场轩然大波! 路透社曝光,在奥特曼被解雇之前,几位研究人员给董事会写的警告信可能是整个事件导火索: 内部名为Q (发音为Q-Star)*的下一代AI模型,过于强大和先进,可能会威胁人类。 Q*正是由这场风暴的中...
-
“大模型本质就是两个文件!”特斯拉前AI总监爆火LLM科普,时长1小时,面向普通大众
特斯拉前AI总监Andrej Karpathy的新教程火了。 这次,他专门面向普通大众做了一个关于大语言模型的科普视频。 时长1小时,全部为“非技术介绍”,涵盖模型推理、训练、微调和新兴大模型操作系统以及安全挑战,涉及的知识全部截止到本月(非常新)。...
-
2023年的深度学习入门指南(20) - LLaMA 2模型解析
2023年的深度学习入门指南(20 - LLaMA 2模型解析 上一节我们把LLaMA 2的生成过程以及封装的过程的代码简单介绍了下。还差LLaMA 2的模型部分没有介绍。这一节我们就来介绍下LLaMA 2的模型部分。 这一部分需要一些深度神经网络的...
-
Java对接百度文心一言,Java发送POST请求,类似前端AJAX
这是项目中使用的对接百度文心一言后端代码 public class BaiduChatApi { private static String CHAT_URL = "https://aip.baidubce.com/rpc/2.0/ai_cus...
-
AIGC重塑教育:AI大模型驱动的教育变革与实践
这次,狼真的来了。 AI正迅猛地改变着我们的生活。 根据高盛发布的一份报告,AI有可能取代3亿个全职工作岗位,影响全球18%的工作岗位。在欧美,或许四分之一的工作可以用AI完成。另一份Statista的报告预测,仅2023年,AI就将创造230万...
-
Stablediffusion模型diffusesr格式和ckpt格式相互转换
参考资料: diffusers的源码 [github] 因为小博客可能看的人很少,所以我写的啰嗦一点,想直接看如何互相转换的朋友可以直接转到文末的代码段。 当你在学习Stablediffusion这个开源的t2i模型时,不...
-
淘天集团联合爱橙科技开源大模型训练框架Megatron-LLaMA
9月12日,淘天集团联合爱橙科技正式对外开源大模型训练框架——Megatron-LLaMA,旨在让技术开发者们能够更方便地提升大语言模型训练性能,降低训练成本,并保持和LLaMA社区的兼容性。测试显示,在32卡训练上,相比HuggingFace上直接获得的...
-
LLMs之LLaMA-2:源码解读之所有py文件(包括example_text_completion.py/example_chat_completion.py+model.py/generation
LLMs之LLaMA-2:源码解读之所有py文件(包括example_text_completion.py/example_chat_completion.py+model.py/generation.py/tokenizer.py 目录 一、l...
-
一份保姆级的 Stable Diffusion 部署教程,开启你的炼丹之路
市面上有很多可以被用于 AI 绘画的应用,例如 DALL-E、Midjourney、NovelAI 等,他们的大部分都依托云端服务器运行,一部分还需要支付会员费用来购买更多出图的额度。在 2022 年 8 月,一款叫做 Stable Diffusion 的...
-
文心千帆与文心一言API的使用
我在今年三月份左右申请了百度文心一言的测试,不久就通过了申请,体验了一段时间,感觉很棒,但是我更希望百度能早一点开放文心一言的API,不用在线去使用。 在7月19日那天,百度智能云给我打电话,问我体验如何,我便咨询了API开放时间,百度的答复是:目...
-
以Llama-2为例,在生成模型中使用自定义StoppingCriteria
以Llama-2为例,在生成模型中使用自定义StoppingCriteria 1. 前言 2. 场景介绍 3. 解决方法 4. 结语 1. 前言 在之前的文章中,介绍了使用transformers模块创建的模型,其generate...
-
用diffuser代码方式打造Ai作画流水线(1)
背景: stablediffusion已经成为作画人的标配,通过sd的ps插件,或者通过SD webui就可以快速的构建出一套属于自己的Ai作画环境。这种可视化的界面确实方便也是更好艺术家个代码工程师协同合作的模式,可视化界面方便艺术家创造,需要...
-
腾讯披露最新大模型训练方法,可节省50%算力成本
在算力紧缺的背景下,如何提升大模型训练和推理的效率,并降低成本,成为业界关注的焦点。 11月23日,腾讯披露,腾讯混元大模型背后的自研机器学习框架Angel再次升级,大模型训练效率提升至主流开源框架的2.6倍,千亿级大模型训练可节省50%算力成本。升级后...
-
OpenAI,请重新思考 Retrieval Assistant 的方案
作者:栾小凡 Zilliz 合伙人、技术总监 近期, OpenAI 在首届开发者大会上公布了系列最新进展,引发各大媒体和从业人员的广泛关注。 其中最引人注目的是全新推出的 GPT-4 Turbo ——一个更经济、更高效的服务版本,可以显著提升用户体验。...
-
基于 huggingface diffuser 库本地部署 Stable diffusion
前言 Stable Diffusion 是用 LAION-5B 的子集(图像大小为512*512)训练的扩散模型。此模型冻结 CLIP 的 ViT-L/14 文本编码器建模 prompt text。模型包含 860M UNet 和123M 文本编码器,...
-
LLaMA 2端到端推理打通!来自中国团队
Buddy Compiler 端到端 LLaMA2-7B 推理示例已经合并到 buddy-mlir仓库[1]主线。 我们在 Buddy Compiler 的前端部分实现了面向 TorchDynamo 的第三方编译器,从而结合了 MLIR 和 PyTorc...
-
提前对齐,视频问答新SOTA!北大全新Video-LLaVA视觉语言大模型,秒懂视频笑点
【新智元导读】最近,来自北京大学等机构研究者提出了一种全新视觉语言大模型——Video-LLaVA,使得LLM能够同时接收图片和视频为输入。Video-LlaVA在下游任务中取得了卓越的性能,并在图片、视频的13个基准上达到先进的性能。这个结果表明,统一L...
-
AI 聊天机器人 Claude 2.1 版本公布,支持输入 20 万个 Token 超 GPT-4 Turbo
IT之家 11 月 23 日消息,OpenAI 竞争对手 Anthropic 日前推出了 Claude 2.1 聊天机器人及对应同名 AI 模型,Claude 2.1 支持输入多达 20 万个 Token,并改善了准确度,同时新增系统预设提示词(Syst...
-
【A卡,Windows】stable diffusion webui下载安装避坑指南
观前提醒 本文内容都是本人亲身经历的,一个一个安装下载测试所感,当然如果你更想用傻瓜式集成包的,那还是跳过这篇文章吧。 当然我不推荐这篇文章的操作,因为我用了差不多1h才有一副图,有N卡,就用N卡,这只是无奈之举而已,方便那些像我一样暂时没有换机子打...
-
微调 Code Llama 完整指南
一、前言 今天这篇文章将向大家详细介绍如何对 Code Llama 进行微调,让它变成适合 SQL 开发的有利工具。对于编程开发任务,经过适当微调后的 Code Llama 的性能通常都会比普通的 Llama 强很多,特别是当我们针对具体任务进行优化时:...
-
如何使用LangChain和OpenAI API分析文档?
译者 | 布加迪 审校 | 重楼 从文档和数据中提取洞察力对于您做出明智的决策至关重要。然而在处理敏感信息时,会出现隐私问题。结合使用LangChain与OpenAI API,您就可以分析本地文档,无需上传到网上。 它们通过将数据保存在本地、使用嵌入和向...
-
Goat: Fine-tuned LLaMA Outperforms GPT-4 on Arithmetic Tasks
Goat: Fine-tuned LLaMA Outperforms GPT-4 on Arithmetic Tasks Introduction Method 语言模型 数学问题学习能力 COT 实验 参考 Introdu...
-
LLaMA 2: Open Foundation and Fine-Tuned Chat Models
LLaMA 2: Open Foundation and Fine-Tuned Chat Models Pre-training Fine-tuning Reward model RLHF 参考 Pre-training 数据层面...
-
百度文心一言4.0——使用及API测试
登录百度智能云:百度智能云 文心一言4.0使用 开通付费: 创建应用: 自行创建应用名称: 对话测试: API测试 ERNIE-Bot-4 API:ERNIE-Bot-4 打开链接查看自己的API Key,Secret Key。 可参考:A...
-
AIGC - Stable Diffusion 搭建【从零到一】
AIGC - Stable Diffusion 搭建 文章目录 AIGC - Stable Diffusion 搭建 1. Huggingface Token 2. Cloud GPU 3. autocover.txt 4. user...
-
LLMs之LLaMA:《LLaMA: Open and Efficient Foundation Language Models》翻译与解读
LLMs之LLaMA:《LLaMA: Open and Efficient Foundation Language Models》翻译与解读 导读:该论文提出了一个开源的大规模语言模型LLaMA,2048个A100-80G训练21天。该...
-
ChatGPT最强竞对更新!上下文长度翻倍,API降价近30%
OpenAI开发者大会后不久,它的最强竞对Claude也宣布推出了重磅更新。 更新后的Claude 2.1,上下文长度直接翻番到20万,重新超过了GPT-4。 根据官方通告,Claude 2.1版本的API已经上线,网页版本也已经完成升级。 那么,这...
-
MAC安装stable diffusion
电脑配置 基本安装 1. 安装python 2. 安装git 3. 下载stable diffusion的代码,地址: git clone https://github.com/AUTOMATIC1111/stable-diffus...
-
用深度催眠诱导LLM「越狱」,香港浸会大学初探可信大语言模型
尽管大语言模型 LLM (Large Language Model 在各种应用中取得了巨大成功,但它也容易受到一些 Prompt 的诱导,从而越过模型内置的安全防护提供一些危险 / 违法内容,即 Jailbreak。深入理解这类 Jailbreak 的...
-
AI绘画stable-diffusion-webui指定GPU运行
在cmd_args.py文件中,进行运行参数的设定,其中可以指定gpu信息 import argparse import os from modules.paths_internal import models_path, script_path, da...
-
大模型微调踩坑记录 - 基于Alpaca-LLaMa+Lora
前言 为了使用开放权重的LLM(大语言模型 ,基于自己的训练集,微调模型,会涉及到如下一些技术要点: 配置运行环境 下载、加载基础模型 收集语料、微调训练 检验训练效果 在实施过程中,遇到不少困难,因此写下这篇文档,做为记录。 环境配置...
-
ubuntu使用whisper和funASR-语者分离-二值化
文章目录 一、选择系统 1.1 更新环境 二、安装使用whisper 2.1 创建环境 2.1 安装 2.1.1安装基础包 2.1.2安装依赖 3测试1 3测试2 语着分离 创建代码 `报错ModuleNotFoundError: N...
-
一切为了应用!九章云极DataCanvas大模型系列成果重磅发布!
11月21日,「筑基赋能 智向未来」九章云极DataCanvas大模型系列成果发布会(以下简称“发布会”)在北京重磅召开,本次成果发布距离今年6月30日DataCanvas Alaya九章元识大模型公布仅4个多月,是九章云极DataCanvas公司大模...
-
Midjourney API 申请和接入小白教程
Midjourney API 为开发者提供了快速接入Midjourney平台的能力,它允许开发者通过简单的代码调用来访问 Midjourney 平台上的生成高质量的图像能力。 本文将提供一份Midjourney API 的入门教程,以帮助开发者快...
-
vs code 如何使用copilot(对接了chatgpt)
VS Code 是一个非常流行的开发工具,而 Copilot 则是一个基于 GPT 模型的代码生成工具,可以通过 VS Code 安装相关的插件来使用。 以下是在 VS Code 中使用 Copilot 的步骤: 下载安装 VS Code 插件 首先,...
-
NLP实践——使用Llama-2进行中文对话
NLP实践——使用Llama-2进行中文对话 1. 前言 2. 利用prompt 3. 利用Logit Processor 3.1 修改1 3.2 修改2 3.3 修改3 3.4 修改4 1. 前言 在之前的博客 NLP实践—...
-
大模型入门(四)—— 基于peft 微调 LLaMa模型
llama-7b模型大小大约27G,本文在单张/两张 16G V100上基于hugging face的peft库实现了llama-7b的微调。 1、模型和数据准备 使用的大模型:https://huggingface.co/decapoda-resea...
-
基于llama模型进行增量预训练
目录 1、llama模型转换(pytorch格式转换为HuggingFace格式 1.1、拉取Chinese-LLaMA-Alpaca项目 1.2、准备文件夹 1.3、下载llama官方原始模型 1.4、移动文件到指定位置 1.5、执行转换脚...