-
[NLP] 使用Llama.cpp和LangChain在CPU上使用大模型-RAG
一 准备工作 下面是构建这个应用程序时将使用的软件工具: 1.Llama-cpp-python 下载llama-cpp, llama-cpp-python [NLP] Llama2模型运行在Mac机器-CSDN博客 2、LangChain L...
-
卧剿,6万字!30个方向130篇!CVPR 2023 最全 AIGC 论文!一口气读完。
一杯奶茶,成为 AIGC+CV 视觉前沿弄潮儿! 25个方向!CVPR 2022 GAN论文汇总 35个方向!ICCV 2021 最全GAN论文汇总 超110篇!CVPR 2021 最全GAN论文梳理 超100篇!CVPR 2020...
-
stable diffusion模型讲解
AI模型最新展现出的图像生成能力远远超出人们的预期,直接根据文字描述就能创造出具有惊人视觉效果的图像,其背后的运行机制显得十分神秘与神奇,但确实影响了人类创造艺术的方式。 AI模型最新展现出的图像生成能力远远超出人们的预期,直接根据文字描述就能创造出具有...
-
2023最新ChatGPT商业运营网站源码+支持ChatGPT4.0+新增GPT联网功能+支持ai绘画+实时语音识别输入+用户会员套餐+免费更新版本
2023最新ChatGPT商业运营网站源码+支持ChatGPT4.0+新增GPT联网功能+支持ai绘画+实时语音识别输入+用户会员套餐+免费更新版本 一、AI创作系统 二、系统程序下载 三、系统介绍 四、安装教程 五、主要功能展示 六、更新日志...
-
AIGC实战——自回归模型(Autoregressive Model)
AIGC实战——自回归模型 0. 前言 1. 长短期记忆网络基本原理 2. Recipes 数据集 3. 处理文本数据 3.1 文本与图像数据处理的差异 3.2 文本数据处理步骤 4. 构建 LSTM 模型 4.1 模型架构 4.2 LS...
-
首创pix2emb范式!NUS清华联合发布NExT-Chat:对话/检测/分割全能多模态大模型
随着ChatGPT的爆红,多模态领域也涌现出一大批可以处理多种模态输入的对话模型,如LLaVA, BLIP-2等等。 为了进一步扩展多模态大模型的区域理解能力,近期新加坡国立大学NExT++实验室和清华大学的研究人员联手打造了一个可以同时进行对话和检测、...
-
人工智能可以像人类一样拥有创造力吗?
创造力是人类的一种独特的能力,它使我们能够创造出新颖、有价值、有意义的作品,如艺术、文学、科学、技术等。创造力也是人类社会的一种重要的驱动力,它促进了文化、经济、教育等领域的发展和进步。创造力到底是什么?它是如何产生的?它又如何被评估和提升的?这些问题一...
-
万字长文谈自动驾驶BEV感知
本文经自动驾驶之心公众号授权转载,转载请联系出处。 prologue 这有可能是更的最长的文章系列了,先说为什么,一方面是看到分割大模型对小模型的提升效果需要时间,另一方面是之前对自动驾驶的BEV算法做了很长时间的预研,自己也应该好好梳理一下了。 (很...
-
2023年度AI盘点 AIGC|AGI|ChatGPT|人工智能大模型
前言 「作者主页」:雪碧有白泡泡「个人网站」:雪碧的个人网站 2023年是人工智能大语言模型大爆发的一年,一些概念和英文缩写也在这一年里集中出现,很容易混淆,甚至把人搞懵。 文章目录 前言 01 《ChatGPT 驱动软件开发》 0...
-
攻克图像「文本生成」难题,碾压同级扩散模型!两代TextDiffuser架构深度解析
近年来,文本生成图像领域取得了显著进展,尤其是基于扩散(Diffusion)的图像生成模型在细节层面上展现出逼真的效果。 然而,一个挑战仍然存在:如何将文本准确地融入图像。 生活中存在大量的「含文本图像」,从广告海报到书籍封面,再到路牌指示,都包含了重要...
-
爬虫技术——一篇全搞定!
目录: 目录 目录: 1. 爬虫介绍 1.1 爬虫是什么 1.2 爬虫步骤 1.3 爬虫分类 1.3.1 通用爬虫 1.3.2 聚焦爬虫 编辑 1.4 一些常见的反爬手段 2. Urllib 2.1 urllib库的使用 2...
-
模型A:幸亏有你,我才不得0分,模型B:俺也一样
琳琅满目的乐高积木,通过一块又一块的叠加,可以创造出各种栩栩如生的人物、景观等,不同的乐高作品相互组合,又能为爱好者带来新的创意。 我们把思路打开一点,在大模型(LLM)爆发的当下,我们能不能像拼积木一样,把不同的模型搭建起来,而不会影响原来模型的功能,...
-
语言模型是如何感知时间的?「时间向量」了解一下
语言模型究竟是如何感知时间的?如何利用语言模型对时间的感知来更好地控制输出甚至了解我们的大脑?最近,来自华盛顿大学和艾伦人工智能研究所的一项研究提供了一些见解。他们的实验结果表明,时间变化在一定程度上被编码在微调模型的权重空间中,并且权重插值可以帮助自定...
-
【ESP32接入国产大模型之文心一言】
1. 怎样接入文心一言 视频讲解: 【ESP32接入国产大模型之文心一言】 随着人工智能技术的不断发展,自然语言处理领域也得到了广泛的关注和应用。在这个领域中,文心一言作为一款强大的自然语言处理工具,具有许多重要的应用价值。...
-
精调训练中文LLaMA模型实战教程,民间羊驼模型
羊驼实战系列索引 博文1:本地部署中文LLaMA模型实战教程,民间羊驼模型博文2:本地训练中文LLaMA模型实战教程,民间羊驼模型博文3:精调训练中文LLaMA模型实战教程,民间羊驼模型(本博客) 简介 在学习完上篇【博文2:本地训练中文LLaM...
-
大模型入局传统算法,LLMZip基于LLaMA-7B实现1MB文本压缩率90%!
论文链接: https://arxiv.org/abs/2306.04050 随着以ChatGPT、GPT-4为代表的AI大模型逐渐爆火进入公众视野,各行各业都开始思考如何更好的使用和发展自己的大模型,有一些评论甚至认为大模型是以人工智能为标志的...
-
使用 OpenLLM 构建和部署大模型应用
本次分享主题为:使用 OpenLLM 快速构建和部署大语言模型的应用。OpenLLM 是一个开源的大语言模型(LLM)开发框架。它支持多种开源的 LLM 模型,并且具有内建的两个关键的 LLM 优化,能够优化内存使用。此外,它与 LangChain 和...
-
大模型系列:OpenAI使用技巧_Whisper提示指南
文章目录 与GPT提示的比较 设置 作为基准,我们将转录NPR播客片段 转录遵循提示的风格 在提示中传递名称以防止拼写错误 GPT可以生成虚构的提示 OpenAI的音频转录API有一个可选参数称为 prompt。 提示旨在帮助拼...
-
[论文笔记] 大模型gpu机器推理测速踩坑 (llama/gpt类)
cpu没报错,换gpu就报错。以下是一些踩坑: 坑1:要指定gpu,可以在import torch之前指定gpu。 model = LlamaForCausalLM.from_pretrained(model_path, trust_remote_co...
-
文心一言接入Promptulate,开发复杂LLM应用程序
简介 最近在尝试将文心一言的LLM能力接入Promptulate,故写了一篇博客记录一下,Promptulate 是 Promptulate AI 旗下的大语言模型自动化与应用开发框架,旨在帮助开发者通过更小的成本构建行业级的大模型应用,其包含了LLM...
-
[linux-sd-webui]api化之训练lora
lora的训练使用的文件是https://github.com/Akegarasu/lora-scripts lora训练是需要成对的文本图像对的,需要准备相应的训练数据。 1.训练数据准备 使用deepbooru/blip生成训练数据,建筑类建议使...
-
AIGC: 关于ChatGPT中Function Call的调用
Function Call 概念 关于 GPT 中API的function参数,提供了一些能力 这个函数调用是 Open AI 在2023年的6.13号发布的新能力 根据它的官方描述, 函数调用能力可以让模型输出一个请求调用函数的消息 其中包...
-
不用魔法,快速、手摸手上线Midjourney!【附源码】【示例】
首先来一波感谢: 感谢laf提供赞助,目前可以免费使用Midjourney进行开发和测试。 感谢白夜、米开朗基杨@sealos.io的耐心解答,让我对laf有了更多的使用与了解。 什么是laf?来了解下。 文末有【示例】 开始 废话不多说,进入正题。...
-
探索Whisper语音识别
问题一:python多版本切换 背景:有了anaconda环境 还有一个c盘的不知道什么东西 我准备下载一个python3.9.9 去官网 然后安装,安装之前一定要把原来的python卸载干净。 3.9.9安装不上,我用3.10...
-
Midjourney V6发布了,逼真画面登峰造极,不愧为最好的AI绘画
Midjourney V6昨天才说要来,下午就立马现身。速度之快,让人瞠目结舌!一系列惊艳绝伦的神奇图像纷纷爆出,光影效果简直达到了巅峰。尤其是他们主打的“你说得出,我就能画得出”。 Midjourney V6昨天下午突然发布了!Midjourney...
-
保姆级教程:从0到1使用Stable Diffusion XL训练LoRA模型 |【人人都是算法专家】
Rocky Ding 公众号:WeThinkIn 写在前面 【人人都是算法专家】栏目专注于分享Rocky在AI行业中对业务/竞赛/研究/产品维度的思考与感悟。欢迎大家一起交流学习? 大家好...
-
同花顺推出问财大模型HithinkGPT 开启内测申请
同花顺问财推出了 HithinkGPT 大模型,采用 transformer 的 decoder-only 架构。提供7B、13B、30B、70B 和130B 五种版本选择,最大允许32k 文本输入,支持 API 接口调用、网页嵌入、共建、私有化部署等能力...
-
AIGC:【LLM(六)】——Dify:一个易用的 LLMOps 平台
文章目录 一.简介 1.1 LLMOps 1.2 Dify 二.核心能力 三.Dify安装 3.1 快速启动 3.2 配置 四.Dify使用 五.调用开源模型 六.接通闭源模型 七.在 Dify.AI 探索不同模型潜力 7.1 快速切...
-
最强开源大模型?Llama 2论文解读
标题 简介 模型预训练 预训练设置 硬件资源与碳排放 模型评估 模型微调 有监督微调 基于人工反馈的强化学习(RLHF) 人类偏好数据的收集 奖励模型 迭代微调过程 多轮对话控制 RLHF 结果 模型回答的安全性 一直...
-
文生视频下一站,Meta已经开始视频生视频了
文本指导的视频到视频(V2V)合成在各个领域具有广泛的应用,例如短视频创作以及更广泛的电影行业。扩散模型已经改变了图像到图像(I2I)的合成方式,但在视频到视频(V2V)合成方面面临维持视频帧间时间一致性的挑战。在视频上应用 I2I 模型通常会在帧之间...
-
大模型幻觉问题无解?理论证明校准的LM必然会出现幻觉
大型语言模型(LLM)虽然在诸多下游任务上展现出卓越的能力,但其实际应用还存在一些问题。其中,LLM 的「幻觉(hallucination)」问题是一个重要缺陷。 幻觉是指由人工智能算法生成看似合理但却虚假或有误导性的响应。自 LLM 爆火以来,研究人员...
-
Hyena成下一代Transformer?StripedHyena-7B开源:最高128k输入,训练速度提升50%
最近几年发布的AI模型,如语言、视觉、音频、生物等各种领域的大模型都离不开Transformer架构,但其核心模块「注意力机制」的计算复杂度与「输入序列长度」呈二次方增长趋势,这一特性严重限制了Transformer在长序列下的应用,例如无法一次性处理一...
-
8x7B MoE与Flash Attention 2结合,不到10行代码实现快速推理
前段时间,Mistral AI 公布的 Mixtral 8x7B 模型爆火整个开源社区,其架构与 GPT-4 非常相似,很多人将其形容为 GPT-4 的「缩小版」。 我们都知道,OpenAI 团队一直对 GPT-4 的参数量和训练细节守口如瓶。Mistr...
-
LLaMA模型论文《LLaMA: Open and Efficient Foundation Language Models》阅读笔记
文章目录 1. 简介 2.方法 2.1 预训练数据 2.2 网络架构 2.3 优化器 2.4 高效的实现 3.论文其余部分 4. 参考资料 1. 简介 LLaMA是meta在2023年2月开源的大模型,在这之后,很多开源模型都...
-
大模型应用探索——企业知识管家
一、传统知识管理的背景与挑战 1、企业知识管理的必要性 知识管理是每个企业都面临的一个非常重要的环节,借助知识管家可以全面提升企业的效率。 一方面,随着互联网应用的发展,知识爆炸,如何实现企业知识的共享称成为企业面临的一个问题。企业通过知识共享不仅...
-
一文通透位置编码:从标准位置编码、旋转位置编码RoPE到ALiBi、LLaMA 2 Long
前言 关于位置编码和RoPE 应用广泛,是很多大模型使用的一种位置编码方式,包括且不限于LLaMA、baichuan、ChatGLM等等 我之前在本博客中的另外两篇文章中有阐述过(一篇是关于LLaMA解读的,一篇是关于transformer从零实现...
-
[玩转AIGC]LLaMA2之如何微调模型
目录 1、下载训练脚本 2、 下载模型 2.1、申请下载权限 2.2、模型下载 3、模型微调 3.1、使用单卡微调 3.2、使用多卡训练: 1、下载训练脚本 首先我们从github上下载Llama 2的微调代码:GitHu...
-
LLM之Colossal-LLaMA-2:源码解读(init_tokenizer.py文件)实现基于源词表的扩展、(init_model.py文件)实现过计算均值扩展模型、(prepare_pretr
LLM之Colossal-LLaMA-2:源码解读(init_tokenizer.py文件 实现基于源词表的扩展(中文标记的新词汇 进而实现持续预训练、(init_model.py文件 实现过计算均值来扩展模型的嵌入层以适应新的词汇表,然后保存扩展后的模型...
-
《满怀美梦的小崽子是pycharm主义者》之服务器部署stable diffusion /diffusers教程
距离上一次教大家在本地部署sd已经过去了........俺也不知道多久了,相信大家现在应该都已经很熟悉了吧,估计大家也发现了一个问题,就是本地的配置跑sd,一个是对配置要求太高了,现在的模型都特别大,没有一张3090根本玩不了,一个是内存啥的根本不够用模型...
-
LLaMA, ChatGLM, BLOOM的参数高效微调实践
作者:回旋托马斯x(腾讯NLP算法工程师) 项目地址:https://zhuanlan.zhihu.com/p/635710004 1. 开源基座模型对比 大语言模型的训练分为两个阶段: (1)在海量文本语料上的无监督预训练,学习通用的语义表...
-
【大模型实践】基于文心一言的对话模型设计
文心一言(英文名:ERNIE Bot)是百度全新一代知识增强大语言模型,文心大模型家族的新成员,能够与人对话互动、回答问题、协助创作,高效便捷地帮助人们获取信息、知识和灵感。文心一言从数万亿数据和数千亿知识中融合学习,得到预训练大模型,在此基础上采用有监督...
-
OpenAI Whisper探索(一)
1.根据提示安装依赖 : 安装Whisper前先安装依赖 1.1安装torch: ERROR: Could not find a version that satisfies the requirement torch (from vers...
-
nodejs文心一言API接入
需求 在nodejs里面接入文心一言API,官方调用步骤API介绍 - 千帆大模型平台 | 百度智能云文档 大致流程 创建应用——>API授权——>获取访问凭证——>调用接口 创建应用 注册账号创建应用 首先注册百度云智能账号...
-
全新最全Stable Diffusion 提示词资料包,你值得拥有!!!!
Stable Diffusion无疑是最近最火的AI绘画工具之一,所以本期给大家带来了全新Stable Diffusion 提示词资料包(文末可获取) Stable Diffusion提示词是什么? 提示词是prompt翻译过来的词汇,在我们业内人称之为...
-
ThinkPHP6 实现 百度文心一言 (千帆)API 智能AI开发
尝试过chat GPT的接入,现在也尝试下文心一言的接入测试。 参照百度云千帆大模型官方提供的API文档,选择了” ERNIE-Bot-turbo “ 模型创建chat,使用的hinkPHP6 进行api对接。 一、Demo图 只做了接口对接结果处理...
-
聊聊拉长LLaMA的一些经验
Sequence Length是指LLM能够处理的文本的最大长度,越长,自然越有优势: 更强的记忆性。更多轮的历史对话被拼接到对话中,减少出现遗忘现象 长文本场景下体验更佳。比如文档问答、小说续写等 当今开源LLM中的当红炸子鸡——LLaMA...
-
Hugging Face使用Stable diffusion Diffusers Transformers Accelerate Pipelines VAE
Diffusers A library that offers an implementation of various diffusion models, including text-to-image models. 提供不同扩散模型的实现的库,代...
-
llama_index中query_engine的response_mode详解
文章目录 0. 前言 1. ResponseMode: tree_summarize (总结摘要-最优) 2. ResponseMode: generation 3. ResponseMode: no_text 4. ResponseMode:...
-
Stable Diffusion的结构要被淘汰了吗?详细解读谷歌最新大杀器VideoPoet
Diffusion Models视频生成-博客汇总 前言:视频生成领域长期被Stable Diffusion统治,大部分的方式都是在预训练的图片Stable Diffusion的基础上加入时间层,学习动态信息。虽然有CoDi《【NeurIPS...
-
LLM之RAG实战(七)| 使用llama_index实现多模态RAG
一、多模态RAG OpenAI开发日上最令人兴奋的发布之一是GPT-4V API(https://platform.openai.com/docs/guides/vision)的发布。GPT-4V是一个多模态模型,可以接收文本/图像,并可以...