-
微调大型语言模型进行命名实体识别
大型语言模型的目标是理解和生成与人类语言类似的文本。它们经过大规模的训练,能够对输入的文本进行分析,并生成符合语法和语境的回复。这种模型可以用于各种任务,包括问答系统、对话机器人、文本生成、翻译等。 命名实体识别(Named Entity Recogn...
-
马斯克打脸OpenAI,全球最大巨无霸模型Grok-1开源!3140亿参数8个MoE,GitHub狂揽6k星
说到做到,马斯克xAI的Grok,果然如期开源了! 就在刚刚,xAI正式发布3140亿参数混合专家模型Grok-1的权重和架构。 3140亿的参数,让Grok-1成为迄今参数量最大的开源LLM,是Llama 2的4倍。 目前,xAI关于Grok-1...
-
淘宝人生2的AIGC技术应用——虚拟人写真算法技术方案
近几个月,随着基于Stable Diffusion的相关技术发展,基于参考图的角色定制化技术[1,2, 3, 4, 7]受到相关行业以及学者的广泛关注。其中,人像定制化是指:给定任务角色(参考图),通过提示词控制生成多样新的图像,并且图像...
-
自适应剪枝让多模态大模型加速2-3倍,哈工大等推出SmartTrim
基于 Transformer 结构的视觉语言大模型(VLM)在各种下游的视觉语言任务上取得了巨大成功,但由于其较长的输入序列和较多的参数,导致其相应的计算开销地提升,阻碍了在实际环境中进一步部署。为了追求更为高效的推理速度,前人提出了一些针对 VLM 的...
-
马斯克开源Grok-1:3140亿参数迄今最大,权重架构全开放,磁力下载
说到做到,马斯克承诺的开源版大模型 Grok 终于来了! 今天凌晨,马斯克旗下大模型公司 xAI 宣布正式开源 3140 亿参数的混合专家(MoE)模型「Grok-1」,以及该模型的权重和网络架构。 这也使得Grok-1成为当前参数量最大的开源大语言...
-
ChatGPT的前辈GPT-2被塞入Excel表格:体积达1.25GB之巨!
快科技3月17日消息,Excel真是无所不能,酷爱它的软件开发者Ishan Anand居然将OpenAI GPT-2大模型硬生生放到了Excel之中,体积达到1.2GB,关键是还能正常运行! 我们熟悉的ChatGPT,其实支持GPT系列大模型的一种呈现形式...
-
超详细!AIGC面试系列 大模型基础(1)
关于我 从2022年末开始接触AIGC,便一直紧跟最近技术与实践落地。期间参与copilot项目研发,落地了多个垂类AIGC大模型应用,熟悉各种AIGC相关技术如Agent,Langchain,chatdoc,向量数据库等。 关于本系列 请你认真看完...
-
小妙招:Copilot 当跳板免费调用 GPT4
GPT4 每月 20 刀,Github Copilot 每月 10 刀 首先叠个甲:免费不是 0 成本。 由于我在日常开发过程中,Copilot 对我来说是必需品,我会用它检查代码、写工具函数、写注释、干苦力。所以这钱是我的必要支出。而这篇文章是介...
-
利用学生认证部署 copilot-gpt4-service 白嫖 gpt-4.0
过年期间在公众号 HelloGitHub 上看到了一个项目 copilot-gpt4-service,可以将 GitHub Copilot 转成 ChatGPT 的服务。 这么一个转换的好处是, GitHub 可以通过学生认证免费试用,转换成 ChatGP...
-
时间序列预测+NLP大模型新作:为时序预测自动生成隐式Prompt
今天给大家介绍一篇最新的大模型+时间序列预测工作,由康涅狄格大学发表,提出了一种将时间序列在隐空间和NLP大模型对齐,并利用隐空间prompt提升时间序列预测效果的方法。 论文标题:S2IP-LLM: Semantic Space Informed P...
-
stable diffusion 1.5大模型炼制详细教程,几块钱即可炼制大模型
前言 之前已经讲过SDXL_LORA,SD1.5_LORA训练过程,基本说的比较清楚了,有兴趣可以去看看,下面我将讲解一下SD1.5大模型的炼制。 SDXL_LORA:https://tian-feng.blog.csdn.net/article/d...
-
Stable diffusion安装以及汉化
安装参考:https://blog.csdn.net/weixin_72959097/article/details/136261658 (1)下载miniconda Miniconda是一个轻量级的包管理系统,用于管理和部署Python环境和软件包。...
-
【学习笔记】:Ubuntu 22 使用模型量化工具llama.cpp部署大模型 CPU+GPU
学习笔记:Ubuntu 22 使用模型量化工具llama.cpp部署大模型 CPU+GPU 前言 1 下载并编译llama.cpp 1.1 git下载llama.cpp仓库源码 1.2 编译源码(make) 1.2.1 选择一:仅在CPU上...
-
重磅!谷歌正式推出开源大语言模型 Gemma,声称超越 Meta Llama-2 竞品
击上方关注 “终端研发部” 设为“星标”,和你一起掌握更多数据库知识 AI 开源之战打响! 作为曾经AI领域扛把子的谷歌,这两年多来,风头几度被抢,一直处于被压着打的境地,,昨天Gemma的发布,预示着谷歌登上开源大模型“铁王...
-
Stable Diffusion WebUI安装报错解决
本人是一个AI新手,最近在研究文生图方面相关内容时看到Stable Diffusion WebUI这个项目,想在本地部署安装试用看下效果,安装过程中遇到了一些问题,此处记录一下 问题1:Python 3.12.1 (tags/v3.12.1:2305ca...
-
How does Stable Diffusion work?
Stable Diffusion is a latent diffusion model that generates AI images from text. Instead of operating in the high-dimensional im...
-
Stable diffusion(二)
SD colab安装 https://colab.research.google.com/github/TheLastBen/fast-stable-diffusion/blob/main/fast_stable_diffusion_AUTOMATIC...
-
零一万物大模型开放平台体验入口 01-ai API接口使用地址
零一万物大模型开放平台是一个通过API调用获取高品质Yi系列大模型的平台。Yi系列模型基于零一万物的前沿科研成果和高品质数据训练而成,曾在多个权威榜单中获得SOTA表现。 主要产品包括yi-34b-chat-0205、yi-34b-chat-200k和y...
-
仅需200M参数,零样本性能超越有监督!谷歌发布时序预测基础模型TimesFM
时间序列预测在零售、金融、制造业、医疗保健和自然科学等各个领域无处不在:比如说在零售场景下中,「提高需求预测准确性」可以有显著降低库存成本并增加收入。 深度学习(DL)模型基本上垄断了「多变量时间序列预测」任务,在各个竞赛、现实应用中的表现都非常好。 与...
-
刷榜「代码生成」任务!复旦等发布StepCoder框架:从编译器反馈信号中强化学习
大型语言模型(LLMs)的发展极大地推动了代码生成领域的发展,之前有工作将强化学习(RL)与编译器的反馈信号集成在一起,用于探索LLMs的输出空间,以提高代码生成质量。 但当下还存在两个问题: 1. 强化学习探索很难直接适配到「复杂的人类需求」,即要求L...
-
通过实时调试,让AI编写有效的UI自动化
作者简介 Thales Fu,携程高级研发经理,致力于寻找更好的方法,结合AI和工程来解决现实中的问题。 引言 在快速迭代的软件开发周期中,用户界面(UI)的自动化测试已成为提高效率和确保产品质量的关键。然而,随着应用程序变得日益复杂,传统的UI自动化方...
-
苹果大模型MM1杀入场:300亿参数、多模态、MoE架构,超半数作者是华人
今年以来,苹果显然已经加大了对生成式人工智能(GenAI)的重视和投入。此前在 2024 苹果股东大会上,苹果 CEO 蒂姆・库克表示,今年将在 GenAI 领域实现重大进展。此外,苹果宣布放弃 10 年之久的造车项目之后,一部分造车团队成员也开始转向...
-
4万亿晶体管5nm制程,全球最快AI芯片碾压H100!单机可训24万亿参数LLM,Llama 70B一天搞定
全球最快、最强的AI芯片面世,让整个行业瞬间惊掉了下巴! 就在刚刚,AI芯片初创公司Cerebras重磅发布了「第三代晶圆级引擎」(WSE-3)。 性能上,WSE-3是上一代WSE-2的两倍,且功耗依旧保持不变。 90万个AI核心,44GB的片上SRA...
-
首次攻克「图基础模型」三大难题!港大开源OpenGraph:零样本学习适配多种下游任
图学习(Graph Learning)技术能够对复杂的关系数据进行挖掘和学习,在推荐系统、社交网络分析、引用网络和交通网络等多个领域都显示出了巨大的应用价值。 图神经网络(Graph Neural Networks, GNNs)基于迭代的消息传递机制,能...
-
百度文心一言api接口调用使用教程,自媒体/网站优化批量改写文章可用
大家好,我是淘小白~ 年前就有老客户需要写一个百度文心一言改写的软件,但是过年直接躺平了,年后抓紧给写出来了,通过百度文心一言可以改写文章,自媒体的洗稿可用。 网站优化也可以用,但是不推荐,免费调用很少,回报周期长,利润低的话不推荐使用文心一言改写。...
-
问题排查太烦心,试试GPT的超能力
当你使用 Kubernetes 时,迟早会遇到集群中的问题,需要进行调试和修复,以便你的 Pod 和服务能够按预期运行。无论你是刚刚开始使用 Kubernetes 还是正在处理大规模且更复杂的环境,调试集群内进程并不总是那么简单,而且可能会成为一项耗时且...
-
运行StableDiffusionInpaintPipeline的Example时报错:OSError: Cannot load model runwayml/stable-diffusion-...
项目地址: https://huggingface.co/docs/diffusers/api/pipelines/stable_diffusion/inpainthttps://huggingface.co/docs/diffusers/api/pip...
-
Stable Diffusion ———LDM、SD 1.0, 1.5, 2.0、SDXL、SDXL-Turbo等版本之间关系现原理详解
一、简介 2021年5月,OpenAI发表了《扩散模型超越GANs》的文章,标志着扩散模型(Diffusion Models,DM)在图像生成领域开始超越传统的GAN模型,进一步推动了DM的应用。 然而,早期的DM直接作用于像素空间,这意味着要优化一...
-
大模型的DenseNet时刻!DenseMamba:精度显著提升
本文经自动驾驶之心公众号授权转载,转载请联系出处。 随着 ChatGPT 的突破性进展,大型语言模型(LLMs)迎来了一个崭新的里程碑。这些模型在语言理解、对话交互和逻辑推理方面展现了卓越的性能。过去一年,人们目睹了 LLaMA、ChatGLM 等模型...
-
论文笔记:Code Llama: Open Foundation Models for Code
导语 Code Llama是开源模型Llama 2在代码领域的一个专有模型,作者通过在代码数据集上进行进一步训练得到了了适用于该领域的专有模型,并在测试基准中超过了同等参数规模的其他公开模型。 链接:https://arxiv.org/abs/23...
-
AIGC学习笔记——CLIP详解加推理
clip论文地址:https://arxiv.org/pdf/2103.00020.pdf clip代码地址:https://github.com/openai/CLIP 小辉问:能不能解释一下zero-shot? 小G答:零次学习(Zero...
-
万字带你了解ChatGLM
本文分享自华为云社区《【云驻共创】华为云之昇思MindSpore大模型专题(第二期)-第一课:ChatGLM》,作者: 愚公搬代码。 前言 1.昇思MindSpore 昇思MindSpore是华为公司推出的一款全场景AI计算框架。它提供了自动...
-
颜水成/程明明新作!Sora核心组件DiT训练提速10倍,Masked Diffusion Transformer V2开源
DiT作为效果惊艳的Sora的核心技术之一,利用Difffusion Transfomer 将生成模型扩展到更大的模型规模,从而实现高质量的图像生成。 然而,更大的模型规模导致训练成本飙升。 为此,来自Sea AI Lab、南开大学、昆仑万维2050...
-
OpenAI的 GPT-4.5 Turbo意外曝光,可能于 6 月发布
OpenAI 的 GPT-4.5Turbo 似乎已被泄露,搜索引擎如 Bing 和 DuckDuck Go 在官方公告前已经索引了 GPT-4.5Turbo 的产品页面。 然而,索引的链接指向一个404页面。但在搜索引擎中有一些预告文字显示,称 GPT-4...
-
【AI实战】从零开始搭建中文 LLaMA-33B 语言模型 Chinese-LLaMA-Alpaca-33B
【AI实战】从零开始搭建中文 LLaMA-33B 语言模型 Chinese-LLaMA-Alpaca-33B 简介 环境配置 环境搭建 依赖安装 代码及模型权重拉取 拉取 Chinese-LLaMA-Alpaca 拉取 llama-30b...
-
stable diffusion使用相关
IP Adapter,我愿称之它为SD垫图 IP Adapter是腾讯lab发布的一个新的Stable Diffusion适配器,它的作用是将你输入的图像作为图像提示词,本质上就像MJ的垫图。 IP Adapter比reference的效果要好,而且会...
-
AIGC:语音克隆模型Bert-VITS2-2.3部署与实战
1 VITS2模型 1.1 摘要 单阶段文本到语音模型最近被积极研究,其结果优于两阶段管道系统。以往的单阶段模型虽然取得了较大的进展,但在间歇性非自然性、计算效率、对音素转换依赖性强等方面仍有改进的空间。本文提出VITS2,一种单阶段的文本到语音模型...
-
Stable Diffusion 3 架构细节大揭秘
在众多前沿成果都不再透露技术细节之际,Stable Diffusion 3 论文的发布显得相当珍贵。 Stable Diffusion 3 的论文终于来了! 这个模型于两周前发布,采用了与 Sora 相同的 DiT(Diffusion Transf...
-
OpenAI官宣开源Transformer Debugger!不用写代码,人人可以破解LLM黑箱
AGI真的越来越近了! 为了确保人类不被AI杀死,在解密神经网络/Transfomer黑箱这一方面,OpenAI从未停下脚步。 去年5月,OpenAI团队发布了一个令人震惊的发现:GPT-4竟可以解释GPT-2的三十万神经元! 网友纷纷惊呼,智慧原来是这...
-
AIGC实战——GPT(Generative Pre-trained Transformer)
AIGC实战——GPT 0. 前言 1. GPT 简介 2. 葡萄酒评论数据集 3. 注意力机制 3.1 查询、键和值 3.2 多头注意力 3.3 因果掩码 4. Transformer 4.1 Transformer 块 4.2 位置编...
-
"discuz东方头条自动采集"的相关研讨及应用介绍
在信息高速发展的时代下,"自动采集"逐渐成为一个具有庞大用户基数与高效率的传播内容创建工具。"Discuz",作为一种建立论坛社群的工具,"discuz东方头条自动采集"究竟在技术内涵和实际业务环节中有什么重大意义与价值体现,无不考量着我们的理解和聪明智慧...
-
把字节当成token,清华和微软刚掏出来的bGPT到底什么来头
相信你或多或少对GPT有一定的了解,但我赌你没听说过bGPT。bGPT的意思是byte GPT,即字节GPT。这是一种专门设计用于处理二进制数据和模拟数字世界的深度学习模型。简单概括,bGPT突破了传统语言模型的局限,能够直接理解和操作二进制数据,拓展了深...
-
Midjourney
知数云 | 数字化服务的智慧之选 Midjourney Quick Start Guide Midjourney是一款AI制图工具,只要输入关键字,透过AI算法就能生成相对应的图片。 使用Spring接口与Midjourney官方API交互涉及几个步...
-
参照人类大脑,学会忘记会让AI大模型变得更好?
计算机科学家团队近期开发出一种更敏捷更具弹性的机器学习模型,它们可以周期性忘记已知信息,而现有大语言模型不具备忘却能力。 实测表明,在很多情况下,“忘却法”的训练效率很高,忘却型模型表现也会更好。韩国基础科学研究院(Institute for Basi...
-
Stable-diffusion复现笔记
一、引言 目前正在学习有关扩撒模型的相关知识,最近复现了Stable-diffuison,此文主要是想记录一下整体的复现过程以及我在复现过程中出现的一些奇怪的问题以及我的处理方法。这里我的复现主要是针对官网文档实现的,并没有用到webui版本,如果是想体...
-
1.3ms耗时!清华最新开源移动端神经网络架构 RepViT
论文地址:https://arxiv.org/abs/2307.09283 代码地址:https://github.com/THU-MIG/RepViT 可以看出,RepViT 相比于其它主流的移动端 ViT 架构确实时很优异。接下来让我们来看下本工...
-
DenseMamba:大模型的DenseNet时刻,Mamba和RetNet精度显著提升
随着 ChatGPT 的突破性进展,大型语言模型(LLMs)迎来了一个崭新的里程碑。这些模型在语言理解、对话交互和逻辑推理方面展现了卓越的性能。过去一年,人们目睹了 LLaMA、ChatGLM 等模型的诞生,它们基于 Transformer 架构,采用多...
-
不依赖token,字节级模型来了!直接处理二进制数据
最新GPT,不预测token了。 微软亚研院等发布bGPT,仍旧基于Transformer,但是模型预测的是下一个字节(byte)。 通过直接处理原生二进制数据,bGPT将所有输入内容都视为字节序列,从而可以不受限于任何特定的格式或任务。 能预测CPU...
-
清华系2B模型杀出支持离线本地化部署,可以个人电脑或者手机上部署的多模态大模型,超越 Mistral-7B、LLaMA-13B
清华系2B模型杀出支持离线本地化部署,可以个人电脑或者手机上部署的多模态大模型,超越 Mistral-7B、LLaMA-13B。 2 月 1 日,面壁智能与清华大学自然语言处理实验室共同开源了系列端侧语言大模型 MiniCPM,主体语言模型 Mini...
-
不依赖Token,字节级模型来了!直接处理二进制数据
最新GPT,不预测token了。 微软亚研院等发布bGPT,仍旧基于Transformer,但是模型预测的是下一个字节(byte)。 通过直接处理原生二进制数据,bGPT将所有输入内容都视为字节序列,从而可以不受限于任何特定的格式或任务。 能预测CPU...