-
LLaMA: Open and Efficient Foundation Language Models
背景 用最少的计算资源,解决了LLM大模型预测问题,训练了一些列的LLaMa模型,在参数量比较少的情况下,达到业界大模型效果。 主要贡献就是提升了LLM模型的训练速度和效率,在小容量的基础上,大大提升了模型的效果。 同时由于模型结构更小更简单,大大提升...
-
Stable Diffusion stable-diffusion-webui ControlNet Lora
Stable Diffusion Stable Diffusion用来文字生成图片,ControlNet就是用来控制构图的,LoRA就是用来控制风格的 。 stable-diffusion-webui 国内加速官网: mirrors / A...
-
280万大模型中文开发者拿到最后一块拼图
2023年5月,微软CEO纳德拉抛出一个惊人数字,未来全球的开发者数量将会达到10亿。 那时候Meta的Llama已经开源4个月,但一些国内的开发者发现,从小以英文语料喂养起来的Llama,对中文世界并不友好。 这未来的“10亿”开发者里会有多少中文开发者...
-
阿里云开源通义千问Qwen-72B、Qwen-1.8B、音频大模型Qwen-Audio
阿里云开源通义千问720亿参数模型Qwen-72B、18亿参数模型Qwen-1.8B 及 音频大模型Qwen-Audio。 据悉,阿里云本次开源的模型中除预训练模型外,还同步推出了对应的对话模型,面向72B、1.8B对话模型提供了4bit/8bit 量化版...
-
解读Lawyer LLaMA,延申专业领域大模型微调:数据集构建,模型训练
解读Lawyer LLaMA,延申自己领域大模型微调:数据集构建,模型训练 项目地址link 自己领域的大模型微调,实现思路大都和这篇文章是一样的,有的是基于LLaMA,或者有的是基于Chinese-LLaMA,或者是其他开源的大模型,本文基于自己训...
-
Stable Diffusion - 真人照片的高清修复 (StableSR + GFPGAN) 最佳实践
欢迎关注我的CSDN:https://spike.blog.csdn.net/ 本文地址:https://spike.blog.csdn.net/article/details/132032216 GFPGAN (Generative Facial...
-
视频版ContorlNet来了!SparseCtrl增强AI生成视频可控性
在文本到视频(T2V)领域的最新研究中,SparseCtrl技术通过引入时间稀疏信号实现了对视频结构的灵活控制。传统的文本提示在空间不确定性方面存在问题,容易导致模糊的帧组合。 为了提高可控性,SparseCtrl采用了密集结构信号,如逐帧深度/边缘序列,...
-
用上这个工具包,大模型推理性能加速达40倍
英特尔® Extension for Transformer是什么? 英特尔® Extension for Transformers[1]是英特尔推出的一个创新工具包,可基于英特尔® 架构平台,尤其是第四代英特尔® 至强® 可扩展处理器(代号Sapp...
-
【AIGC】【AI绘画】controlNet介绍(原理+使用)
文章目录 安装教程 1.环境安装 2. 下载预训练的模型文件 3.运行(生成可视化界面) 1、ControlNet:AI绘画 1.1、ControlNet的本质是文生图(txt2img 2.2、预处理器 & 模型选择 1.3、参...
-
ChatGPT狂吐训练数据,还带个人信息:DeepMind发现大bug引争议
如果我不停地让 ChatGPT 干一件事,直到把它「逼疯」会发生什么? 它会直接口吐训练数据出来,有时候还带点个人信息,职位手机号什么的: 本周三,Google DeepMind 发布的一篇论文,介绍了一项让人颇感意外的研究成果:使用大约 200 美元...
-
DeepMind发现大bug:简单攻击即可让ChatGPT泄露大量训练数据
Google DeepMind的研究发现,通过简单的查询攻击方法,可以从ChatGPT中泄露出大约几MB的训练数据,成本仅约200美元,引起社交网络哗然。 研究团队成功攻击了生产级模型,打破了对齐设定,即使模型经过对齐,也能通过命令诱导模型输出训练数据,暴...
-
LCM:大大加快生成高质量图像的新方法
作者丨Mike Young 译者 | 布加迪 审校 | 重楼 出品 | 51CTO技术栈(微信号:blog51cto) 图片 得益于一种名为潜在一致性模型(LCM)的新技术,文本转换成图像的AI即将迎来重大飞跃。潜在扩散模型(LDM)等传统方法在使用...
-
SDXL Turbo、LCM相继发布,AI画图进入实时生成时代:字打多快,出图就有多快
本周二,Stability AI 推出了新一代图像合成模型 Stable Diffusion XL Turbo,引发了一片叫好。人们纷纷表示,图像到文本生成从来没有这么轻松。 你可以不需要其他操作,只用在文本框中输入你的想法,SDXL Turbo 就能够...
-
聊一聊大模型 | 京东云技术团队
事情还得从ChatGPT说起。 2022年12月OpenAI发布了自然语言生成模型ChatGPT,一个可以基于用户输入文本自动生成回答的人工智能体。它有着赶超人类的自然对话程度以及逆天的学识。一时间引爆了整个人工智能界,各大巨头也纷纷跟进发布了自家的大模...
-
LLaMA 的学习笔记
LLaMA 是一种用于自然语言处理的深度学习模型,它的全称是 Language Learning with Adaptive Multi-task Architecture。它的主要特点是能够根据不同的任务自适应地调整模型结构和参数,从而提高模型的泛化能力...
-
文心一言话题的思考
⭐️我叫忆_恒心,一名喜欢书写博客的在读研究生??。 如果觉得本文能帮到您,麻烦点个赞?呗! 近期会不断在专栏里进行更新讲解博客~~~ 有什么问题的小伙伴 欢迎留言提问欧,喜欢的小伙伴给个三连支持一下呗。?⭐️❤️ 目录...
-
Llama 2 来袭 - 在 Hugging Face 上玩转它
? 宝子们可以戳 阅读原文 查看文中所有的外部链接哟! 引言 今天,Meta 发布了 Llama 2,其包含了一系列最先进的开放大语言模型,我们很高兴能够将其全面集成入 Hugging Face,并全力支持其发布。Llama 2...
-
北大提出统一的视觉语言大模型Chat-UniVi 3天训练成果惊艳众人
近日,北京大学和中山大学等机构的研究者提出了一种名为Chat-UniVi的视觉语言大模型,实现了统一的视觉表征,使其能够同时处理图片和视频任务。这一框架的独特之处在于,它不仅在深度学习任务中表现卓越,而且仅需短短三天的训练时间,就能够训练出具有130亿参数...
-
机器学习笔记 - 了解 GitHub Copilot 如何通过提供自动完成式建议来帮助您编码
一、GitHub Copilot介绍 GitHub Copilot 是世界上第一个大规模 AI 开发人员工具,可以帮助您以更少的工作更快地编写代码。GitHub Copilot 从注释和代码中提取上下文,以立即建议单独的行和整个函数。...
-
调教 文心一言 生成 AI绘画 提示词(Midjourney)
文章目录 第一步 第二步 第三步 第四步 第五步 第六步 第七步 第八步 文心一言支持连续对话 我瞎玩的非专业哈哈 第一步 你好,今天我们要用扩散模型创建图像。我会给你提供一些信息。行吗? 第二步...
-
大模型部署实战(一)——Ziya-LLaMA-13B
❤️觉得内容不错的话,欢迎点赞收藏加关注???,后续会继续输入更多优质内容❤️ ?有问题欢迎大家加关注私戳或者评论(包括但不限于NLP算法相关,linux学习相关,读研读博相关......)? 博主原文链接:https://www.yo...
-
北大最新多模态大模型开源:在混合数据集上训练,无需修改直接用到图像视频任务
训完130亿参数通用视觉语言大模型,只需3天! 北大和中山大学团队又出招了——在最新研究中,研究团队提出了一种构建统一的图片和视频表征的框架。 利用这种框架,可以大大减少VLM(视觉语言大模型)在训练和推理过程中的开销。 具体而言,团队按照提出的新框架...
-
中国团队开源大规模高质量图文数据集ShareGPT4V
中国团队最近开源了一个引人瞩目的图文数据集,命名为ShareGPT4V,它基于GPT4-Vision构建,训练了一个7B模型。这一举措在多模态领域取得了显著的进展,超越了同级别的模型。 该数据集包含了120万条图像-文本描述数据,涵盖了世界知识、对象属性、...
-
训练130亿大模型仅3天,北大提出Chat-UniVi统一图片和视频理解
论文地址:https://arxiv.org/pdf/2311.08046.pdf GitHub 地址:https://github.com/PKU-YuanGroup/Chat-UniVi Huggingface 地址:https://huggi...
-
Keras 3.0正式发布 引入全新的大模型训练和部署功能
Keras3.0的发布标志着一次重大的更新迭代,经过5个月的努力,该版本在多个方面带来了显著的改进。首先,Keras3.0全面支持了TensorFlow、JAX和PyTorch框架,这意味着用户现在可以选择在不同框架上运行他们的Keras工作流。这种灵活性...
-
chatgpt VS 文心一言使用对比实测
chatgpt VS 文心一言使用对比实测 什么是文心一言 文心一言(英语:ERNIE Bot)是由百度公司开发的聊天机器人,能够与人交互、回答问题及协作创作。该产品被传媒称为国际著名聊天机器人ChatGPT的中国版及其竞争对手[1][2]。...
-
Keras 3.0一统江湖!大更新整合PyTorch、JAX,全球250万开发者在用了
刚刚,Keras 3.0正式发布! 经过5个月的公开Beta测试,深度学习框架Keras 3.0终于面向所有开发者推出。 全新的Keras 3对Keras代码库进行了完全重写,可以在JAX、TensorFlow和PyTorch上运行,能够解锁全新大模型训...
-
【LLM系列之LLaMA2】LLaMA 2技术细节详细介绍!
Llama 2 发布! Meta 刚刚发布了 LLaMa 2,它是 LLaMA 的下一代版本,具有商业友好的许可证。?? LLaMA 2 有 3 种不同的尺寸:7B、13B 和 70B。 7B & 13B 使用与 LLaMA 1 相同的架构,并且是...
-
【网安AIGC专题】46篇前沿代码大模型论文、24篇论文阅读笔记汇总
网安AIGC专题 写在最前面 一些碎碎念 课程简介 0、课程导论 1、应用 - 代码生成 2、应用 - 漏洞检测 3、应用 - 程序修复 4、应用 - 生成测试 5、应用 - 其他 6、模型介绍 7、模型增强 8、数据集 9、模型安全...
-
GTX1660Ti 本地部署 Stable Diffusion踩坑记录
踩坑记录 通过GitHub以及csdn开始安装 安装Anaconda,编译器以及CUDA、Cudnn 编译器 CUDA与Cudnn安装,**涉及电脑显卡的版本配置问题** 本地部署 踩坑实录 常见问题 Pytorch版本问题 显卡问...
-
AIGC零基础30天学习——CLIP模型
1. 模型架构 Contrastive Language-Image Pre-training(以下简称“CLIP”)是OpenAI 在 2021 年初发布的用于匹配图像和文本的预训练神经网络模型,可以说是近年来在多模态研究领域的...
-
中文LLaMA模型和指令精调的Alpaca大模型:中文数据进行二次预训练,进一步提升了中文基础语义理解能力
项目设计集合(人工智能方向):助力新人快速实战掌握技能、自主完成项目设计升级,提升自身的硬实力(不仅限NLP、知识图谱、计算机视觉等领域):汇总有意义的项目设计集合,助力新人快速实战掌握技能,助力用户更好利用 CSDN 平台,自主完成项目设计升级,提升自身...
-
ControlNet 和 T2I-Adapter,控制Stable Diffusion的不受控制的力量,AI 图像生成精确控制的破冰解决方案(教程含免安装使用方式)
控制Stable Diffusion的不受控制的力量 人工智能艺术社区的兴奋在最近几天达到顶峰,让我想起了去年 Stable Diffusion 的首次发布。本次重点介绍基于Stable Diffusion 1.5的轻量级预训练模型ControlNet...
-
Llama-Factory的baichuan2微调
Llama-Factory:https://github.com/hiyouga/LLaMA-Factory/tree/main 请使用 --quantization_bit 4/8 来启用 QLoRA 训练。 默认模块应作...
-
GPT被评选为瑞士年度词汇
根据瑞士苏黎世高级应用语言学部门的专家评审,以及通过计算机程序分析超过1.8百万份文本的结果,GPT(Generative Pre-trained Transformer)被选为瑞士年度词汇。 这一评选不仅由人类专家决定,还借助了计算机程序,分析了近976...
-
文心一言最新重磅发布!
8月16日,由深度学习技术及应用国家工程研究中心主办的WAVE SUMMIT深度学习开发者大会2023举办。百度首席技术官、深度学习技术及应用国家工程研究中心主任王海峰以《大语言模型为通用人工智能带来曙光》为题,阐述了大语言模型具备理解、生成、逻辑、记忆四...
-
AIGC之GPT-4:GPT-4的简介与详细攻略
AIGC之GPT-4:GPT-4的简介与详细攻略 简介 欢迎来到人工智能生成内容(AIGC)时代的新篇章!本篇博客将介绍GPT-4(Generative Pre-trained Transformer 4)的核心原理、意义、亮点、技术点、缺点以及使...
-
大模型之Bloom&LLAMA----RHLF(强化学习)
0. 简介 随着chatgpt的爆火,最近也有很多大模型在不断地出现,比如说Bloom系列以及以LLAMA为基础的ziya和baichuan。这些模型相较于chatglm来说,更加具有发展前景,因为其是完全可商用,并可以不断迭代更新的。最近作者在跟着h...
-
一个提示,让Llama 2准确率飙至80.3%?Meta提出全新注意力机制S2A,大幅降低模型幻觉
2023的科技界,可以说是被大模型抢尽了风头(虚假的室温超导除外)。 我们经历了和LLM对话,见证了它们逐渐进入各个领域,甚至开始感受到威胁。 这一切,仅仅发生在一年之内。 当然了,基于大语言模型的原理,它诞生之时就有的一些毛病到现在也没有完全改正。 比...
-
通过 Amazon SageMaker JumpStart 部署 Llama 2 快速构建专属 LLM 应用
来自 Meta 的 Llama 2 基础模型现已在 Amazon SageMaker JumpStart 中提供。我们可以通过使用 Amazon SageMaker JumpStart 快速部署 Llama 2 模型,并且结合开源 UI 工具...
-
在少样本学习中,用SetFit进行文本分类
译者 | 陈峻 审校 | 重楼 在本文中,我将向您介绍“少样本(Few-shot)学习”的相关概念,并重点讨论被广泛应用于文本分类的SetFit方法。 传统的机器学习(ML) 在监督(Supervised)机器学习中,大量数据集被用于模型训练,以便...
-
【城南】如何识别AI生成图?视觉AIGC伪造检测技术综述
图片无法加载可参考阅读:知乎文章 [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Ry2Qw8uO-1685675351028 (https://r3mu87a8e6.feishu.cn/space/api/box/stre...
-
单个A100生成3D图像只需30秒,这是Adobe让文本、图像都动起来的新方法
2D 扩散模型极大地简化了图像内容的创作流程,2D 设计行业也因此发生了变革。近来,扩散模型已扩展到 3D 创作领域,减少了应用程序(如 VR、AR、机器人技术和游戏等)中的人工成本。有许多研究已经对使用预训练的 2D 扩散模型,生成具有评分蒸馏采样(S...
-
中文版LLaMA:Chinese-LLaMA-Alpaca
GitHub:GitHub - ymcui/Chinese-LLaMA-Alpaca: 中文LLaMA&Alpaca大语言模型+本地CPU/GPU训练部署 (Chinese LLaMA & Alpaca LLMs 以ChatGPT、GP...
-
PubMedBERT:生物医学自然语言处理领域的特定预训练模型
今年大语言模型的快速发展导致像BERT这样的模型都可以称作“小”模型了。Kaggle LLM比赛LLM Science Exam 的第四名就只用了deberta,这可以说是一个非常好的成绩了。所以说在特定的领域或者需求中,大语言模型并不一定就是最优的解决...
-
【多模态】3、CLIP | OpenAI 出品使用 4 亿样本训练的图文匹配模型
文章目录 一、背景 二、方法 2.1 使用自然语言来监督训练 2.2 建立一个超大数据集 2.3 选择预训练的方式——对比学习而非预测学习 2.4 模型缩放和选择 三、效果 四、思考 论文:Learning Transferabl...
-
简单科普 AI AIGC AGI ChatGPT 分别是什么?
AI AI,全名 “Artificial Intelligence”,中文为人工智能。 它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。 AIGC AIGC,全名 “AI Generated...
-
疑似威胁人类?OpenAI神秘Q*项目更多信息曝光,马斯克、Lecun下场争论…
夕小瑶科技说 原创 作者 | 王二狗大家好我是二狗 随着前天 OpenAI 官宣 Sam Altman 将回归,并继续担 CEO,OpenAI“宫斗事件”已经告一段落了。 然而,对于专业吃瓜的二狗来说,有一个核心问题还是没有搞明白: Sam Altman...
-
如何使用GPTQ量化使LLM更轻
译者 | 李睿 审校 | 重楼 大型语言模型(LLM 应用的一大挑战是其耗费巨大的内存和计算需求,通常需要数十GB的GPU内存。这使得它们不仅昂贵而且难以运行。 为了缓解这些问题,研究人员开发了几种LLM压缩技术,其中包括“量化”。量化通过改变参数的存...
-
Open Vocabulary Detection 开放世界目标检测竞赛 2023获胜团队方案分享
OVD技术简介 目标检测是计算机视觉领域中的一项核心任务,其主要目标是让计算机能够自动识别图片中目标的类别,并准确标示每个目标的位置。目前,主流的目标检测方法主要针对闭集目标的开发,即在任务开始之前需要对待检测目标进行类别定义,并进行人工数据标注,通...