-
聊聊拉长LLaMA的一些经验
Sequence Length是指LLM能够处理的文本的最大长度,越长,自然越有优势: 更强的记忆性。更多轮的历史对话被拼接到对话中,减少出现遗忘现象 长文本场景下体验更佳。比如文档问答、小说续写等 当今开源LLM中的当红炸子鸡——LLaMA...
-
Hugging Face使用Stable diffusion Diffusers Transformers Accelerate Pipelines VAE
Diffusers A library that offers an implementation of various diffusion models, including text-to-image models. 提供不同扩散模型的实现的库,代...
-
文心一言“拜师”了!金灿荣、王先进等成为首批“文心导师”
12月28日,由深度学习技术及应用国家工程研究中心主办的WAVE SUMMIT+深度学习开发者大会2023在北京召开。百度首席技术官、深度学习技术及应用国家工程研究中心主任王海峰现场公布了飞桨文心五载十届最新生态成果,文心一言最新用户规模破1亿,截至12月...
-
用户规模破亿!基于文心一言的创新应用已超4000个
?♂️ 个人主页:@艾派森的个人主页 ✍?作者简介:Python学习者 ? 希望大家多多支持,我们一起进步!? 如果文章对你有帮助的话, 欢迎评论 ?点赞?? 收藏 ?加关注+ 12月28日,由深度学习技术及应用国家工程研究中...
-
Stable Diffusion的结构要被淘汰了吗?详细解读谷歌最新大杀器VideoPoet
Diffusion Models视频生成-博客汇总 前言:视频生成领域长期被Stable Diffusion统治,大部分的方式都是在预训练的图片Stable Diffusion的基础上加入时间层,学习动态信息。虽然有CoDi《【NeurIPS...
-
100000000!文心一言披露最新用户规模
“文心一言用户规模突破1亿。” 12月28日,百度首席技术官、深度学习技术及应用国家工程研究中心主任王海峰在第十届WAVE SUMMIT深度学习开发者大会上宣布。会上,王海峰以《文心加飞桨,翩然赴星河》为题作了主旨演讲,分享了飞桨和文心的最新成果。...
-
SOLAR10.7B大模型屠榜HuggingFace 创新性拼接两个羊驼,高效集成
深度学习领域的新技术近日在HuggingFace的大模型排行榜中崭露头角,由Upstage AI提出的深度扩展方法(DUS)在SOLAR10.7B大模型上取得了令人瞩目的成绩。该技术通过创新性地拼接两个7B羊驼,并采用DUS方法删除中间层次,使得新模型不仅...
-
两只羊驼掐头去尾拼一起,屠榜HuggingFace
HuggingFace开源大模型排行榜,又被屠榜了。 前排被清一色的SOLAR 10.7B微调版本占据,把几周之前的各种Mixtral 8x7B微调版本挤了下去。 SOLAR大模型什么来头? 相关论文刚刚上传到ArXiv,来自韩国公司Upstage A...
-
深度学习实战29-AIGC项目:利用GPT-2(CPU环境)进行文本续写与生成歌词任务
大家好,我是微学AI,今天给大家介绍一下深度学习实战29-AIGC项目:利用GPT-2(CPU环境 进行文本续写与生成歌词任务。在大家没有GPU算力的情况,大模型可能玩不动,推理速度慢,那么我们怎么才能跑去生成式的模型呢,我们可以试一下GPT-2完成一些简...
-
在自定义数据集上微调Alpaca和LLaMA
本文将介绍使用LoRa在本地机器上微调Alpaca和LLaMA,我们将介绍在特定数据集上对Alpaca LoRa进行微调的整个过程,本文将涵盖数据处理、模型训练和使用流行的自然语言处理库(如Transformers和hugs Face 进行评估。此外还将介...
-
用扩散模型监督NeRF,清华文生3D新方法成新SOTA
用文字合成3D图形的AI模型,又有了新的SOTA! 近日,清华大学刘永进教授课题组提出了一种基于扩散模型的文生3D新方式。 无论是不同视角间的一致性,还是与提示词的匹配度,都比此前大幅提升。 图片 文生3D是3D AIGC的热点研究内容,得到了学术界和工...
-
字节具身智能新成果:用大规模视频数据训练GR-1,复杂任务轻松应对
最近 GPT 模型在 NLP 领域取得了巨大成功。GPT 模型首先在大规模的数据上预训练,然后在特定的下游任务的数据上微调。大规模的预训练能够帮助模型学习可泛化的特征,进而让其轻松迁移到下游的任务上。 但相比自然语言数据,机器人数据是十分稀缺的。而且机器...
-
谁能撼动Transformer统治地位?Mamba作者谈LLM未来架构
在大模型领域,一直稳站 C 位的 Transformer 最近似乎有被超越的趋势。 这个挑战者就是一项名为「Mamba」的研究,其在语言、音频和基因组学等多种模态中都达到了 SOTA 性能。在语言建模方面,无论是预训练还是下游评估,Mamba-3B 模...
-
文心一言用户规模破1亿 今年10月基础模型升级到4.0
在第十届WAVE SUMMIT深度学习开发者大会上,百度CTO兼深度学习技术及应用国家工程研究中心负责人王海峰,发表了《文心加飞桨,翩然赴星河》的主题演讲。 百度从2019年开始专注于预训练模型的研发,推出了文心大模型1.0。经过近四年的不断优化,百度在...
-
CVPR 2023 | 图像超分,结合扩散模型/GAN/部署优化,low-level任务,视觉AIGC系列
1、Activating More Pixels in Image Super-Resolution Transformer 基于Transformer的方法在低级别视觉任务中,如图像超分辨率,表现出了令人印象深刻的性能。Transformer的...
-
【AIGC】图片生成的原理与应用
前言 近两年 AI 发展非常迅速,其中的 AI 绘画也越来越火爆,AI 绘画在很多应用领域有巨大的潜力,AI 甚至能模仿各种著名艺术家的风格进行绘画。 目前比较有名商业化的 AI 绘画软件有 Midjourney、DALL·E2、以及百度出品...
-
百度CTO王海峰:文心一言用户规模破1亿
“文心一言用户规模突破1亿。”12月28日,百度首席技术官、深度学习技术及应用国家工程研究中心主任王海峰在第十届WAVE SUMMIT深度学习开发者大会上宣布。会上,王海峰以《文心加飞桨,翩然赴星河》为题作了主旨演讲,分享了飞桨和文心的最新成果。...
-
VC谈2024年AI发展趋势年:多模态模型主导、GPU短缺等
随着2023年的结束,VC们对过去一年围绕人工智能的巨大进展和伦理辩论进行了回顾。像Bing Chat和Google Bard这样的聊天机器人展示了令人印象深刻的自然语言能力,而生成式AI模型如DALL-E3和MidJourney V6则以其创造性的图像生...
-
数据闭环!DrivingGaussian:逼真环视数据,驾驶场景重建SOTA
本文经自动驾驶之心公众号授权转载,转载请联系出处。 写在前面&笔者的个人理解 北大王选计算机研究所的最新工作,提出了DrivingGaussian,一个高效、有效的动态自动驾驶场景框架。对于具有移动目标的复杂场景,首先使用增量静态3D高斯对整个...
-
大模型被偷家!CNN搞多模态不弱于Transfromer(腾讯&港中文)
本文经自动驾驶之心公众号授权转载,转载请联系出处。 腾讯AI实验室与港中文联合团队提出了一种新的CNN架构,图像识别精度和速度都超过了Transformer架构模型。 切换到点云、音频、视频等其他模态,也无需改变模型结构,简单预处理即可接近甚至超越SO...
-
带你从零开始入门AI绘画神器Stable Diffusion
一、本地部署 Stable diffusion 1. 前言 目前市面上比较权威,并能用于工作中的 AI 绘画软件其实就两款。一个叫 Midjourney(简称 MJ),另一个叫 Stable-Diffusion(简称 SD)。MJ 需要付费使用,而 S...
-
Llama2推理RTX3090胜过4090,延迟吞吐量占优,但被A800远远甩开
大型语言模型 (LLM 在学界和业界都取得了巨大的进展。但训练和部署 LLM 非常昂贵,需要大量的计算资源和内存,因此研究人员开发了许多用于加速 LLM 预训练、微调和推理的开源框架和方法。然而,不同硬件和软件堆栈的运行时性能可能存在很大差异,这使得选...
-
大模型+机器人,详尽的综述报告来了,多位华人学者参与
大模型的出色能力有目共睹,而如果将它们整合进机器人,则有望让机器人拥有一个更加智能的大脑,为机器人领域带来新的可能性,比如自动驾驶、家用机器人、工业机器人、辅助机器人、医疗机器人、现场机器人和多机器人系统。 预训练的大型语言模型(LLM)、大型视觉 -...
-
得物大模型平台,业务效果提升实践
一、背景 得物大模型训练与推理平台上线几个月后,我们与公司内部超过 10 个业务领域展开了全面的合作。在一些关键业务指标方面,取得了显著的成效,例如: 效率相关部门的合作,多维度打标总正确率取得 2 倍以上提升。利用大模型开辟了新的业务,提升了效...
-
什么?NeRF还能提升BEV泛化性能!首个BEV跨域开源代码并首次完成Sim2Real!
本文经自动驾驶之心公众号授权转载,转载请联系出处。 写在前面&笔者的个人总结 鸟瞰图(Bird eye's view, BEV 检测是一种通过融合多个环视摄像头来进行检测的方法。目前算法大部分算法都是在相同数据集训练并且评测,这导致了这些算法过...
-
百度文心一言,不做ChatGPT的中国翻版
数据智能产业创新服务媒体 ——聚焦数智 · 改变商业 3月16日,百度的文心一言终于正式邀请测试了。 据李彦宏介绍,文心一言可以实现文学创作、商业文案创作、数理逻辑推算、中文理解、多模态生成等。 通过观看直...
-
OpenAI首席执行官透露2024年ChatGPT最受欢迎的功能请求
OpenAI首席执行官Sam Altman在2024年揭示了ChatGPT制造商最常被请求的功能,其中包括人工通用智能、GPT-5语言模型以及更个性化的要求。这些请求是Altman在X(前身为Twitter)上向关注者提出的问题的回应,他询问他们希望Ope...
-
一文读懂常用的 “生成式 AI 库”
Hello folks,我是 Luga,今天我们继续来聊一下人工智能(AI)生态领域相关的技术 - GenerativeAI Library(生成式 AI 库) ,本文将继续聚焦在针对 Gen AI Library 的技术进行解析,使得大家能够了解 G...
-
模型量化和边缘人工智能如何定义交互方式
人工智能与边缘计算的融合承诺为许多行业带来变革。模型量化的快速创新在这方面发挥着关键作用,模型量化是一种通过提高可移植性和减小模型大小来加快计算速度的技术。 模型量化弥补了边缘设备的计算限制与部署高精度模型的需求之间的差距,以实现更快、更高效、更具成本效...
-
折射OpenAI新一年技术路线图,透视Sam Altman的12个愿望清单
当地时间12月24日,Sam Altman 在X 平台上罕见地发起了一个「许愿池」, 「希望 OpenAI 在2024年构建/修复什么?」,这条推文迅速吸引 AI 领域众多大佬和网友的参与。 两个小时后,Sam Altman 挑选了12个期望值最高的愿望清...
-
大模型微调非得依赖人类数据吗?DeepMind:用带反馈的自训练更好
如你我所见,大语言模型(LLM)正在改变深度学习的格局,在生成人类质量的文本和解决各种语言任务方面展现出了卓越的能力。虽然业界通过对人类收集的数据进行监督微调进一步提升了在具体任务上的性能,但获取高质量人类数据却面临着重大瓶颈。这对于要解决复杂问题的任务...
-
Chat、GPT-4 加上 Midjourney = 一个完美的团队?我可以使用这两种工具创建更好的 AI 图像吗?
每个使用 AI 的人都听说过 Chat GPT,我也听说过。当然,您可以将它用于不同的目的,但我立即想到将它用作 Midjourney 的文本提示编写器。 我在 openai 网站上用我的电子邮件和电话号码注册了一个新帐户,然后开始玩。 什么是“聊天...
-
InsCode Stable Diffusion使用教程(非常详细)从零基础入门到精通,看完这一篇就够了
记录一下如何使用 InsCode Stable Diffusion 进行 AI 绘图以及使用感受。 一、背景介绍 目前市面上比较权威,并能用于工作中的 AI 绘画软件其实就两款。一个叫 Midjourney(简称 MJ),另一个叫 Stable Di...
-
Python+AI实现AI绘画
? 运行环境:Python ? 撰写作者:左手の明天 ? 精选专栏:《python》 ? 推荐专栏:《算法研究》 ?#### 防伪水印——左手の明天 ####? ? 大家好???,我是左手の明天!好久不见? ?今天分享py...
-
一篇综述,看穿基础模型+机器人的发展路径
机器人是一种拥有无尽可能性的技术,尤其是当搭配了智能技术时。近段时间创造了许多变革性应用的大模型有望成为机器人的智慧大脑,帮助机器人感知和理解这个世界并制定决策和进行规划。 近日,CMU 的 Yonatan Bisk 和 Google DeepMind...
-
ChatGPT(小程序版)- 可AI绘画、内置各种功能
chatGP在网络上可是出了名的火爆,无论是圈内还是圈外的人,都希望能尝试一下,不过因为没有办法在中国注册,所以门槛拦住了一大半人的使用。 再加上近来大量的 GPT头衔被封,人们在用它的时候,都会感到有心无力。。...
-
大模型被偷家!腾讯港中文新研究修正认知:CNN搞多模态不弱于Transfromer
在Transformer占据多模态工具半壁江山的时代,大核CNN又“杀了回来”,成为了一匹新的黑马。 腾讯AI实验室与港中文联合团队提出了一种新的CNN架构,图像识别精度和速度都超过了Transformer架构模型。 切换到点云、音频、视频等其他模态,也无...
-
港联证券|万亿级AIGC赛道或迎有序监管
近段时间,连续有国内外科技巨子涌入万亿级AIGC(生成式AI)赛道,A股商场上AIGC、ChatGPT等人工智能相关概念也是继续火热。但与此同时,安全隐患也如冰山一角逐渐露出。多国政府正在考虑加强对其监管,AIGC在全球范围内正在进入强监管时代。在强监管之...
-
AI绘画中CLIP文本-图像预训练模型
介绍 OpenAI 在 2021 年提出了 CLIP(Contrastive Language–Image Pretraining)算法,这是一个先进的机器学习模型,旨在理解和解释图像和文本之间的关系。CLIP 的核心思想是通过大规模的图像和文本对进行...
-
Ubuntu 22.04安装英特尔显卡驱动玩转AIGC
作者:英特尔网路与边缘计算事业部开发者关系经理 李翊玮 本文将介绍如何使用EIV 用5行指令在快速搭建含英特尔显卡及OpenVINO的AI开发环境, 并简洁说明如何使用OpenVINO 及英特尔显卡优化文生图模型Stable Diffusion 的速度。...
-
【AIGC】baichuan-7B大模型
百川智能|开源可商用的大规模预训练语言模型baichuan-7B大模型 概述 baichuan-7B 是由百川智能开发的一个开源可商用的大规模预训练语言模型。基于 Transformer 结构,在大约1.2万亿 tokens 上训练的70亿参数模型,支持...
-
stable-diffusion安装和简单测试
参考:https://github.com/CompVis/stable-diffusion理解DALL·E 2, Stable Diffusion和 Midjourney的工作原理Latent Diffusion Models论文解读【生成式AI】淺談圖...
-
AI向百万薪资 高级原画师开刀?!爆Midjourney入局3D模型生成
来源 SoulofArt | ID Soul_Art 现在AI向高级原画师和3D开刀了? 网传爆料AI已入局3D模型生成... 这进化速度放在整个行业都十分炸裂 4月,Midjourney进一步宣布推出Niji-journey V5...
-
【AIGC】Chatglm2-lora微调
ChatGLM2介绍 ChatGLM2-6B源码地址:https://github.com/THUDM/ChatGLM2-6B ChatGLM2-6B 是开源中英双语对话模型 ChatGLM-6B 的第二代版本,在保留了初代模型对话流畅、部署门槛较低...
-
Llama中文社区开源预训练Atom-7B-chat大模型体验与本地化部署实测(基于CPU,适配无GPU的场景)
一、模型简介 原子大模型Atom由Llama中文社区和原子回声联合打造,在中文大模型评测榜单C-Eval中位居前十(8月21日评测提交时间)。 Atom系列模型包含Atom-7B和Atom-...
-
14秒就能重建视频,还能变换角色,Meta让视频合成提速44倍
就今天的人工智能发展水平来说,文生图、图生视频、图像/视频风格迁移都已经不算什么难事。 生成式 AI 天赋异禀,能够毫不费力地创建或修改内容。尤其是图像编辑,在以十亿规模数据集为基础预训练的文本到图像扩散模型的推动下,经历了重大发展。这股浪潮催生了大量图...
-
测试时领域适应的鲁棒性得以保证,TRIBE在多真实场景下达到SOTA
测试时领域适应(Test-Time Adaptation)的目的是使源域模型适应推理阶段的测试数据,在适应未知的图像损坏领域取得了出色的效果。然而,当前许多方法都缺乏对真实世界场景中测试数据流的考虑,例如: 测试数据流应当是时变分布(而非传统领域适应中...
-
最强英文开源模型LLaMA架构探秘,从原理到源码
导读:LLaMA 65B是由Meta AI(原Facebook AI)发布并宣布开源的真正意义上的千亿级别大语言模型,发布之初(2023年2月24日)曾引起不小的轰动。LLaMA的横空出世,更像是模型大战中一个搅局者。虽然它的效果(performance)...
-
Stable Diffusion攻略集(Stable Diffusion官方文档、kaggle notebook、webui资源帖)
文章目录 第一部分 一、 Features:Textual Inversion(文本反转) 1.1 Textual Inversion 简介 1.1.1 摘要 1.1.2 算法 1.1.3 模型效果 1.2 Textual Invers...
-
基于MindSpore的llama微调在OpenI平台上运行
基于MindSpore的llama微调在OpenI平台上运行 克隆预训练模型 克隆chatglm-6b代码仓,下载分布式的模型文件 git lfs install git clone https://huggingface.co/openlm-...