-
北大最新多模态大模型开源:在混合数据集上训练,无需修改直接用到图像视频任务
训完130亿参数通用视觉语言大模型,只需3天! 北大和中山大学团队又出招了——在最新研究中,研究团队提出了一种构建统一的图片和视频表征的框架。 利用这种框架,可以大大减少VLM(视觉语言大模型)在训练和推理过程中的开销。 具体而言,团队按照提出的新框架...
-
AI视野:Stability.ai开源SDXL Turbo;Pika Labs1.0版发布;字节跳动ChitChop在海外上线;Keras3.0正式发布;法院判决AI生成图片具备版权
???AI应用 Stability.ai发布开源文生图模型SDXL Turbo 文生成图AI平台Stability.ai发布开源SDXL Turbo,图像生成实时响应,仅需1秒。SDXL Turbo基于全新对抗扩散蒸馏技术(ADD),将生成步骤减至1-4步...
-
训练130亿大模型仅3天,北大提出Chat-UniVi统一图片和视频理解
论文地址:https://arxiv.org/pdf/2311.08046.pdf GitHub 地址:https://github.com/PKU-YuanGroup/Chat-UniVi Huggingface 地址:https://huggi...
-
提前对齐,视频问答新SOTA!北大全新Video-LLaVA视觉语言大模型,秒懂视频笑点
【新智元导读】最近,来自北京大学等机构研究者提出了一种全新视觉语言大模型——Video-LLaVA,使得LLM能够同时接收图片和视频为输入。Video-LlaVA在下游任务中取得了卓越的性能,并在图片、视频的13个基准上达到先进的性能。这个结果表明,统一L...
-
北大视频大模型新SOTA,搞笑抖音视频AI秒懂笑点|开源
AI能理解搞笑视频笑点在哪里了。 北大等团队开源视觉语言大模型Video-LLaVA,将图像和视频表示对齐到统一的视觉特征空间,在13个图片和视频基准上达到先进的性能。 值得注意的是,Video-LLaVA在训练过程中没有使用成对的视频和图片数据,但...
-
北大视频大模型新SOTA,搞笑抖音视频AI秒懂笑点
AI能理解搞笑视频笑点在哪里了。 AI回答:这个视频之所以搞笑,在于一个小宝宝正坐在床上努力读书,但他显然还不会真正读书。他只是不停地指着书页上的各处,而摄影者则在背后笑他。小宝宝的这种尝试很有趣,因为他在尝试阅读一本对他而言过大的书,也看不懂里面的文...
-
GPT-4V在自动驾驶上应用前景如何?面向真实场景的全面测评来了
GPT-4V 的发布让许多计算机视觉(CV)应用看到了新的可能。一些研究人员开始探索 GPT-4V 的实际应用潜力。 最近,一篇题为《On the Road with GPT-4V (ision : Early Explorations of Visua...
-
AIGC时代,用Midjourney设计UI,跟“灵魂画手”说拜拜
使用 Midjourney 进行 UI 设计 微信搜索关注《Python学研大本营》,加入读者群,分享更多精彩 引言 Midjourney、Dalle-2和 Stable Diffusion等文本到图像 AI 工具可以从纯文本生成图像。现在互联网...
-
UNC斯坦福等曝光GPT-4V意外漏洞,被人类哄骗数出8个葫芦娃!LeCun和Jim Fan震惊了
GPT-4V诞生后,惊艳的多模态能力让网友惊呼连连,连OpenAI总裁Greg Brockman都不断在X上安利。 不过,最近大家发现,只要打乱布局,GPT-4V就会被曾经解决的著名计算机视觉难题——「吉娃娃还是松饼」,再次难倒…… UCSC教授Xin...
-
【AIGC】1、爆火的 AIGC 到底是什么 | 全面介绍
文章目录 一、AIGC 的简要介绍 二、AIGC 的发展历程 三、AIGC 的基石 3.1 基本模型 3.2 基于人类反馈的强化学习 3.3 算力支持 四、生成式 AI(Generative AI) 4.1 单模态 4.1.1 生成式语...
-
【原创】用 VisualGLM 进行AIGC多模识别和内容生成
最近几个月,整个AI行业的LLM(大语言模型)蓬勃发展,除了过去传统的纯文字的多模态能力的视觉语言模型,如 GPT-4,ImageBind等表现令人印象深刻。 ChatGLM-6B是中文用户使用非常舒服的一个开源中文LLM。2023年5月17日,智谱...
-
在等GPT-5多模态?试试Genmo!Adobe AI首轮内测报告;ChatGPT三条使用哲学与实践;论文追更与阅读神器 | ShowMeAI日报
?日报&周刊合集 | ?生产力工具与行业应用大全 | ? 点赞关注评论拜托啦! ? 『微软 New Bing 引入广告』日活跃用户超1亿,探索广告投放的未来 微软正在尝试在 New Bing 的聊天回复中投放广告。虽然广告被明确标...
-
北大具身智能新成果:无需训练,听指令就能灵活走位
北京大学董豪团队具身导航最新成果来了: 无需额外建图和训练,只需说出导航指令,如: Walk forward across the room and walk through the panty followed by the kitchen. Stan...
-
GPT-4V连小学生都不如?最新基准测试错误率竟高达90%:红绿灯认错、勾股定理也不会
GPT-4被吹的神乎其神,作为具备视觉能力的GPT-4版本——GPT-4V,也被大众寄于了厚望。 但如果告诉你,初中生都知道的勾股定理,只适用于直角三角形。 然而GPT-4V却自信将其用于钝角三角形中计算斜边长度。还有更离谱的,GPT-4V直接犯了致命的...
-
世界模型和DriveGPT这类大模型到底能给自动驾驶带来什么?
本文经自动驾驶之心公众号授权转载,转载请联系出处。 大模型今年爆火,很多领域上的应用如雨后春笋般涌现,很多优秀的工作出现,主要集中在数据生成和场景分析表述两部分,重点解决自动驾驶的长尾分布问题和场景识别。今天自动驾驶之心带大家梳理下自动驾驶行业上的大模...
-
AI视野:OpenAI成全球第三最有价值初创公司;SDXL推精简版本;小米14将搭载WPS AI功能;Bing AI拒绝生成女性逼真图像
???AI应用 SDXL推精简版本SSD-1B 推理速度提升60% Segmind Stable Diffusion1B(SSD-1B)是一款高效、高速的文本生成图像AI模型,为图像生成提供广泛可能性,它是稳定扩散XL的精简版本,体积减小50%,但速度提升...
-
AI视野:高通发布骁龙X Elite芯片;AutoGPT获1200万美元融资;AI社交产品Airchat火了;百度Comate智能代码助手上线SaaS版本
???AI新鲜事 高通发布骁龙X Elite芯片 电脑可运行130亿参数大模型 高通发布骁龙X Elite芯片,成为全球性能最强的CPU,能在PC上运行130亿参数的大模型,实现离线AI应用。 爆火智能体项目AutoGPT获1200万美元融资 Auto...
-
在视觉提示中加入「标记」,微软等让GPT-4V看的更准、分的更细
最近一段时间,我们见证了大型语言模型(LLM)的显著进步。特别是,生成式预训练 Transformer 或 GPT 的发布引领了业界和学术界的多项突破。自 GPT-4发布以来,大型多模态模型 (LMM 引起了研究界越来越多的兴趣,许多工作致力于构建多模态...