当前位置:AIGC资讯 > 视觉编码器 第2页
-
字节跳动与中科大联手提出多模态文档大模型DocPedia
字节跳动与中国科学技术大学合作研发的多模态文档大模型DocPedia已成功突破了分辨率的极限,达到了2560×2560的高分辨率。这一成果是通过研究团队采用了一种新的方法,解决了现有模型在解析高分辨文档图像方面的不足。 在此研究中,提出了DocPedia,...
-
突破分辨率极限,字节联合中科大提出多模态文档大模型
现在连文档都有大模型了,还是高分辨率、多模态的那种! 不仅能准确识别出图像里的信息,还能结合用户需求调用自己的知识库来回答问题。 比如,看到图中马里奥的界面,直接就回答出了这是任天堂公司的作品。 这款模型由字节跳动和中国科学技术大学合作研究,于2023年...
-
北大最新多模态大模型开源:在混合数据集上训练,无需修改直接用到图像视频任务
训完130亿参数通用视觉语言大模型,只需3天! 北大和中山大学团队又出招了——在最新研究中,研究团队提出了一种构建统一的图片和视频表征的框架。 利用这种框架,可以大大减少VLM(视觉语言大模型)在训练和推理过程中的开销。 具体而言,团队按照提出的新框架...
-
训练130亿大模型仅3天,北大提出Chat-UniVi统一图片和视频理解
论文地址:https://arxiv.org/pdf/2311.08046.pdf GitHub 地址:https://github.com/PKU-YuanGroup/Chat-UniVi Huggingface 地址:https://huggi...
-
HiLM-D:自动驾驶多模态大语言模型玩出花了
本文经自动驾驶之心公众号授权转载,转载请联系出处。 笔者个人的一些思考 不得不说,最近大模型在学术界火起来了,基于图文匹配的CLIP预训练模型成为近年来在多模态研究领域的经典之作。除此之外,大语言模型的蓬勃发展也进一步为多模态带来了性能提升。自动驾驶领...