-
[240929] 12 款最佳免费开源隐写工具 | Llama 3.2: 开源、可定制模型,革新边缘人工智能和视觉体验
目录 12 款最佳免费开源隐写工具 Llama 3.2: 开源、可定制模型,革新边缘人工智能和视觉体验 12 款最佳免费开源隐写工具 什么是隐写术? 隐写术是一种将信息隐藏在其他信息中的艺术和科学,除了发送者和预期的接收者之外,...
-
Meta发布Llama 3.2,Llama 终于能看见了!
Llama家族再添新成员,多模态能力终于到来! Meta刚刚发布了Llama 3.2模型系列,包括多模态视觉模型和小型文本模型,共计10个开放权重模型。 这次更新不仅带来了期待已久的视觉能力,还为移动设备和边缘计算提供了更多选择。 多模态Llam...
-
Llama 3.2来了,多模态且开源!AR眼镜黄仁勋首批体验,Quest 3S头显价格低到离谱
如果说 OpenAI 的 ChatGPT 拉开了「百模大战」的序幕,那 Meta 的 Ray-Ban Meta 智能眼镜无疑是触发「百镜大战」的导火索。自去年 9 月在 Meta Connect 2023 开发者大会上首次亮相,短短数月,Ray-Ban M...
-
大模型——LLaVA和LLaMA的介绍和区别
LLaVA和LLaMA是两个不同的模型架构,它们的设计目的和应用领域有所不同: LLaMA(Large Language Model Meta AI) 简介:LLaMA是由Meta AI推出的一系列大规模语言模型(Large Language M...
-
AIGC实战——多模态模型Flamingo
AIGC实战——多模态模型Flamingo 0. 前言 1. Flamingo 架构 2. 视觉编码器 3. Perceiver 重采样器 4. 语言模型 5. FIamingo 应用 小结 系列链接 0. 前言 我们已经学习了文...
-
AIGC学习笔记
提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档 前言 提示:这里可以添加本文要记录的大概内容: 记录一下学习AIGC,参考链接: 爆火的AIGC到底是什么 提示:以下是本篇文章正文内容,下面案例可供参考 一、stab...
-
LLaMA-Adapter:零初始注意机制的语言模型高效微调
23年6月来自上海AI实验室,香港中文大学和UCLA的论文“LLaMA-Adapter: Efficient Fine-tuning of Language Models with Zero-init Attention“。 LLaMA-Adapter是...
-
中国AI大模型论文数量全球第一,清华力压麻省理工、斯坦福
论文是研究新技术、开发新产品获取“图纸”的重要途径之一,OpenAI的研究人员正是借鉴了Transformer的论文(被引用超过9万次),才开发出了对全球各行业影响巨大的产品ChatGPT。 而论文的数量、通过率和被引用次数是衡量一个国家科技人才素质,以及...
-
视频多模态模型: VideoChat、Video-LLaMA、Video-ChatGPT、Video-LLaVA等
VideoChat VideoChat🦜: 基于视频指令数据微调的聊天机器人 https://arxiv.org/pdf/2305.06355.pdf https://github.com/OpenGVLab/Ask-Anything/tr...
-
每日AIGC最新进展(25):复旦大学提出参数高效微调框架Adapter-X、上海交通大学提出大型多模态模型新测试标准A-Bench、腾讯提出统一多模态布局生成框架PosterLLaVa
Diffusion Models专栏文章汇总:入门与实战 Adapter-X: A Novel General Parameter-Efficient Fine-Tuning Framework for Vision 本文提出了一种新的参数高效...
-
Nvidia发布GeForce RTX增强版,为AI PC数字助手提供支持
Nvidia 在Computex 展会上推出了新的 RTX 技术,为新的 GeForce RTX AI 笔记本电脑提供动力。其中,Project G-Assist 技术演示为 PC 游戏和应用提供上下文感知的帮助。这项技术首次在 Studio Wildca...
-
Stable Diffusion基础:ControlNet之重新上色(黑白照片换新颜)
本文给大家分享 Stable Diffusion 的基础能力:ControlNet 之重新上色。 这是一个最近新上的 ControlNet 模型,它可以识别图像中的不同区域,并使用不同的颜色重新绘制它们。 安装 ControlNet 安装 工欲善其...
-
【AIGC调研系列】CogVLM2:第二代视觉大模型
CogVLM2是智谱AI推出的新一代多模态大模型,继承并优化了上一代模型的经典架构。CogVLM2采用了一个拥有50亿参数的强大视觉编码器,并创新性地在大语言模型中整合了一个70亿参数的视觉专家模块[1]。这一设计使得CogVLM2在视觉和语言理解方面实现...
-
HuggingFace教你怎样做出SOTA视觉模型
前有OpenAI的GPT-4o,后有谷歌的系列王炸,先进的多模态大模型接连炸场。 其他从业者在震撼之余,也再次开始思考怎么追赶这些超级模型了。 刚好在这时,HuggingFace和法国索邦大学的一篇论文,总结出了构建视觉大模型的关键经验,给开发者指明了一...
-
Ilya离职后第一个动作:点赞了这篇论文,网友抢着传看
自Ilya Sutskever官宣离职OpenAI后,他的下一步动作成了大家关注焦点。 甚至有人密切关注着他的一举一动。 这不,Ilya前脚刚刚点赞❤️了一篇新论文—— ——网友们后脚就抢着都看上了: 论文来自MIT,作者提出了一个假说,用一句话总结...
-
中国首个Sora级大模型Vidu:文本生成16秒,1080p高清视频
4月27日,在2024中关村论坛-未来人工智能先锋论坛上,清华大学联合生数科技正式发布了,中国首个长时间、高一致性、高动态性视频大模型——Vidu。 据悉,Vidu采用了原创的Diffusion与Transformer融合的架构U-ViT,支持文本生成长达...
-
清华团队国产“Sora”火了:生数科技发布视频大模型「Vidu」
在中关村论坛的未来人工智能先锋论坛中,生数科技与清华大学携手,正式推出了中国首个具备长时长、高一致性及高动态性的视频大模型——“Vidu”。 这款引领时代的视频大模型,其核心在于团队原创的Diffusion与Transformer融合的U-ViT架构。它不...
-
OpenAI Preparedness团队首席Aleksander Madry:机器学习模型的内部计算如何将输入转化为预测?
考虑一个标准的ResNet50模型,该模型经过训练用于图像分类任务。我们是否能够理解这个模型中的卷积滤波器如何将输入图像转换为其预测的标签?或者,GPT-3中的注意力头如何contribute到下一个标记的预测?理解这些模型组件——包括滤波器或头等架构...
-
基于图技术提升多模型协作性能
译者 | 朱先忠 审校 | 重楼 当今时代,各种人工智能模型的能力整合到一起已经释放出一股巨大的潜力。这种力量已经涉及到从需要视觉、语音、写作和合成等多种能力的复杂任务自动化到增强决策过程等诸多领域。然而,如何高效协调这些合作?无论在管理内部关系还是在管...
-
DeepMind首发游戏AI智能体SIMA!只用自然语言就能玩转「山羊模拟器」
谷歌DeepMind在AI和游戏方面有着悠久的历史。 从过去与Atari游戏的密切合作开始,然后发展到AlphaStar系统可以在《星际争霸II》中达到人类大师级水平,到如今,DeepMind从单个游戏转向了通用的、可指导的游戏AI代理。 SIMA,是一...
-
能玩3D游戏的AI玩家!谷歌新智能体SIMA发布,但水平还在“新手村”
编译 | 伊风 出品 | 51CTO技术栈(微信号:blog51cto) 世界上第一位AI程序员Devin诞生,让大家纷纷转发感叹“饭碗保不住”。 一转眼,具有里程碑意义的AI玩家也来了!谷歌(Google)旗下DeepMind发布新智能体SIMA。 S...
-
旷视实战大模型:把多模态扎进行业
距离ChatGPT、GPT-4等引爆新一轮人工智能变革的时刻,已经过去了整整一年的时间。在这一年里,国内外大量公司涌入大模型的“斗兽场”,加速大模型技术的迭代与跃迁。 大模型前所未有的通用任务处理能力,让所有人看到了解锁更多应用场景的可能性。各行各业开始...
-
谷歌通用AI智能体发布,3D游戏玩法要变天了
谷歌DeepMind号称打造出了首个能在广泛3D虚拟环境和视频游戏中遵循自然语言指令的通用AI智能体。 名为SIMA,不是NPC,是可以成为玩家拍档,帮忙干活打杂的那种。 比如,在《模拟山羊3》(Goat Simulator 3)中当司机开开车: 在...
-
解剖Sora:37页论文逆向工程推测技术细节,微软参与,华人团队出品
Sora刚发布不久,就被逆向工程“解剖”了?! 来自理海大学、微软研究院的华人团队发布了首个Sora相关研究综述,足足有37页。 他们基于Sora公开技术报告和逆向工程,对模型背景、相关技术、应用、现存挑战以及文本到视频AI模型未来发展方向进行了全面分析...
-
港大开发V-IRL平台:将真实世界地图纳入虚拟环境 给AI Agent完整的一生!
近日,港大和NYU的研究团队合作开发了一个名为V-IRL的平台,该平台将真实世界的地图、街景等丰富信息融入到虚拟环境中,为AI Agent提供了更真实和完整的生活体验。 这项研究的核心在于构建一个可扩展的平台,利用地理信息和街景图像等API将AI智能体嵌入...
-
给AI Agent完整的一生!港大NYU谢赛宁等最新智能体研究:虚拟即现实
【新智元导读】近日,来自香港大学的Jihan Yang和纽约大学的谢赛宁等人发表了新的成果,将真实世界的地图、街景等各种信息融入Agent所在的虚拟世界,为智能体的未来赋予了无限可能。 怎样能构建更强大的AI Agent? 答案是给他们一个完整而真实的世界...
-
【AIGC大模型】Sora--首个大型视频生成模型
Sora--首个大型视频生成模型 胡锡进于2024年2月20日认为:台当局怂了 新的改变 世界模拟器 视觉数据转换 视频压缩 时空补丁(Spacetime Laten Patches) 视频生成扩展变压器 算法和模型架构 结语 胡锡...
-
OpenAI宣布与Figure合作 将GPT整合到机器人
OpenAI宣布与独角兽Figure合作,旨在打造下一代AI大模型,提升机器人的语言处理和推理能力。Figure01通过学习实现煮咖啡等任务,借助OpenAI的多模态模型,其能力有望得到进一步提升。 合作旨在增强机器人的智能,尤其是语言处理和推理方面。Fi...
-
Playground v2.5官网体验入口 AI在线图像生成器免费使用地址
Playground v2.5是一个免费的在线AI图像生成器,用户可以使用它来创造艺术作品、社交媒体帖子、演示文稿、海报、视频、标志以及更多。它采用了当前最先进的视觉模型,可以高质量生成各种风格和内容的图片。主要功能和优势包括:1 强大的图像生成能力,可根...
-
高通发布AI Hub 为开发者提供了75+优化的AI模型
高通在巴塞罗那举办的MWC上发布了AI Hub,该平台为开发者提供了一系列优化的AI模型,可在Snapdragon和高通平台上运行。这些模型的推出不仅加快了开发速度,还实现了在设备上运行AI的优势。通过在云端主机设备上运行模型,开发者只需几行代码即可实现。...
-
一文读懂以chatGPT为首的AIGC发展趋势
最近以ChatGPT为首的AIGC实在太火了,我从22年12月一直关注至今,也做了不少事,下面简单来说下我对此的一些看法: 首先先来看看AIGC事件发展的timeLine: 发展初期: 1、2022-11-30:OpenAI发布GPT-3.5,这...
-
纯文本模型训出「视觉」表征!MIT最新研究:语言模型用代码就能作画
只会「看书」的大语言模型,有现实世界的视觉感知力吗?通过对字符串之间的关系进行建模,关于视觉世界,语言模型到底能学会什么? 最近,麻省理工学院计算机科学与人工智能实验室(MIT CSAIL)的研究人员对语言模型的视觉能力进行了系统的评估,从简单形状、物体...
-
通义千问视觉语言模型Qwen-VL在线体验入口 阿里云AI在线使用入口
Qwen-VL是阿里云推出的通用型视觉语言模型,具备强大的视觉理解和多模态推理能力。采用 Transformer 结构,以 7B 参数规模进行预训练,支持 448x448 分辨率,能够端到端处理图像与文本的多模态输入与输出。Qwen-VL在多个视觉基准测试...
-
Apple:使用语言模型的自回归方式进行图像模型预训练
1、背景 在GPT等大模型出现后,语言模型这种Transformer+自回归建模的方式,也就是预测next token的预训练任务,取得了非常大的成功。那么,这种自回归建模方式能不能在视觉模型上取得比较好的效果呢?今天介绍的这篇文章,就是Apple近期发...
-
MIT新研究:打工人不用担心被AI淘汰!成本巨贵,视觉工作只有23%可替代
人工智能会抢走我们的工作吗?如果你每天都看硅谷高管谈论着当今尖端的AI技术,可能会觉得答案是肯定的,并且会很快发生。 不过,刚刚MIT计算机科学与人工智能实验室(CSAIL)最近的一项研究,可以让我们可以松一口气了:至少视觉AI还无法替代太多人类。 论...
-
RadOcc:通过渲染辅助蒸馏学习跨模态Occupancy知识
原标题:Radocc: Learning Cross-Modality Occupancy Knowledge through Rendering Assisted Distillation 论文链接:https://arxiv.org/pdf/2312...
-
视觉Mamba模型的Swin时刻,中国科学院、华为等推出VMamba
Transformer 在大模型领域的地位可谓是难以撼动。不过,这个AI 大模型的主流架构在模型规模的扩展和需要处理的序列变长后,局限性也愈发凸显了。Mamba的出现,正在强力改变着这一切。它优秀的性能立刻引爆了AI圈。 上周四, Vision Mamb...
-
苹果AIM自回归视觉模型验证性能与模型规模有关
苹果公司的研究者通过自回归图像模型(AIM)验证了视觉模型“参数越多性能越强”的规律,进一步证明随着容量或预训练数据量的增加,模型能不断提升性能。AIM能有效利用大量未经整理的图像数据,训练方法和稳定性与最近的大型语言模型(LLM 类似。这一观察结果与之前...
-
ConvNet与Transformer谁更强?Meta评测4个领先视觉模型,LeCun转赞
如何根据特定需求选择视觉模型? ConvNet/ViT、supervised/CLIP模型,在ImageNet之外的指标上如何相互比较? 来自MABZUAI和Meta的研究人员发表的最新研究,在「非标准」指标上全面比较了常见的视觉模型。 论文地址:ht...
-
扩散模型图像理解力刷新SOTA!字节复旦团队提出全新「元提示」策略
Text-to-image(T2I)扩散模型在生成高清晰度图像方面显示出了卓越的能力,这一成就得益于其在大规模图像-文本对上的预训练。 这引发了一个自然的问题:扩散模型是否可以用于解决视觉感知任务? 近期,来自字节跳动和复旦大学的技术团队提出了一种简单...
-
AI视野:通义千问上线通义舞王;斯坦福炒虾机器人爆火;Midjourney艺术家数据库泄露;Meta发布AI调试工具HawkEye;小冰大模型获备案
新鲜AI产品点击了解:https://top.aibase.com/ ???AI应用 通义千问上线通义舞王 阿里云通义千问APP近日上线了一项名为“通义舞王”的免费功能,用户只需在APP内输入相应口令并上传照片,系统即可生成个性化的舞蹈视频。 Meta发...
-
基于Python的图像预处理完整指南
你是否曾在机器学习或计算机视觉项目中遇到过质量较差的图像问题?图像是许多AI系统的生命线,但并非所有图像都是相同的。在训练模型或运行算法之前,通常需要对图像进行一些预处理以获得最佳结果。在Python中进行图像预处理将成为您的新伙伴。 在本指南中,您将...
-
清华大学研发 LLM4VG 基准:用于评估 LLM 视频时序定位性能
12 月 29 日消息,大语言模型(LLM)的触角已经从单纯的自然语言处理,扩展到文本、音频、视频等多模态领域,而其中一项关键就是视频时序定位(Video Grounding,VG)。 VG 任务的目的基于给定查询(一句描述),然后在目标视频段中定位...
-
LLM之RAG实战(七)| 使用llama_index实现多模态RAG
一、多模态RAG OpenAI开发日上最令人兴奋的发布之一是GPT-4V API(https://platform.openai.com/docs/guides/vision)的发布。GPT-4V是一个多模态模型,可以接收文本/图像,并可以...
-
OPPO首个AI大模型!安第斯大模型AndesGPT发布
快科技12月27日消息,据OPPO官方消息,OPPO今天举行了Find X7系列技术沟通会,在这次会议上,OPPO首个AI大模型安第斯大模型AndesGPT正式发布。 据官方介绍,AndesGPT具备功能全面、强大的生成式视觉模型,能够对图像进行精准语义理...
-
OPPO首款端侧70亿AI大模型手机 Find X7系列将发布
OPPO今天在Find X7系列技术沟通会上,正式发布了首个AI大模型安第斯大模型AndesGPT。 AndesGPT是一个功能全面、强大的生成式视觉模型,能够对图像进行精准语义理解,并支持超过120类主体的识别与分割。其分割精度高至发丝级,最多可支持6...
-
让AIGC成为你的智能外脑,助力你的工作和生活
人工智能成为智能外脑 在当前的科技浪潮中,人工智能技术正在以前所未有的速度改变着我们的生活和工作方式。其中,AIGC技术以其强大的潜力和广泛的应用前景,正在引领着这场革命。 AIGC技术是一种基于人工智能的生成式技术,它可以通过学习和模仿,生成新的...
-
AI视野:Midjourney V6史诗级升级;ChatGPT新增存档聊天记录功能;阿里DreaMoving开源;百度千帆AppBuilder开放
???AI新鲜事 Midjourney V6史诗级升级,网友惊呼太逼真! 网友在Midjourney V6第二次社区评价中惊叹其逼真神图,光影效果出众,上线倒计时,可能在今明两天内发布。 ChatGPT新增存档聊天记录功能 12月21日,OpenAI在...
-
基于 NNCF 和 Optimum 面向 Intel CPU 对 Stable Diffusion 优化
基于隐空间的扩散模型 (Latent Diffusion Model ,是解决文本到图片生成问题上的颠覆者。Stable Diffusion 是最著名的一例,广泛应用在商业和工业。Stable Diffusion 的想法简单且有效: 从噪声向量开始,多次去...
-
下一代自动驾驶系统,少不了大模型,系统调研来了
随着大语言模型 (LLM 和视觉基础模型 (VFM 的出现,受益于大模型的多模态人工智能系统有潜力像人类一样全面感知现实世界、做出决策。在最近几个月里,LLM 已经在自动驾驶研究中引起了广泛关注。尽管 LLM 具有巨大潜力,但其在驾驶系统中的关键挑战...