Tracking Any Object Amodally是由卡内基梅隆大学和丰田研究所开发的项目使得人工智能能够像人一样追踪物体的整体,即使在部分遮挡或不完全可见的情况下也能理解其完整结构。
在这个项目中,计算机被训练成能够“理解”并追踪到部分遮挡物体的完整形状和位置。这对于自动驾驶车辆来说尤为重要,因为它能让车辆在复杂的环境中更安全、更可靠地识别和追踪部分被遮挡的行人或其他车辆。
项目地址:https://tao-amodal.github.io/
代码:https://github.com/WesleyHsieh0806/TAO-Amodal
为了提高物体追踪技术,他们专门设计了一个数据集:TAO-Amodal。这个数据集包含大量的视频序列,其中包括各种被遮挡或部分可见的物体,以及详细标注信息,让AI能够更好地理解和追踪那些我们只能看到一部分的物体。
TAO-Amodal数据集包含了880种多样的类别,覆盖数千个视频序列。数据集包括完全不可见、部分出框和被遮挡物体的 amodal(非模态)和 modal(模态)边界框。该数据集的重点在于评估当前追踪器在遮挡推理方面的能力,通过追踪任何物体(Tracking Any Object)的 Amodal 感知(Amodal perception)来实现。
此外,项目还开发了一个轻量级插件模块“Amodal Expander 插件”,用于改进物体追踪器的功能。这个插件能够将标准的 Modal 追踪器转换为 Amodal 追踪器,从而在追踪部分遮挡或不完全可见的物体时更为有效和准确。
在TAO-Amodal数据集上的测试结果显示,该技术在检测和追踪被遮挡物体方面取得了3.3%和1.6%的改进。特别是在追踪人物方面,与现有的模态追踪技术相比,性能提高了2倍。这个项目的成功将大幅提升计算机视觉系统的智能,让它们在处理遮挡物体时更加像人类,从而在自动驾驶、视频监控等领域发挥更大的作用。