当前位置: 首页 > news >正文

CVPR 2021 | 谷歌发布视频全景分割数据集!顺带开发个模型屠榜

来源:google AI blog

本文转载自:新智元  |  编辑:LRS

自动驾驶里视觉一直为人所诟病,特斯拉就是经常被拉出来批判的典型。谷歌最近开发了一个新模型,效果拔群,已被CVPR2021接收。

对于人来说,看一张平面照片能够想象到重建后的3D场景布局,能够根据2D图像中包含的有限信号来识别对象,确定实例大小并重建3D场景布局。

 

这个问题有一个术语叫做光学可逆问题inverse optics problem,它是指从视网膜图像到视网膜刺激源的模糊映射。

现实世界中的计算机视觉应用,例如自动驾驶就严重依赖这些功能来定位和识别3D对象,这需要AI模型来推断投影到2D图像的每个3D点的空间位置、语义类别和实例标签。

 

从图像重建3D世界的能力可以分解为两个独立的子任务:单目深度估计(从单个图像预测深度)和视频全景分割(实例分割和语义分割)。

 

研究人员通常对每个任务提出不同的模型,通过在多个任务之间共享计算的模型权重。在实际应用的时候,将这些任务与统一的计算机视觉模型一起处理可以简化部署提高效率。

 

基于这个研究背景,Google提出一个全新的模型ViP-DeepLab,通过深度感知视频全景分割来学习视觉感知,已被CVPR 2021接受,旨在同时解决单目深度估计和视频全景分割。

ViP-DeepLab: Learning Visual Perception with Depth-aware Video Panoptic Segmentation

论文:https://arxiv.org/abs/2012.05258

数据集:https://github.com/joe-siyuan-qiao/ViP-DeepLab

 

论文中还提出了两个数据集,并提出了一种称为深度感知视频全景质量(DVPQ)的新评估指标,这个新指标可以同时评估深度估计和视频全景分割。

 

ViP-DeepLab是一个统一的模型,可以对图像平面上的每个像素联合执行视频全景分割和单目深度估计,并在子任务的几个学术数据集取得了sota结果。

 

 

ViP-DeepLab通过从两个连续的帧作为输入来执行其他预测,输出包括第一帧的深度估计,它为每个像素分配一个深度估计值。

 

此外,ViP-DeepLab还对出现在第一帧中的对象中心执行两个连续帧的中心回归,此过程称为中心偏移预测,它允许两个帧中的所有像素分组到出现在第一帧中的同一对象。如果未将新实例匹配到先前检测到的实例中,则会出现新实例。

 

 

 

ViP-DeepLab的输出可以用于视频全景分割。连接两个连续的帧作为输入。语义分割输出将每个像素与其语义类别相关联,而实例分割输出则从与第一帧中的单个对象相关联的两个帧中识别像素,输入图像来自Cityscapes数据集。

 

 

论文中在多个流行的基准数据集上测试了ViP-DeepLab,包括Cityscapes-VPS,KITTI深度预测和KITTI多对象跟踪和分段(MOTS)。

 

ViP-DeepLab都取得了SOTA的结果,在Cityscapes-VPS测试上,其视频全景质量(VPQ)大大优于以前的方法,达到了5.1%。

 

 

在KITTI深度预测基准上进行单眼深度估计的比较,对于深度估算指标,值越小,性能越好。尽管差异可能看起来很小,但在此基准上性能最高的方法通常在SILog中的间隙小于0.1。

 

 

此外,VIP-DeepLab也在KITTI MOTS行人和汽车排名度量使用新的度量标准HOTA,都取得了显著提升。

 

最后,论文中还为新任务提供了两个新的数据集,即深度感知视频全景分割,并在其上测试了ViP-DeepLab,而这个模型的结果将成为社区进行比较的基准模型。

 

 

ViP-DeepLab具有简单的体系结构,可在视频全景分割,单目深度估计以及多对象跟踪和分割方面实现最先进的性能,这个模型也能帮助进一步研究对2D场景中的真实世界。

参考资料:

https://ai.googleblog.com/2021/04/holistic-video-scene-understanding-with.html

本文仅做学术分享,如有侵权,请联系删文。下载1在「计算机视觉工坊」公众号后台回复:深度学习,即可下载深度学习算法、3D深度学习、深度学习框架、目标检测、GAN等相关内容近30本pdf书籍。
下载2在「计算机视觉工坊」公众号后台回复:计算机视觉,即可下载计算机视觉相关17本pdf书籍,包含计算机视觉算法、Python视觉实战、Opencv3.0学习等。
下载3在「计算机视觉工坊」公众号后台回复:SLAM,即可下载独家SLAM相关视频课程,包含视觉SLAM、激光SLAM精品课程。
重磅!计算机视觉工坊-学习交流群已成立
扫码添加小助手微信,可申请加入3D视觉工坊-学术论文写作与投稿 微信交流群,旨在交流顶会、顶刊、SCI、EI等写作与投稿事宜。同时也可申请加入我们的细分方向交流群,目前主要有ORB-SLAM系列源码学习、3D视觉、CV&深度学习、SLAM、三维重建、点云后处理、自动驾驶、CV入门、三维测量、VR/AR、3D人脸识别、医疗影像、缺陷检测、行人重识别、目标跟踪、视觉产品落地、视觉竞赛、车牌识别、硬件选型、深度估计、学术交流、求职交流等微信群,请扫描下面微信号加群,备注:”研究方向+学校/公司+昵称“,例如:”3D视觉 + 上海交大 + 静静“。请按照格式备注,否则不予通过。添加成功后会根据研究方向邀请进去相关微信群。原创投稿也请联系。
▲长按加微信群或投稿▲长按关注公众号
3D视觉从入门到精通知识星球:针对3D视觉领域的视频课程(三维重建系列、三维点云系列、结构光系列、手眼标定、相机标定、orb-slam3等视频课程)、知识点汇总、入门进阶学习路线、最新paper分享、疑问解答五个方面进行深耕,更有各类大厂的算法工程人员进行技术指导。与此同时,星球将联合知名企业发布3D视觉相关算法开发岗位以及项目对接信息,打造成集技术与就业为一体的铁杆粉丝聚集区,近2000星球成员为创造更好的AI世界共同进步,知识星球入口:
学习3D视觉核心技术,扫描查看介绍,3天内无条件退款圈里有高质量教程资料、可答疑解惑、助你高效解决问题
觉得有用,麻烦给个赞和在看~  

http://www.taodudu.cc/news/show-1781829.html

相关文章:

  • 【physx/wasm】在physx中添加自定义接口并重新编译wasm
  • excel---常用操作
  • Lora训练Windows[笔记]
  • linux基础指令讲解(ls、pwd、cd、touch、mkdir)
  • InnoDB 事务处理机制
  • 启明云端ESP32 C3 模组WT32C3通过 MQTT 连接 AWS
  • 视频+课件| 视觉引导系列课程-绪论
  • YOLOv4中的数据增强
  • 这些“大学”,将被除名!
  • 3D视觉关键技术与核心问题包括哪些?
  • 一位算法工程师从30+场秋招面试中总结出的超强面经——目标检测篇(含答案)...
  • 每天2小时,吃透 985博士总结的这份目标检测、卷积神经网络和OpenCV学习资料笔记(20G高清/PPT/代码)...
  • 三维点云配准方法(两帧)
  • 如何更高效、更系统地彻底搞懂3D视觉?
  • 目标跟踪入门篇—相关滤波
  • 视觉三维重建中的关键技术及代码实现视频分享
  • 如何学习多传感器感知融合技术?
  • 最新!泰晤士2021亚洲大学排名发布:91所中国大陆高校上榜!
  • 怎样看pytorch源码最有效?
  • CVPR2021目标检测和语义分割论文分类汇总 | 源码 |
  • 深度学习中的 Attention 机制总结与代码实现(2017-2021年)
  • 使用YOLO V4通过社交距离和口罩检测来缓解COVID
  • 深度学习中的Attention总结
  • CVPR 2021奖项出炉:最佳论文花落马普所,何恺明获提名,首届黄煦涛纪念奖颁布
  • 每天2小时,吃透 985博士总结的这套保姆级TensorFlow + PyTorch笔记(20G高清/PPT/代码)
  • AI总监Karpathy亲自揭秘特斯拉纯视觉系统,还有自动驾驶超算Dojo原型
  • 2021 CVPR | 基于渐进感受局部区域推理的全方位监督点云分割
  • 自动驾驶之多传感器融合-硬件篇(激光雷达)
  • LapStyle - 基于拉普拉斯金字塔的高质量风格化方法 | CVPR2021
  • CVPR 新规严禁审稿期间公开宣传论文,可发 arXiv,LeCun:疯了吧!
  • 详细解读 | CVPR 2021轻量化目标检测模型MobileDets(附论文下载)
  • 基于LOAM框架的激光SLAM开源程序汇总
  • YOLOv4/v5的创新点汇总!
  • 最新!基于深度学习的图像超分技术一览
  • ICRA 2021| 基于精确和减少漂移的关注距离的Camera-IMU-UWB融合定位方法
  • 用简单Mask分类实现语义分割、实例分割“大一统”!FacebookUIUC开源MaskFormer