CVPR 2019 无人驾驶相关论文

CVPR 2019 无人驾驶相关论文

CVPR 2019的论文已经出炉好几天。笔者通过search相关论文,收录目前公布的无人驾驶相关的CVPR论文。
这段时间一直在收集相关论文,相关文章也压着没放出来。想想也是时候先POST了,供大家参考,后续有相关论文将继续更新~~~~
也希望各位dalao一同速递...... (*╹▽╹*) :可爱脸
https://github.com/DeepTecher/AutonomousVehiclePaper/issuesgithub.com图标


言归正规,开始速递CVPR论文~~

-----------------------------------新增3篇CVPR 2019文章----------------------------------

Pseudo-LiDAR from Visual Depth Estimation: Bridging the Gap in 3D Object Detection for Autonomous Driving,CVPR 2019, 3D物体检测,伪LiDAR

提交日期:2019-03-18(2018-12-18 v1)
团队:康奈尔大学

代码:mileyan/pseudo_lidar,暂未released


作者:Yan Wang,Wei-Lun Chao,Divyansh Garg,Bharath Hariharan,Mark Campbell,Kilian Q. Weinberger


摘要:3D物体检测是自动驾驶中的基本任务。如果从精确但昂贵的LiDAR技术获得3D输入数据,则技术具有高度准确的检测率。迄今为止,基于较便宜的单眼或立体图像数据的方法导致精度显着降低 - 这种差距通常归因于基于图像的深度估计不良。然而,在本文中,我们认为数据表示(而不是其质量)占据了差异的大部分。考虑到卷积神经网络的内部工作原理,我们建议将基于图像的深度图转换为伪LiDAR表示 - 基本上模仿LiDAR信号。通过这种表示,我们可以应用不同的现有基于LiDAR的检测算法。在KITTI基准测试中,我们的方法在现有的基于图像的性能方面取得了SOTA的改进 -提高了30米范围内物体的检测精度,从先前SOTA的22%到现在的74% 。在提交时,我们的算法在KITTI 3D对象检测基于立体图像的方法的排行榜上为第一。

Selective Sensor Fusion for Neural Visual-Inertial Odometry,视觉惯性测距(VIO)

提交日期:2019-03-04
团队:牛津大学计算机系、腾讯、Mo Intelligence 有限公司
作者:Changhao Chen,Stefano Rosa,Yishu Miao,Chris Xiaoxuan Lu,Wei Wu,Andrew Markham,Niki Trigoni
摘要:视觉惯性测距(VIO)的深度学习方法已被证明是成功的,但他们很少专注于结合稳健的融合策略来处理不完美的输入感觉数据。我们提出了一种新颖的端对端选择性传感器融合框架,用于单目VIO,融合单目图像和惯性测量以估计轨迹,同时提高对实际问题的鲁棒性,如丢失和损坏的数据或不良的传感器同步问题。尤其,我们提出了两种基于不同掩蔽策略的融合模态:确定性软融合和随机硬融合,并与先前提出的直接融合基线进行比较。在测试期间,网络能够选择性地处理可用传感器模态的特征并且产生大规模的轨迹。我们在公开的自动驾驶(KITTI),微型飞行器(EuRoC Micro Aerial Vehicle )和手持VIO(PennCOSYVIO dataset)三种数据集进行了性能的全面调查,结果证明了融合策略的有效性。与直接融合相比,本算法提供了更好的性能,特别是在存在损坏的数据的情况下。此外,我们通过可视化不同场景中的掩蔽层和不同的数据损坏来研究融合​​网络的可解释性,揭示融合网络与不完美的传感输入数据之间的相关性。

LaserNet: An Efficient Probabilistic 3D Object Detector for Autonomous Driving ,KITTI BEV(Bird's Eye View),LiDAR解决方案
提交日期:2019-03-20
团队:Uber
作者:Gregory P. Meyer,Ankit Laddha,Eric Kee,Carlos Vallespi-Gonzalez,Carl K. Wellington

摘要:在本文中,我们介绍了LaserNet,一种用于自动驾驶的LiDAR数据的3D对象检测的计算有效方法。效率来自在传感器的原生范围视图中处理LiDAR数据,其中输入数据自然紧凑。在范围视图中操作涉及众所周知的学习挑战,包括遮挡和尺度变化,但它还基于如何捕获传感器数据来提供上下文信息。我们的方法使用完全卷积网络来预测每个点的3D Box上的多模态分布,然后它有效地融合这些分布以生成每个对象的预测。实验表明,将每个检测建模为分布而不是单个确定性框导致更好的整体检测性能。基准测试结果表明,这种方法的运行时间明显低于其他最新的检测器,并且在具有足够数据的大型数据集上进行比较时,它可以实现最先进的性能,以克服视图范围内训练的挑战。

------------------------------------CVPR 2019 分割线--------------------------------------


Stereo R-CNN based 3D Object Detection for Autonomous Driving,3D目标检测

作者:Peiliang Li,Xiaozhi Chen(陈晓智

--DJI,MV3D的作者),Shaojie Shen(港科大Areial Robotics Group 沈劭劼老师)

研究机构:香港科技大学、大疆

代码:HKUST-Aerial-Robotics/Stereo-RCNN

摘要 : 我们通过充分利用立体图像中的稀疏,密集,语义和几何信息,提出了一种用于自动驾驶的三维物体检测方法。 我们的方法,称为Stereo R-CNN,扩展了更快的R-CNN用于立体声输入,以同时检测和关联左右图像中的对象。 我们在立体声区域提议网络(RPN)之后添加额外分支来预测稀疏关键点,视点和对象维度,这些关键点与2D左右框组合以计算粗略的3D对象边界框。 然后,我们通过使用左右RoI的基于区域的光度对准来恢复精确的3D边界框。 我们的方法不需要深度输入和3D位置监控,但是,优于所有现有的完全监督的基于图像的方法。 在具有挑战性的KITTI数据集上的实验表明,我们的方法在3D检测和3D定位任务上的性能优于最先进的基于立体的方法约30%AP。 代码将公开发布。

相关论文解读 参见: @heryms

heryms:Stereo 3D Object Detectionzhuanlan.zhihu.com图标

Group-wise Correlation Stereo Network,立体匹配(KITTI Stereo Evaluation 2012 、KITTI Stereo Evaluation 2015)

作者:Xiaoyang Guo,Kai Yang,Wukui Yang,Xiaogang Wang,Hongsheng Li

团队:香港中文大学电子工程系、商汤科技

摘要: 立体匹配估计整流图像对之间的差异,这对深度感测、自动驾驶和其他相关任务非常重要。先前的工作建立了在所有视差水平上具有交叉相关或串联左右特征的成本量,然后利用2D或3D卷积神经网络来回归视差图。在本文中,我们建议通过分组相关来构建成本量。左边特征和右边特征沿着通道维度被分成组,并且在每个组之间计算相关图以获得多个匹配成本提议,然后将其打包到成本量中。分组相关为测量特征相似性提供了有效的表示,并且不会丢失过多的信息,如完全相关。与以前的方法相比,它在减少参数时也能保持更好的性能。在先前的工作中提出的3D堆叠沙漏网络被改进以提高性能并降低推理计算成本。实验结果表明,我们的方法在Scene Flow,KITTI 2012和KITTI 2015数据集上优于以前的方法。此代码可通过xy-guo/GwcNet(代码待更新)获得。

Hierarchical Discrete Distribution Decomposition for Match Density Estimation,立体匹配,(KITTI Stereo Evaluation 2012、KITTI Stereo Evaluation 2015)
研究结构:伯克利DeepDrive
作者:Zhichao Yin(个人GitHub ,CVPR 2018 GeoNet),Trevor Darrell,Fisher Yu

摘要:用于像素对应的现有深度学习方法输出运动场的点估计,但不表示完全匹配分布。匹配分布的显式表示对于许多应用是期望的,因为它允许直接表示对应概率。使用深度网络估计全概率分布的主要困难是推断整个分布的高计算成本。在本文中,我们提出了分层离散分布分解,称为HD3,以学习概率点和区域匹配。它不仅可以模拟匹配不确定性,还可以模拟区域传播。为了实现这一点,我们估计了不同图像尺度下像素对应的层次分布,而没有多假设集合。尽管它很简单,但我们的方法可以在既定基准上实现光流和立体匹配的竞争结果,而估计的不确定性是错误的良好指标。此外,即使区域在图像上变化,也可以将区域内的点匹配分布组合在一起以传播整个区域。

Deep Rigid Instance Scene Flow (SOTA for Scene Flow Evaluation 2015)

研究机构:Uber ATG部门、MIT、多伦多大学

作者:Wei-Chiu Ma(马惟九、MIT PhD、Uber ATG 多伦多、两篇CVPR 2019--另外一篇“Convolutional Recurrent Network for Road Boundary Extraction”、个人主页) 、Shenlong Wang 、Rui Hu、Yuwen Xiong、 Raquel Urtasun(Uber ATG Chief Scientist 、个人主页

摘要: 在本文中,我们解决了自动驾驶环境下的场景流量估计问题。 我们利用深度学习技术以及强大的先验,因为在我们的应用领域中,场景的运动可以由机器人的运动和场景中的演员的3D运动来组成。 我们将问题表达为深度结构化模型中的能量最小化,这可以通过展开高斯 - 牛顿求解器在GPU中有效地求解。 我们在具有挑战性的KITTI场景流数据集中的实验表明,我们以超大的优势超越了最先进的技术,同时快了800倍。

MagicVO: End-to-End Monocular Visual Odometry through Deep Bi-directional Recurrent Convolutional Neural Network,单目视觉测距

作者:Jian Jiao,Jichao Jiao,Yaokai Mo,Weilun Liu,Zhongliang Deng

研究结构: 北邮

摘要:本文提出了一种解决单眼视觉测距问题的新框架,称为MagicVO。 基于卷积神经网络(CNN)和双向LSTM(Bi-LSTM),MagicVO在摄像机的每个位置输出6-DoF绝对标度姿势,并以一系列连续单目图像作为输入。 它不仅利用CNN在图像特征处理中的出色表现,充分提取图像帧的丰富特征,而且通过Bi-LSTM从图像序列前后学习几何关系,得到更准确的预测。 MagicVO的管道如图1所示.MagicVO系统是端到端的,KITTI数据集和ETH-asl cla数据集的实验结果表明MagicVO比传统的视觉测距具有更好的性能( VO)系统在姿态的准确性和泛化能力方面。

SSA-CNN: Semantic Self-Attention CNN for Pedestrian Detection,行人检测(待更新。。)

作者:Chengju Zhou,Meiqing Wu,Siew-Kei Lam
研究机构:南洋理工大学

摘要:

行人检测在诸如自动驾驶的许多应用中起着重要作用。我们提出了一种方法,将语义分割结果作为自我关注线索进行探索,以显着提高行人检测性能。具体而言,多任务网络被设计为从具有弱框注释的图像数据集联合学习语义分割和行人检测。语义分割特征图与相应的卷积特征图连接,为行人检测和行人分类提供更多的辨别特征。通过联合学习分割和检测,我们提出的行人自我关注机制可以有效识别行人区域和抑制背景。此外,我们建议将来自多尺度层的语义注意信息结合到深度卷积神经网络中以增强行人检测。实验结果表明,该方法在Caltech数据集上获得了6.27%的最佳检测性能,并在CityPersons数据集上获得了竞争性能,同时保持了较高的计算效率。

其他推荐:

【泡泡汇总】CVPR2019 SLAM Paperlistmp.weixin.qq.com图标

编辑于 2019-06-13

文章被以下专栏收录