本文通过改进立体深度估计,为pseudo-LiDAR框架做出了实质性的进步。具体而言,调整立体视觉网络架构和损失函数,使其远目标的深度估计更加精确(当前这是pseudo-LiDAR的主要缺点)。这里基准的深度估计算法是CVPR‘18发表的PSM-Net(Pyramid stereo matching net work)模型。
“Sensor Fusion for Joint 3D Object Detection and Semantic Segmentation”,2019,4
是Uber自动驾驶的工作,是对其纯激光雷达数据的目标检测器LaserNet(CVPR‘19论文“LaserNet: An Efficient Probabilistic 3D Object Detector for Autonomous Driving”)的推广,一种图像数据与LiDAR数据融合的方法,实验表明这种传感器融合方法,特别是在长距离情况下,提高了模型的检测性能。图像数据的添加非常简单,不需要图像标注。先前的工作多是将3D目标检测和语义分割作为单独的任务进行处理,而该方法扩展了模型的功能,除了执行3D对象检测之外,还执行3D语义分割。将两个任务合并为一个模型能够更好地利用自动驾驶汽车可用的计算资源。另外,该方法可以端到端地训练无需其他2D图像标注。