激光雷达

激光雷达

ADAS漫谈:为什么自动驾驶必须用激光雷达

博客lingpa 发表了文章 • 0 个评论 • 108 次浏览 • 2020-09-04 13:09 • 来自相关话题

自动驾驶必须用激光雷达,如果激光雷达成本足够低的话,ADAS也需要用激光雷达。基于摄像头的ADAS和无人驾驶系统,或者说以摄像头为核心的ADAS和无人驾驶系统局限很多。

首先是FOV的问题。

ADAS漫谈:为什么自动驾驶必须用激光雷达 - 全文-第1张图片-零帕网

为了保证有足够远的探测距离,FOV的角度不能太大,这就导致车辆横向有非常明显的盲区。一般CMOS传感器配的镜头FOV不超过76度,超过76度就可以算广角镜头,广角镜头在近处有明显的失真,超过120度就算鱼眼镜头,图像边缘有严重的失真。一般AEB的FOV在45度到52度之间。

双目会好很多,全球最好的双目系统是日本斯巴鲁的Eyesight,第二代Eyesight的FOV是25度,第三代是35度。为了保证具备同样的探测距离,第三代Eyesight的基线长度从30厘米增加到35厘米。

为了解决FOV的问题,特斯拉和沃尔沃提出了三目Trifocal。

ADAS漫谈:为什么自动驾驶必须用激光雷达 - 全文-第2张图片-零帕网

上图为沃尔沃的三目系统,FOV视角分别是140度、45度和34度。特斯拉是150度、50度和25度。似乎完美解决了FOV的矛盾,但是没那么简单。首先是鱼眼镜头变形严重,需要矫正失真,一般是采用插值法矫正,失真不可能100%矫正,图像质量也会出现下降。再有边缘区像素会有丢失,任何插值法都无法弥补这个丢失。最后这需要耗费大量的运算资源。再者是三个镜头的位置,特斯拉和沃尔沃都采用上二下一的设置。45度或50度的主镜头自然要居中,鱼眼和窄视角镜头分列中心线两侧,都不在中心线上,这就导致视角覆盖偏向一侧,还需要用算法校正。最后三个摄像头会有重复信息,需要采用滤波器过滤,一般会用扩展卡曼滤波器,这必然导致信息质量的下降,增加算法的复杂性,增加成本。

三目系统依然会有近距离盲区。

其次是低速的问题,摄像头系统特别是单目系统,在车辆本身低速和相对低速情况下表现很差,对突然出现的静止目标或缓慢移动目标(一般是行人)基本无效。一般纯视觉的FCW系统最低运行速度是时速30公里,Mobileye的说明书有明确指出,

ADAS漫谈:为什么自动驾驶必须用激光雷达 - 全文-第3张图片-零帕网

Mobileye也指出了另一种低速FCW称为UFCW,但误报率太高,所以很少使用。一般Mobileye提到FCW都是指时速30公里以上的FCW。加上毫米波雷达融合数据后,最低运行时速可以下降到10-15公里。这些都是指车辆识别,对行人识别要求速度更高。

ADAS漫谈:为什么自动驾驶必须用激光雷达 - 全文-第4张图片-零帕网

Mobileye明确指出时速50公里上行人识别才工作。


为何需要如此高的速度?

这就要说说单目摄像头的基本理念了。首先机器视觉主要针对动态目标识别,特别是汽车领域,静态目标通常都是树木,建筑物等,优先识别动态目标如车辆、行人、自行车、电动车等。有一点需要特别指出,识别目标不是最终目的,汽车上机器视觉的最终目的是计算出车辆与障碍物之间的距离,识别目标只是这个环节上的一环。而激光雷达无需任何目标识别,就能够提供最准确,360度覆盖面的距离信息。如果激光雷达成本下降到视觉系统2倍的成本,那么深度学习(目前绝大部分深度学习都是图像识别)将失去意义。

ADAS漫谈:为什么自动驾驶必须用激光雷达 - 全文-第5张图片-零帕网

上图为机器视觉的处理流程,其主要过程为输入图像,对输入的图像进行预处理,预处理的方法主要有图像矫正、平滑去噪、图像滤波等,预处理之后的图像对其进行 ROI 区域检测或者异常检测等,对于已经检测出来的区域进行特征提取分类识别等。

第一步要将运动目标从背景图中分割出来,这也是最难的一步。目前有多种方法,但没有一种是通用的。最常见的三种方法是光流法,帧间差法和背景差法。

ADAS漫谈:为什么自动驾驶必须用激光雷达 - 全文-第6张图片-零帕网

基于运动目标分割又分为 2D 与 3D。在基于运动的 2D 分割方法中可以分为基于光流不连续的分割方法和基于变化检测的分割方法。光流不连续的分割方法主要是依于图像像素的位移或者光流,由差分方法,块匹配,统计方法组成。使用模板匹配方法计算像素点的近似速度。 Spoerri在找到光流场之前使用运动边界的检测。 Overington使用不连续光流变化去检测静态场景运动目标。变化检测避免了光流法中微分梯度的计算,由帧差法和累计帧差法组成。 3D 的运动分割中主要由参数法和 SFM 法组成, SFM 法主要用于 3D 场景以及刚性运动的假设。参数方法只能假设刚性运动的分段场景。参数法主要由 6 参数, 8 参数以及 12 参数。 SFM 方法主要由线性法和非线性方法组成。

考虑到实时性和成本,目前都采用了帧差分法,这种方法最早提出,对运算资源消耗最少,最容易达到实时性,缺点就是低速下表现很差。

所谓帧差法,就检测相邻帧之间的像素变化。帧差法的基本思想是:运动目标视频中,可以根据时间提取出系列连续的序列图像,在这些相邻的序列图像中,背景的像素变化较小,而运动目标的像素变化较大,利用目标运动导致的像素变化差,则可以分割出运动目标。帧差法可以分为两帧差分法跟三帧差分法。

两帧差分法就是将视频采集到时序列图像的相邻两帧图像进行差分。对相邻的两帧图像进行差分可以在任何具有复杂的图像特征(例如,纹理特征、灰度均值等)上进行。因此, 只要明显区别与背景的运动物体均可检测出来。根据给定的阈值对差分结果二值化,若差值图像大于给定阈值,则认为该像素点是前景目标中的点,并将该像素点作为运动目标的一部分,若差值图像小于给定阈值,则认为该像素点属于背景目标点,从而将运动目标从背景目标中分割出来。图像进行阈值分割之后通常都带有噪声,因此使用形态学滤波的方法对噪声进行衰减。衰减噪声后得到的图像运动目标会存在一些空洞,需要进行连通性处理,最后才可得判别目标。阈值设定太低,检测不到目标。设定太高,会被检测为两个分开的物体。同时对于比较大的,颜色一致的运动目标,如白色大货车,帧间差分法会在目标内部产生空洞,无法完整分割提取运动目标。

ADAS漫谈:为什么自动驾驶必须用激光雷达 - 全文-第7张图片-零帕网

上图为两帧差分法流程

为了解决两帧差分法的缺陷,人们又提出三帧差法法。

ADAS漫谈:为什么自动驾驶必须用激光雷达 - 全文-第8张图片-零帕网

上图为三帧差分法流程

三帧差分与两帧差法原理相同,效果略好,但需要大量运算资源,速度通常是两帧差法的5倍,一般两帧差法(15Fps)的平均时间为25毫秒。

背景减除(差分)法基本思想是利用背景的参数模型来近似背景图像的像素值,将当前帧与背景图像进行差分比较实现对运动区域的检测,其中区别较大的像素区域被认为是运动区域,而区别较小的像素区域被认为是背景区域。背景减除法必须要有背景图像,并且背景图像必须是随着光照或外部环境的变化而实时更新的,因此背景减除法的关键是背景建模及其更新。针对如何建立对于不同场景的动态变化均具有自适应性的背景模型,减少动态场景变化对运动分割的影响,研究人员已提出了许多背景建模算法,但总的来讲可以概括为非回归递推和回归递推两类。背景差分法对光照变化和抖动异常敏感,而车肯定是要抖动的,且背景差分法对运算资源需求多,实时性不佳,比较适合室内监控,汽车领域并不适合。

光流法是目前热门,在适当的平滑性约束条件下,根据图像序列的时空梯度估算运动场,通过分析运动场的变化对运动目标和场景进行检测与分割。通常有基于全局光流场和特征点光流场两种方法。最经典的全局光流场计算方法是L-K(Lueas&Kanada)法和H-S(Hom&Schunck)法,得到全局光流场后通过比较运动目标与背景之间的运动差异对运动目标进行光流分割,缺点是计算量大。特征点光流法通过特征匹配求特征点处的流速,具有计算量小、快速灵活的特点,但稀疏的光流场很难精确地提取运动目标的形状。总的来说,光流法不需要预先知道场景的任何信息,就能够检测到运动对象,可处理背景运动的情况,但噪声、多光源、阴影和遮挡等因素会对光流场分布的计算结果造成严重影响;而且光流法计算复杂,很难实现实时处理。


对单目来说,要想获得距离信息,必须先识别目标。

ADAS漫谈:为什么自动驾驶必须用激光雷达 - 全文-第9张图片-零帕网

要提供目标距离信息,首先要对目标进行框图分割,而分割和识别是一体的,不识别无法准确分割。

图像识别简单分为两大类,一类是基于词包模型的图像识别,一类是基于深度学习的图像识别。

Csurka等首次将“自然语言处理”领域的 BoVM(bag of words)模型引入到图像分类领域。就是将图像类比为文档,将图像信息用若干单词表示,最终用单词的频率直方图表示图像。首先,将一幅图像待检测的特征点或者特征区域用特征描述算子对其进行描述。将提取的特征算子采用机器学习的方法进行训练获得用特征频率表示的视觉单词组成的视觉词典。最后,通过对不同类别的视觉直方图进行学习,便可以获得学习模型。在测试环节,提取待测试图像的特征,获得待测试图像的视觉单词直方图,与上述获得的学习模型与待测试图像的频率直方图进行匹配,获得分类识别结果。由此可见,将 Bag-of-Word 应用到图像分类模型上通常需要三个步骤:1) 特征检测与描述, 2) 视觉词典的构建, 3) 分类器。

视觉词包模型(bag-of-words)相对比其他模型最大的优势在于适用于大部分的应用场合,可以简单直观地把图像表示成直方图呈现出来,这样就可以使图像分类识别问题转化成普通模式识别问题,所需运算资源少。但是,视觉词包模型也有一些缺点: 1)使用特征用视觉单词直方图表示,在这个转化的过程中,丢了特征的位置信息,在一些需要位置信息的研究中,如前方突然掉落的物体,突然出现的行人,这个方法明显是不适合的; 2) 在视觉词包模型建立的在单词与单词之间相互独立的基础上,但是有些情况,单词与单词之间是互相有联系的,如连续的视频,因此,视觉词包模型在这种情况下使用,是造成识别结果较差。

词包模型实际上相当于只包含了一个卷积层和一个汇聚层,且模型采用无监督方式进行特征表达学习,而卷积神经网络则包含了更多层的简单、复杂细胞,可以进行更为复杂的特征变换;并且其学习过程是有监督过程的,滤波器权重可以根据数据与任务不断进行调整,从而学习到更有意义的特征表达。从这个角度来看,卷积神经网络具有更为强大的特征表达能力,因此它在图像识别任务中的出色性能就很容易解释了。

分割并识别后是估算距离,单目估算距离主要是根据像素大小,这种方法准确度不高。

ADAS漫谈:为什么自动驾驶必须用激光雷达 - 全文-第10张图片-零帕网

由于距离因素,行人3和行人2的像素大小是非常接近的,但行人2和行人3与车辆距离距离差别很大,单目无法得出准确的距离。

ADAS漫谈:为什么自动驾驶必须用激光雷达 - 全文-第11张图片-零帕网

上图为基于SFM的距离估算。这可以看作是稀疏光流法,缺点是运算资源消耗多,且对光线变化和抖动比较敏感。


双目与单目区别有几点,首先双目是测量距离而非估算。

ADAS漫谈:为什么自动驾驶必须用激光雷达 - 全文-第12张图片-零帕网

上图为双目的距离计算公式,准确度比单目要高得多。

双目与单目区别的第二点是双目可以在不识别目标的情况获得深度(距离)数据。

ADAS漫谈:为什么自动驾驶必须用激光雷达 - 全文-第13张图片-零帕网

上图为双目的典型工作流程图。双目最后输出的是一张深度图。

ADAS漫谈:为什么自动驾驶必须用激光雷达 - 全文-第14张图片-零帕网

用颜色深浅来代表距离。双目虽然不需要识别目标,但是双目需要级化分割(Segmentation),常使用的算法有Belief Propagation和Mean Shift。双目最关键的环节在立体匹配。

双目输出深度图无法直接用于诸如AEB之类的功能,和单目一样,还需要将运动目标分割出来。对每一个像素点都做视差运算需要耗费大量运算资源,而最主要的还是正前方的图像区域的视差,所以也有先做ROI限定。

对视觉系统来说,无论单目还是双目,都需要运动目标分割和追踪,这就离不开帧间差法,而正是帧间差法导致视觉系统有两个严重缺陷,一是低速状态下,可能无法检测到障碍物,特别是移动缓慢或静止的障碍物。二是对突然由运动转为静止的障碍物基本无效或需要较长时间来检测和识别,如前车掉落的物品。

对激光雷达来说,运动目标的分割要简单得多。

ADAS漫谈:为什么自动驾驶必须用激光雷达 - 全文-第15张图片-零帕网

ADAS漫谈:为什么自动驾驶必须用激光雷达 - 全文-第16张图片-零帕网

与动态物体比,静态物体捕获的点云数自然要多。用VOXELGRID滤波器可以轻松将动静目标分离,同时利用激光雷达强度成像的特点,还可以轻松识别大部分静态目标,如车道线,道路边缘,建筑物,草地,树木,路灯等。

时速低于30公里的无人驾驶系统也需要配备激光雷达才算安全。考虑到单目视觉系统的探测距离,其对应的最高时速一般不超过65公里,双目则可以达到90公里。所以无论是高速公路的无人驾驶还是城市道路的无人驾驶,激光雷达都是必须的。

研究人员开发汽车雷达系统 可“看到”拐角处的物体

博客自动驾驶小能手 发表了文章 • 0 个评论 • 170 次浏览 • 2020-07-02 14:00 • 来自相关话题

据外媒报道,普林斯顿大学(Princeton University)研究人员利用通常用于追踪超速者和快速球的雷达,开发了一种自动系统,可以让汽车探测拐弯处,发现迎面而来的车辆和行人。

(图片来源:普林斯顿大学)

该系统可以轻松集成到现代车辆中,利用多普勒雷达将无线电波反射到建筑物和停放的汽车等表面。雷达信号以一定的角度撞击表面,其反射信号会反弹回来。雷达信号继续撞击隐藏在角落的物体,部分雷达信号会反射回车载探测器,使系统能够看到拐角处的物体,并判断物体是移动的还是静止的。

普林斯顿大学计算机科学助理教授、研究人员Felix Heide说,“这将使汽车能够看到被遮挡的物体,例如,让自动驾驶汽车看到危险的十字路口,而目前的激光雷达和摄像头传感器是无法实现这一点。此外,与激光雷达传感器相比,雷达传感器价格相对便宜,而且可以大规模生产。”

在日前发表的一篇论文中,研究人员描述了该系统如何区分包括汽车、自行车和行人在内的物体,并判断其方向和速度。作者写道,“我们提出的方法能在现实世界的自动驾驶场景中,为车辆提供行人和骑行人碰撞预警。”

近年来,工程师们开发了各种传感器系统,使汽车能够探测道路上的其他物体。其中许多依靠激光雷达或使用可见光或近红外光的摄像头,这种防止碰撞的传感器在现代汽车中很常见,但是光学传感很难用于发现汽车视线之外的物体。在早期的研究中,Heide的团队利用光看到隐藏在角落的物体,但由于这些方法需要高功率激光器,而且只能在较短射程内使用,因此无法用于汽车。

在进行早期的研究时,Heide及其同事们试想是否有可能利用成像雷达,而不是可见光,来创建系统,以检测汽车视线之外的危险。对于雷达系统而言,平滑表面的信号损耗要低得多,而且雷达是一种经过验证的跟踪目标的技术。但是雷达的空间分辨率(用于描绘汽车和自行车等隐藏在角落的物体)相对较低。然而,研究人员认为,他们可以创建算法来解释雷达数据,从而使传感器发挥作用。Heide表示,“我们开发的算法非常高效,适用于当前的汽车硬件系统。”

为了让系统区分物体,Heide的团队处理了部分雷达信号,而标准雷达认为这些信号是背景噪音而不是可用信息。该团队应用AI技术改善处理并读取图像。论文的主要作者之一、计算机科学研究生Fangyin Wei表示,该系统的计算机必须学会从非常少的数据中识别骑自行车的人和行人。

Wei解释道,“首先,我们必须检测是否有物体存在。如果有,它重要吗?是骑自行车的人还是行人?然后我们必须确定其位置。”Wei还表示,该系统目前可以探测行人和骑自行车的人,因为工程师们认为这些对象体积小、形状和运动方式多样,最具挑战性。该系统也可以进行调试,用于检测车辆。

Heide表示,研究人员计划在雷达和信号处理改进应用的多个方面继续研究。他说,该系统有潜力从根本上提高汽车的安全性,其依赖现有的雷达传感器技术,因此有望部署到下一代汽车中。Heide还称,“该系统肯定会经历非常严格的汽车开发周期,需要大量开发设计,才能整合到车辆中,并推向市场。”(作者:盖世汽车)

激光雷达的“误区”与“误解”,马斯克可以“用得起”

知识讲堂betty19920416 发表了文章 • 0 个评论 • 512 次浏览 • 2019-06-19 11:12 • 来自相关话题

过去几年,围绕激光雷达能否满足汽车行业对于价格、性能、重量、尺寸、温度/寿命(车规级)、可大规模自动化生产等要求“议论纷纷”。目前,行业内对于可用于前装车规级量产的激光雷达有一个相对明确的要求:1、测距范围:200-300米; ...查看全部

过去几年,围绕激光雷达能否满足汽车行业对于价格、性能、重量、尺寸、温度/寿命(车规级)、可大规模自动化生产等要求“议论纷纷”。

目前,行业内对于可用于前装车规级量产的激光雷达有一个相对明确的要求:

1、测距范围:200-300米;

2、分辨率及视场角:0.1-0.2度,120-180度;

3、价格:批量供货价格在500--1000美金

4、可靠性:车规级及功能安全认证;

5、生产:半自动化及自动化产线,保证产品一致性和生产效率;

而之所以有一部分企业“自称”不需要激光雷达,很大一部分原因还在于车规、价格等因素。要知道,目前,全球范围内只有一家法雷奥能够量产过车规的产品,单一供应商对于汽车制造商来说,存在着不小的风险。

这也是为什么目前行业内存在两种不同的自动驾驶传感器组合,一种是基于摄像头+毫米波雷达;一种是基于摄像头+毫米波雷达+激光雷达。

但如果要遵从自动驾驶的安全冗余要求,激光雷达的配置在大多数主机厂和自动驾驶公司来说,都是必须的传感器。

当然,价格和可靠性是相对较难的部分。不过,价格方面部分厂商的传统机械式激光雷达已经开始松动。


比如,镭神智能的32线360°机械式激光雷达售价已经降至6万元,16线360°机械式激光雷达批量售价已经下探到1.2万元。

而该公司即将要推出的车规级32线120°混合固态激光雷达售价将会降至1万元以内,车规级16线120°混合固态激光雷达大批量售价将会降至4千元左右,完全可以符合车厂前装的价格和性能要求,马斯克完全可以不用为激光雷达的价格原因降低安全性而困扰。

一、激光雷达的“真相”

自从车载激光雷达开山鼻祖Velodyne的代表性产品360度机械式旋转激光雷达被大多数企业划定为“几乎不可能过车规”的行列后,几十家初创公司开始在混合固态、纯固态的激光雷达“量产”之路上拿出了十八般武艺。

“固态激光雷达”实际上是一个涵盖多个非旋转激光雷达设计的总称。其中一种路线是MEMS——微机电系统——它使用一个微小振镜来控制激光束。

其他路线还有光学相控阵,一种完全没有任何运动部件的技术路线。还有就是Flash激光雷达,它不需要光束控制,只需在一个闪光中照亮整个场景,用类似于数码相机的二维传感器阵列探测返回的光线。

由于几乎没有或只有很少的运动部件,这三种设计都有可能实现小体积、低成本和可靠性。从长远来看,支持者们设想将几乎所有的电子部件——包括激光本身、波束控制电路、探测器和支持计算的电源——封装到一个芯片上。

从理论上讲,这一切听起来都不错。但上述三种固态设计(MEMS严格意义上仍处于混合固态)面临着实现目标的重大挑战,最大的困难是目前全世界做MEMS振镜的厂家没有一家可以提供能达到车规要求的MEMS振镜(这些或许很难从这些企业负责人口中听到)。

MEMS系统中的小镜子只能反射有限的光束。这使得将激光束反射到远处的物体上并探测到反射回来的光束变得非常困难。

此外,MEMS反射镜仍然存在一些问题:车辆的运动极易影响镜子的运动;车载环境的较宽的温度范围也会影响扫描。

由于MEMS扫描仪是一种共振设备,这意味着它在每次扫描的中间扫描速度最快,在扫描结束时扫描速度最慢。结果就是扫描的中心分辨率最低,与激光雷达的要求相反。

同时,MEMS镜子悬挂在非常细的扭力杆之间,扭力杆在使用过程中容易突然断裂。

当然,这并非说明MEMS路线就是不可行,比如已经有车规级量产经验的法雷奥,目前也在研发MEMS混合固态雷达,但时间点在2021年。

相控阵方法产生的光束往往比其他技术发散得更大,相控阵芯片对激光功率损耗很大,旁瓣很难压制,因此很难实现远距离、高扫描分辨率和宽视场的性能,而且接收得采用面阵的APD阵列探测器,成本远没美国某公司说的那么美妙。

FLASH激光雷达,来自每个闪光的光被分散到整个视野中,这意味着只有一小部分光照射到任何一个特定的点。而且光探测器阵列中的每个像素都必须非常小,这限制了它能够捕获的返回光的数量。

还有一种近年来兴起的技术路线,就是使用VCSEL技术,一种垂直腔面发射激光器(代替传统的激光发光源)。VCSEL的一个关键区别是激光从晶圆片垂直发射,而不是像边缘发射激光那样水平发射。

这是制造中的一个关键优势,因为VCSEL可以在晶圆片上测试。这降低了生产成本,因为故障芯片可以在封装前被筛选出来。标准的边缘发射激光器只能在后期的生产过程中进行测试。

此外,VCSEL耗电量更低、对温度的敏感性也较低,这是车规级产品验证的关键一环。

同时,雷达厂商可以封装集成数百个VCSEL、电子束控制和晶片尺度的微透镜,使其能够瞄准、聚焦并形成结构化的探测模式。不过,VCSEL目前仍然较为昂贵。而且,FLASH激光雷达的抗干扰能力是所有的这些激光雷达技术方案中最差的。

这也是为什么迄今为止,只有法雷奥和Ibeo合作开发的SCALA“过了车规”,其使用的嵌入式旋转镜是以恒定速度的扫描,已经被证明在移动物体应用中具备足够的可靠性和寿命。

一些汽车行业的人士表示,对于激光雷达的移动部件“质疑”很多时候不一定是对的。“传统汽车里有很多活动部件,它们可以使用10万英里甚至更长时间。”

那么,接下来对于传统机械式雷达的改造就是将发射和接收模块做成固态不动,只有棱镜旋转,也就是SCALA的混合固态模式。

3.jpg

比如,以镭神智能推出的128线激光雷达为例,其采用的正是上述的混合固态的设计,其接收和发射模块都是固定不动的,里面只有一个棱镜转动。

这个背后依靠的是镭神自主研发的全球首款激光雷达专用16通道TIA芯片,而且已经大批量流片成功,它不仅集成了接收模拟信号处理的多种功能和配置控制,同时还将高频高带宽模拟晶体管、多级增益可配置低噪声放大器、多路开关选择器和功率控制单元等集成到比指甲盖还小的芯片中。

这意味着,用单颗芯片就可以实现多线束激光雷达模拟接收处理,且适配所有采用TOF测量原理的多线(200/160/128/64/32/16线)、单线、MEMS和OPA激光雷达。

而在安装方面,除了之前的装在车的四周和车顶,镭神智能的128线是前装设计,可以直接嵌入车头,一辆车可能只须要装一台128线加两个补盲的雷达,比起旧方案,无论是安装还是算法方面都将更简单更省钱。

此外,在敏感的价格方面,128线激光雷达目前报价据说也不超过16.8万元,而后续还将陆续推出32/16/8/4线的车规级混合固态激光雷达,规模化量产后价格有望达到数千元级别,马斯克完全可以不用为激光雷达的价格原因降低安全性而困扰。

如果考虑到未来几年激光雷达在其他工业领域的大面积应用,对于车载激光雷达的成本下降也会有极大的促进作用。Waymo早前宣布从今年开始向非汽车行业出售激光雷达,目的也是通过规模化降低成本。

二、传感器“冗余”也至关重要

除了技术路线的争议,对于未来量产来说,过去对于激光雷达的误区在于大部分企业仅仅关注长距离产品(200米以上)。

实际上,考虑到未来L2+、L3、L4的长期需求共存因素,对于激光雷达的需求也存在两种:一种是前向的长距离探测,另一种是360度环视的中短距离探测(用于盲区)。

尤其是L3开始,不管是制动、转向、ECU等需要冗余,传感器组合也需要配置一定的冗余。

比如,典型的Waymo自动驾驶车的配置,3个中长距离激光雷达安装于车顶“构成”360度环视以及2个安装于两侧翼子板上方、1个安装于前方保险扛的短距离激光雷达。

而这3个短距离激光雷达(最短探测距离为0)可以保障对行人和骑行人的安全识别。尤其是夜间,摄像头失效的情况下,毫米波雷达也可能存在一定的问题,比如对横向穿行物体探测能力差。

最典型的反向例子就是Uber。Uber在将首批福特自动驾驶车型换成了沃尔沃XC90后,将识别行人的激光雷达传感器数量从7个减少到了1个,导致车辆周围出现盲点(大概3米长的盲区)。

因为在Uber早期的介绍中,有这样一段说明:“安装在前后和侧翼上的激光雷达有助于探测接近车辆的障碍物,以及可能在其他传感器盲区的较小障碍物。”

而在这起致命事故中,推着自行车的受害者正是横向穿行马路。当时,摄像头已经失效(道路几乎没有灯光),而毫米波雷达对横向移动物体能力较差。

此时,即便顶部激光雷达探测到自行车,但没有任何其他多余传感器进行验证,进而可能导致决策算法的判断错误。

显然,对于安全是自动驾驶第一要素的基本准则下,仅仅是依靠摄像头+毫米波雷达的组合,仍然存在一定的盲区风险。

这也是为何马斯克的“激光雷达无用论”会引起业界一片震惊与哗然的原因。特斯拉仅依赖摄像头+毫米波雷达做自动驾驶导致的数起交通事故已堪称警醒行业发展的经典案例。

比如,2016年一辆Model
S在自动驾驶状态下撞上对向正在转弯的卡车,该事故导致驾驶员死亡。据报道,当时特斯拉的Autopilot因为卡车车体反光,摄像头并未识别对向的卡车。

至今,或许特斯拉引以为傲的算法能力已获得数倍提升,摄像头+毫米波雷达的方案与激光雷达相比安全系数可能也就99
%和99.9999%的细微差异,然而正是这点差异恰恰可以成为生命安全的重要保障。


4.bmp

可见,此时选择增加激光雷达作为冗余传感器依然是保证安全的必要举措之一。对此,Waymo相关负责人一再强调,“摄像头、雷达和激光雷达系统是‘互补的’,各尽所能。激光雷达能提供‘更丰富、更准确的数据’,如果只是依赖摄像头会有更多的限制。”

曾在特斯拉任职6年的Waymo硬件主管萨蒂什·耶亚桑德兰(Satish
Jeyachandran)表示,“每一个传感器对于创造出性能强大、安全的自动驾驶汽车都很重要。尤其是涉及到自动驾驶时,整个套件比单个输入更重要。”

Waymo表示,目前激光雷达的价格正在下降,而且随着应用范围的扩大,价格还将继续下降。从目前全球的激光雷达行业来看,镭神智能的激光雷达在价格和性能已足够诱人,自动驾驶真正规模化落地也该不远了吧。

自动驾驶推动四维图新与德赛西威“牵手”走到台前

博客tututu 发表了文章 • 0 个评论 • 268 次浏览 • 2019-06-17 10:00 • 来自相关话题

在CES Asia 2019现场,合作十几年的一对老伙伴——四维图新与德赛西威终于牵手走上台前。这次“官宣”的契机即是自动驾驶技术,引发了无限唏嘘。车云菌现场获悉,本次德赛西威与四维图新正式签署战略合作框架协议,宣布将在自动驾驶地 ...查看全部

在CES Asia 2019现场,合作十几年的一对老伙伴——四维图新与德赛西威终于牵手走上台前。这次“官宣”的契机即是自动驾驶技术,引发了无限唏嘘。

车云菌现场获悉,本次德赛西威与四维图新正式签署战略合作框架协议,宣布将在自动驾驶地图及智能网联等领域进行深入合作。根据协议,双方将围绕德赛西威L3/L4级别自动驾驶解决方案,结合四维图新自动驾驶地图数据、地图引擎、在线分发服务和动态交通信息,为客户共同提供量产自动驾驶核心解决方案。

在此基础上,利用车端与四维图新云平台数据协同能力,实现动态、快速更新地图数据,实时收取、处理传感器数据并提供数据增值解决方案。此外,双方还计划整合旗下公司的车联网资源及能力,打造一个车联网整体生态系统。四维图新旗下的四维智联,将落实提供面向智能驾驶的整合车联网内容产品与运营服务战略,赋能德赛西威。

具体而言,为了促成此次结合,四维图新拿出了一套包含数据采集、自动化制图、地图学习更新体系以及在线分发服务的自动驾驶地图完整产品解决方案,及其上具备的超视距感知能力,德赛西威则贡献出了多传感器融合和自动驾驶大脑决策能力,进而在中国境内的高速及城市快速路上提供L3及以上级别的自动驾驶解决方案。

换句话说,四维图新与德赛西威的战略合作旨在为自动驾驶地图及定位解决方案整合软硬件一体化能力,最终落地在车端应用,打通潜在客户群体。

事实上,在这场发布会的整个过程中,二者的关键词都只有一个——量产。

为了更好地展现四维图新与德赛西威进军自动驾驶领域的决心,车云菌将后续沟通细节记录了下来:

Q:能否透露一下双方在技术方面的合作是否有新的进展和突破?

四维图新副总裁陈丹:四维图新的高精度地图、SDK已经集成到德赛西威产品中,给潜在客户进行展示。

Q:德赛西威在自动驾驶解决方案的各个环节具体有怎样的规划?

德赛西威总经理高大鹏:感知层面,德赛西威在一系列传感器,包括毫米波雷达、高清视觉传感器等方面都有所布局,目前已到量产阶段。今年我们会与主机厂配合量产24G及77G毫米波雷达。

但我们没有做激光雷达,而是选择了几个行业领先的业务合作伙伴,共同研发传感器融合的算法。从目前提高系统安全冗余的角度来看,激光雷达是必要的。而激光雷达现阶段的瓶颈还在于成本,我相信也有非常多的公司致力于推广激光雷达应用场景,使其性价比更高,更能被厂商接受。

在软件方面,我们今年有基于深度学习的感知融合算法。在中国市场也还有很多L2、L3级的ADAS产品。现阶段我们以开放的态度,和全行业中比较领先的初创公司进行合作,目标就是为车厂提供一个全栈的解决方案。在这种基础上,我们昨天发布了自动驾驶域控制器。

至于执行层,德赛西威没有牵扯非常多的整车系统及底盘架构,其更多的核心能力由整车厂及零部件供应商进行系统集成。

我们理解的智能驾驶是在行业分工、系统细分的基础上一点一点实现智能化的进程。

Q:在智能座舱方面,四维图新和德赛西威将如何展开合作?

德赛西威总经理高大鹏:在之前与四维图新沟通的过程中,我们知道该公司在智能驾驶舱方向的战略规划分为两个部分:一个针对驾驶舱,一个针对乘客,其中核心体现的是渠道智能。

在我看来,任何产品智能化程度越高,其默认设置都应该是最体贴的水平,而不是说一定要让客户进行选择。德赛西威目前在“车和家”领域中进行了很多尝试,目前来说我们认为还存在很多协作空间。因为我们的产品线是用户能够最先感知到的,我们也希望有更多的参与者,用软件和服务定义智能化的体验。智能化驾驶舱是可以持续升级的,这是一个和车主、乘客不断交互成长的过程。我相信四维图新有这个能力和我们协作打造智能驾驶舱。

四维集团CEO程鹏:怎么让车变得更聪明?这个事很简单,就是要基于大数据能力。高精地图产品就是一种预测行为,而且大部分场景都是可以预测的。所以包括自动驾驶在内,智能汽车最终要解决的问题就是预测行进方向。

这个问题如果不解决好,产品就落不了地,所以我们解决的所有问题都是围绕AI在车里面,这会花费很多年的时间。我们希望把这些底层的大数据能力、引擎能力、AI能力做好以后,输出给像德赛西威这样优秀的集成商,做成好的产品给用户使用。

转自:车云网

ADAS漫谈:为什么自动驾驶必须用激光雷达

博客lingpa 发表了文章 • 0 个评论 • 108 次浏览 • 2020-09-04 13:09 • 来自相关话题

自动驾驶必须用激光雷达,如果激光雷达成本足够低的话,ADAS也需要用激光雷达。基于摄像头的ADAS和无人驾驶系统,或者说以摄像头为核心的ADAS和无人驾驶系统局限很多。

首先是FOV的问题。

ADAS漫谈:为什么自动驾驶必须用激光雷达 - 全文-第1张图片-零帕网

为了保证有足够远的探测距离,FOV的角度不能太大,这就导致车辆横向有非常明显的盲区。一般CMOS传感器配的镜头FOV不超过76度,超过76度就可以算广角镜头,广角镜头在近处有明显的失真,超过120度就算鱼眼镜头,图像边缘有严重的失真。一般AEB的FOV在45度到52度之间。

双目会好很多,全球最好的双目系统是日本斯巴鲁的Eyesight,第二代Eyesight的FOV是25度,第三代是35度。为了保证具备同样的探测距离,第三代Eyesight的基线长度从30厘米增加到35厘米。

为了解决FOV的问题,特斯拉和沃尔沃提出了三目Trifocal。

ADAS漫谈:为什么自动驾驶必须用激光雷达 - 全文-第2张图片-零帕网

上图为沃尔沃的三目系统,FOV视角分别是140度、45度和34度。特斯拉是150度、50度和25度。似乎完美解决了FOV的矛盾,但是没那么简单。首先是鱼眼镜头变形严重,需要矫正失真,一般是采用插值法矫正,失真不可能100%矫正,图像质量也会出现下降。再有边缘区像素会有丢失,任何插值法都无法弥补这个丢失。最后这需要耗费大量的运算资源。再者是三个镜头的位置,特斯拉和沃尔沃都采用上二下一的设置。45度或50度的主镜头自然要居中,鱼眼和窄视角镜头分列中心线两侧,都不在中心线上,这就导致视角覆盖偏向一侧,还需要用算法校正。最后三个摄像头会有重复信息,需要采用滤波器过滤,一般会用扩展卡曼滤波器,这必然导致信息质量的下降,增加算法的复杂性,增加成本。

三目系统依然会有近距离盲区。

其次是低速的问题,摄像头系统特别是单目系统,在车辆本身低速和相对低速情况下表现很差,对突然出现的静止目标或缓慢移动目标(一般是行人)基本无效。一般纯视觉的FCW系统最低运行速度是时速30公里,Mobileye的说明书有明确指出,

ADAS漫谈:为什么自动驾驶必须用激光雷达 - 全文-第3张图片-零帕网

Mobileye也指出了另一种低速FCW称为UFCW,但误报率太高,所以很少使用。一般Mobileye提到FCW都是指时速30公里以上的FCW。加上毫米波雷达融合数据后,最低运行时速可以下降到10-15公里。这些都是指车辆识别,对行人识别要求速度更高。

ADAS漫谈:为什么自动驾驶必须用激光雷达 - 全文-第4张图片-零帕网

Mobileye明确指出时速50公里上行人识别才工作。


为何需要如此高的速度?

这就要说说单目摄像头的基本理念了。首先机器视觉主要针对动态目标识别,特别是汽车领域,静态目标通常都是树木,建筑物等,优先识别动态目标如车辆、行人、自行车、电动车等。有一点需要特别指出,识别目标不是最终目的,汽车上机器视觉的最终目的是计算出车辆与障碍物之间的距离,识别目标只是这个环节上的一环。而激光雷达无需任何目标识别,就能够提供最准确,360度覆盖面的距离信息。如果激光雷达成本下降到视觉系统2倍的成本,那么深度学习(目前绝大部分深度学习都是图像识别)将失去意义。

ADAS漫谈:为什么自动驾驶必须用激光雷达 - 全文-第5张图片-零帕网

上图为机器视觉的处理流程,其主要过程为输入图像,对输入的图像进行预处理,预处理的方法主要有图像矫正、平滑去噪、图像滤波等,预处理之后的图像对其进行 ROI 区域检测或者异常检测等,对于已经检测出来的区域进行特征提取分类识别等。

第一步要将运动目标从背景图中分割出来,这也是最难的一步。目前有多种方法,但没有一种是通用的。最常见的三种方法是光流法,帧间差法和背景差法。

ADAS漫谈:为什么自动驾驶必须用激光雷达 - 全文-第6张图片-零帕网

基于运动目标分割又分为 2D 与 3D。在基于运动的 2D 分割方法中可以分为基于光流不连续的分割方法和基于变化检测的分割方法。光流不连续的分割方法主要是依于图像像素的位移或者光流,由差分方法,块匹配,统计方法组成。使用模板匹配方法计算像素点的近似速度。 Spoerri在找到光流场之前使用运动边界的检测。 Overington使用不连续光流变化去检测静态场景运动目标。变化检测避免了光流法中微分梯度的计算,由帧差法和累计帧差法组成。 3D 的运动分割中主要由参数法和 SFM 法组成, SFM 法主要用于 3D 场景以及刚性运动的假设。参数方法只能假设刚性运动的分段场景。参数法主要由 6 参数, 8 参数以及 12 参数。 SFM 方法主要由线性法和非线性方法组成。

考虑到实时性和成本,目前都采用了帧差分法,这种方法最早提出,对运算资源消耗最少,最容易达到实时性,缺点就是低速下表现很差。

所谓帧差法,就检测相邻帧之间的像素变化。帧差法的基本思想是:运动目标视频中,可以根据时间提取出系列连续的序列图像,在这些相邻的序列图像中,背景的像素变化较小,而运动目标的像素变化较大,利用目标运动导致的像素变化差,则可以分割出运动目标。帧差法可以分为两帧差分法跟三帧差分法。

两帧差分法就是将视频采集到时序列图像的相邻两帧图像进行差分。对相邻的两帧图像进行差分可以在任何具有复杂的图像特征(例如,纹理特征、灰度均值等)上进行。因此, 只要明显区别与背景的运动物体均可检测出来。根据给定的阈值对差分结果二值化,若差值图像大于给定阈值,则认为该像素点是前景目标中的点,并将该像素点作为运动目标的一部分,若差值图像小于给定阈值,则认为该像素点属于背景目标点,从而将运动目标从背景目标中分割出来。图像进行阈值分割之后通常都带有噪声,因此使用形态学滤波的方法对噪声进行衰减。衰减噪声后得到的图像运动目标会存在一些空洞,需要进行连通性处理,最后才可得判别目标。阈值设定太低,检测不到目标。设定太高,会被检测为两个分开的物体。同时对于比较大的,颜色一致的运动目标,如白色大货车,帧间差分法会在目标内部产生空洞,无法完整分割提取运动目标。

ADAS漫谈:为什么自动驾驶必须用激光雷达 - 全文-第7张图片-零帕网

上图为两帧差分法流程

为了解决两帧差分法的缺陷,人们又提出三帧差法法。

ADAS漫谈:为什么自动驾驶必须用激光雷达 - 全文-第8张图片-零帕网

上图为三帧差分法流程

三帧差分与两帧差法原理相同,效果略好,但需要大量运算资源,速度通常是两帧差法的5倍,一般两帧差法(15Fps)的平均时间为25毫秒。

背景减除(差分)法基本思想是利用背景的参数模型来近似背景图像的像素值,将当前帧与背景图像进行差分比较实现对运动区域的检测,其中区别较大的像素区域被认为是运动区域,而区别较小的像素区域被认为是背景区域。背景减除法必须要有背景图像,并且背景图像必须是随着光照或外部环境的变化而实时更新的,因此背景减除法的关键是背景建模及其更新。针对如何建立对于不同场景的动态变化均具有自适应性的背景模型,减少动态场景变化对运动分割的影响,研究人员已提出了许多背景建模算法,但总的来讲可以概括为非回归递推和回归递推两类。背景差分法对光照变化和抖动异常敏感,而车肯定是要抖动的,且背景差分法对运算资源需求多,实时性不佳,比较适合室内监控,汽车领域并不适合。

光流法是目前热门,在适当的平滑性约束条件下,根据图像序列的时空梯度估算运动场,通过分析运动场的变化对运动目标和场景进行检测与分割。通常有基于全局光流场和特征点光流场两种方法。最经典的全局光流场计算方法是L-K(Lueas&Kanada)法和H-S(Hom&Schunck)法,得到全局光流场后通过比较运动目标与背景之间的运动差异对运动目标进行光流分割,缺点是计算量大。特征点光流法通过特征匹配求特征点处的流速,具有计算量小、快速灵活的特点,但稀疏的光流场很难精确地提取运动目标的形状。总的来说,光流法不需要预先知道场景的任何信息,就能够检测到运动对象,可处理背景运动的情况,但噪声、多光源、阴影和遮挡等因素会对光流场分布的计算结果造成严重影响;而且光流法计算复杂,很难实现实时处理。


对单目来说,要想获得距离信息,必须先识别目标。

ADAS漫谈:为什么自动驾驶必须用激光雷达 - 全文-第9张图片-零帕网

要提供目标距离信息,首先要对目标进行框图分割,而分割和识别是一体的,不识别无法准确分割。

图像识别简单分为两大类,一类是基于词包模型的图像识别,一类是基于深度学习的图像识别。

Csurka等首次将“自然语言处理”领域的 BoVM(bag of words)模型引入到图像分类领域。就是将图像类比为文档,将图像信息用若干单词表示,最终用单词的频率直方图表示图像。首先,将一幅图像待检测的特征点或者特征区域用特征描述算子对其进行描述。将提取的特征算子采用机器学习的方法进行训练获得用特征频率表示的视觉单词组成的视觉词典。最后,通过对不同类别的视觉直方图进行学习,便可以获得学习模型。在测试环节,提取待测试图像的特征,获得待测试图像的视觉单词直方图,与上述获得的学习模型与待测试图像的频率直方图进行匹配,获得分类识别结果。由此可见,将 Bag-of-Word 应用到图像分类模型上通常需要三个步骤:1) 特征检测与描述, 2) 视觉词典的构建, 3) 分类器。

视觉词包模型(bag-of-words)相对比其他模型最大的优势在于适用于大部分的应用场合,可以简单直观地把图像表示成直方图呈现出来,这样就可以使图像分类识别问题转化成普通模式识别问题,所需运算资源少。但是,视觉词包模型也有一些缺点: 1)使用特征用视觉单词直方图表示,在这个转化的过程中,丢了特征的位置信息,在一些需要位置信息的研究中,如前方突然掉落的物体,突然出现的行人,这个方法明显是不适合的; 2) 在视觉词包模型建立的在单词与单词之间相互独立的基础上,但是有些情况,单词与单词之间是互相有联系的,如连续的视频,因此,视觉词包模型在这种情况下使用,是造成识别结果较差。

词包模型实际上相当于只包含了一个卷积层和一个汇聚层,且模型采用无监督方式进行特征表达学习,而卷积神经网络则包含了更多层的简单、复杂细胞,可以进行更为复杂的特征变换;并且其学习过程是有监督过程的,滤波器权重可以根据数据与任务不断进行调整,从而学习到更有意义的特征表达。从这个角度来看,卷积神经网络具有更为强大的特征表达能力,因此它在图像识别任务中的出色性能就很容易解释了。

分割并识别后是估算距离,单目估算距离主要是根据像素大小,这种方法准确度不高。

ADAS漫谈:为什么自动驾驶必须用激光雷达 - 全文-第10张图片-零帕网

由于距离因素,行人3和行人2的像素大小是非常接近的,但行人2和行人3与车辆距离距离差别很大,单目无法得出准确的距离。

ADAS漫谈:为什么自动驾驶必须用激光雷达 - 全文-第11张图片-零帕网

上图为基于SFM的距离估算。这可以看作是稀疏光流法,缺点是运算资源消耗多,且对光线变化和抖动比较敏感。


双目与单目区别有几点,首先双目是测量距离而非估算。

ADAS漫谈:为什么自动驾驶必须用激光雷达 - 全文-第12张图片-零帕网

上图为双目的距离计算公式,准确度比单目要高得多。

双目与单目区别的第二点是双目可以在不识别目标的情况获得深度(距离)数据。

ADAS漫谈:为什么自动驾驶必须用激光雷达 - 全文-第13张图片-零帕网

上图为双目的典型工作流程图。双目最后输出的是一张深度图。

ADAS漫谈:为什么自动驾驶必须用激光雷达 - 全文-第14张图片-零帕网

用颜色深浅来代表距离。双目虽然不需要识别目标,但是双目需要级化分割(Segmentation),常使用的算法有Belief Propagation和Mean Shift。双目最关键的环节在立体匹配。

双目输出深度图无法直接用于诸如AEB之类的功能,和单目一样,还需要将运动目标分割出来。对每一个像素点都做视差运算需要耗费大量运算资源,而最主要的还是正前方的图像区域的视差,所以也有先做ROI限定。

对视觉系统来说,无论单目还是双目,都需要运动目标分割和追踪,这就离不开帧间差法,而正是帧间差法导致视觉系统有两个严重缺陷,一是低速状态下,可能无法检测到障碍物,特别是移动缓慢或静止的障碍物。二是对突然由运动转为静止的障碍物基本无效或需要较长时间来检测和识别,如前车掉落的物品。

对激光雷达来说,运动目标的分割要简单得多。

ADAS漫谈:为什么自动驾驶必须用激光雷达 - 全文-第15张图片-零帕网

ADAS漫谈:为什么自动驾驶必须用激光雷达 - 全文-第16张图片-零帕网

与动态物体比,静态物体捕获的点云数自然要多。用VOXELGRID滤波器可以轻松将动静目标分离,同时利用激光雷达强度成像的特点,还可以轻松识别大部分静态目标,如车道线,道路边缘,建筑物,草地,树木,路灯等。

时速低于30公里的无人驾驶系统也需要配备激光雷达才算安全。考虑到单目视觉系统的探测距离,其对应的最高时速一般不超过65公里,双目则可以达到90公里。所以无论是高速公路的无人驾驶还是城市道路的无人驾驶,激光雷达都是必须的。

研究人员开发汽车雷达系统 可“看到”拐角处的物体

博客自动驾驶小能手 发表了文章 • 0 个评论 • 170 次浏览 • 2020-07-02 14:00 • 来自相关话题

据外媒报道,普林斯顿大学(Princeton University)研究人员利用通常用于追踪超速者和快速球的雷达,开发了一种自动系统,可以让汽车探测拐弯处,发现迎面而来的车辆和行人。

(图片来源:普林斯顿大学)

该系统可以轻松集成到现代车辆中,利用多普勒雷达将无线电波反射到建筑物和停放的汽车等表面。雷达信号以一定的角度撞击表面,其反射信号会反弹回来。雷达信号继续撞击隐藏在角落的物体,部分雷达信号会反射回车载探测器,使系统能够看到拐角处的物体,并判断物体是移动的还是静止的。

普林斯顿大学计算机科学助理教授、研究人员Felix Heide说,“这将使汽车能够看到被遮挡的物体,例如,让自动驾驶汽车看到危险的十字路口,而目前的激光雷达和摄像头传感器是无法实现这一点。此外,与激光雷达传感器相比,雷达传感器价格相对便宜,而且可以大规模生产。”

在日前发表的一篇论文中,研究人员描述了该系统如何区分包括汽车、自行车和行人在内的物体,并判断其方向和速度。作者写道,“我们提出的方法能在现实世界的自动驾驶场景中,为车辆提供行人和骑行人碰撞预警。”

近年来,工程师们开发了各种传感器系统,使汽车能够探测道路上的其他物体。其中许多依靠激光雷达或使用可见光或近红外光的摄像头,这种防止碰撞的传感器在现代汽车中很常见,但是光学传感很难用于发现汽车视线之外的物体。在早期的研究中,Heide的团队利用光看到隐藏在角落的物体,但由于这些方法需要高功率激光器,而且只能在较短射程内使用,因此无法用于汽车。

在进行早期的研究时,Heide及其同事们试想是否有可能利用成像雷达,而不是可见光,来创建系统,以检测汽车视线之外的危险。对于雷达系统而言,平滑表面的信号损耗要低得多,而且雷达是一种经过验证的跟踪目标的技术。但是雷达的空间分辨率(用于描绘汽车和自行车等隐藏在角落的物体)相对较低。然而,研究人员认为,他们可以创建算法来解释雷达数据,从而使传感器发挥作用。Heide表示,“我们开发的算法非常高效,适用于当前的汽车硬件系统。”

为了让系统区分物体,Heide的团队处理了部分雷达信号,而标准雷达认为这些信号是背景噪音而不是可用信息。该团队应用AI技术改善处理并读取图像。论文的主要作者之一、计算机科学研究生Fangyin Wei表示,该系统的计算机必须学会从非常少的数据中识别骑自行车的人和行人。

Wei解释道,“首先,我们必须检测是否有物体存在。如果有,它重要吗?是骑自行车的人还是行人?然后我们必须确定其位置。”Wei还表示,该系统目前可以探测行人和骑自行车的人,因为工程师们认为这些对象体积小、形状和运动方式多样,最具挑战性。该系统也可以进行调试,用于检测车辆。

Heide表示,研究人员计划在雷达和信号处理改进应用的多个方面继续研究。他说,该系统有潜力从根本上提高汽车的安全性,其依赖现有的雷达传感器技术,因此有望部署到下一代汽车中。Heide还称,“该系统肯定会经历非常严格的汽车开发周期,需要大量开发设计,才能整合到车辆中,并推向市场。”(作者:盖世汽车)

激光雷达的“误区”与“误解”,马斯克可以“用得起”

知识讲堂betty19920416 发表了文章 • 0 个评论 • 512 次浏览 • 2019-06-19 11:12 • 来自相关话题

过去几年,围绕激光雷达能否满足汽车行业对于价格、性能、重量、尺寸、温度/寿命(车规级)、可大规模自动化生产等要求“议论纷纷”。目前,行业内对于可用于前装车规级量产的激光雷达有一个相对明确的要求:1、测距范围:200-300米; ...查看全部

过去几年,围绕激光雷达能否满足汽车行业对于价格、性能、重量、尺寸、温度/寿命(车规级)、可大规模自动化生产等要求“议论纷纷”。

目前,行业内对于可用于前装车规级量产的激光雷达有一个相对明确的要求:

1、测距范围:200-300米;

2、分辨率及视场角:0.1-0.2度,120-180度;

3、价格:批量供货价格在500--1000美金

4、可靠性:车规级及功能安全认证;

5、生产:半自动化及自动化产线,保证产品一致性和生产效率;

而之所以有一部分企业“自称”不需要激光雷达,很大一部分原因还在于车规、价格等因素。要知道,目前,全球范围内只有一家法雷奥能够量产过车规的产品,单一供应商对于汽车制造商来说,存在着不小的风险。

这也是为什么目前行业内存在两种不同的自动驾驶传感器组合,一种是基于摄像头+毫米波雷达;一种是基于摄像头+毫米波雷达+激光雷达。

但如果要遵从自动驾驶的安全冗余要求,激光雷达的配置在大多数主机厂和自动驾驶公司来说,都是必须的传感器。

当然,价格和可靠性是相对较难的部分。不过,价格方面部分厂商的传统机械式激光雷达已经开始松动。


比如,镭神智能的32线360°机械式激光雷达售价已经降至6万元,16线360°机械式激光雷达批量售价已经下探到1.2万元。

而该公司即将要推出的车规级32线120°混合固态激光雷达售价将会降至1万元以内,车规级16线120°混合固态激光雷达大批量售价将会降至4千元左右,完全可以符合车厂前装的价格和性能要求,马斯克完全可以不用为激光雷达的价格原因降低安全性而困扰。

一、激光雷达的“真相”

自从车载激光雷达开山鼻祖Velodyne的代表性产品360度机械式旋转激光雷达被大多数企业划定为“几乎不可能过车规”的行列后,几十家初创公司开始在混合固态、纯固态的激光雷达“量产”之路上拿出了十八般武艺。

“固态激光雷达”实际上是一个涵盖多个非旋转激光雷达设计的总称。其中一种路线是MEMS——微机电系统——它使用一个微小振镜来控制激光束。

其他路线还有光学相控阵,一种完全没有任何运动部件的技术路线。还有就是Flash激光雷达,它不需要光束控制,只需在一个闪光中照亮整个场景,用类似于数码相机的二维传感器阵列探测返回的光线。

由于几乎没有或只有很少的运动部件,这三种设计都有可能实现小体积、低成本和可靠性。从长远来看,支持者们设想将几乎所有的电子部件——包括激光本身、波束控制电路、探测器和支持计算的电源——封装到一个芯片上。

从理论上讲,这一切听起来都不错。但上述三种固态设计(MEMS严格意义上仍处于混合固态)面临着实现目标的重大挑战,最大的困难是目前全世界做MEMS振镜的厂家没有一家可以提供能达到车规要求的MEMS振镜(这些或许很难从这些企业负责人口中听到)。

MEMS系统中的小镜子只能反射有限的光束。这使得将激光束反射到远处的物体上并探测到反射回来的光束变得非常困难。

此外,MEMS反射镜仍然存在一些问题:车辆的运动极易影响镜子的运动;车载环境的较宽的温度范围也会影响扫描。

由于MEMS扫描仪是一种共振设备,这意味着它在每次扫描的中间扫描速度最快,在扫描结束时扫描速度最慢。结果就是扫描的中心分辨率最低,与激光雷达的要求相反。

同时,MEMS镜子悬挂在非常细的扭力杆之间,扭力杆在使用过程中容易突然断裂。

当然,这并非说明MEMS路线就是不可行,比如已经有车规级量产经验的法雷奥,目前也在研发MEMS混合固态雷达,但时间点在2021年。

相控阵方法产生的光束往往比其他技术发散得更大,相控阵芯片对激光功率损耗很大,旁瓣很难压制,因此很难实现远距离、高扫描分辨率和宽视场的性能,而且接收得采用面阵的APD阵列探测器,成本远没美国某公司说的那么美妙。

FLASH激光雷达,来自每个闪光的光被分散到整个视野中,这意味着只有一小部分光照射到任何一个特定的点。而且光探测器阵列中的每个像素都必须非常小,这限制了它能够捕获的返回光的数量。

还有一种近年来兴起的技术路线,就是使用VCSEL技术,一种垂直腔面发射激光器(代替传统的激光发光源)。VCSEL的一个关键区别是激光从晶圆片垂直发射,而不是像边缘发射激光那样水平发射。

这是制造中的一个关键优势,因为VCSEL可以在晶圆片上测试。这降低了生产成本,因为故障芯片可以在封装前被筛选出来。标准的边缘发射激光器只能在后期的生产过程中进行测试。

此外,VCSEL耗电量更低、对温度的敏感性也较低,这是车规级产品验证的关键一环。

同时,雷达厂商可以封装集成数百个VCSEL、电子束控制和晶片尺度的微透镜,使其能够瞄准、聚焦并形成结构化的探测模式。不过,VCSEL目前仍然较为昂贵。而且,FLASH激光雷达的抗干扰能力是所有的这些激光雷达技术方案中最差的。

这也是为什么迄今为止,只有法雷奥和Ibeo合作开发的SCALA“过了车规”,其使用的嵌入式旋转镜是以恒定速度的扫描,已经被证明在移动物体应用中具备足够的可靠性和寿命。

一些汽车行业的人士表示,对于激光雷达的移动部件“质疑”很多时候不一定是对的。“传统汽车里有很多活动部件,它们可以使用10万英里甚至更长时间。”

那么,接下来对于传统机械式雷达的改造就是将发射和接收模块做成固态不动,只有棱镜旋转,也就是SCALA的混合固态模式。

3.jpg

比如,以镭神智能推出的128线激光雷达为例,其采用的正是上述的混合固态的设计,其接收和发射模块都是固定不动的,里面只有一个棱镜转动。

这个背后依靠的是镭神自主研发的全球首款激光雷达专用16通道TIA芯片,而且已经大批量流片成功,它不仅集成了接收模拟信号处理的多种功能和配置控制,同时还将高频高带宽模拟晶体管、多级增益可配置低噪声放大器、多路开关选择器和功率控制单元等集成到比指甲盖还小的芯片中。

这意味着,用单颗芯片就可以实现多线束激光雷达模拟接收处理,且适配所有采用TOF测量原理的多线(200/160/128/64/32/16线)、单线、MEMS和OPA激光雷达。

而在安装方面,除了之前的装在车的四周和车顶,镭神智能的128线是前装设计,可以直接嵌入车头,一辆车可能只须要装一台128线加两个补盲的雷达,比起旧方案,无论是安装还是算法方面都将更简单更省钱。

此外,在敏感的价格方面,128线激光雷达目前报价据说也不超过16.8万元,而后续还将陆续推出32/16/8/4线的车规级混合固态激光雷达,规模化量产后价格有望达到数千元级别,马斯克完全可以不用为激光雷达的价格原因降低安全性而困扰。

如果考虑到未来几年激光雷达在其他工业领域的大面积应用,对于车载激光雷达的成本下降也会有极大的促进作用。Waymo早前宣布从今年开始向非汽车行业出售激光雷达,目的也是通过规模化降低成本。

二、传感器“冗余”也至关重要

除了技术路线的争议,对于未来量产来说,过去对于激光雷达的误区在于大部分企业仅仅关注长距离产品(200米以上)。

实际上,考虑到未来L2+、L3、L4的长期需求共存因素,对于激光雷达的需求也存在两种:一种是前向的长距离探测,另一种是360度环视的中短距离探测(用于盲区)。

尤其是L3开始,不管是制动、转向、ECU等需要冗余,传感器组合也需要配置一定的冗余。

比如,典型的Waymo自动驾驶车的配置,3个中长距离激光雷达安装于车顶“构成”360度环视以及2个安装于两侧翼子板上方、1个安装于前方保险扛的短距离激光雷达。

而这3个短距离激光雷达(最短探测距离为0)可以保障对行人和骑行人的安全识别。尤其是夜间,摄像头失效的情况下,毫米波雷达也可能存在一定的问题,比如对横向穿行物体探测能力差。

最典型的反向例子就是Uber。Uber在将首批福特自动驾驶车型换成了沃尔沃XC90后,将识别行人的激光雷达传感器数量从7个减少到了1个,导致车辆周围出现盲点(大概3米长的盲区)。

因为在Uber早期的介绍中,有这样一段说明:“安装在前后和侧翼上的激光雷达有助于探测接近车辆的障碍物,以及可能在其他传感器盲区的较小障碍物。”

而在这起致命事故中,推着自行车的受害者正是横向穿行马路。当时,摄像头已经失效(道路几乎没有灯光),而毫米波雷达对横向移动物体能力较差。

此时,即便顶部激光雷达探测到自行车,但没有任何其他多余传感器进行验证,进而可能导致决策算法的判断错误。

显然,对于安全是自动驾驶第一要素的基本准则下,仅仅是依靠摄像头+毫米波雷达的组合,仍然存在一定的盲区风险。

这也是为何马斯克的“激光雷达无用论”会引起业界一片震惊与哗然的原因。特斯拉仅依赖摄像头+毫米波雷达做自动驾驶导致的数起交通事故已堪称警醒行业发展的经典案例。

比如,2016年一辆Model
S在自动驾驶状态下撞上对向正在转弯的卡车,该事故导致驾驶员死亡。据报道,当时特斯拉的Autopilot因为卡车车体反光,摄像头并未识别对向的卡车。

至今,或许特斯拉引以为傲的算法能力已获得数倍提升,摄像头+毫米波雷达的方案与激光雷达相比安全系数可能也就99
%和99.9999%的细微差异,然而正是这点差异恰恰可以成为生命安全的重要保障。


4.bmp

可见,此时选择增加激光雷达作为冗余传感器依然是保证安全的必要举措之一。对此,Waymo相关负责人一再强调,“摄像头、雷达和激光雷达系统是‘互补的’,各尽所能。激光雷达能提供‘更丰富、更准确的数据’,如果只是依赖摄像头会有更多的限制。”

曾在特斯拉任职6年的Waymo硬件主管萨蒂什·耶亚桑德兰(Satish
Jeyachandran)表示,“每一个传感器对于创造出性能强大、安全的自动驾驶汽车都很重要。尤其是涉及到自动驾驶时,整个套件比单个输入更重要。”

Waymo表示,目前激光雷达的价格正在下降,而且随着应用范围的扩大,价格还将继续下降。从目前全球的激光雷达行业来看,镭神智能的激光雷达在价格和性能已足够诱人,自动驾驶真正规模化落地也该不远了吧。

自动驾驶推动四维图新与德赛西威“牵手”走到台前

博客tututu 发表了文章 • 0 个评论 • 268 次浏览 • 2019-06-17 10:00 • 来自相关话题

在CES Asia 2019现场,合作十几年的一对老伙伴——四维图新与德赛西威终于牵手走上台前。这次“官宣”的契机即是自动驾驶技术,引发了无限唏嘘。车云菌现场获悉,本次德赛西威与四维图新正式签署战略合作框架协议,宣布将在自动驾驶地 ...查看全部

在CES Asia 2019现场,合作十几年的一对老伙伴——四维图新与德赛西威终于牵手走上台前。这次“官宣”的契机即是自动驾驶技术,引发了无限唏嘘。

车云菌现场获悉,本次德赛西威与四维图新正式签署战略合作框架协议,宣布将在自动驾驶地图及智能网联等领域进行深入合作。根据协议,双方将围绕德赛西威L3/L4级别自动驾驶解决方案,结合四维图新自动驾驶地图数据、地图引擎、在线分发服务和动态交通信息,为客户共同提供量产自动驾驶核心解决方案。

在此基础上,利用车端与四维图新云平台数据协同能力,实现动态、快速更新地图数据,实时收取、处理传感器数据并提供数据增值解决方案。此外,双方还计划整合旗下公司的车联网资源及能力,打造一个车联网整体生态系统。四维图新旗下的四维智联,将落实提供面向智能驾驶的整合车联网内容产品与运营服务战略,赋能德赛西威。

具体而言,为了促成此次结合,四维图新拿出了一套包含数据采集、自动化制图、地图学习更新体系以及在线分发服务的自动驾驶地图完整产品解决方案,及其上具备的超视距感知能力,德赛西威则贡献出了多传感器融合和自动驾驶大脑决策能力,进而在中国境内的高速及城市快速路上提供L3及以上级别的自动驾驶解决方案。

换句话说,四维图新与德赛西威的战略合作旨在为自动驾驶地图及定位解决方案整合软硬件一体化能力,最终落地在车端应用,打通潜在客户群体。

事实上,在这场发布会的整个过程中,二者的关键词都只有一个——量产。

为了更好地展现四维图新与德赛西威进军自动驾驶领域的决心,车云菌将后续沟通细节记录了下来:

Q:能否透露一下双方在技术方面的合作是否有新的进展和突破?

四维图新副总裁陈丹:四维图新的高精度地图、SDK已经集成到德赛西威产品中,给潜在客户进行展示。

Q:德赛西威在自动驾驶解决方案的各个环节具体有怎样的规划?

德赛西威总经理高大鹏:感知层面,德赛西威在一系列传感器,包括毫米波雷达、高清视觉传感器等方面都有所布局,目前已到量产阶段。今年我们会与主机厂配合量产24G及77G毫米波雷达。

但我们没有做激光雷达,而是选择了几个行业领先的业务合作伙伴,共同研发传感器融合的算法。从目前提高系统安全冗余的角度来看,激光雷达是必要的。而激光雷达现阶段的瓶颈还在于成本,我相信也有非常多的公司致力于推广激光雷达应用场景,使其性价比更高,更能被厂商接受。

在软件方面,我们今年有基于深度学习的感知融合算法。在中国市场也还有很多L2、L3级的ADAS产品。现阶段我们以开放的态度,和全行业中比较领先的初创公司进行合作,目标就是为车厂提供一个全栈的解决方案。在这种基础上,我们昨天发布了自动驾驶域控制器。

至于执行层,德赛西威没有牵扯非常多的整车系统及底盘架构,其更多的核心能力由整车厂及零部件供应商进行系统集成。

我们理解的智能驾驶是在行业分工、系统细分的基础上一点一点实现智能化的进程。

Q:在智能座舱方面,四维图新和德赛西威将如何展开合作?

德赛西威总经理高大鹏:在之前与四维图新沟通的过程中,我们知道该公司在智能驾驶舱方向的战略规划分为两个部分:一个针对驾驶舱,一个针对乘客,其中核心体现的是渠道智能。

在我看来,任何产品智能化程度越高,其默认设置都应该是最体贴的水平,而不是说一定要让客户进行选择。德赛西威目前在“车和家”领域中进行了很多尝试,目前来说我们认为还存在很多协作空间。因为我们的产品线是用户能够最先感知到的,我们也希望有更多的参与者,用软件和服务定义智能化的体验。智能化驾驶舱是可以持续升级的,这是一个和车主、乘客不断交互成长的过程。我相信四维图新有这个能力和我们协作打造智能驾驶舱。

四维集团CEO程鹏:怎么让车变得更聪明?这个事很简单,就是要基于大数据能力。高精地图产品就是一种预测行为,而且大部分场景都是可以预测的。所以包括自动驾驶在内,智能汽车最终要解决的问题就是预测行进方向。

这个问题如果不解决好,产品就落不了地,所以我们解决的所有问题都是围绕AI在车里面,这会花费很多年的时间。我们希望把这些底层的大数据能力、引擎能力、AI能力做好以后,输出给像德赛西威这样优秀的集成商,做成好的产品给用户使用。

转自:车云网