导言:近年来,随着无人驾驶技术的迅速发展,各大车企在推出新车型时,都会特别强调自家产品的雷达技术,汽车雷达慢慢的变成了自动驾驶领域中被公认的“眼睛”。实际上,尽管汽车雷达在复杂的自动驾驶系统中发挥着及其重要的作用,但要实现真正的完全无人驾驶,还需要它与其他视觉传感器密切配合,共同完成多样的感知任务。
环境感知作为无人驾驶的第一步,是智能汽车实现自主行驶的基础和前提。在传感器技术中,汽车雷达以其卓越的探测能力广为人知。然而,要使车辆不仅能识别道路标志、车道线和行人,还能分辨颜色、形状及其他的环境细节,为车辆提供更丰富的信息,单纯依靠雷达传感器是远远不足的。为实现对周围环境的全面感知,还需要别的类型的传感器来补充雷达的不足,例如,不但可以弥补雷达在环境细节识别上的不足,还可当作主导的视觉传感器的汽车摄像头。
汽车摄像头,就是安装在车辆上的摄像装置,基础原理和手机摄像头相似,但是由于应用场景的不同,所以在性能上有明显的差别。汽车摄像头的构造涉及多个核心部件,其中最为核心的是镜头、图像传感器和图像处理器。镜头由多片光学透镜组成,具备广角和高清的特点,毕竟捕捉到足够多的细节信息是重中之重;图像传感器是将光信号转化为电信号的部件。
目前常用的有CCD和CMOS传感器两种,相较之下CCD在画质上会更胜一筹,但是由于COMS生产所带来的成本相比来说较低,并且所提供的画质也能够很好的满足无人驾驶对图像的要求,因此,采用CMOS传感器的摄像头更广泛。图像处理器则负责对传感器捕获的数据来进行实时处理,确保输出的图像在各种各样的环境下都保持清晰和稳定。
据统计,目前L2级无人驾驶车辆平均搭载约5颗摄像头,L2+级为8颗,L3级则达到了11颗左右。下面我们逐一分析不同位置摄像头的作用。前置摄像头通常安装在汽车的前挡风玻璃上方,负责监测前方道路状况,包括车辆、行人、信号灯等信息。前置摄像头一般根据数量的不同被称为单目、双目和三目摄像头。
单目摄像头仅使用一个摄像头来识别前方物体,主要处理平面图像。双目摄像头的原理类似人眼,双目摄像头通过两个摄像头在不同角度拍摄同一物体,利用视差来推算物体的距离和三维结构信息,从而生成立体效果图。三目摄像头则是以三个不同的视角对同一物体拍摄出三个不同视差,更精准的感知物体的形状、距离和速度。
后置摄像头通常安装在车辆的后保险杠或后备箱盖上方,大多数都用在倒车影像系统。侧视摄像头一般安装在车辆两侧的后视镜或车门上方,配备广角镜头,用于监测车辆侧方的盲区。环视摄像头则安置在车辆的前后保险杠、后视镜下方以及车顶,协同工作提供车辆四周的全景视图。这些摄像头通过360度环绕的方式捕捉车辆四周的图像,并将这些图像传送至同一个中央处理单元。
处理单元将各摄像头的图像拼接在一起,生成一个360度的全景视图。车内摄像头通常安装在车内的A柱、电子仪表屏或方向盘上,专门用于监测驾驶员的状态。这些摄像头通过检验测试驾驶员的眼球运动、头部姿态和面部表情,来判断驾驶员的注意力情况,当系统检测到驾驶员分心或疲劳时,会发出警告提醒,以确保行车安全。
红外夜视摄像头也被称为红外夜视系统,大多数都用在增强夜间驾驶的安全性。红外夜视技术最早被应用于军事领域,用于提升坦克在夜间的机动能力。民用上,凯迪拉克于2000年首次将红外夜视技术应用于汽车上。
在构造上,红外夜视摄像头和普通摄像头差不多,不同的是,普通的摄像头依赖于可见光来成像,而红外夜视摄像头则利用红外光成像。技术上,红外夜视摄像头有被动红外热成像和主动红外成像两种。主动红外成像使用的是摄像头周围的一圈LED灯组成的红外光源,这些LED灯会发射出肉眼看不见的红外光。当这些红外光照射在摄像头前方的物体上时,光线会反射回来,摄像头内的红外传感器捕捉这些反射回来的红外光信号,这些信号会被转换成电信号,并经过处理后生成图像。
这种光波是我们肉眼看不到的,在夜间红外夜视系统的可视范围为150-400m,相比之下,远光灯的照射范围仅为80到120米。另一种技术是被动红外热成像,它基于物体与背景之间的温度和辐射差异,通过辐射测温技术逐点测量辐射强度,生成热成像图。这种成像方式对远处的行人或动物的探测较为清晰,但其他远处物体的成像则相对模糊,而且成本比较高。因此,汽车上的红外夜视摄像头大多采用主动红外成像技术。
结语:由于我们日常用来记录美好的手机摄像头,让摄像头相较于雷达更加贴近生活,随处可见,看似没那么重要,但实际上,摄像头在无人驾驶技术中却掌握着大局的重心,成败的关键。
例如,特斯拉、百度Apollo和广汽等国内外领先的无人驾驶研发技术平台,都在采用以摄像头为基础的纯视觉解决方案。而且,最近慢慢的变多原本主推雷达方案的车企也开始加入这一技术阵容。未来随着摄像头技术的逐步发展,成本会不断降低,或许基于摄像头的纯视觉解决方案在自动驾驶领域的应用将会慢慢的广泛。