大多数无人驾驶汽车配备了传感技术“套装”,包括“一双眼”及“一把尺”——视觉传感器(例如相机)和监测传感器(测量目标距离的激光和雷达)。过去十年中,测量范围的传感器在商用开发系统中占据了主导地位,能可靠地反馈周围所有物体的距离,监测范围达到100米甚至更远。
激光通常只用于低水平和简单的任务中,比如躲避障碍物,确保不会撞上任何东西等。而雷达则是一些高档车的老搭档了,在巡航控制系统中至少“服役”了十年。近年来,低价位的汽车也纷纷采用了这一技术。不过,监测距离的传感器还是有其局限性,远程激光或雷达扫描能够向你反馈大致的信息,比如路人的姿势,却不会告诉你那个人的表情是平静还是惊慌。而且,由于大多数的标志都是靠看的,在阅读现有标识时,距离传感器也表现得很差。相比之下,像相机一样的视觉传感器弥补了这一缺陷,它们能够感知颜色和外观细节。
由于我们的驾驶环境在设计和建造时默认司机能够看到,所以,能够像人一样“眼观六路”的无人驾驶汽车更能适应现有的基础设施和标识。
“判断力”待加强 驾驶系统难以应对恶劣天气
不过,汽车并非装备了眼睛就能保证“视力”没问题。相机非常容易受到环境改变的影响,在路上最常遇到的就是昼夜循环。在黑暗的环境下,人工照明或远光灯会让系统很难判断前方到底有什么。
在寒冷的地区,街道两旁可能有不少大风吹成的雪堆,不仅完全模糊了线标,甚至连标识也很容易被埋、被遮挡。由于无人驾驶汽车的设计严格依赖道路法规,所以系统会变得很纠结。
这还不算完,最大的挑战往往出现在多重变化同时发生的时候,比如夜间行驶又赶上热带风暴。遇到这种组合就连人类司机都难免会发生事故,好在大多数情况下我们都小心谨慎、处理得当,而无人驾驶汽车就显得没那么可靠了。除了雨雪,冰、冰雹、雾、烟、霾、风、光和热都会对驾驶环境造成干扰。现在还没有一辆车能够证明遇到极端天气仍能可靠地行驶,目前大多数车能够处理的,不过是中等降雨程度。
对于盯着无人驾驶汽车这块蛋糕的各厂商来说,没有什么比开发出适应全天候无人驾驶车更大的挑战了。我们虽然有很多辆能够适应“大部分情况”的车,却没有一辆适应“所有情况”的车。天气的重要性无须赘述,仅在美国,超过20%的事故都和恶劣天气有关。
6月28日,无人驾驶车辆驶出赛道。当天,作为世界智能大会的重要活动,世界智能汽车挑战赛在天津拉开帷幕。 中新社记者 佟郁 摄配备最强“大脑” 深度学习为镜头素材贴标签