到底什么样的程度的自动驾驶才能被称为无人驾驶?
最近几年自动驾驶可是火得一塌糊涂,远的不说,奥迪A8首登SAE L3级别就惊起了一众跃跃欲试的投资商。为什么我们对这项技术这么着迷,无非是希望能摆脱双手的束缚,走向真正的无人驾驶。
但到底什么程度的自动驾驶才能被称为无人驾驶呢?无人驾驶应该具备哪些硬性要求呢?
虽然自动驾驶铺天盖地的宣传,到真遇到这个问题了,好像还答不上来。
究其原因,我们能收获的准确信息或者说干货其实并不多,就连现在主流的SAE自动驾驶评级方法,其实也仅是以一张表格示人而已。
除了这张表,我们并没有见到更加详细严格的评分机制,自动驾驶评级也没有像NCAP安全评级这样的官方认证。而SAE到现在还在纠结如何将J3016 自动驾驶汽车评级标准上升到联邦或全美范围内。
可能正是出于此原因,即使奥迪A8最先实现了SAE L3级别,不少人还是持有怀疑态度,毕竟官方规定在自动驾驶模式下,时速不能超过60km/h,这条标准在SAE L3中也并不存在。可以说,奥迪A8还不是随心所欲的SAE L3级别。
注:速度受限有可能是因为激光脉冲雷达受探测法规或技术的限制。
美国DARPA无人驾驶挑战赛
想要了解无人驾驶,美国DARPA无人驾驶挑战赛可谓是一盏明灯。在这里聚集了大量的无人驾驶奇才,此前Google和Uber专利案的始作俑者莱万,就曾在此赛事上因其主导设计的Ghostrider大放异彩。
但大家可能不知道的是,举办该赛事的重要原因之一就是美国DARPA为了推出PerceptOR无人驾驶评价项目。
其测试环境也很复杂,不同于自动驾驶车辆针对公路(城市公路/高速公路)测试,无人驾驶车辆测试环境除此之外还包括山地、林地、草地、沟壑、斜坡等。而且测试还对车速、驾驶状况进行了明确的定义。
注:不同于一般的评价方法,PerceptOR最大的特色在于它没有给参评车型提供演练的机会,参评前操作人员是不知道测试路线和环境的。
受PerceptOR影响,以ALFUS、Sheridan、ACL为首还制定了一套相比SAE更加严格细致的评价标准。
注:在这三套标准中,ALFUS可谓是最细致、可评价性最高。事实上ALFUS标准就是出自美国国家标准技术研究所(NIST),其被广泛应用在飞机、无人机等航空装备领域。
从以上标准中,我们可以发现达成无人驾驶的一些关键点:
1、环境感知和环境交互能力强(比如能够理解交通标识和信号的意义,并做出正确行动);
2、能够应对复杂环境,包括非铺装路面,并进行地形分析;
3、能够进行预先规划,提前做好行动决策;
可以看到,无人驾驶状态下,汽车与周围环境与物体的交流能力要强化得多;它应该变的更聪明、反应更灵敏;它应该能够自如的完成多种环境下的驾驶,而不仅仅是城市道路。
自动驾驶到无人驾驶需要这些能力
初步了解了自动驾驶达到无人驾驶的难点在哪里,下一步就是撸起袖子解决它了。其实通过ALFUS等评价方法我们也会发现,无人飞机上使用的一些技术能够给我们参考。
以激光雷达为首的探测技术提升
雷达就像触角,能够提升驾驶工具的感测能力,而雷达在飞机上也扮演者不可或缺的角色。
但城市路况复杂多变,不像飞机有固定的规划路线,雷达只是用来作为辅助设备,所以针对城市驾驶,以激光雷达为首的探测技术就变的越发重要。虽然现在激光雷达在部分车型(比如奥迪A8)上使用,也帮助其实现更高的自动驾驶级别,不过它还是作为辅助技术,而且装备量是完完不够的(奥迪A8上只有一个激光雷达)。
不过因为成本高昂,机械激光雷达很有可能会逐渐被束之高阁,而固态激光雷达则将成为新宠。比如美国Quanergy在2016年CES展上发布的S3固态激光雷达,价格竟然低至250美元。什么?这价格很高?要知道2012款Google无人驾驶汽车头顶上的那颗激光雷达可是要7万美元。
只不过固态激光雷达探测精度没前者高,而且不能旋转,只能探测前方一定角度(多数在120度以内),要想获得厂家青睐还得努力。
2. 与万物相连的“V2X”
如果说探测技术像是人多长了只眼,但最终也就是二郎神那样看门的命,想要走到更高级别,沟通交流不能少。
那通过什么能实现沟通交流呢?我们知道飞机十分依赖网络通讯能力,因为它能保证高速移动的飞机具备未卜先知的能力,而在此基础上,汽车领域提出了V2X概念。
啥是V2X?有的人习惯将它称为车联万物,更准备的说法是,它是一种实现车-车互联、车-基站互联、基站-基站互联的技术。万物谈不上,不过但凡属于智能设备的东西应该都有可能连接上。也就是说在V2X的加持下,所有机器好像都活了一样能够沟通交流。
总之,有了V2X就好比打通了任通二脉,书呆子成了驸马爷,大路畅通。
3. AI在未来会担当大任
至于AI技术,最近可谓是风头正足,AlphaGo又进化成了AlphaGo Zero,并在与其对弈中,被踩在地下反复摩擦了100次。
当然,同固态激光雷达一样,AI技术还没到掌控全局、自学成才的作用,不过其自主深度学习能力已经打破了认知,必将有一天能够主掌大局。
虚无的我们不说,就说现今的一些实际意义吧,我们知道现在汽车与人的交流还很困难,多事通过信号或者简单的标准语言沟通,这无疑加大了人接收理解信息的困难度,但AI技术加持下这一切就不一样了,沟通能力必然会加强不少。比如不久前丰田在CES展上发布的“Yui”系统,其情感交互能力可谓亮点十足(这套系统将被使用在Concept-i RIDE和Concept-i WALK概念车上)。
当用户接近车辆时“Yui”会出现在车门屏幕上迎接他们,车尾则能够显示前的急转弯或突发状况等提示后车,而车头的通讯显示系统则传达车辆是否处于自动驾驶状态。
另外,AI技术的最佳算法能力还有其它用处。我们知道V2X中有一项重要的“云平台”概念,这东西和只能手机“云”很像,是作为信息传输和存储的空间站。
不过它和手机一样,空间都是有限的,而且从“云平台”提取或传输数据是需要强大的网络支撑,如果汽车搜集到的海量数据不做区分就上传到“云平台”,这很有可能会出现卡机的情况。
就在上个月,微软Azure车辆网品平台负责人Doug Seven在MWC会议上讲到,即便有了5G也不能把所有数据上传,他们要用人工智能来决定哪些数据更重要,那些数据可以直接舍弃,哪些需要在方便时上传而不是实时上传。
雅斯顿小结
看来想要实现真正的无人驾驶还很有难度,一方面现阶段还没有完全针对汽车的官方评价体系,另一方面无人驾驶需要攻克的技术难点还有很多。而想要实现真正意义上的无人驾驶,以激光雷达为首的探测技术、能连接万物的V2X技术、能变的更聪明的AI技术,这三驾马车要并驾齐驱才可能实现。