首页 > > 正文
无人驾驶的致死率究竟多低,你才可以接受?
2017-12-06 
  今年早些时候在得克萨斯州奥斯汀举行的SXSW会议上, Bill Ford大声说出了很多汽车行业人士正在思考的问题,或者更确切地说,是这帮人的所不愿意承认的担忧。这位福特的CEO谈论的是无人驾驶汽车的出现,这个话题正在吸引大量的媒体关注,因为每一家汽车制造商和硅谷的一些最大的参与者已经把数十亿美元都投入到“裸”机器人汽车上(没有方向盘或刹车的所谓的5级自动驾驶车辆,或AV)。

  Ford说,制造汽车将变成容易的部分,因为这项技术正在迅速发展。但更艰巨的任务将是决定如何进行编程,让无人车做出性命攸关的决定。 “(在即将发生事故的情况下)如果车辆必须选择要撞谁,是保乘客还是10位行人呢?这些都是你和我作为司机没有时间考虑的决定,我们只能下意识地作出反应。但是这些无人车是有处理能力来进行选择的。如果结果是它选择让你,车上的乘客被撞的话,你是不是还打算坐进那辆车呢?

  尽管Ford公开抛出这个问题令汽车业感到心神不定,但这与美国汽车买家普遍存在的想法其实是一致的。在今年早些时候进行的一项调查中,AAA发现四分之三的驾驶者表示自己对坐在无人车上感到担心,54%的受访者表示他们觉得与AV共享道路不太安全。而一旦Ford把这个问题爆了出来,AV界的其他一些人就开始把它扯到一个到合乎逻辑的结论上。英特尔公司高级副总裁兼无人车技术公司Mobileye的联合创始人Amnon Shashua表示:“如果我们必须教一辆车应该杀死一位修女还是一位童子军的话,那就不会有无人车这个行当了。”今年3月份,英特尔刚刚以153亿美元的价格收购了这家汽车技术公司。

  但是Shashua认为,为了解决这个问题,我们需要把他框定到更实际的范围内,要有别于复杂到难以复加的哲学或伦理难题。他说,简单来说,自动驾驶汽车是否能获得消费者的广泛接受这个问题可归结为这样一个重要问题:自动驾驶汽车每年导致多少起以下的死亡数才是公众可以接受的?

  目前情况下,这个问题的答案可能是0。每一次自动驾驶车辆发生事故,无论是去年在佛罗里达州发生的一辆卡车撞上自动驾驶的Tesla的那起致命车祸,还是那辆崭新的自动驾驶通勤车刚刚亮相2个小时就被一辆送货的面包车撞到,一旦发生都立即成为了引爆全国的头条新闻,对事故的讨论往往持续数月之久。相比之下,20辆汽车的连环相撞事故几乎每天都会发生,甚至在好几个星期之内,即使传统车辆的碰撞事故造成了死亡人数超过了1000人,其效果也只能是出现在当地新闻上,大家的态度充其量不过是是耸耸肩。

  在全球各地的监管机构都恨不得把这种车放行上路以最大限度减少无休止的交通致死事故的情况下,对无人车安全性错位的关注和恐慌被进一步的强化。。去年,美国国家公路交通安全管理局(NHTSA)已经批准了将自动驾驶汽车作为“极大减少与人类选择和行为相关的事故数量”的一种手段。

  在这种情况下,Shashua和Mobileye的一群程序员想出了一个创造性的解决方案来克服对AV的恐惧。Mobileye以覆盖了600万起事故的NHTSA数据作为部分基础,制作出总量接近40的场景集合,几乎涵盖了所有车辆事故的变化情况。在此基础上,该公司将依据交通法规和道路条件做出的完美的人类司机判断编撰成了算法规则。Shashua声称,通过把这些规则作为AV决策编程的基础,汽车制造商就可以向汽车购买者保证,无人车在事故中永远都不会犯错。

  Mobileye安全系统的核心是一个被称为Cautious Command(谨慎指令)的概念,这个概念描述了AV可用于持续维持其安全区的选项。比方说,下图显示的是一种常见情况,即蓝色汽车试图离开停车场,但因为被建筑物挡住,所以看不到街上是否有另一辆车正在开过来。负责任的人类司机会一点点地挤进道路,慢慢扩大视野,直到他觉得可以放心开上路为止。实际上,他永远不会有完全的视野,最后只能根据直觉来做出决定。尽管这位司机也许已经尽力,但令他受到指责的事故仍有发生的可能。而如果驾驶员开车走神的话,比如因为开了导航或者一边打电话一边开往下一站的话,就更有可能发生碰撞了。

  相比之下,AV的Cautious Command会根据车速限制计算出红色车最高的合理速度,并确定自己可以探头出来多远,让红色车一方面有刹车的机会,同时还能逐渐提高能见度。如果红车的车速高于最高限速,那么如果发生事故就是红车的错。而且,如果红车是无人车的话,它驾驶起来会更加警惕,在预计到在其视线以外可能会有汽车驶出停车场的情况下,也许会往靠近中间的车道行驶。

  RSS涵盖了对象(车辆,行人等)被其他对象遮挡(隐藏)的情况。

  Cautious Command似乎有望令Bill Ford对自动驾驶汽车必须做出棘手选择的担忧失去意义,这主要是因为在即将发生的事故中有关谁死谁活的伦理困境,已经被一条不带感情、不会动摇的规则所取代。这条规则是:如果碰撞即将发生(而且根据定义,这不会是AV的错误),自动驾驶汽车将会尽量避免事故,但不会通过造成另一个事故来缓解这起事故。换句话说,如果没有其他安全选项的话,无人车将会撞上去,即便在此过程中乘客会被撞死。Shashua说:“以任何其他方式来回答这个问题都会使我们陷入滑坡谬误。因为一辆看起来后座似乎没人坐的汽车其实正好坐着一个婴儿,这样如果它为了避免前面的AV撞上自己而调转车头的话可能就会撞到婴儿。总会有一些看不到的参数让你事后分析起来会发现AV其实做了更糟糕的事。”

  基于对成千上万次事故的模拟,Mobileye认为,如果每一家汽车制造商都采用它的方程式(Mobileye已经对业界开源,可免费使用),美国每年的车辆致死人数可以改善三个数量级——也就是说,从现在每100万驾驶小时致死1人降到到每10亿驾驶小时致死40人。(当然,此处的假设是所有的车都是无人车;而致死原因会是设备故障以及糟糕的驾驶条件)。

  一些机器人专家已经对Mobileye系统的安全性提出了质疑。比方说,杜克大学Humans and Autonomy Lab(人类与自治实验室)主任Missy Cummings就告诉EETimes说,Mobileye对有可能困扰AV的软件漏洞数量过于轻描淡写。她指出,2016年的Stout Risius Ross汽车保修和召回报告显示,自2012年以来,软件问题日益成为召回事件的主角。研究发现,在2005年至2012年间,发生了32起独立的与软件有关的召回事件,共涉及约360万辆汽车;从2012年底到2015年6月期间,这些数字几乎翻了一番。不过,所有接受EETimes采访的学者和工程师都表扬了Mobileye致力于将AV产业推向安全合法解决方案的努力。

  到目前为止,汽车业对Mobileye算法的反响并不算好,这主要是因为目前在AV领域仍有很多争议,从Google、Uber、Lyft到数十家初创公司以及各大汽车制造商都承诺在2020年代初造出全自动汽车。目前情况下,没有人愿意冒失去潜在市场的领导地位的风险,如果过早同意采用的标准到头来成为失败者该怎么办? (还记得Betamax吗?) 汽车技术分析机构C3 Group 的总裁兼联合创始人Doug Newcomb 说:“在应该具备某种安全标准的事情上Mobileye是对的,但在无人车的乘客这么多的情况下,除了狂野西部式的做法以外,汽车制造商对技术研发还没有太大的欲望。”

  正是因为有这样的态度,Shashua把它定性为汽车业的自杀协议。如果没有就安全标准达成一致,每一家汽车制造商都会根据数以万计的冗余仿真,堆积超出需要的传感器和计算能力,做出带有自己的功能特性,可能存在过度设计的AV——他们都宣称对自己的车进行了安全检验,哪怕不能绝对肯定地说自己的车辆不会造成事故的情况下也这么说。其结果是,在发生致命事故后,汽车制造商的法律风险可能会非常高,再加上用昂贵的零部件装点的汽车高昂的生产成本,这都会导致许多购买者只能对AV望而却步。与此同时,一些汽车制造商可能会选择牺牲安全关切来降低车辆价格,令消费者无法弄清楚如何才能选到一辆安全的自动驾驶汽车,同时还会加剧大家对AV是危险的看法。

  在无人车开发商的压力下,美国联邦政府似乎已经同意采取不干涉主义的立场。美国众议院通过准备递交参议院的一项法案将会取代各州对无人车道路测试的临时规定,该法案将授权NHTSA对AV车辆的设计,建造以及性能进行监管,而各州只处理车辆注册和许可证的问题。也许最重要的是,该法案将允许NHTSA授予无人车制造商每年(也可能是3年)可将高达10万辆不符合现行联邦机动车安全标准的车辆放行上路的豁免权。

  在即将出台的法律规制如此宽松的情况下,Mobileye要想说服无人车行业以一致的方式来处理安全和事故责任问题似乎还有很艰巨的工作要做。这意味着我们也许会不情愿地更早发现一个答案,那就是通过对无人车的决策进行编程来扮演上帝角色的开发者究竟是不是跟他们相信自己可以做出来的机器一样绝对可靠。


Copyright © 2007-2022
服务热线:010-64708566 法律顾问:北京君致律师所 陈栋强
ICP经营许可证100299号 京ICP备10020099号  京公网安备 11010802020311号
Baidu
map