成果显现,这只团队在4小时发现了561个要害安全毛病,其间,百度Apollo 3.0和英伟达详细毛病占比并未说明。
从百度回应中能够看出,单纯的软件毛病并不能使自动驾驭轿车发作一体系安全事端。
经过论文能够了解到,该研讨将Apollo的代码放到一个服务器上的虚拟容器(Docker)上进行测验,导致注入毛病后无法处理。
与此一起,在实践驾驭过程中,Apollo冗余体系一旦发现车速反常,就不会履行深踩油门的动作,也就不会发作相似追尾的危险。
依照咱们实践的开车经历,大部分状况下,即使车往前窜了一下,也不至于撞到前面的车。
不过,这样的事端,全责在变道车。
自动驾驭相关安全领域专家也对此事情做出点评,他们以为,“毛病注入”研讨办法是在一些方位植入毛病,假如场景导致事端,则该植入场景算作研讨中的一个‘Fault’。”
其实,本年7月,美国伊利诺伊大学香槟分校研讨人员宣布题为《ML-based Fault Injection for Autonomous Vehicles: A Case for Bayesian Fault Injection》的论文,依据相关表述,研讨人员对百度Apollo、英伟达进行了两种FI测验。
在这起自动驾驭毛病评价事情中,咱们看到美国伊利诺伊大学香槟分校研讨人员是想经过毛病评价的办法来验证自动驾驭体系的安全性,但由于评测有过多的人为修正以及模仿测验成果导致其大众误读。
以下为百度Apollo完好回应: