特斯拉“骚操作”引巨大质疑:车祸前1秒 Autopilot 自动退出
  • 若风
  • 2022年06月19日 14:57
  • 0

近日,美国官方部门NHTSA发布的一份文件,将特斯拉再次推上了风口浪尖上,甚至有网友用“史诗级”来形容这次调查的发现。

据报道,美国高速公路安全管理局(NHTSA)在曝光的文件中,有一句话显得格外醒目:Autopilot aborted vehicle control less than one second prior to the first impact.(在撞击前不到 1 秒钟,Autopilot 中止了对车辆的控制。)

特斯拉“骚操作”引巨大质疑:车祸前1秒 Autopilot 自动退出

许多网友就纷纷展开了质疑:如此设计,特斯拉就可以否认事故是因为 Autopilot 了?

据悉,去年,有不少车主投诉称,特斯拉在开启自动驾驶系统 Autopilot 的情况下,闯入事故现场,撞上停在路边的急救车、警车或者事故车辆。

NHTSA从去年8月份就已经对此展开调查,NHTSA调查发现,在 16 起这样的事故中,在碰撞发生之前,大多数车辆的 Autopilot 都激活了前向碰撞警告(FCW)。

随后大约一半车辆的自动紧急制动(AEB)也进行了主动干预。不过最后都失败了(有一人不幸死亡)。

可怕的是,平均而言,这 16 起事故中,Autopilot 都是在汽车发生实际撞击前不到一秒才中止了控制。而这,完全没有给够人类司机接手的时间。

目前,调查仍在继续当中,特斯拉也没有对此事做出进一步的解释说明。而NHTSA 提醒,目前市面上没有完全自动驾驶的汽车,“每辆车的都要求驾驶员在任何时间都要处于控制状态,所有州的法律都要求驾驶员对其车辆的操作负责。”

特斯拉“骚操作”引巨大质疑:车祸前1秒 Autopilot 自动退出

文章纠错

  • 好文点赞
  • 水文反对

此文章为快科技原创文章,快科技网站保留文章图片及文字内容版权,如需转载此文章请注明出处:快科技

观点发布 网站评论、账号管理说明
热门评论
查看全部评论
相关报道

最热文章排行查看排行详情

邮件订阅

评论0 | 点赞0| 分享0 | 收藏0