来自美国新闻网站的消息显示,特斯拉的自动驾驶功能与数百起车祸、数十人死亡有关。美国国家公路交通安全管理局发现,特斯拉的驾驶员辅助功能不能让驾驶员专注于驾驶任务,这往往会导致致命的后果。
美国参议员埃德·马基和理查德·布卢门撒尔周五敦促国家公路交通安全管理局禁止特斯拉在非预期道路上使用自动驾驶仪,并要求该机构“采取一切必要行动,防止这些车辆危及生命”。
从 2018 年 1 月开始,一直持续到 2023 年 8 月,美国国家公路交通安全管理局总共调查了 956 起事故。在这些事故中,其中一些涉及其他车辆撞击特斯拉汽车,造成 29 人死亡。还有 211 起事故,其中“特斯拉的正面撞到了路径上的车辆或障碍物”。这些事故通常是最严重的,导致 14 人死亡、49 人受伤。
在发生多起特斯拉撞上停在路边的静止紧急车辆的事件后,美国国家公路交通安全管理局 (NHTSA) 启动了调查。这些事件大多数发生在天黑后,软件忽略了场景控制措施,包括警示灯、照明、锥体和发光箭头板等。
特斯拉表示,它警告客户在使用 Autopilot 和 FSD 时需要注意,包括将手放在方向盘上,眼睛盯着路面。但国家公路交通安全管理局表示,在许多情况下,司机会变得过于自满并失去注意力。当需要做出反应时,往往为时已晚。
在美国国家公路交通安全管理局调查的 59 起事故中,该机构发现特斯拉司机在撞上另一个物体之前有足够的时间(“五秒或更多秒”)做出反应。在其中 19 起事故中,危险在碰撞前 10 秒或更长时间可见。美国国家公路交通安全管理局审查了特斯拉提供的碰撞日志和数据后发现,在所分析的大多数碰撞事故中,驾驶员未能刹车或转向以避免危险。
美国国家公路交通安全管理局表示:“在所有特斯拉硬件版本和事故情况下,都发现了驾驶员未采取或较晚采取规避行动的情况下发生的事故。”
美国国家公路交通安全管理局承认,由于特斯拉遥测数据中的“空白”,其调查可能不完整。这可能意味着涉及 Autopilot 和 FSD 的事故比 NHTSA 发现的要多得多。
为了回应调查,特斯拉去年年底发布了自愿召回,并推出了无线软件更新,为自动驾驶仪添加更多警告。