文/关注前沿科技
来源:量子位(ID:QbitAI)
原标题:特斯拉自动驾驶有多坑?那么醒目的横躺大货车,只有 Model 3 不减速撞上去来源:量子位
SpaceX 载人发射刚成功,马斯克俨然人类希望。
但刚刚发生的这起事故,又让不少网友惊掉了下巴:
马斯克了不起,但特斯拉的 AutoPilot,也实在辣鸡到扶不起。
这不,开启 AutoPilot 的特斯拉,又撞了。
还是在一个所有人都能清晰看到的侧翻大货车事故车道,特斯拉 Model 3,几乎毫不减速地撞了上去。
事情发生在台湾。上午 6 点 44,光线条件算不上极端,高速路上,一辆货车侧翻在地,后续来车纷纷避让。
但当监控镜头里出现了一辆白色特斯拉 Model 3,画风就变得诡异了起来——
这辆行驶在快车道上的 Model 3,以 110 公里的时速,直直撞向了如此明显的货车障碍物!
一阵白烟,Model 3 的车头整个都扎进了货车车厢里。
网友们都惊呆了:这么明显的障碍物,竟然完全不带减速的吗?!
事故为什么发生?依然 AutoPilot
所幸,事故没有造成人员伤亡。
但如此离奇的特斯拉事故,老司机一看都猜测——又是 AutoPilot 的锅。
果然,警方调查证实了这一点。
据 CNA 报道,特斯拉车主向警方表示,事故发生时,车辆处于 AutoPilot 开启状态,时速定速在 110 公里。
他本以为,特斯拉侦测到障碍物会自动刹车。
而且从视频来看,他似乎完全放心地把车辆的控制权,交给了特斯拉的高级辅助驾驶系统。
所以当他发现前方有障碍物,Model 3 却完全没有减速……等他想要接管——紧急踩下刹车时,事故已经没法儿避免。
货车司机还向警方解释称,当时他在分隔岛等待救援,看到特斯拉快速驶来,还试图挥手示意,让司机减速避让。
但特斯拉毫无反应,“嘣”地就扎进了货车车身。
特斯拉车主全责?
还没明确结果,但事故认定大概率如此。
因为有“前车之鉴”。
去年 5 月,美国国家交通安全委员会(交委会)曾对一起特斯拉事故案披露了调查结果。
也是一起车主开启 AutoPilot 状态遭遇的车祸,不同的是车主直接在事故中丧生。
但最终在调查和特斯拉的官方说明中,给出的结论让外界“无话可说”:
车主对 AutoPilot 使用不当。
特斯拉官方还补充说:特斯拉所有的司机在使用 AutoPilot 系统的情况下行驶了超过 10 亿英里,我们的数据显示,如果一位细心的司机使用得当,如果他随时准备控制局面,那么由自动驾驶系统支持的司机比那些没有帮助的司机更安全。
言外之意:使用 AutoPilot 的时候,车主要保持高度专注。
AutoPilot 很安全,出了车祸都是车主没有按要求“保持高度专注”造成的。
所以特斯拉真就丝毫没有责任?
当时外媒《连线》就直接质问特斯拉了:为啥一辆大卡车横在前面,AutoPilot 的系统“看不见”?
更滑稽的是,在特斯拉的 AutoPilot 和“全自动驾驶”方案中,一直宣称使用视觉为主的方案就足够安全。
然而事实并非如此。
包含台湾这起 Model 3 的事故在内,特斯拉的车祸事故,宛如出自一个模子。
2018 年 3 月,在美国加州山景城发生的一起致命事故中,特斯拉表示,车辆日志显示,司机收到了需将手放在方向盘上的警告,但司机在事故发生前没有采取任何行动。事故发生时,这辆 Model X 车处于自动驾驶模式。
2016 年 5 月,一名特斯拉 Model S 司机在佛罗里达州威利斯顿附近被撞死,当时他启动了自动驾驶系统,车辆撞上了一辆拖拉机拖车,电动车车顶被掀开。
更早之前,被称为特斯拉首例死亡车祸的事故中,也是 AutoPilot 状态下的特斯拉,没有识别白色外观的大卡车,于是不减速撞击, 车毁人亡。
但即便如此,马斯克为了节省成本,始终坚持不用激光雷达,不搞多传感器冗余。
甚至还明确放话:视觉方案已经足够安全,用激光雷达的自动驾驶方案都是大傻X。
激进的特斯拉自动驾驶策略
一直以来,马斯克和特斯拉,就是自动驾驶实践中最激进的玩家。
之前为了突出卖点,很长一段时间里,特斯拉都是把 AutoPilot——高级辅助驾驶系统,当成“自动驾驶”来对外宣传的。
后来事故频发,舆论谴责“宣传误导”,这才改口并明确:Autopilot 自动辅助驾驶功能需要驾驶员进行主动监控。
另外,也有外界猜测,其实对 AutoPilot 的改口,只是因为 FSD——完全自动驾驶方案对外发布了。
然而即便在专门计算硬件 FSD 加持的完全自动驾驶方案里,传感器方案却没有变。
依然坚持摄像头(8 个)+ 超声波传感器(12 个)为主。
马斯克还声称,这套方案足够实现“完全自动驾驶”:
“完全的意思是,汽车能够从家中开车去工作,在途中几乎不需要驾驶员操作。”
目前,特斯拉也确实在自动驾驶能力上,提供了量产的体验,比如自主泊车、主动召唤、环路和高速上的车道保持和定速,甚至还有自主变道等能力……很多特斯拉车主,也乐于秀出各种场景下的表现。
只是那些出事的“小白鼠”,却再也没有机会发声了。
因为 AutoPilot 和 FSD 代表的自动驾驶落地路线,本身就有根植于人性的悖论。
特斯拉的小白鼠们
自动驾驶分级中,共分 5 级,级别越高,人类参与驾驶的程度就越低。
特斯拉的 AutoPilot,虽然特斯拉长期以“自动驾驶”对外宣传,但业界始终认为处于 L2-L3 之间,属于高级辅助驾驶。
这种高级辅助驾驶可以帮助人类提升驾驶体验,但依然需要人类在驾驶中处于主导地位。
矛盾之处也正是如此。
一方面,AutoPilot 可以代人在一些场景下驾驶,但另一方面又要求司机在紧急情况下接管汽车。
这就要求一个长时间放松的人,必须还要时刻专注在车程中。
换一个更多人有过的经验,上课允许走神,但只要老师点名提问,就能马上给出答案。
很多特斯拉车主的血泪经历说明,处于放松状态的司机,会看视频、会睡着,而且过度信任特斯拉视觉感知系统的能力。
于是当“老师点名提问”来临,他们往往措手不及。
当然,特斯拉也并非完全没有针对性方案。
比如监测到司机双手没有握着方向盘,就会提醒,但后来也出现很多攻略,比如一个橘子就能“骗”过特斯拉的系统。
而且现在特斯拉 FSD 全自动驾驶硬件已经发布,依然依靠现有视觉为主的感知方案,马斯克就认为足够开启全自动驾驶了。
该能力甚至都无需特斯拉车主握住方向盘,就能实现特斯拉从家中车库到公司车路的全自动驾驶。
马斯克还放话说要推出 RoboTaxi,推动 100 万辆特斯拉成为无人驾驶出租车。
至于安全准备,马斯克不以为意。
在 RoboTaxi 的落地推进中,Waymo 实际路测到 2000 万公里,还小心翼翼在中西部城市凤凰城郊区保守体验。
而马斯克认为,每一辆上路的特斯拉,或多或少都在阴影模式下参与了特斯拉自动驾驶路测。
什么叫阴影模式,就是在特斯拉提供车主使用一些最新自动驾驶功能,并在后台通过“阴影模式”帮助特斯拉后台迭代自动驾驶算法。
很多特斯拉车主,也对此觉得并无不妥。
如外界评论的那样,很多特斯拉车主并不会意识到自己当了马斯克的小白鼠,直到车祸发生。
然而,一旦有车祸发生,特斯拉不会像 Uber 无人车那样被直接追责,特斯拉官方和其他车主会异口同声说:AutoPilot 很好,使用不当是当事车主的错。
你说,这样的小白鼠哪里找?
所以,每一次这样的事故后,只能给特斯拉车主送上老生常谈的提醒:
道路千万条,安全第一条,行车不规范,亲人两行泪。