首页 美股要闻 正文

狂奔的特斯拉(TSLA.US),危险的自动驾驶

扫码手机浏览

特斯拉又出事了。  

当地时间3月11日早上,一辆白色特斯拉ModelY在美国底特律西南部一个十字路口撞上了一辆白色半挂卡车。现场报道称,特斯拉被卡在了半挂卡车底下,这导致现场很难清理,事发路段也因此交通封闭了几个小时。  

截至目前特斯拉官网尚未公布事故原因,但联想起特斯拉此前因自动驾驶引发的多起事故,这一次,不少人猜测事故车辆是否也在自动驾驶状态下。  

2016年,美国佛州的一辆特斯拉ModelS在Autolipot状态下与正在转弯的白色半挂卡车发生碰撞,特斯拉驾驶员不幸身亡;2019年,一辆特斯拉Model3在Autolipot状态下以110公里/小时的时速径直撞向了一辆正在缓慢横穿马路的白色拖挂卡车……  

为什么特斯拉总是识别不出白色车辆?特斯拉的自动驾驶技术究竟安不安全?为什么多家车企的L2级自动驾驶都出现了安全事故?这些事故的共性是,驾驶员过于信任自动辅助驾驶系统,而放弃汽车控制权或不再时刻关心路况。  

自动驾驶目前形成了两大派系,一派是谷歌派,走的是全自动驾驶模式,主要目标是无人驾驶技术完全取代人,所以从一开始就没有考虑刹车、油门、方向盘等问题。另一派是以特斯拉为首的汽车制造商,做法是先实现半自动辅助驾驶,再逐步过渡到完全自动驾驶。  

尽管一些传统车企早已研发出、配备上了自动辅助驾驶的功能,但还是比较保守,造车新势力们在这方面似乎更为激进,且有弯道超车的架势。不少专家也指出,由于电气化程度高、动能效率高等特性,新能源车是自动驾驶的最佳载体。  

特斯拉的创始人马斯克在2020年上海世界人工智能大会发布的视频中说:「我觉得我们已经非常接近L5级自动驾驶了。我有信心,我们将在今年完成开发L5级别自动驾驶的基本功能」。  

随着越来越多企业加入并且鼓吹自己具备L3、L4级别的自动驾驶技术,越来越多配备着自动辅助驾驶系统的新造车上路,一些现实的问题摆在车企、供应商与消费者面前:如何平衡技术与安全?如何让驾驶者及时且安全地接管控制汽车?最重要的是,人类驾驶员该不该相信自动驾驶系统?  

你敢不敢用自动驾驶系统?  

你敢不敢开着自动驾驶系统在路上跑?  

「真不敢。」一位车主在车主群里直言:「我把有关自动驾驶的一切都关了,因为非常不信任这个系统。」  

家里有一辆Model3的车主陈亮一提到自动驾驶就有点儿后怕:「现在路况还不够完善,自动驾驶技术还不是很成熟,听着有点儿吓人,我不敢用。」  

也有极大胆者。特斯拉车主Monica就看到有人在车主群里分享这样的经历:由于极度信任自动驾驶,在三环上跑了两圈结果睡着了。「相当于他跑的这几圈完全没有接管方向盘,不知道他是怎么骗过系统的。」  

为了确保驾驶者的警觉性,不少配备了自动辅助驾驶功能的车辆会在方向盘上装设感应器,从而确认在开启自动辅助驾驶系统的时候,驾驶员是否把手放在方向盘上。但不少车主在网络上分享了抖机灵的做法,比如把矿泉水瓶、橘子绑在方向盘上迷惑系统,让系统误认为是驾驶员的手在方向盘上。  

但更多时候,车主们面对自动驾驶技术往往是小心翼翼地试用、体验。常年跑通勤开启特斯拉Autopilot功能的车主王盛坦言:「我其实分不清具体什么是自动驾驶,什么是自动辅助驾驶,潜意识觉得它有点儿危险。后来有朋友一直在用特斯拉的Autopilot功能,在他的推荐下我才开始用的。」  

总体来说,据Monica观察,周围90%的车主都是非常小心谨慎地尝试自动驾驶系统。「我个人其实是依靠路况来判断要不要开启。在路况好的时候,上高架、高速都非常有用。市区路况不好时不敢开。即便使用的时候可以稍微解放双手双脚,但也得一直盯着道路,你的手必须是随时处于接管车辆的状态。」  

ModelX车主张鹭也持相同的观点,「还是谨慎点儿好。」他平日开车上路也不依赖自动驾驶,一般是在城市道路比较拥堵的时候,或者在高速路上驾驶比较疲惫的时候,才开启自动驾驶功能。在他看来,自动驾驶不危险,尽管偶尔会出一些bug,但随着技术发展,会越来越安全,不过需要谨慎对待。  

如今造车新势力包括特斯拉、小鹏等在内,给用户提供的是「整体化」的辅助驾驶功能,相当于在宣传上没有划分出太多细分功能,而是在场景中融入自动辅助驾驶功能。  

经朋友推荐开启自动辅助驾驶功能的王盛,如今只要是跑通勤上高速或者上环线都会开启自动驾驶。「感觉太方便太省心了,相比于自己亲手开,能省不少事儿,有时候还能接接电话。」张鹭也发现了自动驾驶的好处。  

「平日里开车,我只用手握方向盘,刹车和油门就不用踩了,系统会自动跟车,自动转弯,非常方便。」「甚至有几次,自动驾驶救了我的命。」张鹭回忆,特斯拉的自动驾驶有一些主动预警的措施,比如车道偏离、追尾等,在关键时刻会给他提醒。  

但车主们也不是没有遇到过安全事故,不少人曾遇到过「惊险时刻」。杭州的孟孟刚买特斯拉一个月,就遇到了事故。那天晚上,下了点小雨,人也有点放松,她开启了辅助驾驶系统在高架路上行驶,结果突然撞上了一个修路的指示牌。「原来是系统完全没有识别出来,万幸修路的工人没有站在中间,现在想想还后怕。」Monica有时候会「被特斯拉吓一跳」,它会识别不到车速比较慢的车,比如说停在路边故障车、慢速的清扫车,这时候系统会突然急刹车,它以为前面有障碍物。」  

有一次一辆车中途强行并线,王盛下意识踩了一脚刹车,因为开启着Autopilot自动辅助驾驶,踩刹车相当于解除自动驾驶了,差点儿被追尾。后来,王盛用自动辅助驾驶系统有经验了,但是还是很怕前方车辆突然强行并线从而导致自己被追尾。  

自动驾驶和辅助驾驶傻傻分不清楚  

究竟什么是自动驾驶,自动驾驶与辅助驾驶的区别在哪儿,车主们往往是一头雾水。Monica就没有具体了解过系统里有哪些功能,而是直接上手了。在她的视角里,「需要做什么的时候系统会自动提醒。」  

另一位特斯拉车主的理解是,自动驾驶技术就是解放双手双脚,完全不用人了。还有不少车主是依靠名称来猜。  

以特斯拉为例,目前,特斯拉针对自动驾驶推出了不同的软件包,其中,基础标配的功能被称作基础辅助驾驶功能(即AP),更高阶的软件包FSD,则被称为完全自动驾驶。由于特斯拉直接把更高阶的自动驾驶软件包取名为完全自动驾驶,不少车主直接把特斯拉FSD等同于自动驾驶技术。  

对于FSD,一位车主表示,「感觉是完全可以放开手脚的那种。」但实际上,FSD名称叫完全自动驾驶,实际功能更多是L2级别的自动驾驶,再叠加一些结构化、场景化的L3、L4级别的自动驾驶,离真正的自动驾驶还很遥远。直接面向消费者的特斯拉销售,在这点上似乎也没什么帮助。  

「销售既没有和我明确解释,特斯拉的AP和FSD的区别,也没有和我说每个功能如何操作,有什么注意事项,只是提了一句‘有这样的软件包’,我觉得不是很划算所以就没买。」上述车主回忆。  

某种程度上,车友群里的普及和使用分享,反而成了车主们了解自动驾驶、辅助驾驶系统的重要渠道。但因为概念模糊、认知不清晰,已经让一些车主付出了代价。2016年5月,一名特斯拉ModelS司机在美国佛罗里达州威利斯顿附近被撞身亡,当时他启动了自动驾驶系统,车辆撞上了一辆拖拉机拖车,电动车车顶被掀开。  

2018年3月,美国加州山景城发生一起致命事故,当时一辆运行自动驾驶的ModelX撞上了混凝土护栏。事后特斯拉调查发现,车辆日志显示,司机收到了需将手放在方向盘上的警告,但司机在事故发生前没有采取任何行动。  

2020年6月1日,一辆特斯拉Model3行驶在中国台湾地区高速公路上时,直接撞向一辆翻倒在公路上的大卡车。据警方介绍,「司机表示自己在车辆行驶时开启了自动驾驶辅助功能,将车速固定在110公里/小时,行驶途中自己有些分神,没有将全部注意力集中在车辆和道路上。」  

这些悲剧的共性就在于,驾驶员过于信任自动辅助驾驶系统,导致放弃控制汽车控制权、或者不关心路况,在危险来临之时,没有及时接管车辆。  

被滥用的「自动驾驶」  

为什么原本能够进一步保证行程安全的自动驾驶技术,反而成了马路杀手?我们得从自动驾驶的分级说起。不少人头脑中的自动驾驶大概是这样的——一辆没有司机没有方向盘的无人车载着乘客在路上狂奔,并完美躲避障碍物。  

但实际上,按照美国汽车工程师学会(SAE)的定义,自动驾驶分为从0级(完全手动)到5级(完全自动)6个等级,主要看驾驶员的介入程度。最高级别L5可以做到全场景全自动,相当于上述人们头脑中、电影中展示的自动驾驶。目前技术水平有限,不过在走向L5的路上,每提高一个等级,自动化的程度就晋升一级台阶。这其中最重要的分界线是L2级别。  

L2及以下级别是自动驾驶的初级水平,被划分为ADAS(AdvancedDrivingAssistanceSystem)范畴,也就是高级驾驶辅助系统,利用系统和技术来辅助驾驶员完成驾驶。这意味着,这个区间的自动驾驶技术不具备「全自动驾驶能力」,是始终需要人类监管的驾驶辅助系统——事故主要责任人是人类驾驶员。  

L3及以上级别,驾驶员才有机会脱手脱脚,无需全程接管、监管。这时候,系统不仅需要负责从各种传感器和摄像头等设备收集信息,还转变成了需要根据这些信息进行判断并执行的主体——一旦发生事故,技术提供方也就是主机厂,与驾驶员共同承担责任。  

因此,分级究竟是L2还是L2以上至关重要,这决定了事故的责任方究竟是谁,也决定了驾驶员究竟是无需接管还是必须全程监督。  

美国高速公路安全保险协会IIHS就曾指出,半自动驾驶功能理应是为车主提供额外的一层安全保障,但企业在设计某些功能时的出发点,就是让司机「脱离」驾驶操作。比如自适应巡航和车道保持,这两个典型的自动驾驶系统的功能,实现了一种近乎是人类司机操作的效果,虽然不同车企开发的功能的有效性不同,但没有一家的系统能实现真正意义上的自动驾驶。  

某些时候,车企还出于增加卖点、吸引资本注意的目的,夸大自己的自动驾驶功能,甚至暗示消费者无需接管。  

在很长一段时间里,特斯拉就将AutoPilot(高级辅助驾驶系统),当成「自动驾驶」对外宣传,直到发生多次安全事故,才不得不改口。而即便现在,特斯拉最高阶的软件包FSD,也被称为完全自动驾驶。马斯克还声称,这套方案足够实现「完全自动驾驶」,「完全的意思是,汽车能够从家中开车去工作,在途中几乎不需要驾驶员操作。」  

把视角放回国内,蔚来汽车在NioDay上发布了预计在今年四季度交付的首款电动轿车ET7,同时发布了首个自动驾驶平台系统NAD(NioAutonomousDriving),表示将从辅助驾驶(assisteddriving)升级为自动驾驶(autonomousdriving)。  

尽管很多车企、自动驾驶技术厂商,都声称自己拥有L3以上级别的自动驾驶技术,但实际上可能没有这么乐观。「目前国内的自动驾驶水平还没到L3,主要靠产业吹。」一位长期研究造车新势力的分析师曾对深燃表示,所谓的L3,其实是一些结构化道路的L3功能,也称为有限的特定场景的L3自动驾驶,而一些车企如特斯拉的自动召唤,只算是L4中的一个很小的应用场景。  

为此,自动驾驶公司Waymo首席执行官JohnKrafcik就通过媒体回怼了马斯克:Waymo研发的是「完全自动驾驶系统」,特斯拉提供了「较为出色的驾驶辅助系统」,两家公司在自动驾驶领域聚焦的并不是同一件事情,根本无法相提并论。  

Waymo还指责自动驾驶一词正在被一些汽车企业滥用,这会使得公众误解辅助驾驶系统功能。最近,德国法院也在禁止特斯拉在其网站及其他广告中使用带有「Autopilot」或「完全自动驾驶功能」的字眼,理由是存在误导倾向。  

无法避免的cornercase  

除了部分企业对自动驾驶的宣传存在问题外,长期研究AI的技术人员李亮还表示,目前自动驾驶的算法本身也存在局限性。「所有新造车在做自动驾驶的时候,其实靠的是AI算法,也就是基于深度学习,或者说深度神经网络的原理去实现的。」  

深度学习的工作原理是怎么样的?  

李亮举了一个例子:你给AI机器看猫的照片,这些猫各有各的形态和颜色,给机器看了100张之后,系统能够根据概率推算出下一张新的照片是不是一只猫。因此,深度学习的判断逻辑是基于相关性的,机器会根据概率推导。比如,90%的概率由a推导到b,10%的概率由a推导到c,但是深度学习是没有探索环境的因果模型,哪些事件导致了其他事件,以及下一步会发生什么,目前的深度学习是无法判断的。  

说白了,深度学习还不能理解因果关系,也就意味着,总会出现一些极端情况是机器无法识别的。  

「这在专业领域叫cornercase(边角案例),按照深度学习的逻辑来说,AI是按照相关性来判断事物的,所以永远无法达到100%的准确率。」李亮进一步解释道,而AI的学习原理决定了它只认识之前见过的,而无法识别新接触的事物,「当面对训练数据中未包含的新情况时,它们没有人类的创造性和灵活性,也很容易出问题」。这就涉及到安全问题。  

「只有当机器的精确度和安全度,远超于人类驾驶员的时候,也就是说,机器出事故的概率远小于人类驾驶员出事故的概率的时候,也许L5全自动驾驶上路才是合适的。」李亮告诉深燃,「为了保证安全,技术层面以外,法律法规也需要适配自动驾驶的边界。」  

不过,尽管各家的宣传都说自家的技术在L2或L2级别以上,可实际上研发配置的自动驾驶技术水平参差不齐。  

就现阶段来说,新造车阵营的自动驾驶技术更值得关注,比如自动辅助导航驾驶功能(即NavigateonAutopilot)。其中特斯拉、蔚来、小鹏各家都先后发布了此种功能,只不过名称不同。  

所谓自动辅助导航驾驶功能,就是在L2辅助驾驶导航的基础上,结合了车机导航的信息,可以根据设置的路段,在高架、高速路上实现自动调节限速、自动变道超车、自动进出匝道等功能。这些功能向更高级别的自动驾驶更近了一步,算是自动驾驶中比较高阶的功能,但仍属于L2级别的范畴。  

以在高速上出入匝道这一功能为例,李亮称,实现这一功能,需要输入庞大的数据包,包含大量的路况如路牌、出入口的信息等,通过芯片计算出具体的信息,再将信息传导到电机、刹车转向灯等硬件上,也就是说,做到这一功能其实需要强大的数据处理能力、以及相应的硬件支持能力。「真正能够做到这些的企业,并不多。」他表示。


關註我們:twitter.com/TodayUSStock
版權聲明

1. 本文采編於互聯網,如若轉載,請標註文章來源和作者;
2. 今日美股(www.todayusstock.com)登載此文出於傳遞更多信息之目的,並不意味著贊同其觀點或證實其描述;
3. 文章內容僅供參考,不構成投資建議,投資者據此操作,風險自擔。