首页 美股要闻 正文

为何特斯拉(TSLA.US)FSD Beta 9.0彻底弃用雷达?

扫码手机浏览

7月11日,特斯拉自动驾驶FSD Beta 9.0正式推送,网络上也涌现大量测试视频,就效果上,FSD Beta 9.0能力提升较为惊艳。

但有一点较特殊,也引发广泛讨论,即FSD Beta 9.0采用纯视觉方案,不再使用毫米波雷达。

为什么特斯拉要彻底弃用雷达?今天从技术角度尝试探讨下。

一、纯视觉方案——FSD Beta 9.0更自信、更流畅?

在推送前,马斯克强调FSD Beta 9.0能力有巨大提升,且将移除毫米波雷达,采用纯视觉感知方案。

弃用毫米波雷达,意味着特斯拉彻底与视觉+雷达冗余方案说再见。

许多网友对上述技术路线变的更可行性、安全性抱有极大怀疑,然而FSD Beta 9.0能力提升令人意外,包括:

1)新UI呈现一个更逼真交通环境,进一步培育用户对系统信心;

2)corner case处理能力也显著提升,如环形路口通过率、幽灵刹车等;

3)行车逻辑优化,加减速更平滑、转弯时抽搐动作减少。

综合车主反馈:在困难路段,FSD Beta 9.0行为决策变得更加自信,可轻松进行无保护左转、通过环形路口,以及沿狭窄街道行驶。

总而言之,FSD Beta 9.0比V8.2版本更流畅、更自信。马斯克还表示,FSD Beta很快将能够读取转向灯、危险警示灯、救护灯,甚至是行人手势、听取警报,并基于这些信号做出决策。

FSD Beta 9.0对更多道路参与者进行3D建模:

FSD Beta 8.2旧版UI:

更多体验视频可参考:

1) [FSD Beta 9] Downtown San Francisco(白天市区行驶表现);

2) [FSD Beta 9] Lombard Street (挑战九曲花街);

3) [FSD Beta 9] Tesla FSD Beta V9 Sunset Test(傍晚强光照形式表现) ;

4) [FSD Beta 9] First Impressions(夜晚行驶表现);

5) [FSD Beta 9] pure vision handles fog like a champ(夜晚浓雾环境行驶表现) 。

从常识上,大多数人会认为纯视觉路线仅依赖摄像头进行感知识别,在强光、夜间、浓雾等恶劣环境下会「致盲」。

但实际上,不管是在哪种极端环境下,通过特定技术处理,摄像头的感知能力都是强于人眼,「致盲」风险其实很低。

二、为何特斯拉要彻底弃用雷达?

就结果论,FSD Beta 9.0确实进步显著,也证明了特斯拉坚持「纯视觉」路线的底气。

目前主流自动驾驶技术分2大流派,一个是视觉+雷达融合感知方案,另一个是纯视觉方案。并且多数玩家一致认为「多传感器融合是实现自动驾驶必由之路」,如Waymo、华为等。

特斯拉为什么选择走纯视觉路线,而摒弃Lidar和毫米波雷达,今天尝试探讨下。

先来看马斯克的观点:

从马斯克的推文可以看到,同时融合摄像头数据和毫米波雷达数据的最大障碍,在于毫米波雷达信噪比很低(signal/noise),换句话说有大量误检测。将视觉感知结果与毫米波雷达结果进行融合时,如果两者结果不一致,惯常做法是相信视觉而忽略毫米波检测结果。

并且马斯克强调,由于摄像头感知能力(bits/sec)远强于毫米波雷达,这种相对优势让复杂的视觉+Radar多传感器融合方案失去现实意义。

为加深理解,下面介绍一下常见多传感器融合策略。

常用多传感器融合策略分为前融合(紧耦合)、后融合(松耦合),这里的「前后」指的是融合发生在算法处理出事数据得到结果之前还是之后。

前融合(紧耦合)将多传感器数据结合使用获得结果:

融合(松耦合)从各自传感器分别获得结果,再对结果进行融合:

融合因为综合考虑多种传感器的原始信息后进行算法处理,不同传感器信息得到最大程度保留,因此理论上效果最好。

但由于相机数据是结构化的高分辨率图像数据,毫米波雷达原始数据则是角分辨率很低且没有高程信息的稀疏点云,两者原始数据很难融合成一套输入给到神经网络模型,因此目前绝大多数方案都使用后融合方案。

而后融合方案在各传感器各自处理自身数据的过程中势必造成信息丢失,因而是使用损失了信息的传感器输出结果进行融合,理论上效果不如紧耦合。

下图是特斯拉主相机图像与毫米波检测结果(蓝、绿、黄色圆点)叠加可视化的效果,可以看到毫米波雷达在高度上没有区分,因此路牌、车辆、道路边缘等多个检测结果都被可视化在同一高度。又由于毫米波角分辨率差,导致很难通过横向位置来正确匹配视觉检测结果(红色方框)和毫米波检测结果(圆点)。

视觉检测(方框)结合毫米波检测数据(圆点),毫米波雷达问题在于无高度信息,角分辨率也不准:

以,马斯克所说的信噪比低正是由于缺少高程信息、角分辨率低这些毫米波雷达固有缺陷所导致。

对应到实际行驶场景,由于毫米波没有高程信息,所以无法正确区分前方道路上井盖、龙门架,乃至白色静止大卡车的垂直高度:

1)当过分相信毫米波雷达,则每经过龙门架和井盖时,自动驾驶都要幽灵刹车(以为龙门架、井盖与车辆处于相近水平高度);

2)当过度忽略毫米波雷达,则会造成迎面撞击静止的白色大卡车(漏检为白云,水平位置高于车辆)。

因此,当进一步强化纯视觉路线研发,且能够有效解决幽灵刹车、静态障碍物漏检等问题时,为什么还要花费大量资源去做复杂的多传感器融合策略呢?

这就是特斯拉彻底弃用雷达的原因。

特斯拉错把白色货车当天空:

外,此前也一度传出特斯拉会使用4D毫米波雷达来避免当前毫米波雷达造成的问题,因为4D毫米波具备更精确角分辨率,但如今来看特斯拉应该是准备彻底放弃雷达。

毫米波雷达与激光雷达工作原理类似,都是通过接收自身发出的信号回波来计算障碍物的距离、速度和形态,但前者探测精度低很多。

频率越高的信号能承载的信息和分辨力也会更高,并且激光雷达通常是32线、64线、128线产品。

最后,本文无意辩论在自动驾驶领域,纯视觉、多融合感知方案孰优孰劣,只是尝试理解特斯拉放弃雷达、坚持纯视觉路线的思路,欢迎牛友一起探讨。


關註我們:twitter.com/TodayUSStock
版權聲明

1. 本文采編於互聯網,如若轉載,請標註文章來源和作者;
2. 今日美股(www.todayusstock.com)登載此文出於傳遞更多信息之目的,並不意味著贊同其觀點或證實其描述;
3. 文章內容僅供參考,不構成投資建議,投資者據此操作,風險自擔。