繼理想汽車推送車位到車位功能之后,華為也更新了這項技術,甚至不用學習記憶一遍,在任何停車場,任一空位都能自主完成整套泊車任務。具體來說,這次華為乾崑智駕ADS 3.2新增了8項功能,優化了3個決策細節,其中,升級的NCA施工場景避障換道能力,正是之前特斯拉FSD V13.2的重大更新內容,而最核心的,還是打通智駕最后一公里的“車位到車位”,那么問題來了,新版本的智駕效果如何?下一個跟進這項功能的會是誰呢?
不靠系統死記硬背,沒去過的停車場也能用?
體驗過華為乾崑ADS 3.2Beat的全流程智能駕駛,或者研究過它在不同環境場景下的實測表現,應該大致都會有一個感受,那就是基本不用再等特斯拉FSD落地中國了,因為在高速、城市工況能實現的功能基本都差不多,最大的區別可能就是系統在控速和博弈維度上的體驗細節差異,當然了,兩種截然不同的技術方案,在難度最高的停車場(停車樓),FSD V13.2還很有可能沒ADS 3.2好用。先來看新版本在自身層面的優化,相比ADS 3.0,V3.2在使用端最明顯的變化,是開啟智駕的條件更極限了,從早期只能在中間道路啟用,到駐車掛D擋開啟,再到現在的P擋激活,這意味著所涉及的工況更為全面了,在底層架構端,ADS 3.2依舊是GOD大網多模塊邏輯,從官方最新的實測來看,整個模型算法能看作是打磨到了較高的成熟度,從往返2次超過50多公里的城市領航效果來看,不論是過閘機、無保護左轉、避障繞行、路邊臨停、U型掉頭、人車混行的十字路口等,整個過程中都沒有出現降級或接管。
按照技術層面來講,系統接管與否,取決于端到端對當下環境的理解能力,也取決于是否符合人類駕駛員的控車邏輯,所以這次的華為車位到車位首秀,基本可以確定兩件事,其一,場景理解能力有明顯優化,甚至可以說是有迭代的效果,舉個例子,在城市擁堵場景下,系統會規劃出至少2種規避偏航的決策,常規型方案是提前感知、提前換道,重點來看激進型方案,系統能從緩行跟車的隊伍中找準時機加塞換道,這意味著,整套系統已經連貫分析了后車跟車距離、加速度以及前車運動軌跡,數據精準度和傳輸速度明顯是處在實時能力的。其二,以目前感知硬件配置水平來看,已經具備了類似L3的部分效果,這需要把車位到車位和VPD這兩個功能放在一起來聊,所謂的L3,自動駕駛等級定義給出的解釋是駕駛過程不用接管方向盤,允許人類駕駛員視線離開路面,而華為這次新增的這兩塊內容,明顯就是沖著這個方向來的。
首先,不論是純視覺還是多傳感器融合方案,端到端本質都是需要投喂大量的數據內容訓練,從而得到見過的場景會處理,沒見過的場景會學著處理,所以理想化的最終形態,是大模型見過99%的場景,剩下1%的黑盒子情況,就是考驗模型的自我生成邏輯能力,所以,理想汽車在用上E2E+VLM雙系統之后,真正意義上量產了車位到車位功能,不過,滿足這項功能得有2個前提,一個是需要事先跑一遍,E2E會通過記錄視頻上傳世界模型的方式,云端重構環境數據分析這次的停車邏輯,另一個則是需要有固定車位,模型負責應對泊車途中的各類場景,最后駛到設定好的車位就算完成,而華為這次完全砍掉了以固定車位和固定停車場為基礎的處理方式,通過自主漫游、云端學習來實現自由車位的泊入和泊出,不靠系統死記硬背,沒去過的停車場也能正常用,所以本質上來講,這套方案不是把智駕領航和記憶泊車拼起來的功能。
其次,作為解決智駕最后一公里的泊車代駕功能,其實絕大多數車企早些年就有一些技術雛形了,甚至連威馬也曾布局過類似的方案(跨樓層免學習無人泊車PAVP),但遲遲不能規模商用的原因,基本都卡在了由探測精度問題導致的算法不成熟,比起道路上的不規則障礙物,停車場或停車樓的技術難點無非是探測空位和禮讓會車,這實際上更考驗系統在狹窄環境下人車混行的博弈能力,以華為的VPD功能來看,之前的探測精準性由192線激光雷達和毫米波雷達來獲取,PDP決策網絡會基于后續逐漸開放的停車場數量和難點上繼續優化,另外話說回來,駕駛員下車后車輛自己找車位最后泊入,不就是視線離開路面的一種表現嗎?至于大規模鋪開后的效果,還需要結合接下來的實測表現來討論。
打通固定車位限制,下一個跟進會是小米?
那么,特斯拉FSD V13.2會實現ADS 3.2的自由車位到自由車位嗎?其實從感知硬件配置來看,前者實現的可能性相對會更低一些,畢竟,FSD的本質是靠occ占用網絡技術,把世界分成無數個單元格,攝像頭獲取到障礙物后交給模型拆成數據對齊坐標,所以,問題就在探測精度上面,前面提到,代客泊車的難點就在極限場景下的會車處理邏輯上,以純視覺技術架構來看,僅靠迭代算法訓練,明顯還是融合記憶泊車的技術方案,這也就解釋了小鵬汽車僅支持固定車位的原因,換句話說,激光雷達在這項功能里發揮的角色,正是能實時掃圖構建3D數據模型,BEV架構又能補齊環境精度,所以大致能推測到,即便是FSD以最新版本來到中國,最后一公里的智駕效果很有可能不如預期。
新的問題是,在華為ADS 3.2之后,下一個打通自由車位到自由車位會是誰呢?以技術層面來看,車位到車位準確來講是場景能力,而端到端是技術能力,二者之間的核心聯系,也是最大的技術難點,就是把這兩項能力連貫結合起來,也就是說,需要在模型中融入整套場景的算法,就目前來看,國內有四家推送了這項功能,即理想、小米、小鵬和華為ADS,但除了華為,其他三家都是以靜默記憶路線展開的技術形式,痛點就在系統需要進行兩次記憶(進出車位),而且僅限固定車位,要打通車位和停車場固定限制,首先得滿足的基本條件就是感知硬件的性能要跟得上,難點是調整模型的決策機制,具體來說,需要從記憶轉為建圖。
提到建圖,激光雷達顯然是有自身技術優勢兜底的,而擺脫記憶規劃,就需要類似華為PDP決策網絡的第二系統來分析,而視覺語言模型VLM顯然具備類似的邏輯,所以,基于Transformer+BEV+VLM的小米,大概率是下一個打通自由車位到自由車位的,畢竟,目前其已支持有人待客泊車功能,底層技術架構基本已經具備了融合兩項功能的能力,所以接下來可能只剩一個時間周期去打磨細節。
另外,參考理想汽車的6.5.1版本效果來看,其下一步的技術迭代方向會是VLA視覺語言動作模型,演變的方向明顯是類似一體式的大網邏輯,所以除了小米,理想的車位到車位,執行端呈現的效果很有可能還會比華為現有的GOD網更擬人一些,但是不論如何,單是拿現有技術和效果來看,特斯拉FSD還沒入華,可能就已經和國產技術有代差了。