NHTSA宣布特斯拉自愿召回FSD Beta軟件,而且正在對涉及特斯拉Autopilot自動輔助駕駛系統的一系列交通事故展開調查。
特斯拉FSD Beta召回事件大大削弱了自動駕駛的可信度。
2023年2月16日,美國國家公路交通安全管理局(NHTSA)宣布特斯拉已同意自愿召回配備FSD Beta版的362,758輛汽車,其中包括Model S、Model X、Model 3和Model Y等特斯拉全部車型。NHTSA指出,FSD未能在多種常見的駕駛情景下安全操作特斯拉汽車——多位業內人士表示,此次召回證明,特斯拉對FSD性能的宣傳吹捧,再也不能凌駕于監管機構之上。
關于特斯拉自動駕駛功能的緊張情緒一直在加劇。2021年夏天,NHTSA開始調查多起特斯拉汽車與路邊緊急停放車輛相撞的交通事故,其中特斯拉所有涉事車型都裝有Autopilot自動駕駛輔助系統(車系標配)。NHTSA隨后發布的調查報告表明,當年共發生了273起與Autopilot系統相關的事故。而FSD及其“城市道路自動轉向(Autosteer)”功能被認為是比Autopilot更先進的系統,FSD高達15000美元的價格似乎也佐證了這一觀點。
在特斯拉與NHTSA達成召回協議后,特斯拉專門新建了一個網頁,宣布FSD為SAE L2級自動駕駛。根據該頁面內容所示,“FSD Beta版具有SAE L2級駕駛輔助功能,可在某些操作限制情況下為駕駛員提供轉向、制動或加速支持。與其他SAE L2級駕駛輔助功能一樣,每當啟動FSD Beta版功能時,駕駛員應當負責操控汽車,并且必須持續監督該功能,并在需要時進行干預(如轉向、制動或加速),以確保車輛安全運行。”
盡管如此,許多購買了FSD Beta版的消費者似乎認為,該系統具備更高的自動駕駛等級。大量肆意濫用該系統的網絡視頻說明:至少有一點是肯定的,特斯拉在向客戶和有意向的消費者介紹FSD功能時,信息是不透明的。
美國汽車協會(AAA)于2023年3月發布的一項針對1000名成年被訪者的調查結果表明,今年他們對自動駕駛汽車的不信任感和誤解程度明顯比往年更深。2月底,特斯拉的一個股東團體向公司發起集體訴訟,指控該公司在宣傳FSD性能以及安全風險時存在故意誤導。在自動駕駛開發商正在合并或轉型的環境下,特斯拉對自動駕駛的不清晰表述,可能會進一步擾亂公眾認知。
硅谷企業得到的教訓
喬治梅森大學機械工程、電氣、計算機工程與計算機科學教授兼NHTSA前高級安全顧問Missy Cummings在發給SAE的郵件中寫道,“特斯拉一直使用經典的‘只要不拆穿,就繼續裝下去’的手段”(fake-it-til-you-make-it),但他們必須面對現實。Cummings認為NHTSA沒有強迫,而是“禮貌地催促”特斯拉召回FSD。特斯拉首席執行官Elon Musk曾表示Cummings對特斯拉存在偏見。
Guidehouse Insights首席電動出行分析師兼SAE專欄作家Sam Abuelsamid表示,各方都對此負有責任。他堅稱,“允許特斯拉走到這一步,NHTSA和FTC(美國聯邦貿易委員會)都有責任。在特斯拉于2016年剛開始銷售FSD系統時,NHTSA就應該立即叫停,直至特斯拉能驗證其系統與宣傳相符。” Abuelsamid補充說,“此外,雖然AutoPilot系統沒那么糟糕,但當初也不應獲得許可。”
美國國防部前官員兼航空航天工程師、自動駕駛模擬器開發商Dactle創始人兼首席技術官Michael DeKort表示,過去一年來,大量自動駕駛開發商合并、縮小規模甚至徹底關閉,再加上特斯拉的FSD召回事件,這證明大多數自動駕駛開發企業一開始就走錯了路。DeKort斷言,幾乎所有自動駕駛開發企業都會在一定程度上夸大其詞,特斯拉“只是其中吹噓得最厲害的。”
但是Abuelsamid指出,特斯拉和其他自動駕駛汽車開發企業之間存在一個根本區別。
自動駕駛汽車開發商Cruise Automation沒有為向公眾出售的車輛中部署自動駕駛軟件。該公司在2022年底表示,其無人駕駛汽車已經行駛了50萬英里,“沒有發生任何重大事故” (Cruise Automation) 他表示,“我們應該把特斯拉與其他開發自動駕駛系統的公司區分開來。”因為特斯拉是目前唯一一家“在消費者可以購買和控制的車輛上向他們營銷任何東西”的公司,也是唯一一家在測試時就向客戶提供關鍵安全系統(基于其成熟度,更準確地說是內部測試版)的公司。其他諸如Waymo、Cruise、Motional和百度等都在嚴格控制其自動駕駛系統、記錄所有數據并進行全時段監控,甚至對無人駕駛汽車也是如此。Abuelsamid堅持說,“沒錯,這些汽車也存在問題,但它們始終處于可追蹤之下。”
用OTA修補
特斯拉打算通過OTA更新來解決NHTSA對FSD性能的擔憂。但專家們認為,僅僅通過軟件“修復”系統對少數特定駕駛情景的反應,不能解決FSD背后更深層的問題,即以人工智能為導向的算法問題。 “導致FSD召回的相關問題可以得到解決嗎?當然可以。”Abuelsamid說,“被召回的FSD可以得到充分修復嗎?這還有待觀察。” 他繼續說,“與其他更確定的方案相比,這是以人工智能為優先,且僅采用人工智能技術的方案所面臨的挑戰之一。人工智能是概率性系統,而且會做出主觀判斷。和人類一樣,AI有時也會判斷錯誤。正如我們最近看到的大量有關人工智能聊天機器人(如ChatGPT)的新聞,人工智能往往會提供一個看似合理、但實際上并不正確的答案,并且讓人信以為真。” 人工智能視覺系統也是如此。他表示,特斯拉的目標是打造一個可以安裝在所有汽車上的通用自動駕駛系統,“如果你開始設置監管限制,這一目標就會更難以實現——而且還會與整個商業模式背道而馳。
盡管如此,還是有必要進行監管。” 特斯拉的OTA是否僅僅是為了滿足監管機構要求的表面工作,只是為了簡單了解問題嚴重程度?Cummings認為,對FSD的任何實質性改進都不可能迅速完成。DeKort也認同,考慮到特斯拉有大量的客戶用途操作域,解決NHTSA與FSD的問題會是一項艱巨的任務。 Cummings表示,“雖然這些問題可以通過OTA來解決,但我認為根據專門召回FSD的實際情況來看,需要經過幾年的不懈努力才能真正解決問題。而在一年多前,特斯拉就曾表示,他們已經解決了撞上靜止物體的問題,但情況顯然并非如此。” DeKort認為,特斯拉FSD系統存在的問題非常嚴重,僅通過NHTSA所提到的情況做出整改是遠遠不夠的,“我相信特斯拉會做出一些改進。但與其他公司一樣,特斯拉在公共交通運輸領域實現SAE L4級自動駕駛的目標還遠未實現,甚至情況還要更糟,因為他們的傳感器套件并不成熟。”
可靠的解決方案
然而,一些專家認為,特斯拉的FSD系統可以為開發企業和監管機構提供更好的實踐參考。DeKort說,迄今為止,仍然沒有一個用于衡量自動駕駛汽車的行為和性能表現的通用標準,雖然歐洲已經制定了新標準。
Alphabet旗下的Waymo將其Waymo Driver自動駕駛系統部署在各種測試車輛中,包括8級卡車。該公司擁有數百萬英里的無事故無人駕駛運營,但在公共道路測試中也出現了零星的不良結果。(Waymo) Abuelsamid表示,“監管機構需要與特斯拉和其他想要走相同路線的汽車制造商積極“溝通”。他們需要立即介入并叫停這種對自動駕駛功能的錯誤宣傳,而且應該禁止對關鍵安全系統進行開放道路測試。特斯拉在部署和開發FSD方面一直都非常輕率,但六年多來,監管機構也沒有盡到監管義務。” Cummings表示,對自動駕駛性能的夸大其詞“是一個嚴重問題”。
加州已經把這一舉動歸為非法行為,這應該成為一項國家政策。許多人正在因為太過相信自動駕駛系統而失去生命,而虛假宣傳是罪魁禍首之一。 與此同時,DeKort多年來一直堅持認為,幾乎所有的自動駕駛開發企業都走在錯誤的戰略道路上。在使用現有戰略的情況下,任何開發企業都“永遠無法打造接近”SAE L4級或L5級的自動駕駛汽車。他表示,可以從三大方面解決這一問題:
接受和利用通用人工智能技術(AGI);
幾乎完全專注于模擬測試,而不在真實開放道路上進行測試;
采用美國國防部或聯邦航空管理局(FAA)級別的仿真技術,而不是使用基于游戲的仿真引擎。
審核編輯:劉清
-
特斯拉
+關注
關注
66文章
6322瀏覽量
126699 -
模擬器
+關注
關注
2文章
881瀏覽量
43331 -
自動駕駛
+關注
關注
784文章
13915瀏覽量
166772 -
FSD
+關注
關注
0文章
96瀏覽量
6143
原文標題:FSD召回,挽回不了對自動駕駛的信心
文章出處:【微信號:SAEINTL,微信公眾號:SAE International】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論