雖然最新的特斯拉 FSD 12.5 更新正在向公眾推出,但兩家主要商業出版物卻發布了有關特斯拉駕駛員輔助系統的負面報道。
彭博社援引了一位賣方分析師的軼事證據,該分析師在給客戶的一份報告中詳細介紹了他在特斯拉 FSD 演示駕駛中的經歷。他必須在特殊情況下進行幾次幹預,例如遵守交通官員的手勢,但在更平常的情況下也必須幹預。
例如,特斯拉 Model Y 反覆越過不間斷的車道標記,或加速駛入十字路口,因為電腦誤讀了另一輛車剛剛右轉的一半情況。不過,Model Y 運行的是 FSD 12.3.6,分析師確實注意到,與他們今年早些時候測試的上一個版本相比,有一些顯著的改進。
另一篇關於特斯拉自動駕駛汽車雄心的負面文章提出了更嚴重的指控,並提供了獨家證據。 《華爾街日報》調查人員從打撈的特斯拉汽車中獲取了 FSD 計算機,並將其發送給駭客以提取原始自動駕駛儀資料。
特斯拉將此類數據作為商業機密,因為它顯示了其駕駛員輔助演算法如何即時思考和反應,因為它們僅依賴解釋一些 Tesla Vision 攝影機的輸入。
從原始自動駕駛儀決策資料擷取中學到的知識,然後與特斯拉汽車攝影機的事故鏡頭進行配對。 《華爾街日報》也將各州的報告與 NHTSA 為自己的事故調查而維護的聯邦事故資料庫進行了比對,並成功重現了 222 起特斯拉事故。
其中 44 起事故是由於使用 Autopilot 的特斯拉汽車「突然轉向」而發生的,而 31 起事故是由於車輛「未能停車或讓道」而發生的。調查發現,後者導致特斯拉在自動駕駛下行駛時發生最嚴重的事故。
看過此類事故的鏡頭以及自動駕駛系統演算法工作方式的專家表示,需要時間來訓練它適應道路上發生的所有情況。例如,其中一起致命事故是由於未能識別出一輛翻倒的雙拖車堵塞了高速公路。
系統不知道這是什麼,所以全速撞向了拖車。有許多例子表明,自動駕駛儀會被緊急車輛的燈光迷惑並撞上它們。
整體而言,調查結果指出,特斯拉自動駕駛汽車發生事故的原因有硬體和軟體兩方面的原因。提到的問題包括演算法更新緩慢和相機校準不足等。然而,在這次自動駕駛儀資料外洩成功挑戰馬斯克的主要假設(即特斯拉的自動駕駛功能最終比人類駕駛員更安全)之前,可能需要來自獨立來源的更深入的報道。
在亞馬遜上獲取帶有 24 英尺電纜的 80A Tesla Gen 2 牆壁連接器
以上是被駭客入侵的特斯拉 FSD 電腦洩露了有關致命自動駕駛儀事故的令人震驚的原始數據的詳細內容。更多資訊請關注PHP中文網其他相關文章!