Dan O'Dowd 是嵌入式開發公司Green Hills Software 的CEO,他於去年發起了一項名為「The Dawn Project」的活動,旨在禁止在安全系統中使用不安全軟體,其中就包括特斯拉自動駕駛軟體的測試。
為了模擬自動駕駛汽車在現實中遇到小朋友過馬路時的反應,The Dawn Project 近日進行了一項新測試,結果表明配備FSD Beta 10.12.2 自動駕駛軟體的Model 3 會撞上兒童的人形模型:
#測試中Model 3 劇烈撞擊模型,導致模型組件分離:
專案組測試了3 次,每次都撞到了人形模型。這似乎已不是偶然事件,說明 Model 3 的 FSD 系統有安全隱憂。
我們來看看測試的具體過程。
為了使測試環境更有利於特斯拉的FSD 系統,除了車輛和人形模型之外,道路上可能影響測試的其他變量都被移除。
測試車道兩側放置了標準的交通錐,兒童大小的人形模型被放在測試跑道盡頭的中間,就像小朋友要過馬路一樣。測試過程中,專業測試駕駛員首先將汽車的速度提高到每小時 40 英里。一旦車輛進入測試車道,就改為 FSD 模式,駕駛不再操作方向盤,也沒有踩油門或踩煞車等動作。
Model 3 FSD Beta 10.12.2 進入 FSD 模式時的初始速度為 40 英里 / 小時。 3 次測試,Model 3 都撞到了前方的人形模型,碰撞發生時的速度如下表所示
駕駛員的報告顯示:特斯拉Model 3 FSD Beta 10.12.2 在FSD 模式下就像迷路了一樣,速度減慢了一點,在撞倒人形模型後又重新加速,撞擊時的速度約為25 英里/ 小時。
這一結果與馬斯克長期以來聲稱的 FSD 是安全的說法矛盾。馬斯克曾在今年 1 月發推文說:「沒有一起事故是特斯拉 FSD 造成的」,但事實並非如此。根據《洛杉磯時報》報道,已經有數十名駕駛就涉及 FSD 的事故向美國國家公路交通安全管理局提交了安全投訴。
上個月,加州機動車管理局(DMV)也指控特斯拉對其 Autopilot 自動輔助駕駛和 FSD 功能進行了虛假宣傳。
儘管FSD 聲稱是完全自動駕駛,但實際上它只是作為一個可選的附加組件運行,主要功能是自動改變車道、進出高速公路、識別停車標誌和交通號誌燈以及停車。該軟體仍處於 beta 測試階段,但已有超過 10 萬個購買用戶,特斯拉透過這些用戶即時測試該軟體,並試圖讓該 AI 系統向經驗豐富的駕駛員學習。
以上是特斯拉全自動駕駛三次撞上兒童假人,撞擊後沒停重新加速的詳細內容。更多資訊請關注PHP中文網其他相關文章!