Heim > Artikel > Hardware-Tutorial > Gehackte Tesla FSD-Computer legen alarmierende Rohdaten zu tödlichen Autopilot-Unfällen offen
Während das neueste Tesla FSD 12.5-Update der Öffentlichkeit zugänglich gemacht wird, haben zwei große Wirtschaftspublikationen negative Berichte über die Fahrerassistenzsysteme von Tesla veröffentlicht.
Die Bloomberg-Studie zitiert anekdotische Beweise eines Sell-Side-Analysten, der seine Erfahrungen bei Tesla FSD-Demofahrten in einer Mitteilung an Kunden detailliert darlegte. Er musste ein paar Mal in besonderen Situationen eingreifen, etwa beim Befolgen der Handzeichen eines Verkehrspolizisten, aber auch in alltäglicheren Situationen.
Das Tesla Model Y überquerte beispielsweise wiederholt ununterbrochene Fahrbahnmarkierungen oder raste in eine Kreuzung, weil der Computer eine Situation falsch erkannte, in der sich ein anderes Auto erst mitten in einer Rechtskurve befand. Das Model Y lief jedoch mit FSD 12.3.6, und der Analyst stellte einige deutliche Verbesserungen gegenüber der Vorgängerversion fest, die er Anfang des Jahres getestet hatte.
Der andere negative Artikel über Teslas Ambitionen für selbstfahrende Fahrzeuge erhebt jedoch weitaus schwerwiegendere Vorwürfe und ist mit exklusiven Beweisen unterlegt. Die Ermittler des Wall Street Journal beschafften FSD-Computer von geborgenen Teslas und schickten sie an Hacker, um die Rohdaten des Autopiloten zu extrahieren.
Tesla hält diese Art von Daten ansonsten als Geschäftsgeheimnis, da sie zeigen, wie seine Fahrerassistenzalgorithmen spontan denken und reagieren, da sie sich ausschließlich auf die Interpretation der Eingaben einiger Tesla Vision-Kameras verlassen.
Die Erkenntnisse aus der Rohdatenerfassung des Autopiloten zur Entscheidungsfindung wurden dann mit Unfallaufnahmen von den Kameras der Tesla-Autos gepaart. Das WSJ gleichte auch einzelne staatliche Berichte mit der bundesstaatlichen Unfalldatenbank ab, die die NHTSA für ihre eigene Unfalluntersuchung unterhält, und schaffte es, 222 Tesla-Unfälle nachzustellen.
Bei 44 dieser Unfälle ereigneten sich die Unfälle, als Tesla-Autos mit Autopilot „plötzlich abdrehten“, während 31 Unfälle passierten, als die Fahrzeuge „nicht anhielten oder nachgaben“. Die Untersuchung ergab, dass Letzteres zu den schwersten Unfällen führte, wenn Teslas mit Autopilot fuhren.
Experten, die die Aufnahmen solcher Unfälle und die Art und Weise gesehen haben, wie das Autopilot-System algorithmisch funktioniert, sagten, dass es einige Zeit dauern wird, es auf alles zu trainieren, was auf den Straßen passiert. Einer der tödlichen Unfälle ereignete sich beispielsweise dadurch, dass ein umgestürzter Doppelanhänger, der die Autobahn blockierte, nicht erkannt wurde.
Das System wusste nicht, was das war, also krachte es mit voller Geschwindigkeit in den Anhänger. Es gibt viele Beispiele, bei denen der Autopilot von den Lichtern von Einsatzfahrzeugen überrumpelt wird und mit ihnen zusammenfährt.
Insgesamt deuten die Ergebnisse darauf hin, dass selbstfahrende Teslas sowohl aus Hardware- als auch aus Softwaregründen abstürzen. Die genannten Probleme reichen von langsamen Algorithmusaktualisierungen bis hin zu unzureichender Kamerakalibrierung. Möglicherweise ist jedoch eine ausführlichere Berichterstattung aus unabhängigen Quellen erforderlich, bevor es diesem Autopilot-Datenleck gelingt, Elon Musks Hauptannahme, dass Teslas Selbstfahrfunktion letztendlich sicherer ist als menschliche Fahrer, in Frage zu stellen.
Holen Sie sich den 80A Tesla Gen 2 Wall Connector mit 24' Kabel bei Amazon
Das obige ist der detaillierte Inhalt vonGehackte Tesla FSD-Computer legen alarmierende Rohdaten zu tödlichen Autopilot-Unfällen offen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!