최신 Tesla FSD 12.5 업데이트가 대중에게 공개되는 동안 두 개의 주요 비즈니스 간행물에서 Tesla의 운전자 지원 시스템에 대한 부정적인 기사를 게시했습니다.
Bloomberg에서는 고객에게 보낸 메모에서 Tesla FSD 데모 드라이브 중 자신의 경험을 자세히 설명한 판매 측 분석가의 일화적인 증거를 인용합니다. 그는 교통경찰의 수신호를 따르는 등의 특수한 상황뿐만 아니라 보다 일상적인 상황에서도 몇 차례 개입해야 했습니다.
예를 들어, Tesla Model Y는 방해받지 않는 차선 표시를 반복적으로 넘었거나 다른 차량이 우회전 절반밖에 안 되는 상황을 컴퓨터가 잘못 읽었기 때문에 교차로로 속도를 냈습니다. 그러나 Model Y는 FSD 12.3.6을 사용하고 있었으며 분석가는 올해 초 테스트한 이전 버전에 비해 몇 가지 눈에 띄는 개선 사항을 언급했습니다.
Tesla의 자율주행차 야망에 대한 또 다른 부정적인 기사는 훨씬 더 심각한 비난을 불러일으키고 독점적인 증거로 채워져 있습니다. 월스트리트저널(Wall Street Journal) 조사관들은 회수된 Tesla에서 FSD 컴퓨터를 구해 해커에게 보내 원시 Autopilot 데이터를 추출했습니다.
Tesla는 이러한 종류의 데이터를 영업 비밀로 유지합니다. 이는 운전자 지원 알고리즘이 몇 대의 Tesla Vision 카메라의 입력 해석에만 의존하기 때문에 즉석에서 어떻게 생각하고 반응하는지 보여주기 때문입니다.
원시 오토파일럿 의사결정 데이터 수집에서 얻은 학습 내용은 Tesla 자동차 카메라의 사고 영상과 결합되었습니다. WSJ는 또한 NHTSA가 자체 충돌 조사를 위해 유지 관리하는 연방 사고 데이터베이스와 개별 주 보고서를 비교하여 222건의 Tesla 충돌을 재현했습니다.
그 중 44번은 오토파일럿을 사용하는 Tesla 차량이 '갑자기 방향을 틀었을 때' 사고가 발생했고, 31번은 차량이 '정지하지 못하거나 양보하지 않았을 때' 발생했습니다. 조사 결과 후자는 테슬라가 오토파일럿으로 운전하면서 가장 심각한 사고로 이어진 것으로 나타났다.
이러한 충돌 장면과 자동 조종 장치 시스템이 알고리즘적으로 작동하는 방식을 본 전문가들은 도로에서 일어나는 모든 일에 대해 훈련하는 데 시간이 걸릴 것이라고 말했습니다. 예를 들어, 치명적인 사고 중 하나는 고속도로를 막고 있는 전복된 이중 트레일러를 인식하지 못해서 발생했습니다.
시스템은 이것이 무엇인지 알지 못했기 때문에 전속력으로 트레일러에 충돌했습니다. 오토파일럿이 긴급 차량의 불빛에 현혹되어 충돌하는 사례도 많이 있습니다.
전반적으로 조사 결과에 따르면 자율 주행 Tesla는 하드웨어와 소프트웨어 이유로 인해 충돌이 발생하는 것으로 나타났습니다. 언급된 문제는 느린 알고리즘 업데이트부터 불충분한 카메라 보정까지 다양합니다. 그러나 이번 오토파일럿 데이터 유출이 Tesla의 자율주행 기능이 궁극적으로 인간 운전자보다 안전하다는 Elon Musk의 주요 가정에 도전하기 전에 독립적인 소스로부터 더 심층적인 보도가 필요할 수 있습니다.
Amazon에서 24' 케이블이 포함된 80A Tesla Gen 2 벽면 커넥터 구입
위 내용은 해킹된 Tesla FSD 컴퓨터는 치명적인 오토파일럿 사고에 대한 놀라운 원시 데이터를 공개합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!