>  기사  >  기술 주변기기  >  자율주행을 위한 다중 센서 융합을 간략하게 분석한 기사

자율주행을 위한 다중 센서 융합을 간략하게 분석한 기사

WBOY
WBOY앞으로
2023-04-12 11:19:081045검색

지능형 커넥티드카는 자율주행과 어떤 연관이 있나요?

자율주행의 핵심은 자동차에 있는데, 지능형 네트워크 연결 시스템은 무엇일까요? 지능형 네트워크 연결의 주체는 자동차이지만 핵심은 연결되어야 하는 네트워크입니다. 하나는 자동차 내부의 센서와 지능형 제어 시스템으로 구성된 네트워크이고, 다른 하나는 모든 자동차가 연결되어 공유하는 네트워크이다. 네트워크 연결은 자동차를 대규모 네트워크에 배치하여 위치, 경로, 속도 및 기타 정보와 같은 중요한 정보를 교환하는 것입니다. 지능형 네트워크 시스템의 개발 목표는 자동차 내부 센서와 제어 시스템의 설계 최적화를 통해 자동차의 안전성과 편안함을 향상시켜 자동차를 더욱 인간답게 만드는 것입니다. 물론 궁극적인 목표는 무인 운전을 달성하는 것입니다.

자율주행차의 세 가지 핵심 보조 시스템: 환경 인식 시스템, 의사결정 및 계획 시스템, 제어 및 실행 시스템은 지능형 네트워크 차량 자체가 해결해야 하는 세 가지 핵심 기술 문제이기도 합니다.

지능형 네트워크 연결 시스템에서 환경 센싱 시스템은 어떤 역할을 하나요?

환경 센싱 기술이란 무엇이며 주로 어떤 내용을 포함하나요?

환경 인식에는 주로 센서, 인식 및 위치 지정의 세 가지 측면이 포함됩니다. 센서에는 카메라, 밀리미터파 레이더, 라이더, 초음파 등이 포함됩니다. 차량에는 다양한 센서가 배치되어 데이터를 수집하고 색상을 식별하며 거리를 측정합니다.

자율주행을 위한 다중 센서 융합을 간략하게 분석한 기사

스마트 자동차가 센서에서 얻은 데이터를 활용하여 지능형 주행을 구현하려면 센서를 통해 얻은 데이터를 (인식) 알고리즘으로 처리하고 데이터 결과로 컴파일하여 차량에 대한 정보 교환을 실현해야 합니다. 차량이 안전한 상태 또는 위험한 상태에서 주행하고 있는지 자동으로 분석하고, 인간의 희망에 따라 지능형 주행을 구현하며, 궁극적으로 인간을 대신하여 의사결정과 자율주행 목표를 수행할 수 있게 해줍니다.

여기에는 중요한 기술적 문제가 있습니다. 다양한 센서가 서로 다른 역할을 수행합니다. 여러 센서로 스캔한 데이터가 어떻게 완전한 개체 이미지 데이터를 형성할 수 있습니까?

다중 센서 융합 기술

카메라의 주요 기능은 물체의 색상을 식별하는 것이지만, 밀리미터파 레이더는 카메라의 단점을 보완할 수 있습니다. 비오는 날의 영향을 받고 멀리 있는 물체를 식별할 수 있음 보행자, 장애물 등의 장애물은 특정 형태를 식별할 수 없지만 특정 형태를 식별할 수 없는 밀리미터파 레이더의 단점을 보완할 수 있음 장애물의 모양; 초음파 레이더는 주로 차체의 근거리 장애물을 식별하고 차량 주차에 사용됩니다. 운전 과정에서 더 많은 것이 있습니다. 다양한 센서에서 수집된 외부 데이터를 융합하여 컨트롤러가 의사 결정을 내릴 수 있는 기반을 제공하려면 다중 센서 융합 알고리즘을 처리하여 파노라마 인식을 형성해야 합니다.

다중센서 융합(융합 알고리즘 처리)이란 무엇이며, 주요 융합 알고리즘은 무엇인가요?

다중 센서 융합의 기본 원리는 인간의 두뇌가 종합적인 정보를 처리하는 과정과 같습니다. 다양한 센서를 사용하여 여러 수준과 공간에서 정보의 조합을 보완하고 최적화하여 궁극적으로 일관된 결과를 만들어냅니다. 관찰 환경의 해석. 이 과정에서 다소스 데이터를 충분히 활용하여 합리적인 통제와 활용이 이루어져야 하며, 정보융합의 궁극적인 목표는 분리된 관찰정보를 바탕으로 다계층, 다측면의 정보조합을 통해 보다 유용한 정보를 도출하는 것이다. 각 센서. 이는 여러 센서의 협력 작동을 활용할 뿐만 아니라 다른 정보 소스의 데이터를 포괄적으로 처리하여 전체 센서 시스템의 지능을 향상시킵니다.

자율주행을 위한 다중 센서 융합을 간략하게 분석한 기사

다중 센서 데이터 융합 개념은 군사 분야에서 처음 적용됐다. 최근에는 자율주행 기술이 발달하면서 차량 표적 탐지에도 다양한 레이더가 활용되고 있다. 서로 다른 센서에는 데이터 정확성 문제가 있으므로 최종 융합 데이터를 어떻게 결정합니까? 예를 들어, 라이더가 앞 차량까지의 거리가 5m라고 보고하면 밀리미터파 레이더는 앞 차량까지의 거리가 5.5m라고 보고하고, 카메라는 앞 차량까지의 거리가 4m라고 판단합니다. , 중앙 프로세서는 어떻게 최종 판단을 내려야 할까요? 그러면 이 문제를 해결하기 위해서는 일련의 다중 데이터 융합 알고리즘이 필요합니다.

다중 센서 융합의 일반적인 방법은 무작위와 인공 지능이라는 두 가지 주요 범주로 나뉩니다. AI 범주에는 주로 퍼지 논리 추론과 인공 신경망 방법이 포함되며, 확률론적 방법에는 주로 베이즈 필터링, 칼만 필터링 및 기타 알고리즘이 포함됩니다. 현재 자동차 융합 감지는 주로 무작위 융합 알고리즘을 사용합니다.

자율주행차의 융합 인식 알고리즘은 주로 선형 시스템 상태 방정식을 사용하여 시스템 입력 및 출력 관찰 데이터를 통해 시스템 상태를 최적으로 추정하는 칼만 필터 알고리즘을 사용합니다. 효율적인 방법.

다중 센서는 융합 알고리즘으로 처리되어야 합니다. 따라서 기업에서는 다중 센서 융합 문제를 해결하기 위해 융합 센싱 카테고리의 알고리즘 엔지니어가 필요합니다. 여러 센서를 마스터합니다. 신호의 작동 원리와 데이터 특성, 소프트웨어 개발을 위한 융합 알고리즘, 센서 교정 알고리즘, 포인트 클라우드 데이터 처리, 딥 러닝 감지 알고리즘 등을 마스터하는 능력입니다.

환경 인식의 세 번째 부분 - 포지셔닝(슬램)

슬램은 동시 포지셔닝 및 매핑이라고 하며 장면이 정적이라고 가정하고 카메라의 움직임을 사용하여 이미지 시퀀스를 얻고 3을 얻습니다. -D 장면. 구조 설계는 컴퓨터 비전의 중요한 작업입니다. 카메라에서 얻은 데이터는 시각적 슬램이라는 알고리즘에 의해 처리됩니다.

시각적 슬램 외에도 환경 인식 포지셔닝 방법에는 라이더 슬램, GPS/IMU 및 고정밀 지도가 포함됩니다. 이러한 센서에서 얻은 데이터는 알고리즘으로 처리되어 자율 주행 결정을 위한 위치 정보 기반을 제공하는 데이터 결과를 형성해야 합니다. 따라서 환경 인식 분야에서 작업하려면 융합 감지 알고리즘 위치를 선택할 수 있을 뿐만 아니라 슬램 분야도 선택할 수 있습니다.

위 내용은 자율주행을 위한 다중 센서 융합을 간략하게 분석한 기사의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제