자율주행에서 포지셔닝은 대체할 수 없는 위치를 차지하고 있으며 앞으로도 발전 가능성이 높습니다. 현재 자율주행에서의 위치 확인은 RTK와 고정밀 지도에 의존하고 있어 자율주행 구현에 많은 비용과 어려움이 추가됩니다. 인간이 운전할 때 자신의 글로벌 고정밀 포지셔닝과 상세한 주변 환경을 알 필요가 없다고 상상해 보십시오. 글로벌 내비게이션 경로가 있고 경로에서 차량의 위치를 일치시키는 것만으로도 충분합니다. SLAM 분야 핵심기술.
SLAM(Simultaneous Localization and Mapping), CML(동시 매핑 및 현지화), 실시간 위치 확인 및 지도 구성 또는 동시 매핑 및 위치 지정이라고도 합니다. 문제는 다음과 같이 설명할 수 있습니다. 로봇을 알 수 없는 환경의 알 수 없는 위치에 배치합니다. 로봇이 어느 방향으로 움직여야 할지 결정하면서 로봇이 점차적으로 완전한 환경 지도를 그리는 방법이 있습니까? 예를 들어, 청소 로봇은 매우 일반적인 SLAM 문제입니다. 소위 완전한 지도(일관된 지도)는 장애물 없이 방의 접근 가능한 모든 구석으로 이동할 수 있음을 의미합니다.
SLAM은 1988년 Smith, Self 및 Cheeseman에 의해 처음 제안되었습니다. 중요한 이론 및 응용 가치로 인해 많은 학자들은 이것이 진정한 완전 자율 이동 로봇을 실현하는 열쇠라고 간주합니다.
시뮬레이션된 인간이 낯선 환경에 오면 빠르게 환경에 익숙해지고 작업(예: 레스토랑 찾기, 호텔 찾기)을 완료하기 위해 다음을 순서대로 수행해야 합니다.
a. 건물, 큰 나무, 화단 등 주변의 랜드마크를 눈으로 관찰하고 그 특징을 기억하세요(특징 추출)
b. 쌍안경으로 얻은 정보를 바탕으로 자신의 마음 속에서 재구성해보세요. 3차원 지도 속의 특징적인 랜드마크(입체지도) 재구성)
c. 걸을 때 끊임없이 새로운 특징 랜드마크를 획득하고, 마음 속 지도 모델을 수정하세요(번들 조정 또는 EKF)
d. 얼마 전 랜드마크를 걸으면서 얻은 특징을 바탕으로 자신의 위치(궤적)를 결정합니다.
e 무심코 먼 길을 걸을 때 마음속의 이전 랜드마크와 일치시켜 보세요. 원래 경로로 돌아왔습니다(루프 폐쇄 감지). 실제로 이 단계는 선택 사항입니다. 위의 5가지 단계가 동시에 수행되므로 동시 현지화 및 매핑입니다.
현재 SLAM에 사용되는 센서는 크게 라이더(LiDAR)와 카메라 두 가지로 구분됩니다. LiDAR는 각도 분해능과 정확도가 서로 다른 단일 라인 유형과 다중 라인 유형으로 나눌 수 있습니다.
VSLAM은 주로 카메라로 구현되는데, 카메라의 종류는 크게 단안, 쌍안, 단안 구조광, 쌍안 구조광, ToF로 구분됩니다. 그들의 핵심은 RGB와 깊이 맵(깊이 정보)을 얻는 것입니다. 제조 비용의 영향으로 인해 최근 몇 년 동안 시각적 SLAM이 점점 더 대중화되고 있으며 저가형 카메라를 통한 실시간 매핑 및 위치 확인도 기술적으로 매우 어렵습니다. 유망한 깊이 획득 방법인 ToF(Time of Flight)를 예로 들어 보겠습니다.
센서는 변조된 근적외선을 방출하며, 이는 물체를 만나면 반사됩니다. 센서는 빛 방출과 반사 사이의 시간차 또는 위상차를 계산하여 촬영된 장면의 거리를 변환하여 깊이 정보를 생성합니다. 레이더와 유사하거나 박쥐를 상상해 보세요. 소프트키네틱의 DS325는 ToF 솔루션(TI에서 설계)을 사용합니다. 그러나 수신기 미세구조는 셔터가 2개 이상으로 상대적으로 특수하며 ps 수준의 시간차를 측정할 수 있습니다. 그러나 단위 픽셀 크기가 일반적으로 100um이므로 현재 해상도는 높지 않습니다.
깊이 맵을 얻은 후 SLAM 알고리즘이 작동하기 시작합니다. 센서와 요구 사항이 다르기 때문에 SLAM의 표시 형식이 약간 다릅니다. 크게 레이저 SLAM(또한 2D와 3D로 구분됨)과 시각적 SLAM(또한 Sparse, semiDense, Dense로 구분됨)으로 나눌 수 있지만 주요 아이디어는 유사합니다.
SLAM 기술은 매우 실용적이지만, 항상 정확한 위치 확인이 필요한 자율주행 분야에서는 SLAM 구현도 상당히 어렵습니다. 일반적으로 SLAM 알고리즘은 구현 시 다음 네 가지 측면을 주로 고려합니다.
1. 밀도가 높은 것과 희박한 것과 같은 지도 표현 문제는 실제 장면 요구 사항에 따라 선택해야 합니다.
2. 정보 인식 문제, 환경을 종합적으로 인식하는 방법을 고려해야 합니다. RGBD 카메라 FOV는 일반적으로 작지만 Lidar는 더 큽니다.
3. 시스템은 서로 다른 표현을 가지며 균일하게 처리되어야 합니다.
4. 위치 추정 및 구성 문제는 많은 수학적 문제, 물리적 모델 설정, 상태 추정 및 최적화를 포함하는 포즈 추정 및 모델링을 달성하는 방법을 나타냅니다. 문제, 탐사 문제(탐색), 납치 문제(납치).
현재 널리 사용되는 시각적 SLAM 프레임워크에는 주로 프런트엔드와 백엔드가 포함됩니다. 프레임 간의 변환 관계를 연구합니다.
먼저 이미지의 각 프레임의 특징점을 추출하고 인접한 프레임 이미지를 사용하여 특징점을 일치시킨 다음 RANSAC을 사용하여 큰 노이즈를 제거한 다음 매칭을 수행하여 포즈 정보(위치 및 자세)를 얻습니다. 동시에 IMU(Inertial 측정 장치(관성 측정 장치)에서 제공하는 백엔드 필터링 및 자세 정보 융합은 주로 필터링 이론(EKF, UKF, PF) 또는 최적화 이론을 사용하여 프런트 엔드 결과를 최적화합니다. TORO 및 G2O를 사용하여 트리 또는 그래프를 최적화합니다. 마지막으로 최적의 포즈 추정이 얻어집니다.
Backend
백엔드에는 더 많은 어려움이 있고 더 많은 수학적 지식이 필요합니다. 일반적으로 모든 사람이 천천히 전통적인 필터링 이론을 버리고 그래프 최적화로 전환했습니다.
필터링 이론에 기초하기 때문에 필터 안정성이 너무 빨리 증가하여 빈번한 반전이 필요한 EKF(확장 칼만 필터)의 PF에 많은 부담을 줍니다. 그래프 기반 SLAM은 일반적으로 키프레임을 기반으로 여러 노드와 아핀 변환 행렬과 같은 노드 간 상대적 변환 관계를 설정하고 키 노드를 지속적으로 유지하여 그래프가 정확성을 보장하면서 계산량을 줄이는 용량을 보장합니다. .
SLAM의 미래 자율주행 분야 적용
Slam 기술은 실내 이동 로봇, AR 장면, 드론 등 다양한 분야에서 좋은 결과를 얻었습니다. 자율주행 분야에서는 SLAM 기술이 큰 주목을 받지 못하는 한편, 현재 자율주행 산업의 대부분이 RTK를 통해 해결되기 때문에 심층적인 연구에 너무 많은 자원이 투자되지 않을 것입니다. , SLAM 기술이 아직 큰 주목을 받지 못한 이유도 현재의 기술이 아직 성숙하지 않았기 때문이다. 자율주행 등 생활 관련 분야에서는 어떤 신기술이든 시간의 시험을 통과해야 한다. 받아들여졌습니다. ㅋㅋㅋ SLAM 기술이 대중화됨에 따라 점점 더 많은 포지셔닝 인재들이 자율주행 분야로 몰려들어 자율주행에 새로운 활력을 불어넣고 새로운 기술 방향과 연구 분야를 가져올 것입니다.
위 내용은 SLAM 기술을 자율주행에 적용한 내용을 다룬 기사의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!