KR20160057755A - Map-based positioning system and method thereof - Google Patents
Map-based positioning system and method thereof Download PDFInfo
- Publication number
- KR20160057755A KR20160057755A KR1020140158761A KR20140158761A KR20160057755A KR 20160057755 A KR20160057755 A KR 20160057755A KR 1020140158761 A KR1020140158761 A KR 1020140158761A KR 20140158761 A KR20140158761 A KR 20140158761A KR 20160057755 A KR20160057755 A KR 20160057755A
- Authority
- KR
- South Korea
- Prior art keywords
- map
- sensor
- vehicle
- extracting
- extracted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000005259 measurement Methods 0.000 claims abstract description 23
- 238000000605 extraction Methods 0.000 claims description 9
- 238000013178 mathematical model Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 10
- 239000000284 extract Substances 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 241001673526 Lydia Species 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
Images
Landscapes
- Navigation (AREA)
Abstract
라이다(LIDAR) 센서를 이용한 지도 기반 측위 방법이 개시된다. 이 방법은 라이다 센서로부터 획득한 포인트 클라우드를 이용하여 상기 라이다 센서 주변의 지도를 생성하고, 생성된 지도를 탐색 윈도우로 설정하는 단계와, GNSS/INS 통합 센서에 포함된 GNSS 센서에서 측정한 차량의 이전 좌표 측정치와 INS 센서에서 측정한 상기 차량의 이전 좌표 변화량을 이용하여 상기 차량의 현재 위치 및 상기 차량의 진행 방향에 대한 방위각(Heading azimuth)을 계산하고, 상기 계산된 차량의 현재 위치를 기준으로 지도 데이터베이스로부터 전자 지도를 추출하는 단계와 추출된 상기 전자 지도와 상기 탐색 윈도우 간의 맵 매칭을 수행하는 단계 및 맵 매칭된 상기 탐색 윈도우의 중앙 좌표를 추출하고, 상기 추출된 중앙 좌표에 대응하는 상기 전자 지도의 위치 좌표를 추출하는 단계를 포함한다.A map-based positioning method using a LIDAR sensor is disclosed. The method includes the steps of generating a map around the Lidar sensor using a point cloud obtained from the Lidar sensor and setting the generated map as a search window, Calculating a heading azimuth with respect to a current position of the vehicle and a traveling direction of the vehicle using a previous coordinate measurement value of the vehicle and a previous coordinate change amount of the vehicle measured by the INS sensor; Extracting an electronic map from the map database on the basis of the extracted map, performing map matching between the extracted electronic map and the search window, extracting the center coordinates of the map-matched search window, And extracting position coordinates of the electronic map.
Description
본 발명은 지도 기반 측위 시스템 및 그 방법에 관한 것으로서, 상세하게는,The present invention relates to a map-based positioning system and a method thereof, and more particularly,
지능형 운전 보조 시스템(Advanced Driver Assistance System: ADAS)을 탑재한 자동차, 자율 주행 자동차 등에 적용될 수 있는 지도 기반 측위 시스템 및 그 방법에 관한 것이다.
The present invention relates to a map-based positioning system that can be applied to an automobile equipped with an Advanced Driver Assistance System (ADAS), an autonomous driving vehicle, and the like.
현재 가장 널리 사용되는 측위 시스템인 위성 측위 시스템(Global Navigation Satellite System: GNSS)은 기본적으로 4개 이상의 위성으로부터 신호를 수신하여 3차원의 위치를 결정하는 시스템이다. 따라서 도심지나 고가차도가 많은 입체도로 구간에서는 오차가 증가하거나 측위가 불가능한 경우가 발생한다. 이를 보완하기 위해서 관성 항법 시스템(Inertial Navigation System: INS)과 GNSS를 융합한 측위 기술이 개발된 바 있다.The Global Navigation Satellite System (GNSS), which is the most widely used positioning system, is basically a system that receives signals from four or more satellites and determines three-dimensional position. Therefore, there is a case in which the error increases or the positioning is impossible in the three-dimensional road section where the distance from the center of the city is large. In order to compensate for this, a positioning technique combining an Inertial Navigation System (INS) and GNSS has been developed.
그러나 INS 센서의 경우, 가격이 비싸고, GNSS 신호가 장시간 수신되지 않아 INS만으로 측위를 하는 경우, 오차의 누적으로 측위 오차가 기하 급수적으로 증가하는 단점이 있다.However, in case of the INS sensor, if the price is high and the GNSS signal is not received for a long time, and the positioning is performed only by INS, the positioning error increases exponentially due to accumulation of the error.
따라서, GNSS/INS를 이용한 측위에서도 장시간 위성 신호가 차단 되는 경우 측위가 불가능 하다고 할 것이다. 따라서 도심지와 같이 신호 수신이 불가능한 지역에서 정밀한 측위가 가능한 시스템의 개발이 필요한 실정이다.
Therefore, if the satellite signal is blocked for a long time in the positioning using the GNSS / INS, the positioning will be impossible. Therefore, it is necessary to develop a system capable of precise positioning in areas where signal reception is impossible, such as in urban areas.
따라서, 본 발명의 목적은 도심지와 같이 신호의 수신 환경이 열악한 지역에서도 정밀한 측위가 가능한 지도 기반 측위 시스템 및 그 방법을 제공하는 데 있다.
SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide a map-based positioning system and method capable of precise positioning even in an area where signal receiving environments are poor, such as in a city center.
상술한 목적을 달성하기 위한 본 발명의 일면에 따른 지도 기반 측위 방법은, 라이다 센서로부터 획득한 포인트 클라우드를 이용하여 상기 라이다 센서 주변의 지도를 생성하고, 생성된 지도를 탐색 윈도우로 설정하는 단계와, GNSS/INS 통합 센서에 포함된 GNSS 센서에서 측정한 차량의 이전 좌표 측정치와 INS 센서에서 측정한 상기 차량의 이전 좌표 변화량을 이용하여 상기 차량의 현재 위치 및 상기 차량의 진행 방향에 대한 방위각(Heading azimuth)을 계산하고, 상기 계산된 차량의 현재 위치를 기준으로 지도 데이터베이스로부터 전자 지도를 추출하는 단계와 추출된 상기 전자 지도와 상기 탐색 윈도우 간의 맵 매칭을 수행하는 단계 및 맵 매칭된 상기 탐색 윈도우의 중앙 좌표를 추출하고, 상기 추출된 중앙 좌표에 대응하는 상기 전자 지도의 위치 좌표를 추출하는 단계를 포함한다.According to another aspect of the present invention, there is provided a map-based positioning method comprising: generating a map around the LIDAR sensor using a point cloud acquired from the LIDAR sensor, and setting the generated map as a search window And an azimuth angle with respect to a current position of the vehicle and a traveling direction of the vehicle using the previous coordinate measurement of the vehicle measured by the GNSS sensor included in the GNSS / INS integrated sensor and the previous coordinate variation of the vehicle measured by the INS sensor, Extracting an electronic map from the map database based on the calculated current position of the vehicle; performing map matching between the extracted electronic map and the search window; Extracts the center coordinates of the window, and calculates the position coordinates of the electronic map corresponding to the extracted center coordinates as .
본 발명의 다른 일면에 따른 지도 기반 측위 시스템은, 다수의 레이저 포인트를 주변에 발사하여 주변 환경에 대한 포인트 클라우드를 생성하는 라이다(LIDAR) 센서와, 차량의 이전 좌표 측정치를 측정하는 GNSS 센서와 상기 차량의 이전 좌표 변화량을 측정하는 INS 센서를 포함하는 GNSS/INS 통합 센서와, 상기 라이다 센서에서 획득한 포인트 클라우드를 이용하여 상기 라이다 센서 주변의 지도를 생성하고, 생성된 지도를 탐색 윈도우로 설정하는 라이다 센서 데이터 처리부와, 상기 GNSS/INS 통합 센서에서 측정한 상기 이전 좌표 측정치와 상기 이전 좌표 변화량을 상기 차량의 현재 위치 및 상기 차량의 진행 방향에 대한 방위각(Heading azimuth)을 계산하고, 상기 계산된 차량의 현재 위치를 기준으로 지도 데이터베이스로부터 전자 지도를 추출하는 통합 센서 데이터 처리부와, 추출된 상기 전자 지도와 상기 탐색 윈도우를 맵 매칭하는 매칭부 및 맵 매칭된 상기 탐색 윈도우의 중앙 좌표를 추출하고, 상기 추출된 중앙 좌표에 대응하는 상기 전자 지도의 위치 좌표를 추출하는 좌표 추출부를 포함한다.
According to another aspect of the present invention, there is provided a map-based positioning system comprising: a LIDAR sensor for generating a point cloud for a surrounding environment by emitting a plurality of laser points to surroundings; a GNSS sensor for measuring a previous coordinate measurement of the vehicle; A GNSS / INS integrated sensor including an INS sensor for measuring a previous coordinate change amount of the vehicle, a map around the Lidar sensor using a point cloud acquired from the Lidar sensor, And calculating a heading azimuth with respect to a current position of the vehicle and a traveling direction of the vehicle based on the previous coordinate measurement value and the previous coordinate change amount measured by the GNSS / INS integrated sensor An integrated sensor for extracting an electronic map from a map database based on the calculated current position of the vehicle A mapping unit for map-matching the extracted electronic map with the search window, and a map-matched search window, and extracts the position coordinates of the electronic map corresponding to the extracted center coordinates And a coordinate extracting unit.
본 발명에 따르면, 본 발명에서는, GNSS/INS 통합 센서에 기반한 절대적 좌표 정보 외에 센서에 기반한 상대적 좌표 정보를 기반으로 위치 측위를 수행함으로써, 위성 신호의 수신이 열악한 환경에서도 안정적이면서 정확한 위치를 측위할 수 있다.
According to the present invention, positioning is performed based on relative coordinate information based on a sensor in addition to absolute coordinate information based on a GNSS / INS integrated sensor, so that stable and accurate positioning can be performed even in an environment where satellite signals are poorly received .
도 1은 본 발명에 적용되는 라이다에 의해 획득된 포인트 클라우드를 기반으로 만들어진 실시간 주변 상황을 3차원으로 보여주는 사진 데이터를 보여주는 도면이다.
도 2는 본 발명의 일 실시 예에 따른 지도 기반 측위 시스템을 보여주는 블록도이다.
도 3은 도 2에 도시된 라이다 센서 데이터 처리부의 구성을 보여주는 블록도이다.
도 4는 도 2에 도시된 통합 센서 데이터 처리부의 구성을 보여주는 블록도이다.
도 5는 본 발명의 일 실시 예에 따른 지도기반 측위 방법을 보여주는 순서도이다.
도 6은 도 3에 도시된 추출부에서 포인트 집합을 추출하는 과정을 설명하기 위한 도면이다.
도 7은 도 3에 도시된 지도 생성부에 지도를 생성하는 과정을 설명하기 위한 도면이다.
도 8은 도 4에 도시된 지도 회전부에서 방위각을 기준으로 전자 지도를 회전시키는 과정을 설명하기 위한 도면이다.FIG. 1 is a view showing photograph data showing three-dimensional real-time surroundings based on a point cloud obtained by a ladder applied to the present invention.
2 is a block diagram illustrating a map-based positioning system in accordance with an embodiment of the present invention.
FIG. 3 is a block diagram showing the configuration of the Lidar sensor data processing unit shown in FIG. 2. FIG.
4 is a block diagram showing the configuration of the integrated sensor data processing unit shown in FIG.
5 is a flowchart showing a map-based positioning method according to an embodiment of the present invention.
FIG. 6 is a diagram for explaining a process of extracting a set of points in the extracting unit shown in FIG. 3. FIG.
FIG. 7 is a diagram for explaining a process of generating a map in the map generating unit shown in FIG. 3. FIG.
FIG. 8 is a diagram for explaining a process of rotating the electronic map on the basis of the azimuth angle in the map rotation unit shown in FIG.
기존의 GNSS/INS 통합 센서에 기반한 위치 측위 시스템에 따르면, GNSS 센서에 위성 신호의 수신이 차단되는 경우, INS 센서에서 측정한 측정치만으로 위치를 측위한다. 이러한 기존의 위치 측위 시스템은 위성 신호의 수신이 차단된 환경에서 INS 센서에서 측정한 측정치(위치의 변화량)를 이전 위치에 계속 누적하고, 그 누적 결과에 기초해 위치를 측위하기 때문에, 위성 신호의 수신 차단 시간이 길어짐에 따라 변화량의 오차는 기하급수적으로 증가한다.According to the existing positioning system based on the GNSS / INS integrated sensor, when reception of the satellite signal to the GNSS sensor is interrupted, the position is measured only by the measurement value measured by the INS sensor. Since the conventional positioning system continuously accumulates the measurement value (change amount of the position) measured by the INS sensor in the environment where the reception of the satellite signal is blocked, the positioning is continued based on the cumulative result, As the reception cutoff time becomes longer, the error of the variation increases exponentially.
이에 본 발명에서는 GNSS/INS 통합 센서 외에 라이다 센서를 이용한 주변 환경에 대한 포인트 클라우드를 바탕으로 상대 좌표를 갖는 지도를 생성하고, 포인트 클라우드를 바탕으로 생성된 지도와 사전에 구축된 전자 지도 데이터베이스에서 검출한 전자 지도와 매칭시키고, 매칭된 전자 지도를 기반으로 위치를 측위하기 때문에 위성 신호의 수신이 차단된 환경에서도 정밀한 측위를 제공할 수 있다.In the present invention, in addition to the GNSS / INS integrated sensor, a map having relative coordinates is generated based on a point cloud of the surrounding environment using a Lidar sensor, and a map generated based on the point cloud and an electronic map database It is possible to provide precise positioning even in an environment where the reception of the satellite signal is blocked because the position is determined based on the matched electronic map.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예에 대해 상세 기술하며, 아래의 실시 예에서는 차량의 위치 측위를 가정하지만, 본 발명이 차량의 위치 측위에 특별히 한정되는 것은 아니며, 다양한 위치 측위 시스템에 적용될 수 있음은 당업자라면 충분히 이해할 수 있다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following embodiments, the positioning of the vehicle is assumed, but the present invention is not particularly limited to the positioning of the vehicle, System can be fully understood by those skilled in the art.
도 1은 본 발명에 적용되는 라이다에 의해 획득된 포인트 클라우드를 기반으로 만들어진 실시간 주변 상황을 3차원으로 보여주는 사진 데이터를 보여주는 도면이고, 도 2는 본 발명의 일 실시 예에 따른 지도 기반 측위 시스템을 보여주는 블록도이다.FIG. 1 is a diagram showing photograph data showing three-dimensional real-time surroundings based on a point cloud obtained by a ladder applied to the present invention. FIG. 2 is a diagram illustrating a map- FIG.
도 1 및 2를 참조하면, 본 발명의 일 실시 예에 따른 지도 기반 측위 시스템(100)은 본 발명은 GNSS 또는 GNSS/INS 통합 측위를 사용하는 측위 시스템에 보완적으로 라이다 센서와 전자지도 데이터베이스를 사용하여 측위의 안정성과 정밀성을 높인다.1 and 2, a map-based
이를 위해, 본 발명의 일 실시 예에 따른 지도 기반 측위 시스템(100)은 라이다 센서(110), 라이다 센서 데이터 처리부(120), GNSS/INS 통합 센서(130), 통합 센서 데이터 처리부(140), 전자 지도 데이터베이스(150), 맵 매칭부(160) 및 좌표 추출부(170)를 포함한다.The map-based
라이다 센서(110)는 차량에 설치되어 다수의 레이저 포인트를 주변에 발사하고, 각 레이저 포인트가 어떤 객체에 반사되어 돌아오는 시간을 계산한 주변의 공간 정보(이하, 포인트 클라우드(point cloud))를 생성한다. 이러한 포인트 클라우드는 도 1에 도시된 바와 같은 사진 데이터와 같이, 3차원으로 시각화되어 사용자에게 제공될 수 있다. 참고로 도 1에서는 회전식 라이다 센서에 의해 획득된 포인트 클라우드를 시각화한 사진 데이터이다. 라이다 센서(110)는 이러한 포인트 클라우드 정보로부터 라이다 센서(110)의 설치 위치(또는 차량의 현재 위치)를 기준으로 하는 상대 좌표를 획득할 수 있다.The
라이다 센서 데이터 처리부(120)는 라이다(LIDAR) 센서로부터 획득한 포인트 클라우드로부터 획득할 수 있는 상기 상대 좌표를 이용하여 차량 주변의 벡터화된 지도를 생성하고, 생성된 지도를 탐색 윈도우로 설정한다. 이에 대한 상세 설명은 도 3을 참조하여 상세 기술한다.The LIDAR sensor
GNSS/INS 통합 센서(130)는 차량의 좌표 측정치를 실시간으로 측정하는 GNSS 센서와 상기 차량의 좌표 변화량을 측정하는 INS 센서를 포함한다. GNSS 센서는 4개 이상의 위성으로부터 시각 정보를 포함하는 신호를 수신하고 수신한 신호를 이용하여 차량의 이전 및 현재 좌표 측정치를 계산한다. INS 센서는 자이로 센서(Gyro Sensor) 및 가속도 센서(Accelerometer)로 구성된 관성 센서(Inertial Sensor)를 이용하여 차량의 좌표 변화량을 측정한다. The GNSS / INS integrated
통합 센서 데이터 처리부(140)는 GNSS 센서에서 측정한 실시간 좌표 측정치와 INS 센서에서 측정한 좌표 변화량을 이용하여 상기 차량의 현재 위치 및 상기 차량의 진행 방향에 대한 방위각(Heading azimuth)을 계산하고, 상기 계산된 차량의 현재 위치를 기준으로 전자 지도 데이터베이스(160)로부터 추출한 전자 지도를 생성한다. 이에 대한 설명은 도 4를 참조하여 상세 기술한다.The integrated sensor
맵 매칭부(160)는 상기 라이다 센서 데이터 처리부(120)에서 설정한 탐색 윈도우와 상기 통합 센서 데이터 처리부(140)에서 생성한 전자 지도 간의 맵 매칭을 수행한다. 이러한 맵 매칭부(160)는 탐색 윈도우를 전자 지도 데이터베이스(160)로부터 추출한 전자 지도의 좌상부터 우하 방향으로 스캐닝 하면서 맵 매칭을 수행하는데, 전자 지도와 탐색 윈도우 간의 피팅(fitting) 정도가 가장 높은 스캐닝 위치에서 탐색 윈도우의 중심 좌표와 그 중심 좌표에 대응하는 전자 지도의 위치 좌표를 좌표 추출부(170)로 전달한다.The map matching
좌표 추출부(170)는 전달받은 상기 탐색 윈도우의 중심 좌표와 이에 대응하는 상기 전자 지도의 위치 좌표를 출력함으로써, 차량 위치를 측위한다. 아래에서 설명하겠지만, 상기 좌표 추출부(170)에서 출력된 위치 좌표를 차량 측위에 그대로 이용할 수도 있지만, 칼만 필터의 필터링 과정을 통해 차량 측위의 정확성과 안정성을 더욱 높일 수도 있다.The
도 3은 도 2에 도시된 라이다 센서 데이터 처리부의 구성을 보여주는 블록도이다.FIG. 3 is a block diagram showing the configuration of the Lidar sensor data processing unit shown in FIG. 2. FIG.
도 3을 참조하면, 본 발명의 일 실시 예에 따른 라이다 센서 데이터 처리부(120)는 추출부(122), 지도 생성부(124) 및 윈도우 설정부(126)를 포함한다.3, the LIDAR sensor
상기 포인트 추출부(122)는 라이다 센서(110)에서 생성한 포인트 클라우드를 입력 받아서, 도로와 건물들에 대응하는 특정 라인에 피팅될 수 있는 포인트 집합을 추출한다. The
구체적으로, 포인트 클라우드는 라이다 센서(110)의 설치 위치(차량의 현재 위치)를 기준으로 상대적 좌표값(전자 지도 데이터베이스에 구축된 전자 지도의 절대적 좌표값에 대한 상대적 좌표값)을 갖는데, 추출부(122)는 이러한 상대적 좌표값을 갖는 포인트 클라우드 내에서 차량의 현재 위치를 기준으로 특정한 거리를 형성하는 범위 내의 전체 포인트 집합을 추출한다. 예를 들어, 먼저, 추출부(122)는 라이다 센서(110)에서 생성한 포인트 클라우드에서 평면 좌표 상에서 좌상의 최대 좌표값이 x=-50m, y=50 m 이며, 우하의 최대 좌표값이 x=50 m, y=-50m 인 도 6의 (b)와 같은 100m*100m 내의 포인트 집합(61)을 추출한다. Specifically, the point cloud has a relative coordinate value (relative coordinate value relative to the absolute coordinate value of the electronic map constructed in the electronic map database) based on the installation position (current position of the vehicle) of the
상기 지도 생성부(124)는 도 7의 (a)와 같이, 상기 제2 포인트 집합(63)이 추출되면, 도 7의 (b)와 같이, 추출된 포인트 집합(61)에서 선형 맞춤 알고리즘(linear fitting algorithm)을 이용하여 도로와 건물들에 해당하는 어떤 특정 라인에 피팅될 수 있는 포인트들(65), 다르게 표현하면, 수학적 모델 인자들로 표현 가능한 특정 라인들을 추출한다. 7 (a), when the second set of
상기 지도 생성부(124) 특정 라인에 피팅되는 포인트들(65)을 연결하여 도 7의 (c)와 같은 벡터화된 지도를 생성한다. 이때, 수학적 모델 인자들로 표현 가능한 포인트들을 추출하고, 추출된 포인트들을 연결하여 벡터화된 지도를 생성하기 위해, RANSAC(RANdom SAmple Consensus) 알고리즘이 이용될 수 있다.And connects the
상기 윈도우 설정부(126)는 상기 지도 생성부(124)에서 생성한 벡터화된 지도를 적절한 사이즈로 커팅한 탐색 윈도우(67)로 설정한다. 이와 같이, 설정된 탐색 윈도우(67)는 맵 매칭부(160)로 전달된다. The
도 4는 도 2에 도시된 통합 센서 데이터 처리부의 구성을 보여주는 블록도이다.4 is a block diagram showing the configuration of the integrated sensor data processing unit shown in FIG.
도 4를 참조하면, 본 발명의 일 실시 예에 따른 통합 센서 데이터 처리부(140)는 칼만 필터(142, Kalman Filter), 전자 지도 추출부(144) 및 전자 지도 회전부(146)를 포함한다.4, the integrated sensor
상기 칼만 필터(142)는 GNSS/INS 통합 센서(130)로부터 GNSS 데이터와 INS 데이터를 입력 받아서, 이들이 갖는 오차들에 가중치를 부여하여 최적의 위치 측정치와 최적의 좌표 변화량을 계산한다.The
상기 전자 지도 추출부(144)는 상기 칼만 필터(142)에서 계산된 최적의 위치 측정치와 최적의 좌표 변화량에 기초해 차량의 현재 위치 및 차량의 진행 방향에 대한 방위각을 계산하고, 계산된 현재 위치를 기준으로 상기 윈도우 설정부(126)에서 설정한 탐색 윈도우(67)의 사이즈보다 큰 사이즈를 갖는 전자 지도를 사전에 구축된 전자 지도 데이터베이스(150)에서 추출한다. The electronic
상기 전자 지도 회전부(146)는 도 8에 도시된 바와 같이, 상기 전자 지도 추출부(144)에서 추출한 전자 지도(81)를 상기 계산된 방위각을 기준으로 회전시키고, 회전된 전자 지도(83)를 상기 맵 매칭부(160)로 전달한다.The electronic
상기 맵 매칭부(160)는 도 3에서 설명한 윈도우 설정부(126)에서 설정한 탐색 윈도우(도 7의 (c))를 상기 회전된 전자 지도(83)의 좌상부터 우하 방향으로 이동시켜가면서 맵 매칭을 수행하게 된다. The
즉, 도 8에 도시된 바와 같이, 상기 전자 지도 데이터베이스(150)로부터 가져온 회전된 전자 지도(83)와 탐색 윈도우(67)를 비교하여 피팅 정도가 가장 높은 위치에서 스캐닝을 멈추고, 스캐닝을 멈춘 그 위치에서의 탐색 윈도우(67)의 중심 좌표(C)와 그 중심 좌표(C)에 대응하는 전자 지도(83)의 위치 좌표를 활용하여 차량의 위치 측위를 위한 좌표를 결정할 수 있게 된다.8, the rotated
도 5는 본 발명의 일 실시 예에 따른 지도기반 측위 방법을 보여주는 순서도이고, 아래의 설명에서 각 단계의 수행 주체는 앞서 설명한 도 2 내지 도 4의 설명으로부터 명확히 이해될 수 있으므로, 경우에 따라서, 각 단계의 수행 주체가 언급되지 않을 수도 있다.FIG. 5 is a flowchart showing a map-based positioning method according to an embodiment of the present invention. In the following description, the subject of each step can be clearly understood from the description of FIGS. 2 to 4 described above, The subject of each step may not be mentioned.
도 5를 참조하면, 본 발명의 일 실시 예에 따른 지도기반 측위 방법은 크게 라이다 센서에서 획득한 포인트 클라우드의 처리과정들(S311~S317)과, GNSS/INS 통합 센서에서 획득한 센서 데이터들의 처리과정들(S319~S329), 이들 과정들을 통해 생성된 탐색 윈도우와 전자 지도를 맵 매칭하는 과정(S327) 및 맵 매칭된 결과에 따라 좌표를 추출하는 과정(S331)으로 나눌 수 있다.Referring to FIG. 5, the map-based positioning method according to an embodiment of the present invention mainly includes point clouds processing steps (S311 to S317) obtained by the Lada sensor, sensor data obtained from the GNSS / INS integrated sensor Processing steps S319 to S329, map matching the search window and the electronic map generated through these processes (S327), and extracting coordinates according to the map-matched result (S331).
먼저, 라이다 센서에서 획득한 포인트 클라우드의 처리과정들(S311~S317)을 살펴보면, 라이다 센서에서 설치 위치를 중심으로 포인트 클라우드를 생성하면, 생성된 포인트 클라우드를 구성하는 상대적 좌표값을 기준으로 특정한 거리 내에 존재하는 포인트들을 추출한다(S311).First, the point cloud processing steps (S311 to S317) obtained by the Lidar sensor will be described. When the Lidar sensor generates the point cloud around the installation position, the relative coordinate value constituting the generated point cloud is used as a reference Points existing within a certain distance are extracted (S311).
이어, 추출된 포인트 클라우드에서 도로와 건물에 해당하는 포인트를 추출하는데(S313), 이때, 선형 맞춤 알고리즘(linear fitting algorithm) 등을 이용하여 도로와 건물에 해당하는 포인트를 추출하고(S313), 상기 도로와 건물에 해당하는 포인트들을 연결한 벡터화된 지도를 생성한다(S315). 이때, 이러한 벡터화된 지도를 생성하기 위해, RANSAC 알고리즘 등이 이용될 수 있다. 즉, RANSAC 알고리즘을 이용하여 도로와 건물에 해당하는 포인트들 중 어떤 특정 라인에 피팅 될 수 있는 점들을 추출하고 그 점들에 가장 잘 피팅되는 라인을 생성하여 벡터화된 지도를 생성할 수 있다.In step S313, points corresponding to roads and buildings are extracted using the linear fitting algorithm or the like in step S313. A vectorized map is created by connecting points corresponding to the road and the building (S315). At this time, in order to generate such a vectorized map, a RANSAC algorithm or the like may be used. That is, using the RANSAC algorithm, it is possible to extract points that can be fitted to a specific line among points corresponding to roads and buildings, and generate a vectorized map by generating a line that best fits the points.
이어, 생성된 벡터화된 지도를 기 설정된 사이즈에 맞게 커팅하여 탐색 윈도우를 설정한다(S317).Then, the generated vectorized map is cut according to a preset size, and a search window is set (S317).
다음으로, GNSS/INS 통합 센서에서 획득한 센서 데이터들의 처리과정들(S319~S329)을 살펴보면, 먼저, GNSS/INS 통합 센서에서 획득한 센서 데이터들을 칼만 필터를 통해 필터링 한다(S319). In step S319, sensor data acquired by the GNSS / INS integrated sensor is filtered through a Kalman filter. [0053] Next, the sensor data processing steps S319 to S329 obtained by the GNSS / INS integrated sensor will be described.
이어, 필터링 된 센서 데이터들로부터 차량의 진행 방향에 대한 방위각과 차량의 현재 위치를 계산하는 과정이 수행된다(S321). 예컨대, 현재 시간을 t 시점이라 가정하면 t-1 시점과 t-2 시점의 좌표 변화량을 비교하여 차량의 현재 위치와 차량의 현재 방위각(Heading azimuth)이 계산될 수 있다.Next, a process of calculating the azimuth angle of the vehicle from the filtered sensor data and the current position of the vehicle is performed (S321). For example, assuming that the current time is a time t, the current position of the vehicle and the current azimuth of the vehicle can be calculated by comparing the coordinate change amounts at the time points t-1 and t-2.
이어, 전자 지도 데이터베이스를 조회하여, 상기 계산된 차량의 현재 위치를 포함하는 전자 지도를 상기 전자 지도 데이터베이스(150)로부터 추출하는 과정이 수행된다(S323). 이때, 상기 S317에서 설정된 탐색 윈도우의 사이즈보다 큰 사이즈의 전자 지도를 가져오는데, 예컨대, 탐색 윈도우의 사이즈가 100m*100m인 경우, 차량의 현재 위치를 포함하는 500m*500m의 전자 지도를 전자 지도 데이터베이스(150)로부터 추출할 수 있다.Then, an electronic map database is inquired and an electronic map including the calculated current position of the vehicle is extracted from the electronic map database 150 (S323). When the size of the search window is 100m * 100m, for example, the electronic map of 500m * 500m including the current position of the vehicle is stored in the electronic map database < RTI ID = 0.0 > (150).
이어, 상기 전자 지도 데이터베이스(150)로부터 추출된 상기 전자 지도를 상기 계산된 방위각을 기준으로 회전시킨다(S325).Then, the electronic map extracted from the
다음으로, 상기 과정들(S311~S325)을 통해 생성된 탐색 윈도우와 전자 지도를 맵 매칭하는 과정이 수행되는데(S327), 탐색 윈도우를 전자 지도의 좌상부터 우하 방향으로 스캐닝하면서 맵 매칭을 수행한다. 즉, 전자 지도 데이터베이스(150)로부터 추출한 전자 지도와 탐색 윈도우를 비교하여 가장 잘 피팅되는 위치가 탐색되면, 즉, 맵 매칭이 성공하면(S329), 탐색 윈도우의 스캐닝을 멈추고, 멈춘 상태에서 탐색 윈도우의 중심 좌표와 그 중심 좌표에 대응하는 전자 지도의 위치 좌표를 추출함으로써(S331), 차량의 위치 측위를 위한 3차원의 좌표를 결정하게 된다. 이때, 최적의 위치 측정치를 계산하기 위해, 칼만 필터를 이용하여 각각의 센서들이 갖는 오차들을 모두 고려하여 가중치를 부여할 수 있다. 즉, GNSS/INS 센서 및 라이다 센서로 이루어진 센서들이 모두 측정치를 계산할지라도 각 센서들의 정확도가 다를 수 있다. 그러므로 상기 S331에서 추출된 전자 지도의 좌표와 통합 센서에 의해 측정된 현재 위치 측정치와 현재 INS 측정치를 모두 칼만 필터에 다시 입력하여 최종 좌표를 결정하게 할 수도 있다. 즉, 각 센서들의 정확도(또는 성능)에 따라 가중치를 부여하여 최종적으로 최적의 위치 측정치를 계산함으로써, 정확도를 더욱 향상시킬 수 있다.Next, map matching is performed between the search window and the electronic map generated through the processes (S311 to S325) (S327), and map matching is performed while scanning the search window from the upper left to the lower right of the electronic map . That is, when the best fitting position is found by comparing the electronic map extracted from the
이상의 설명한 바와 같이, 맵 매칭이 성공한 경우, 전자 지도로부터 3차원 좌표를 획득할 수 있게 되고, 이러한 3차원의 좌표값을 기존의 GNSS/INS 통합 센서에 의한 측위와 융합하여 항법을 수행할 수 있게 된다. 만일, 상기 S329에서, 개활지와 같이 주변 환경에 어떠한 지리적 특성(도로의 곡면이나 건물의 모서리 등)으로 인해 맵 매칭이 실패하면, 상기 S311 이전으로 다시 돌아가 라이다 센서(110)의 포인트 클라우드를 수집하는 과정이 재 시작된다.As described above, when the map matching is successful, three-dimensional coordinates can be acquired from the electronic map, and the three-dimensional coordinate values can be combined with the positioning by the existing GNSS / INS integrated sensor to perform the navigation do. If map matching fails due to any geographical characteristic (such as a curved surface of a road or a corner of a building) in the surrounding environment such as an open space in step S329, the process returns to step S311. The process is restarted.
요약하면, GNSS 센서는 기본적으로 3차원의 좌표 정보를 특정시간마다 계산하고, INS 센서의 경우, 가속도 센서를 이용하여 좌표의 변화량을 출력하게 된다. 이 둘만을 이용하는 경우, 도심지와 같이 GNSS 신호의 수신 환경이 열악한 지역에서 일정시간 동안 GNSS 좌표 측정치가 출력되지 않더라도 기존의 좌표 측정치에 INS의 좌표 변화량을 반영하여 계속적인 좌표의 계산을 수행해 나갈 수 있다. In summary, the GNSS sensor basically calculates three-dimensional coordinate information at specific time intervals, and in the case of the INS sensor, outputs an amount of change of coordinates using an acceleration sensor. Even if GNSS coordinate measurement is not output for a certain period of time in an area where receiving environment of GNSS signal is poor, for example, in a city center, continuous calculation of coordinates can be performed by reflecting the INS coordinate variation to the existing coordinate measurement .
그러나 INS 센서의 경우 좌표의 변화량만을 계산하므로, 오랜 시간 GNSS 좌표 계산 값이 수신되지 않으면 좌표 변화량에 오차가 포함되는 경우, 오차가 계속적으로 누적되어 좌표 측정치의 신뢰도가 급격히 떨어지게 된다. However, in the case of the INS sensor, only the variation of the coordinates is calculated. If the GNSS coordinate calculation value is not received for a long time, if the error is included in the coordinate variation amount, the error is continuously accumulated and the reliability of the coordinate measurement value drops sharply.
따라서 본 발명에서는 GNSS 센서와 같이 좌표 측정치를 계산할 수 있는 센서로서 라이다 센서를 이용하고, 이 라이다 센서를 기반으로 생성된 탐색 윈도우와 GNSS/INS 통합 센서를 기반으로 전자 지도 데이터베이스로부터 추출된 전자 지도 간의 맵 매칭 과정을 통해, 전자 지도 데이터베이스로부터 추출된 전자 지도로부터 좌표값을 출력함으로써, 오랜 시간 GNSS 좌표 계산값이 수신되지 않는 상황에서도 오차의 누적을 피할 수 있어 안정적인 측위가 가능하다.Therefore, in the present invention, an LIDAR sensor is used as a sensor capable of calculating coordinate measurement values such as a GNSS sensor, and an electronic window extracted from an electronic map database based on a navigation window and a GNSS / INS integrated sensor, By outputting the coordinate values from the electronic map extracted from the electronic map database through the map matching process between the maps, it is possible to avoid the accumulation of errors even in a situation where the long time GNSS coordinate calculation value is not received, and stable positioning is possible.
Claims (8)
GNSS/INS 통합 센서에 포함된 GNSS 센서에서 측정한 차량의 이전 좌표 측정치와 INS 센서에서 측정한 상기 차량의 이전 좌표 변화량을 이용하여 상기 차량의 현재 위치 및 상기 차량의 진행 방향에 대한 방위각(Heading azimuth)을 계산하고, 상기 계산된 차량의 현재 위치를 기준으로 지도 데이터베이스로부터 전자 지도를 추출하는 단계;
추출된 상기 전자 지도와 상기 탐색 윈도우 간의 맵 매칭을 수행하는 단계; 및
맵 매칭된 상기 탐색 윈도우의 중앙 좌표를 추출하고, 상기 추출된 중앙 좌표에 대응하는 상기 전자 지도의 위치 좌표를 추출하는 단계;
를 포함하는 지도 기반 측위 방법.
Generating a map around the Lidar sensor by using a point cloud obtained from a LIDAR sensor, and setting the generated map as a search window;
The current position of the vehicle and the azimuth angle with respect to the traveling direction of the vehicle using the GNSS sensor included in the GNSS / INS integrated sensor and the previous coordinates of the vehicle measured by the INS sensor, Extracting an electronic map from the map database based on the calculated current position of the vehicle;
Performing map matching between the extracted electronic map and the search window; And
Extracting a center coordinate of the search window matched with the map and extracting a position coordinate of the electronic map corresponding to the extracted center coordinate;
Based positioning method.
상기 추출된 전자 지도의 위치 좌표, 상기 GNSS 센서에서 측정한 현재 좌표 측정치 및 상기 INS 센서에서 측정한 현재 좌표 변화량을 칼만 필터에 입력하여 최종 좌표를 결정하는 단계를 더 포함함을 특징으로 하는 지도 기반 측위 방법.
The method according to claim 1, wherein, after extracting the position coordinates of the electronic map,
Further comprising the step of determining the final coordinates by inputting the position coordinates of the extracted electronic map, the current coordinate measurement measured by the GNSS sensor, and the current coordinate change measured by the INS sensor into the Kalman filter, Positioning method.
라이다 센서로부터 획득된 포인트 클라우드로부터 특정 거리 이내에 존재하는 포인트 집합을 추출하는 단계;
상기 추출된 포인트 집합에서 수학적 모델 인자들로 표현 가능한 도로 및 건물 영역의 특정 라인을 포함하는 상기 센서 주변의 지도를 생성하는 단계; 및
상기 특정 라인을 포함하는 지도를 상기 탐색 윈도우로 설정하는 단계;
를 포함하는 지도 기반 측위 방법.
2. The method of claim 1, wherein the setting of the search window comprises:
Extracting a set of points that is within a certain distance from the point cloud obtained from the Lidar sensor;
Generating a map around the sensor that includes a particular line of road and building area that can be represented by mathematical model factors in the extracted set of points; And
Setting a map including the specific line as the search window;
Based positioning method.
선형 맞춤 알고리즘(linear fitting algorithm)을 이용하여 상기 추출된 포인트 집합에서 도로 및 건물 영역에 대응하는 상기 특정 라인을 추출하는 단계임을 특징으로 하는 지도 기반 측위 방법.
4. The method of claim 3, wherein generating the map around the sensor further comprises:
And extracting the specific line corresponding to the road and the building area from the extracted set of points using a linear fitting algorithm.
RANSAC(RANdom SAmple Consensus) 알고리즘을 이용하여 상기 추출된 제2 포인트 집합에서 수학적 모델 인자들로 표현 가능한 특정 라인을 포함하는 상기 센서 주변의 지도를 생성하는 단계임을 특징으로 하는 지도기반 측위 방법.
4. The method of claim 3, wherein generating the map around the Lidar sensor comprises:
And generating a map around the sensor including a specific line that can be represented by mathematical model factors in the extracted second set of points using RANSAC (Random Domain Consensus) algorithm.
상기 추출된 전자 지도를 상기 계산된 방위각을 기준으로 회전시키는 단계; 및
상기 회전된 전자 지도를 상기 탐색 윈도우 간의 맵 매칭을 수행하는 단계
를 포함함을 특징으로 하는 지도 기반 측위 방법.
2. The method of claim 1, wherein performing the map matching comprises:
Rotating the extracted electronic map based on the calculated azimuth angle; And
Performing map matching between the search windows on the rotated electronic map
And a map-based positioning method.
차량의 이전 좌표 측정치를 측정하는 GNSS 센서와 상기 차량의 이전 좌표 변화량을 측정하는 INS 센서를 포함하는 GNSS/INS 통합 센서;
상기 라이다 센서에서 획득한 포인트 클라우드를 이용하여 상기 라이다 센서 주변의 지도를 생성하고, 생성된 지도를 탐색 윈도우로 설정하는 라이다 센서 데이터 처리부;
상기 GNSS/INS 통합 센서에서 측정한 상기 이전 좌표 측정치와 상기 이전 좌표 변화량을 상기 차량의 현재 위치 및 상기 차량의 진행 방향에 대한 방위각(Heading azimuth)을 계산하고, 상기 계산된 차량의 현재 위치를 기준으로 지도 데이터베이스로부터 전자 지도를 추출하는 통합 센서 데이터 처리부;
추출된 상기 전자 지도와 상기 탐색 윈도우를 맵 매칭하는 매칭부; 및
맵 매칭된 상기 탐색 윈도우의 중앙 좌표를 추출하고, 상기 추출된 중앙 좌표에 대응하는 상기 전자 지도의 위치 좌표를 추출하는 좌표 추출부
를 포함하는 지도 기반 측위 시스템.
A LIDAR sensor that fires a number of laser points around to create a point cloud for the surrounding environment;
A GNSS / INS integrated sensor including a GNSS sensor measuring a previous coordinate measurement of the vehicle and an INS sensor measuring a previous coordinate change of the vehicle;
A Lidar sensor data processing unit for generating a map around the Lidar sensor by using a point cloud acquired from the Lidar sensor and setting the generated map as a search window;
Calculating a heading azimuth with respect to a current position of the vehicle and a traveling direction of the vehicle based on the previous coordinate measurement value and the previous coordinate variation measured by the GNSS / INS integrated sensor; An integrated sensor data processing unit for extracting an electronic map from a map database;
A matching unit for map-matching the extracted electronic map and the search window; And
A coordinate extraction unit for extracting a center coordinate of the search window matching the map and extracting a position coordinate of the electronic map corresponding to the extracted central coordinate,
Based positioning system.
라이다 센서로부터 획득된 포인트 클라우드로부터 특정 거리 이내에 존재하는 포인트 집합을 추출하고, 상기 추출된 포인트 집합에서 도로 및 건물 영역을 수학적 모델 인자로 표현 가능한 특정 라인을 추출하는 추출부;
상기 추출된 특정 라인을 포함하는 센서 주변의 지도를 생성하는 지도 생성부; 및
상기 특정 라인을 포함하는 지도를 상기 탐색 윈도우로 설정하는 윈도우 설정부
를 포함함을 특징으로 하는 지도 기반 측위 시스템.The apparatus as claimed in claim 7,
An extraction unit for extracting a set of points existing within a specific distance from the point cloud obtained from the LIDAR sensor and extracting a specific line capable of expressing the road and building area in the extracted point set by a mathematical model factor;
A map generating unit for generating a map around the sensor including the extracted specific line; And
A window setting unit for setting a map including the specific line as the search window,
Based positioning system.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020140158761A KR101625486B1 (en) | 2014-11-14 | 2014-11-14 | Map-based positioning system and method thereof |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020140158761A KR101625486B1 (en) | 2014-11-14 | 2014-11-14 | Map-based positioning system and method thereof |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20160057755A true KR20160057755A (en) | 2016-05-24 |
| KR101625486B1 KR101625486B1 (en) | 2016-05-30 |
Family
ID=56113881
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020140158761A Active KR101625486B1 (en) | 2014-11-14 | 2014-11-14 | Map-based positioning system and method thereof |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR101625486B1 (en) |
Cited By (22)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20180102317A (en) * | 2017-03-07 | 2018-09-17 | 현대자동차주식회사 | Vehicle and controlling method thereof and autonomous driving system |
| CN109313646A (en) * | 2016-06-14 | 2019-02-05 | 罗伯特·博世有限公司 | Method and apparatus for creating an optimized positioning map and method for creating a positioning map for a vehicle |
| CN109507995A (en) * | 2017-09-14 | 2019-03-22 | 深圳乐动机器人有限公司 | The management system and robot of robot map |
| CN109859562A (en) * | 2019-01-31 | 2019-06-07 | 南方科技大学 | Data generation method, device, server and storage medium |
| KR20190084156A (en) * | 2017-12-20 | 2019-07-16 | 현대자동차주식회사 | Vehicle and position recognition method of the same |
| US10366282B2 (en) | 2016-06-09 | 2019-07-30 | Daegu Gyeongbuk Institute Of Science And Technology | Human detection apparatus and method using low-resolution two-dimensional (2D) light detection and ranging (LIDAR) sensor |
| KR20190104305A (en) * | 2019-09-03 | 2019-09-09 | 주식회사 모빌테크 | Apparatus for building map using LiDAR |
| KR20190104304A (en) * | 2019-09-03 | 2019-09-09 | 주식회사 모빌테크 | Method for building map including point cloud using LiDAR |
| KR102105590B1 (en) * | 2018-11-05 | 2020-04-28 | 한국교통대학교산학협력단 | System and method for improving accuracy of low-cost commercial GNSS Receiver |
| KR20200072137A (en) * | 2018-12-12 | 2020-06-22 | 현대자동차주식회사 | Apparatus and method for identificating odm data reliability and vehicle including the same |
| CN111551186A (en) * | 2019-11-29 | 2020-08-18 | 福瑞泰克智能系统有限公司 | Vehicle real-time positioning method and system and vehicle |
| CN111947642A (en) * | 2019-05-15 | 2020-11-17 | 宜升有限公司 | Vehicle navigation apparatus for self-driving vehicle |
| CN112219225A (en) * | 2019-09-26 | 2021-01-12 | 深圳市大疆创新科技有限公司 | Positioning method, system and movable platform |
| CN112241016A (en) * | 2019-07-19 | 2021-01-19 | 北京初速度科技有限公司 | Method and device for determining geographic coordinates of parking map |
| CN112455503A (en) * | 2019-09-09 | 2021-03-09 | 中车株洲电力机车研究所有限公司 | Train positioning method and device based on radar |
| KR20210058640A (en) * | 2019-11-12 | 2021-05-24 | 썬 학 트레이딩 씨오., 엘티디. | Vehicle navigaton switching device for golf course self-driving cars |
| CN112946606A (en) * | 2019-12-11 | 2021-06-11 | 北京万集科技股份有限公司 | Laser radar calibration method, device, equipment, system and storage medium |
| KR20210079815A (en) * | 2019-12-20 | 2021-06-30 | 재단법인대구경북과학기술원 | Apparatus and method for detecting road curb |
| KR20210111182A (en) * | 2020-03-02 | 2021-09-10 | 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. | Method and apparatus for positioning, computing device, computer-readable storage medium and computer program stored in medium |
| CN116380118A (en) * | 2022-11-29 | 2023-07-04 | 哈尔滨理工大学 | 3D laser radar odometer optimization method suitable for planar road |
| WO2023236643A1 (en) * | 2022-06-09 | 2023-12-14 | 腾讯科技(深圳)有限公司 | Positioning method and apparatus, device and storage medium |
| WO2024138970A1 (en) * | 2022-12-26 | 2024-07-04 | 中国铁路设计集团有限公司 | Multi-scale array-type laser radar measurement system, and method for acquiring track boundary conditions |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN108732603B (en) * | 2017-04-17 | 2020-07-10 | 百度在线网络技术(北京)有限公司 | Method and device for locating a vehicle |
| KR102561263B1 (en) | 2018-04-04 | 2023-07-28 | 삼성전자주식회사 | Electronic apparatus and operating method for generating a map data |
| CN110082783B (en) * | 2019-05-10 | 2021-04-23 | 北京理工大学 | Method and device for detecting cliffs |
Family Cites Families (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8699755B2 (en) | 2009-02-20 | 2014-04-15 | Navteq B.V. | Determining travel path features based on retroreflectivity |
-
2014
- 2014-11-14 KR KR1020140158761A patent/KR101625486B1/en active Active
Cited By (29)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10366282B2 (en) | 2016-06-09 | 2019-07-30 | Daegu Gyeongbuk Institute Of Science And Technology | Human detection apparatus and method using low-resolution two-dimensional (2D) light detection and ranging (LIDAR) sensor |
| CN109313646A (en) * | 2016-06-14 | 2019-02-05 | 罗伯特·博世有限公司 | Method and apparatus for creating an optimized positioning map and method for creating a positioning map for a vehicle |
| CN109313646B (en) * | 2016-06-14 | 2023-10-27 | 罗伯特·博世有限公司 | Methods and devices and machine-readable storage media for creating optimized positioning maps |
| CN108571975A (en) * | 2017-03-07 | 2018-09-25 | 现代自动车株式会社 | Vehicle and its control method and the autonomous driving system for using the vehicle and method |
| CN108571975B (en) * | 2017-03-07 | 2023-03-10 | 现代自动车株式会社 | Vehicle, control method thereof, and autonomous driving system using the vehicle and method |
| KR20180102317A (en) * | 2017-03-07 | 2018-09-17 | 현대자동차주식회사 | Vehicle and controlling method thereof and autonomous driving system |
| CN109507995A (en) * | 2017-09-14 | 2019-03-22 | 深圳乐动机器人有限公司 | The management system and robot of robot map |
| KR20190084156A (en) * | 2017-12-20 | 2019-07-16 | 현대자동차주식회사 | Vehicle and position recognition method of the same |
| KR102105590B1 (en) * | 2018-11-05 | 2020-04-28 | 한국교통대학교산학협력단 | System and method for improving accuracy of low-cost commercial GNSS Receiver |
| KR20200072137A (en) * | 2018-12-12 | 2020-06-22 | 현대자동차주식회사 | Apparatus and method for identificating odm data reliability and vehicle including the same |
| CN109859562A (en) * | 2019-01-31 | 2019-06-07 | 南方科技大学 | Data generation method, device, server and storage medium |
| CN111947642A (en) * | 2019-05-15 | 2020-11-17 | 宜升有限公司 | Vehicle navigation apparatus for self-driving vehicle |
| KR20200133184A (en) * | 2019-05-15 | 2020-11-26 | 선 이글 트레이딩 씨오, 엘티디 | Navigation device for self-driving vehicle |
| CN112241016A (en) * | 2019-07-19 | 2021-01-19 | 北京初速度科技有限公司 | Method and device for determining geographic coordinates of parking map |
| KR20190104305A (en) * | 2019-09-03 | 2019-09-09 | 주식회사 모빌테크 | Apparatus for building map using LiDAR |
| KR20190104304A (en) * | 2019-09-03 | 2019-09-09 | 주식회사 모빌테크 | Method for building map including point cloud using LiDAR |
| CN112455503A (en) * | 2019-09-09 | 2021-03-09 | 中车株洲电力机车研究所有限公司 | Train positioning method and device based on radar |
| CN112219225A (en) * | 2019-09-26 | 2021-01-12 | 深圳市大疆创新科技有限公司 | Positioning method, system and movable platform |
| KR20210058640A (en) * | 2019-11-12 | 2021-05-24 | 썬 학 트레이딩 씨오., 엘티디. | Vehicle navigaton switching device for golf course self-driving cars |
| CN111551186A (en) * | 2019-11-29 | 2020-08-18 | 福瑞泰克智能系统有限公司 | Vehicle real-time positioning method and system and vehicle |
| CN111551186B (en) * | 2019-11-29 | 2024-09-27 | 福瑞泰克智能系统有限公司 | Real-time vehicle positioning method and system and vehicle |
| CN112946606A (en) * | 2019-12-11 | 2021-06-11 | 北京万集科技股份有限公司 | Laser radar calibration method, device, equipment, system and storage medium |
| CN112946606B (en) * | 2019-12-11 | 2024-02-13 | 北京万集科技股份有限公司 | Laser radar calibration method, device, equipment, system and storage medium |
| KR20210079815A (en) * | 2019-12-20 | 2021-06-30 | 재단법인대구경북과학기술원 | Apparatus and method for detecting road curb |
| KR20210111182A (en) * | 2020-03-02 | 2021-09-10 | 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. | Method and apparatus for positioning, computing device, computer-readable storage medium and computer program stored in medium |
| US11725944B2 (en) | 2020-03-02 | 2023-08-15 | Apollo Intelligent Driving Technology (Beijing) Co, Ltd. | Method, apparatus, computing device and computer-readable storage medium for positioning |
| WO2023236643A1 (en) * | 2022-06-09 | 2023-12-14 | 腾讯科技(深圳)有限公司 | Positioning method and apparatus, device and storage medium |
| CN116380118A (en) * | 2022-11-29 | 2023-07-04 | 哈尔滨理工大学 | 3D laser radar odometer optimization method suitable for planar road |
| WO2024138970A1 (en) * | 2022-12-26 | 2024-07-04 | 中国铁路设计集团有限公司 | Multi-scale array-type laser radar measurement system, and method for acquiring track boundary conditions |
Also Published As
| Publication number | Publication date |
|---|---|
| KR101625486B1 (en) | 2016-05-30 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR101625486B1 (en) | Map-based positioning system and method thereof | |
| Brenner | Extraction of features from mobile laser scanning data for future driver assistance systems | |
| Rose et al. | An integrated vehicle navigation system utilizing lane-detection and lateral position estimation systems in difficult environments for GPS | |
| CN101907714B (en) | GPS aided positioning system and method based on multi-sensor data fusion | |
| JP6694395B2 (en) | Method and system for determining position relative to a digital map | |
| JP6656886B2 (en) | Information processing apparatus, control method, program, and storage medium | |
| KR101454153B1 (en) | Navigation system for unmanned ground vehicle by sensor fusion with virtual lane | |
| CN114636993A (en) | External parameter calibration method, device and equipment for laser radar and IMU | |
| US11512975B2 (en) | Method of navigating an unmanned vehicle and system thereof | |
| EP2133662A2 (en) | Methods and system of navigation using terrain features | |
| US8818722B2 (en) | Rapid lidar image correlation for ground navigation | |
| CN108168565A (en) | For the method and system of positioning vehicle | |
| EP3647820B1 (en) | Method, apparatus, and computer program product for establishing location | |
| CN106842271B (en) | Navigation positioning method and device | |
| US20200249695A1 (en) | Method for localizing a vehicle | |
| JP2025015843A (en) | Information processing device, control method, program, and storage medium | |
| JP2025123341A (en) | Position estimation device, estimation device, control method, program, and storage medium | |
| Tao et al. | Road‐Centered Map‐Aided Localization for Driverless Cars Using Single‐Frequency GNSS Receivers | |
| JP2024161585A (en) | Self-location estimation device | |
| EP4012341A1 (en) | Camera calibration for localization | |
| CN105556244A (en) | Method for determining a current position of a motor vehicle in a geodetic coordinate system and motor vehicle | |
| JP2024161130A (en) | Self-location estimation device, control method, program, and storage medium | |
| CN115183762A (en) | Airport warehouse inside and outside mapping method, system, electronic equipment and medium | |
| Liu et al. | Generating enhanced intersection maps for lane level vehicle positioning based applications | |
| Klein et al. | LiDAR and INS fusion in periods of GPS outages for mobile laser scanning mapping systems |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20141114 |
|
| PA0201 | Request for examination | ||
| PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20151125 Patent event code: PE09021S01D |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20160520 |
|
| GRNT | Written decision to grant | ||
| PG1501 | Laying open of application | ||
| PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20160524 Patent event code: PR07011E01D |
|
| PR1002 | Payment of registration fee |
Payment date: 20160524 End annual number: 3 Start annual number: 1 |
|
| PG1601 | Publication of registration | ||
| FPAY | Annual fee payment |
Payment date: 20190325 Year of fee payment: 4 |
|
| PR1001 | Payment of annual fee |
Payment date: 20190325 Start annual number: 4 End annual number: 4 |
|
| PR1001 | Payment of annual fee |
Payment date: 20200324 Start annual number: 5 End annual number: 5 |
|
| PR1001 | Payment of annual fee |
Payment date: 20210310 Start annual number: 6 End annual number: 6 |
|
| PR1001 | Payment of annual fee |
Payment date: 20220321 Start annual number: 7 End annual number: 7 |
|
| PR1001 | Payment of annual fee |
Payment date: 20230328 Start annual number: 8 End annual number: 8 |
|
| PR1001 | Payment of annual fee |
Payment date: 20240402 Start annual number: 9 End annual number: 9 |