[go: up one dir, main page]

KR20160057755A - Map-based positioning system and method thereof - Google Patents

Map-based positioning system and method thereof Download PDF

Info

Publication number
KR20160057755A
KR20160057755A KR1020140158761A KR20140158761A KR20160057755A KR 20160057755 A KR20160057755 A KR 20160057755A KR 1020140158761 A KR1020140158761 A KR 1020140158761A KR 20140158761 A KR20140158761 A KR 20140158761A KR 20160057755 A KR20160057755 A KR 20160057755A
Authority
KR
South Korea
Prior art keywords
map
sensor
vehicle
extracting
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
KR1020140158761A
Other languages
Korean (ko)
Other versions
KR101625486B1 (en
Inventor
김남혁
박지호
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Priority to KR1020140158761A priority Critical patent/KR101625486B1/en
Publication of KR20160057755A publication Critical patent/KR20160057755A/en
Application granted granted Critical
Publication of KR101625486B1 publication Critical patent/KR101625486B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)

Abstract

라이다(LIDAR) 센서를 이용한 지도 기반 측위 방법이 개시된다. 이 방법은 라이다 센서로부터 획득한 포인트 클라우드를 이용하여 상기 라이다 센서 주변의 지도를 생성하고, 생성된 지도를 탐색 윈도우로 설정하는 단계와, GNSS/INS 통합 센서에 포함된 GNSS 센서에서 측정한 차량의 이전 좌표 측정치와 INS 센서에서 측정한 상기 차량의 이전 좌표 변화량을 이용하여 상기 차량의 현재 위치 및 상기 차량의 진행 방향에 대한 방위각(Heading azimuth)을 계산하고, 상기 계산된 차량의 현재 위치를 기준으로 지도 데이터베이스로부터 전자 지도를 추출하는 단계와 추출된 상기 전자 지도와 상기 탐색 윈도우 간의 맵 매칭을 수행하는 단계 및 맵 매칭된 상기 탐색 윈도우의 중앙 좌표를 추출하고, 상기 추출된 중앙 좌표에 대응하는 상기 전자 지도의 위치 좌표를 추출하는 단계를 포함한다.A map-based positioning method using a LIDAR sensor is disclosed. The method includes the steps of generating a map around the Lidar sensor using a point cloud obtained from the Lidar sensor and setting the generated map as a search window, Calculating a heading azimuth with respect to a current position of the vehicle and a traveling direction of the vehicle using a previous coordinate measurement value of the vehicle and a previous coordinate change amount of the vehicle measured by the INS sensor; Extracting an electronic map from the map database on the basis of the extracted map, performing map matching between the extracted electronic map and the search window, extracting the center coordinates of the map-matched search window, And extracting position coordinates of the electronic map.

Description

지도 기반 측위 시스템 및 그 방법{Map-based positioning system and method thereof}[0002] Map-based positioning systems and methods [0003]

본 발명은 지도 기반 측위 시스템 및 그 방법에 관한 것으로서, 상세하게는,The present invention relates to a map-based positioning system and a method thereof, and more particularly,

지능형 운전 보조 시스템(Advanced Driver Assistance System: ADAS)을 탑재한 자동차, 자율 주행 자동차 등에 적용될 수 있는 지도 기반 측위 시스템 및 그 방법에 관한 것이다.
The present invention relates to a map-based positioning system that can be applied to an automobile equipped with an Advanced Driver Assistance System (ADAS), an autonomous driving vehicle, and the like.

현재 가장 널리 사용되는 측위 시스템인 위성 측위 시스템(Global Navigation Satellite System: GNSS)은 기본적으로 4개 이상의 위성으로부터 신호를 수신하여 3차원의 위치를 결정하는 시스템이다. 따라서 도심지나 고가차도가 많은 입체도로 구간에서는 오차가 증가하거나 측위가 불가능한 경우가 발생한다. 이를 보완하기 위해서 관성 항법 시스템(Inertial Navigation System: INS)과 GNSS를 융합한 측위 기술이 개발된 바 있다.The Global Navigation Satellite System (GNSS), which is the most widely used positioning system, is basically a system that receives signals from four or more satellites and determines three-dimensional position. Therefore, there is a case in which the error increases or the positioning is impossible in the three-dimensional road section where the distance from the center of the city is large. In order to compensate for this, a positioning technique combining an Inertial Navigation System (INS) and GNSS has been developed.

그러나 INS 센서의 경우, 가격이 비싸고, GNSS 신호가 장시간 수신되지 않아 INS만으로 측위를 하는 경우, 오차의 누적으로 측위 오차가 기하 급수적으로 증가하는 단점이 있다.However, in case of the INS sensor, if the price is high and the GNSS signal is not received for a long time, and the positioning is performed only by INS, the positioning error increases exponentially due to accumulation of the error.

따라서, GNSS/INS를 이용한 측위에서도 장시간 위성 신호가 차단 되는 경우 측위가 불가능 하다고 할 것이다. 따라서 도심지와 같이 신호 수신이 불가능한 지역에서 정밀한 측위가 가능한 시스템의 개발이 필요한 실정이다.
Therefore, if the satellite signal is blocked for a long time in the positioning using the GNSS / INS, the positioning will be impossible. Therefore, it is necessary to develop a system capable of precise positioning in areas where signal reception is impossible, such as in urban areas.

따라서, 본 발명의 목적은 도심지와 같이 신호의 수신 환경이 열악한 지역에서도 정밀한 측위가 가능한 지도 기반 측위 시스템 및 그 방법을 제공하는 데 있다.
SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide a map-based positioning system and method capable of precise positioning even in an area where signal receiving environments are poor, such as in a city center.

상술한 목적을 달성하기 위한 본 발명의 일면에 따른 지도 기반 측위 방법은, 라이다 센서로부터 획득한 포인트 클라우드를 이용하여 상기 라이다 센서 주변의 지도를 생성하고, 생성된 지도를 탐색 윈도우로 설정하는 단계와, GNSS/INS 통합 센서에 포함된 GNSS 센서에서 측정한 차량의 이전 좌표 측정치와 INS 센서에서 측정한 상기 차량의 이전 좌표 변화량을 이용하여 상기 차량의 현재 위치 및 상기 차량의 진행 방향에 대한 방위각(Heading azimuth)을 계산하고, 상기 계산된 차량의 현재 위치를 기준으로 지도 데이터베이스로부터 전자 지도를 추출하는 단계와 추출된 상기 전자 지도와 상기 탐색 윈도우 간의 맵 매칭을 수행하는 단계 및 맵 매칭된 상기 탐색 윈도우의 중앙 좌표를 추출하고, 상기 추출된 중앙 좌표에 대응하는 상기 전자 지도의 위치 좌표를 추출하는 단계를 포함한다.According to another aspect of the present invention, there is provided a map-based positioning method comprising: generating a map around the LIDAR sensor using a point cloud acquired from the LIDAR sensor, and setting the generated map as a search window And an azimuth angle with respect to a current position of the vehicle and a traveling direction of the vehicle using the previous coordinate measurement of the vehicle measured by the GNSS sensor included in the GNSS / INS integrated sensor and the previous coordinate variation of the vehicle measured by the INS sensor, Extracting an electronic map from the map database based on the calculated current position of the vehicle; performing map matching between the extracted electronic map and the search window; Extracts the center coordinates of the window, and calculates the position coordinates of the electronic map corresponding to the extracted center coordinates as .

본 발명의 다른 일면에 따른 지도 기반 측위 시스템은, 다수의 레이저 포인트를 주변에 발사하여 주변 환경에 대한 포인트 클라우드를 생성하는 라이다(LIDAR) 센서와, 차량의 이전 좌표 측정치를 측정하는 GNSS 센서와 상기 차량의 이전 좌표 변화량을 측정하는 INS 센서를 포함하는 GNSS/INS 통합 센서와, 상기 라이다 센서에서 획득한 포인트 클라우드를 이용하여 상기 라이다 센서 주변의 지도를 생성하고, 생성된 지도를 탐색 윈도우로 설정하는 라이다 센서 데이터 처리부와, 상기 GNSS/INS 통합 센서에서 측정한 상기 이전 좌표 측정치와 상기 이전 좌표 변화량을 상기 차량의 현재 위치 및 상기 차량의 진행 방향에 대한 방위각(Heading azimuth)을 계산하고, 상기 계산된 차량의 현재 위치를 기준으로 지도 데이터베이스로부터 전자 지도를 추출하는 통합 센서 데이터 처리부와, 추출된 상기 전자 지도와 상기 탐색 윈도우를 맵 매칭하는 매칭부 및 맵 매칭된 상기 탐색 윈도우의 중앙 좌표를 추출하고, 상기 추출된 중앙 좌표에 대응하는 상기 전자 지도의 위치 좌표를 추출하는 좌표 추출부를 포함한다.
According to another aspect of the present invention, there is provided a map-based positioning system comprising: a LIDAR sensor for generating a point cloud for a surrounding environment by emitting a plurality of laser points to surroundings; a GNSS sensor for measuring a previous coordinate measurement of the vehicle; A GNSS / INS integrated sensor including an INS sensor for measuring a previous coordinate change amount of the vehicle, a map around the Lidar sensor using a point cloud acquired from the Lidar sensor, And calculating a heading azimuth with respect to a current position of the vehicle and a traveling direction of the vehicle based on the previous coordinate measurement value and the previous coordinate change amount measured by the GNSS / INS integrated sensor An integrated sensor for extracting an electronic map from a map database based on the calculated current position of the vehicle A mapping unit for map-matching the extracted electronic map with the search window, and a map-matched search window, and extracts the position coordinates of the electronic map corresponding to the extracted center coordinates And a coordinate extracting unit.

본 발명에 따르면, 본 발명에서는, GNSS/INS 통합 센서에 기반한 절대적 좌표 정보 외에 센서에 기반한 상대적 좌표 정보를 기반으로 위치 측위를 수행함으로써, 위성 신호의 수신이 열악한 환경에서도 안정적이면서 정확한 위치를 측위할 수 있다.
According to the present invention, positioning is performed based on relative coordinate information based on a sensor in addition to absolute coordinate information based on a GNSS / INS integrated sensor, so that stable and accurate positioning can be performed even in an environment where satellite signals are poorly received .

도 1은 본 발명에 적용되는 라이다에 의해 획득된 포인트 클라우드를 기반으로 만들어진 실시간 주변 상황을 3차원으로 보여주는 사진 데이터를 보여주는 도면이다.
도 2는 본 발명의 일 실시 예에 따른 지도 기반 측위 시스템을 보여주는 블록도이다.
도 3은 도 2에 도시된 라이다 센서 데이터 처리부의 구성을 보여주는 블록도이다.
도 4는 도 2에 도시된 통합 센서 데이터 처리부의 구성을 보여주는 블록도이다.
도 5는 본 발명의 일 실시 예에 따른 지도기반 측위 방법을 보여주는 순서도이다.
도 6은 도 3에 도시된 추출부에서 포인트 집합을 추출하는 과정을 설명하기 위한 도면이다.
도 7은 도 3에 도시된 지도 생성부에 지도를 생성하는 과정을 설명하기 위한 도면이다.
도 8은 도 4에 도시된 지도 회전부에서 방위각을 기준으로 전자 지도를 회전시키는 과정을 설명하기 위한 도면이다.
FIG. 1 is a view showing photograph data showing three-dimensional real-time surroundings based on a point cloud obtained by a ladder applied to the present invention.
2 is a block diagram illustrating a map-based positioning system in accordance with an embodiment of the present invention.
FIG. 3 is a block diagram showing the configuration of the Lidar sensor data processing unit shown in FIG. 2. FIG.
4 is a block diagram showing the configuration of the integrated sensor data processing unit shown in FIG.
5 is a flowchart showing a map-based positioning method according to an embodiment of the present invention.
FIG. 6 is a diagram for explaining a process of extracting a set of points in the extracting unit shown in FIG. 3. FIG.
FIG. 7 is a diagram for explaining a process of generating a map in the map generating unit shown in FIG. 3. FIG.
FIG. 8 is a diagram for explaining a process of rotating the electronic map on the basis of the azimuth angle in the map rotation unit shown in FIG.

기존의 GNSS/INS 통합 센서에 기반한 위치 측위 시스템에 따르면, GNSS 센서에 위성 신호의 수신이 차단되는 경우, INS 센서에서 측정한 측정치만으로 위치를 측위한다. 이러한 기존의 위치 측위 시스템은 위성 신호의 수신이 차단된 환경에서 INS 센서에서 측정한 측정치(위치의 변화량)를 이전 위치에 계속 누적하고, 그 누적 결과에 기초해 위치를 측위하기 때문에, 위성 신호의 수신 차단 시간이 길어짐에 따라 변화량의 오차는 기하급수적으로 증가한다.According to the existing positioning system based on the GNSS / INS integrated sensor, when reception of the satellite signal to the GNSS sensor is interrupted, the position is measured only by the measurement value measured by the INS sensor. Since the conventional positioning system continuously accumulates the measurement value (change amount of the position) measured by the INS sensor in the environment where the reception of the satellite signal is blocked, the positioning is continued based on the cumulative result, As the reception cutoff time becomes longer, the error of the variation increases exponentially.

이에 본 발명에서는 GNSS/INS 통합 센서 외에 라이다 센서를 이용한 주변 환경에 대한 포인트 클라우드를 바탕으로 상대 좌표를 갖는 지도를 생성하고, 포인트 클라우드를 바탕으로 생성된 지도와 사전에 구축된 전자 지도 데이터베이스에서 검출한 전자 지도와 매칭시키고, 매칭된 전자 지도를 기반으로 위치를 측위하기 때문에 위성 신호의 수신이 차단된 환경에서도 정밀한 측위를 제공할 수 있다.In the present invention, in addition to the GNSS / INS integrated sensor, a map having relative coordinates is generated based on a point cloud of the surrounding environment using a Lidar sensor, and a map generated based on the point cloud and an electronic map database It is possible to provide precise positioning even in an environment where the reception of the satellite signal is blocked because the position is determined based on the matched electronic map.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예에 대해 상세 기술하며, 아래의 실시 예에서는 차량의 위치 측위를 가정하지만, 본 발명이 차량의 위치 측위에 특별히 한정되는 것은 아니며, 다양한 위치 측위 시스템에 적용될 수 있음은 당업자라면 충분히 이해할 수 있다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following embodiments, the positioning of the vehicle is assumed, but the present invention is not particularly limited to the positioning of the vehicle, System can be fully understood by those skilled in the art.

도 1은 본 발명에 적용되는 라이다에 의해 획득된 포인트 클라우드를 기반으로 만들어진 실시간 주변 상황을 3차원으로 보여주는 사진 데이터를 보여주는 도면이고, 도 2는 본 발명의 일 실시 예에 따른 지도 기반 측위 시스템을 보여주는 블록도이다.FIG. 1 is a diagram showing photograph data showing three-dimensional real-time surroundings based on a point cloud obtained by a ladder applied to the present invention. FIG. 2 is a diagram illustrating a map- FIG.

도 1 및 2를 참조하면, 본 발명의 일 실시 예에 따른 지도 기반 측위 시스템(100)은 본 발명은 GNSS 또는 GNSS/INS 통합 측위를 사용하는 측위 시스템에 보완적으로 라이다 센서와 전자지도 데이터베이스를 사용하여 측위의 안정성과 정밀성을 높인다.1 and 2, a map-based positioning system 100 according to an embodiment of the present invention includes a positioning system using GNSS or GNSS / INS combined positioning, To improve the stability and precision of positioning.

이를 위해, 본 발명의 일 실시 예에 따른 지도 기반 측위 시스템(100)은 라이다 센서(110), 라이다 센서 데이터 처리부(120), GNSS/INS 통합 센서(130), 통합 센서 데이터 처리부(140), 전자 지도 데이터베이스(150), 맵 매칭부(160) 및 좌표 추출부(170)를 포함한다.The map-based positioning system 100 according to an embodiment of the present invention includes a Lidar sensor 110, a Lidar sensor data processing unit 120, a GNSS / INS integrated sensor 130, an integrated sensor data processing unit 140 An electronic map database 150, a map matching unit 160, and a coordinate extraction unit 170.

라이다 센서(110)는 차량에 설치되어 다수의 레이저 포인트를 주변에 발사하고, 각 레이저 포인트가 어떤 객체에 반사되어 돌아오는 시간을 계산한 주변의 공간 정보(이하, 포인트 클라우드(point cloud))를 생성한다. 이러한 포인트 클라우드는 도 1에 도시된 바와 같은 사진 데이터와 같이, 3차원으로 시각화되어 사용자에게 제공될 수 있다. 참고로 도 1에서는 회전식 라이다 센서에 의해 획득된 포인트 클라우드를 시각화한 사진 데이터이다. 라이다 센서(110)는 이러한 포인트 클라우드 정보로부터 라이다 센서(110)의 설치 위치(또는 차량의 현재 위치)를 기준으로 하는 상대 좌표를 획득할 수 있다.The lidar sensor 110 is installed in a vehicle and emits a plurality of laser points to the surroundings. The lidar sensor 110 measures surrounding space information (hereinafter referred to as a point cloud) . Such a point cloud can be visualized in three dimensions and provided to a user, such as photographic data as shown in Fig. For reference, FIG. 1 is photograph data obtained by visualizing a point cloud obtained by a rotary Lydia sensor. The LIDAR sensor 110 may obtain relative coordinates based on the installation position (or current position of the vehicle) of the Lydia sensor 110 from the point cloud information.

라이다 센서 데이터 처리부(120)는 라이다(LIDAR) 센서로부터 획득한 포인트 클라우드로부터 획득할 수 있는 상기 상대 좌표를 이용하여 차량 주변의 벡터화된 지도를 생성하고, 생성된 지도를 탐색 윈도우로 설정한다. 이에 대한 상세 설명은 도 3을 참조하여 상세 기술한다.The LIDAR sensor data processing unit 120 generates a vectorized map around the vehicle using the relative coordinates obtainable from the point clouds acquired from the LIDAR sensor, and sets the generated map as a search window . Details of this will be described in detail with reference to FIG.

GNSS/INS 통합 센서(130)는 차량의 좌표 측정치를 실시간으로 측정하는 GNSS 센서와 상기 차량의 좌표 변화량을 측정하는 INS 센서를 포함한다. GNSS 센서는 4개 이상의 위성으로부터 시각 정보를 포함하는 신호를 수신하고 수신한 신호를 이용하여 차량의 이전 및 현재 좌표 측정치를 계산한다. INS 센서는 자이로 센서(Gyro Sensor) 및 가속도 센서(Accelerometer)로 구성된 관성 센서(Inertial Sensor)를 이용하여 차량의 좌표 변화량을 측정한다. The GNSS / INS integrated sensor 130 includes a GNSS sensor for measuring the coordinate measurement of the vehicle in real time and an INS sensor for measuring the amount of coordinate change of the vehicle. The GNSS sensor receives signals containing time information from four or more satellites and uses the received signals to calculate the vehicle's previous and current coordinate measurements. The INS sensor measures the amount of change of the coordinate of the vehicle by using an inertial sensor composed of a gyro sensor and an accelerometer.

통합 센서 데이터 처리부(140)는 GNSS 센서에서 측정한 실시간 좌표 측정치와 INS 센서에서 측정한 좌표 변화량을 이용하여 상기 차량의 현재 위치 및 상기 차량의 진행 방향에 대한 방위각(Heading azimuth)을 계산하고, 상기 계산된 차량의 현재 위치를 기준으로 전자 지도 데이터베이스(160)로부터 추출한 전자 지도를 생성한다. 이에 대한 설명은 도 4를 참조하여 상세 기술한다.The integrated sensor data processing unit 140 calculates a heading azimuth with respect to the current position of the vehicle and the traveling direction of the vehicle using the real time coordinate measurement value measured by the GNSS sensor and the coordinate change amount measured by the INS sensor, And generates an electronic map extracted from the electronic map database 160 based on the calculated current position of the vehicle. The description thereof will be described in detail with reference to FIG.

맵 매칭부(160)는 상기 라이다 센서 데이터 처리부(120)에서 설정한 탐색 윈도우와 상기 통합 센서 데이터 처리부(140)에서 생성한 전자 지도 간의 맵 매칭을 수행한다. 이러한 맵 매칭부(160)는 탐색 윈도우를 전자 지도 데이터베이스(160)로부터 추출한 전자 지도의 좌상부터 우하 방향으로 스캐닝 하면서 맵 매칭을 수행하는데, 전자 지도와 탐색 윈도우 간의 피팅(fitting) 정도가 가장 높은 스캐닝 위치에서 탐색 윈도우의 중심 좌표와 그 중심 좌표에 대응하는 전자 지도의 위치 좌표를 좌표 추출부(170)로 전달한다.The map matching unit 160 performs map matching between the search window set by the LIDAR sensor data processing unit 120 and the electronic map generated by the integrated sensor data processing unit 140. The map matching unit 160 performs map matching while scanning the search window from the upper left to the lower right of the electronic map extracted from the electronic map database 160. The map matching unit 160 performs scanning matching with the highest degree of fitting between the electronic map and the search window Position coordinates of the search window and the position coordinates of the electronic map corresponding to the center coordinates thereof are transmitted to the coordinate extraction unit 170. [

좌표 추출부(170)는 전달받은 상기 탐색 윈도우의 중심 좌표와 이에 대응하는 상기 전자 지도의 위치 좌표를 출력함으로써, 차량 위치를 측위한다. 아래에서 설명하겠지만, 상기 좌표 추출부(170)에서 출력된 위치 좌표를 차량 측위에 그대로 이용할 수도 있지만, 칼만 필터의 필터링 과정을 통해 차량 측위의 정확성과 안정성을 더욱 높일 수도 있다.The coordinate extraction unit 170 outputs the center coordinates of the search window and the position coordinates of the electronic map corresponding thereto, thereby positioning the vehicle position. As described below, the position coordinates output from the coordinate extraction unit 170 can be used as it is for the vehicle positioning. However, accuracy and stability of the vehicle positioning can be further enhanced through the filtering process of the Kalman filter.

도 3은 도 2에 도시된 라이다 센서 데이터 처리부의 구성을 보여주는 블록도이다.FIG. 3 is a block diagram showing the configuration of the Lidar sensor data processing unit shown in FIG. 2. FIG.

도 3을 참조하면, 본 발명의 일 실시 예에 따른 라이다 센서 데이터 처리부(120)는 추출부(122), 지도 생성부(124) 및 윈도우 설정부(126)를 포함한다.3, the LIDAR sensor data processing unit 120 includes an extraction unit 122, a map generation unit 124, and a window setting unit 126. The LIDAR sensor data processing unit 120 includes an extraction unit 122, a map generation unit 124,

상기 포인트 추출부(122)는 라이다 센서(110)에서 생성한 포인트 클라우드를 입력 받아서, 도로와 건물들에 대응하는 특정 라인에 피팅될 수 있는 포인트 집합을 추출한다. The point extracting unit 122 receives the point cloud generated by the Lathan sensor 110 and extracts a set of points that can be fitted to a specific line corresponding to the road and buildings.

구체적으로, 포인트 클라우드는 라이다 센서(110)의 설치 위치(차량의 현재 위치)를 기준으로 상대적 좌표값(전자 지도 데이터베이스에 구축된 전자 지도의 절대적 좌표값에 대한 상대적 좌표값)을 갖는데, 추출부(122)는 이러한 상대적 좌표값을 갖는 포인트 클라우드 내에서 차량의 현재 위치를 기준으로 특정한 거리를 형성하는 범위 내의 전체 포인트 집합을 추출한다. 예를 들어, 먼저, 추출부(122)는 라이다 센서(110)에서 생성한 포인트 클라우드에서 평면 좌표 상에서 좌상의 최대 좌표값이 x=-50m, y=50 m 이며, 우하의 최대 좌표값이 x=50 m, y=-50m 인 도 6의 (b)와 같은 100m*100m 내의 포인트 집합(61)을 추출한다. Specifically, the point cloud has a relative coordinate value (relative coordinate value relative to the absolute coordinate value of the electronic map constructed in the electronic map database) based on the installation position (current position of the vehicle) of the lidar sensor 110, The unit 122 extracts a whole set of points within a range forming a specific distance with respect to the current position of the vehicle in the point cloud having such a relative coordinate value. For example, the extraction unit 122 extracts the maximum coordinate value of the upper left corner on the plane coordinate x = -50 m and y = 50 m from the point cloud generated by the Lidar sensor 110, a point set 61 within 100 m * 100 m as shown in FIG. 6 (b) with x = 50 m and y = -50 m is extracted.

상기 지도 생성부(124)는 도 7의 (a)와 같이, 상기 제2 포인트 집합(63)이 추출되면, 도 7의 (b)와 같이, 추출된 포인트 집합(61)에서 선형 맞춤 알고리즘(linear fitting algorithm)을 이용하여 도로와 건물들에 해당하는 어떤 특정 라인에 피팅될 수 있는 포인트들(65), 다르게 표현하면, 수학적 모델 인자들로 표현 가능한 특정 라인들을 추출한다. 7 (a), when the second set of points 63 is extracted, the map generating unit 124 generates a linear fitting algorithm (FIG. 7 (b)) in the extracted set of points 61 linear fitting algorithm to extract points 65 that can be fitted to a particular line corresponding to roads and buildings, in other words, specific lines that can be represented by mathematical model factors.

상기 지도 생성부(124) 특정 라인에 피팅되는 포인트들(65)을 연결하여 도 7의 (c)와 같은 벡터화된 지도를 생성한다. 이때, 수학적 모델 인자들로 표현 가능한 포인트들을 추출하고, 추출된 포인트들을 연결하여 벡터화된 지도를 생성하기 위해, RANSAC(RANdom SAmple Consensus) 알고리즘이 이용될 수 있다.And connects the points 65 fitted to the specific line of the map generating unit 124 to generate a vectorized map as shown in FIG. 7C. At this time, a RANSAC (Consecutive Random Area Consensus) algorithm may be used to extract points that can be represented by mathematical model factors and to connect the extracted points to generate a vectorized map.

상기 윈도우 설정부(126)는 상기 지도 생성부(124)에서 생성한 벡터화된 지도를 적절한 사이즈로 커팅한 탐색 윈도우(67)로 설정한다. 이와 같이, 설정된 탐색 윈도우(67)는 맵 매칭부(160)로 전달된다. The window setting unit 126 sets the vectorized map generated by the map generating unit 124 as a search window 67 cut to an appropriate size. In this way, the set search window 67 is transmitted to the map matching unit 160.

도 4는 도 2에 도시된 통합 센서 데이터 처리부의 구성을 보여주는 블록도이다.4 is a block diagram showing the configuration of the integrated sensor data processing unit shown in FIG.

도 4를 참조하면, 본 발명의 일 실시 예에 따른 통합 센서 데이터 처리부(140)는 칼만 필터(142, Kalman Filter), 전자 지도 추출부(144) 및 전자 지도 회전부(146)를 포함한다.4, the integrated sensor data processing unit 140 according to an exemplary embodiment of the present invention includes a Kalman filter 142, an electronic map extracting unit 144, and an electronic map rotating unit 146.

상기 칼만 필터(142)는 GNSS/INS 통합 센서(130)로부터 GNSS 데이터와 INS 데이터를 입력 받아서, 이들이 갖는 오차들에 가중치를 부여하여 최적의 위치 측정치와 최적의 좌표 변화량을 계산한다.The Kalman filter 142 receives the GNSS data and the INS data from the GNSS / INS integrated sensor 130, assigns weights to the errors, and calculates an optimal position measurement value and an optimal coordinate change amount.

상기 전자 지도 추출부(144)는 상기 칼만 필터(142)에서 계산된 최적의 위치 측정치와 최적의 좌표 변화량에 기초해 차량의 현재 위치 및 차량의 진행 방향에 대한 방위각을 계산하고, 계산된 현재 위치를 기준으로 상기 윈도우 설정부(126)에서 설정한 탐색 윈도우(67)의 사이즈보다 큰 사이즈를 갖는 전자 지도를 사전에 구축된 전자 지도 데이터베이스(150)에서 추출한다. The electronic map extracting unit 144 calculates the azimuth angle of the current position of the vehicle and the traveling direction of the vehicle on the basis of the optimal position measurement value and the optimal coordinate change amount calculated by the Kalman filter 142, An electronic map having a size larger than the size of the search window 67 set by the window setting unit 126 is extracted from the electronic map database 150 previously constructed.

상기 전자 지도 회전부(146)는 도 8에 도시된 바와 같이, 상기 전자 지도 추출부(144)에서 추출한 전자 지도(81)를 상기 계산된 방위각을 기준으로 회전시키고, 회전된 전자 지도(83)를 상기 맵 매칭부(160)로 전달한다.The electronic map rotating unit 146 rotates the electronic map 81 extracted by the electronic map extracting unit 144 on the basis of the calculated azimuth angle as shown in FIG. To the map matching unit 160.

상기 맵 매칭부(160)는 도 3에서 설명한 윈도우 설정부(126)에서 설정한 탐색 윈도우(도 7의 (c))를 상기 회전된 전자 지도(83)의 좌상부터 우하 방향으로 이동시켜가면서 맵 매칭을 수행하게 된다. The map matching unit 160 moves the search window (FIG. 7 (c)) set by the window setting unit 126 described in FIG. 3 from the upper left to the lower right of the rotated electronic map 83, Matching is performed.

즉, 도 8에 도시된 바와 같이, 상기 전자 지도 데이터베이스(150)로부터 가져온 회전된 전자 지도(83)와 탐색 윈도우(67)를 비교하여 피팅 정도가 가장 높은 위치에서 스캐닝을 멈추고, 스캐닝을 멈춘 그 위치에서의 탐색 윈도우(67)의 중심 좌표(C)와 그 중심 좌표(C)에 대응하는 전자 지도(83)의 위치 좌표를 활용하여 차량의 위치 측위를 위한 좌표를 결정할 수 있게 된다.8, the rotated electronic map 83 retrieved from the electronic map database 150 is compared with the search window 67, and the scanning is stopped at the position where the degree of fitting is the highest, The coordinates of the position of the vehicle can be determined by utilizing the position coordinates of the electronic map 83 corresponding to the center coordinate C of the search window 67 at the position and the center coordinate C thereof.

도 5는 본 발명의 일 실시 예에 따른 지도기반 측위 방법을 보여주는 순서도이고, 아래의 설명에서 각 단계의 수행 주체는 앞서 설명한 도 2 내지 도 4의 설명으로부터 명확히 이해될 수 있으므로, 경우에 따라서, 각 단계의 수행 주체가 언급되지 않을 수도 있다.FIG. 5 is a flowchart showing a map-based positioning method according to an embodiment of the present invention. In the following description, the subject of each step can be clearly understood from the description of FIGS. 2 to 4 described above, The subject of each step may not be mentioned.

도 5를 참조하면, 본 발명의 일 실시 예에 따른 지도기반 측위 방법은 크게 라이다 센서에서 획득한 포인트 클라우드의 처리과정들(S311~S317)과, GNSS/INS 통합 센서에서 획득한 센서 데이터들의 처리과정들(S319~S329), 이들 과정들을 통해 생성된 탐색 윈도우와 전자 지도를 맵 매칭하는 과정(S327) 및 맵 매칭된 결과에 따라 좌표를 추출하는 과정(S331)으로 나눌 수 있다.Referring to FIG. 5, the map-based positioning method according to an embodiment of the present invention mainly includes point clouds processing steps (S311 to S317) obtained by the Lada sensor, sensor data obtained from the GNSS / INS integrated sensor Processing steps S319 to S329, map matching the search window and the electronic map generated through these processes (S327), and extracting coordinates according to the map-matched result (S331).

먼저, 라이다 센서에서 획득한 포인트 클라우드의 처리과정들(S311~S317)을 살펴보면, 라이다 센서에서 설치 위치를 중심으로 포인트 클라우드를 생성하면, 생성된 포인트 클라우드를 구성하는 상대적 좌표값을 기준으로 특정한 거리 내에 존재하는 포인트들을 추출한다(S311).First, the point cloud processing steps (S311 to S317) obtained by the Lidar sensor will be described. When the Lidar sensor generates the point cloud around the installation position, the relative coordinate value constituting the generated point cloud is used as a reference Points existing within a certain distance are extracted (S311).

이어, 추출된 포인트 클라우드에서 도로와 건물에 해당하는 포인트를 추출하는데(S313), 이때, 선형 맞춤 알고리즘(linear fitting algorithm) 등을 이용하여 도로와 건물에 해당하는 포인트를 추출하고(S313), 상기 도로와 건물에 해당하는 포인트들을 연결한 벡터화된 지도를 생성한다(S315). 이때, 이러한 벡터화된 지도를 생성하기 위해, RANSAC 알고리즘 등이 이용될 수 있다. 즉, RANSAC 알고리즘을 이용하여 도로와 건물에 해당하는 포인트들 중 어떤 특정 라인에 피팅 될 수 있는 점들을 추출하고 그 점들에 가장 잘 피팅되는 라인을 생성하여 벡터화된 지도를 생성할 수 있다.In step S313, points corresponding to roads and buildings are extracted using the linear fitting algorithm or the like in step S313. A vectorized map is created by connecting points corresponding to the road and the building (S315). At this time, in order to generate such a vectorized map, a RANSAC algorithm or the like may be used. That is, using the RANSAC algorithm, it is possible to extract points that can be fitted to a specific line among points corresponding to roads and buildings, and generate a vectorized map by generating a line that best fits the points.

이어, 생성된 벡터화된 지도를 기 설정된 사이즈에 맞게 커팅하여 탐색 윈도우를 설정한다(S317).Then, the generated vectorized map is cut according to a preset size, and a search window is set (S317).

다음으로, GNSS/INS 통합 센서에서 획득한 센서 데이터들의 처리과정들(S319~S329)을 살펴보면, 먼저, GNSS/INS 통합 센서에서 획득한 센서 데이터들을 칼만 필터를 통해 필터링 한다(S319). In step S319, sensor data acquired by the GNSS / INS integrated sensor is filtered through a Kalman filter. [0053] Next, the sensor data processing steps S319 to S329 obtained by the GNSS / INS integrated sensor will be described.

이어, 필터링 된 센서 데이터들로부터 차량의 진행 방향에 대한 방위각과 차량의 현재 위치를 계산하는 과정이 수행된다(S321). 예컨대, 현재 시간을 t 시점이라 가정하면 t-1 시점과 t-2 시점의 좌표 변화량을 비교하여 차량의 현재 위치와 차량의 현재 방위각(Heading azimuth)이 계산될 수 있다.Next, a process of calculating the azimuth angle of the vehicle from the filtered sensor data and the current position of the vehicle is performed (S321). For example, assuming that the current time is a time t, the current position of the vehicle and the current azimuth of the vehicle can be calculated by comparing the coordinate change amounts at the time points t-1 and t-2.

이어, 전자 지도 데이터베이스를 조회하여, 상기 계산된 차량의 현재 위치를 포함하는 전자 지도를 상기 전자 지도 데이터베이스(150)로부터 추출하는 과정이 수행된다(S323). 이때, 상기 S317에서 설정된 탐색 윈도우의 사이즈보다 큰 사이즈의 전자 지도를 가져오는데, 예컨대, 탐색 윈도우의 사이즈가 100m*100m인 경우, 차량의 현재 위치를 포함하는 500m*500m의 전자 지도를 전자 지도 데이터베이스(150)로부터 추출할 수 있다.Then, an electronic map database is inquired and an electronic map including the calculated current position of the vehicle is extracted from the electronic map database 150 (S323). When the size of the search window is 100m * 100m, for example, the electronic map of 500m * 500m including the current position of the vehicle is stored in the electronic map database < RTI ID = 0.0 > (150).

이어, 상기 전자 지도 데이터베이스(150)로부터 추출된 상기 전자 지도를 상기 계산된 방위각을 기준으로 회전시킨다(S325).Then, the electronic map extracted from the electronic map database 150 is rotated based on the calculated azimuth (S325).

다음으로, 상기 과정들(S311~S325)을 통해 생성된 탐색 윈도우와 전자 지도를 맵 매칭하는 과정이 수행되는데(S327), 탐색 윈도우를 전자 지도의 좌상부터 우하 방향으로 스캐닝하면서 맵 매칭을 수행한다. 즉, 전자 지도 데이터베이스(150)로부터 추출한 전자 지도와 탐색 윈도우를 비교하여 가장 잘 피팅되는 위치가 탐색되면, 즉, 맵 매칭이 성공하면(S329), 탐색 윈도우의 스캐닝을 멈추고, 멈춘 상태에서 탐색 윈도우의 중심 좌표와 그 중심 좌표에 대응하는 전자 지도의 위치 좌표를 추출함으로써(S331), 차량의 위치 측위를 위한 3차원의 좌표를 결정하게 된다. 이때, 최적의 위치 측정치를 계산하기 위해, 칼만 필터를 이용하여 각각의 센서들이 갖는 오차들을 모두 고려하여 가중치를 부여할 수 있다. 즉, GNSS/INS 센서 및 라이다 센서로 이루어진 센서들이 모두 측정치를 계산할지라도 각 센서들의 정확도가 다를 수 있다. 그러므로 상기 S331에서 추출된 전자 지도의 좌표와 통합 센서에 의해 측정된 현재 위치 측정치와 현재 INS 측정치를 모두 칼만 필터에 다시 입력하여 최종 좌표를 결정하게 할 수도 있다. 즉, 각 센서들의 정확도(또는 성능)에 따라 가중치를 부여하여 최종적으로 최적의 위치 측정치를 계산함으로써, 정확도를 더욱 향상시킬 수 있다.Next, map matching is performed between the search window and the electronic map generated through the processes (S311 to S325) (S327), and map matching is performed while scanning the search window from the upper left to the lower right of the electronic map . That is, when the best fitting position is found by comparing the electronic map extracted from the electronic map database 150 with the search window, that is, when the map matching is successful (S329), scanning of the search window is stopped, (S331), thereby determining three-dimensional coordinates for positioning the vehicle. At this time, in order to calculate an optimal position measurement value, a weight can be given by taking into account all the errors of each sensor using a Kalman filter. That is, even though all of the sensors comprising the GNSS / INS sensor and the Lidar sensor calculate the measurements, the accuracy of each sensor may be different. Therefore, the coordinates of the electronic map extracted in S331, the current position measurement value measured by the integrated sensor and the current INS measurement value may be inputted again to the Kalman filter to determine the final coordinates. That is, the accuracy can be further improved by weighting according to the accuracy (or performance) of each sensor and finally calculating the optimal position measurement value.

이상의 설명한 바와 같이, 맵 매칭이 성공한 경우, 전자 지도로부터 3차원 좌표를 획득할 수 있게 되고, 이러한 3차원의 좌표값을 기존의 GNSS/INS 통합 센서에 의한 측위와 융합하여 항법을 수행할 수 있게 된다. 만일, 상기 S329에서, 개활지와 같이 주변 환경에 어떠한 지리적 특성(도로의 곡면이나 건물의 모서리 등)으로 인해 맵 매칭이 실패하면, 상기 S311 이전으로 다시 돌아가 라이다 센서(110)의 포인트 클라우드를 수집하는 과정이 재 시작된다.As described above, when the map matching is successful, three-dimensional coordinates can be acquired from the electronic map, and the three-dimensional coordinate values can be combined with the positioning by the existing GNSS / INS integrated sensor to perform the navigation do. If map matching fails due to any geographical characteristic (such as a curved surface of a road or a corner of a building) in the surrounding environment such as an open space in step S329, the process returns to step S311. The process is restarted.

요약하면, GNSS 센서는 기본적으로 3차원의 좌표 정보를 특정시간마다 계산하고, INS 센서의 경우, 가속도 센서를 이용하여 좌표의 변화량을 출력하게 된다. 이 둘만을 이용하는 경우, 도심지와 같이 GNSS 신호의 수신 환경이 열악한 지역에서 일정시간 동안 GNSS 좌표 측정치가 출력되지 않더라도 기존의 좌표 측정치에 INS의 좌표 변화량을 반영하여 계속적인 좌표의 계산을 수행해 나갈 수 있다. In summary, the GNSS sensor basically calculates three-dimensional coordinate information at specific time intervals, and in the case of the INS sensor, outputs an amount of change of coordinates using an acceleration sensor. Even if GNSS coordinate measurement is not output for a certain period of time in an area where receiving environment of GNSS signal is poor, for example, in a city center, continuous calculation of coordinates can be performed by reflecting the INS coordinate variation to the existing coordinate measurement .

그러나 INS 센서의 경우 좌표의 변화량만을 계산하므로, 오랜 시간 GNSS 좌표 계산 값이 수신되지 않으면 좌표 변화량에 오차가 포함되는 경우, 오차가 계속적으로 누적되어 좌표 측정치의 신뢰도가 급격히 떨어지게 된다. However, in the case of the INS sensor, only the variation of the coordinates is calculated. If the GNSS coordinate calculation value is not received for a long time, if the error is included in the coordinate variation amount, the error is continuously accumulated and the reliability of the coordinate measurement value drops sharply.

따라서 본 발명에서는 GNSS 센서와 같이 좌표 측정치를 계산할 수 있는 센서로서 라이다 센서를 이용하고, 이 라이다 센서를 기반으로 생성된 탐색 윈도우와 GNSS/INS 통합 센서를 기반으로 전자 지도 데이터베이스로부터 추출된 전자 지도 간의 맵 매칭 과정을 통해, 전자 지도 데이터베이스로부터 추출된 전자 지도로부터 좌표값을 출력함으로써, 오랜 시간 GNSS 좌표 계산값이 수신되지 않는 상황에서도 오차의 누적을 피할 수 있어 안정적인 측위가 가능하다.Therefore, in the present invention, an LIDAR sensor is used as a sensor capable of calculating coordinate measurement values such as a GNSS sensor, and an electronic window extracted from an electronic map database based on a navigation window and a GNSS / INS integrated sensor, By outputting the coordinate values from the electronic map extracted from the electronic map database through the map matching process between the maps, it is possible to avoid the accumulation of errors even in a situation where the long time GNSS coordinate calculation value is not received, and stable positioning is possible.

Claims (8)

라이다(LIDAR) 센서로부터 획득한 포인트 클라우드를 이용하여 상기 라이다 센서 주변의 지도를 생성하고, 생성된 지도를 탐색 윈도우로 설정하는 단계;
GNSS/INS 통합 센서에 포함된 GNSS 센서에서 측정한 차량의 이전 좌표 측정치와 INS 센서에서 측정한 상기 차량의 이전 좌표 변화량을 이용하여 상기 차량의 현재 위치 및 상기 차량의 진행 방향에 대한 방위각(Heading azimuth)을 계산하고, 상기 계산된 차량의 현재 위치를 기준으로 지도 데이터베이스로부터 전자 지도를 추출하는 단계;
추출된 상기 전자 지도와 상기 탐색 윈도우 간의 맵 매칭을 수행하는 단계; 및
맵 매칭된 상기 탐색 윈도우의 중앙 좌표를 추출하고, 상기 추출된 중앙 좌표에 대응하는 상기 전자 지도의 위치 좌표를 추출하는 단계;
를 포함하는 지도 기반 측위 방법.
Generating a map around the Lidar sensor by using a point cloud obtained from a LIDAR sensor, and setting the generated map as a search window;
The current position of the vehicle and the azimuth angle with respect to the traveling direction of the vehicle using the GNSS sensor included in the GNSS / INS integrated sensor and the previous coordinates of the vehicle measured by the INS sensor, Extracting an electronic map from the map database based on the calculated current position of the vehicle;
Performing map matching between the extracted electronic map and the search window; And
Extracting a center coordinate of the search window matched with the map and extracting a position coordinate of the electronic map corresponding to the extracted center coordinate;
Based positioning method.
제1항에 있어서, 상기 전자 지도의 위치 좌표를 추출하는 단계 이후,
상기 추출된 전자 지도의 위치 좌표, 상기 GNSS 센서에서 측정한 현재 좌표 측정치 및 상기 INS 센서에서 측정한 현재 좌표 변화량을 칼만 필터에 입력하여 최종 좌표를 결정하는 단계를 더 포함함을 특징으로 하는 지도 기반 측위 방법.
The method according to claim 1, wherein, after extracting the position coordinates of the electronic map,
Further comprising the step of determining the final coordinates by inputting the position coordinates of the extracted electronic map, the current coordinate measurement measured by the GNSS sensor, and the current coordinate change measured by the INS sensor into the Kalman filter, Positioning method.
제1항에 있어서, 상기 탐색 윈도우로 설정하는 단계는,
라이다 센서로부터 획득된 포인트 클라우드로부터 특정 거리 이내에 존재하는 포인트 집합을 추출하는 단계;
상기 추출된 포인트 집합에서 수학적 모델 인자들로 표현 가능한 도로 및 건물 영역의 특정 라인을 포함하는 상기 센서 주변의 지도를 생성하는 단계; 및
상기 특정 라인을 포함하는 지도를 상기 탐색 윈도우로 설정하는 단계;
를 포함하는 지도 기반 측위 방법.
2. The method of claim 1, wherein the setting of the search window comprises:
Extracting a set of points that is within a certain distance from the point cloud obtained from the Lidar sensor;
Generating a map around the sensor that includes a particular line of road and building area that can be represented by mathematical model factors in the extracted set of points; And
Setting a map including the specific line as the search window;
Based positioning method.
제3항에 있어서, 상기 상기 센서 주변의 지도를 생성하는 단계는,
선형 맞춤 알고리즘(linear fitting algorithm)을 이용하여 상기 추출된 포인트 집합에서 도로 및 건물 영역에 대응하는 상기 특정 라인을 추출하는 단계임을 특징으로 하는 지도 기반 측위 방법.
4. The method of claim 3, wherein generating the map around the sensor further comprises:
And extracting the specific line corresponding to the road and the building area from the extracted set of points using a linear fitting algorithm.
제3항에 있어서, 상기 라이다 센서 주변의 지도를 생성하는 단계는,
RANSAC(RANdom SAmple Consensus) 알고리즘을 이용하여 상기 추출된 제2 포인트 집합에서 수학적 모델 인자들로 표현 가능한 특정 라인을 포함하는 상기 센서 주변의 지도를 생성하는 단계임을 특징으로 하는 지도기반 측위 방법.
4. The method of claim 3, wherein generating the map around the Lidar sensor comprises:
And generating a map around the sensor including a specific line that can be represented by mathematical model factors in the extracted second set of points using RANSAC (Random Domain Consensus) algorithm.
제1항에 있어서, 상기 맵 매칭을 수행하는 단계는,
상기 추출된 전자 지도를 상기 계산된 방위각을 기준으로 회전시키는 단계; 및
상기 회전된 전자 지도를 상기 탐색 윈도우 간의 맵 매칭을 수행하는 단계
를 포함함을 특징으로 하는 지도 기반 측위 방법.
2. The method of claim 1, wherein performing the map matching comprises:
Rotating the extracted electronic map based on the calculated azimuth angle; And
Performing map matching between the search windows on the rotated electronic map
And a map-based positioning method.
다수의 레이저 포인트를 주변에 발사하여 주변 환경에 대한 포인트 클라우드를 생성하는 라이다(LIDAR) 센서;
차량의 이전 좌표 측정치를 측정하는 GNSS 센서와 상기 차량의 이전 좌표 변화량을 측정하는 INS 센서를 포함하는 GNSS/INS 통합 센서;
상기 라이다 센서에서 획득한 포인트 클라우드를 이용하여 상기 라이다 센서 주변의 지도를 생성하고, 생성된 지도를 탐색 윈도우로 설정하는 라이다 센서 데이터 처리부;
상기 GNSS/INS 통합 센서에서 측정한 상기 이전 좌표 측정치와 상기 이전 좌표 변화량을 상기 차량의 현재 위치 및 상기 차량의 진행 방향에 대한 방위각(Heading azimuth)을 계산하고, 상기 계산된 차량의 현재 위치를 기준으로 지도 데이터베이스로부터 전자 지도를 추출하는 통합 센서 데이터 처리부;
추출된 상기 전자 지도와 상기 탐색 윈도우를 맵 매칭하는 매칭부; 및
맵 매칭된 상기 탐색 윈도우의 중앙 좌표를 추출하고, 상기 추출된 중앙 좌표에 대응하는 상기 전자 지도의 위치 좌표를 추출하는 좌표 추출부
를 포함하는 지도 기반 측위 시스템.
A LIDAR sensor that fires a number of laser points around to create a point cloud for the surrounding environment;
A GNSS / INS integrated sensor including a GNSS sensor measuring a previous coordinate measurement of the vehicle and an INS sensor measuring a previous coordinate change of the vehicle;
A Lidar sensor data processing unit for generating a map around the Lidar sensor by using a point cloud acquired from the Lidar sensor and setting the generated map as a search window;
Calculating a heading azimuth with respect to a current position of the vehicle and a traveling direction of the vehicle based on the previous coordinate measurement value and the previous coordinate variation measured by the GNSS / INS integrated sensor; An integrated sensor data processing unit for extracting an electronic map from a map database;
A matching unit for map-matching the extracted electronic map and the search window; And
A coordinate extraction unit for extracting a center coordinate of the search window matching the map and extracting a position coordinate of the electronic map corresponding to the extracted central coordinate,
Based positioning system.
제7항에 있어서, 상기 라이다 센서 데이터 처리부는,
라이다 센서로부터 획득된 포인트 클라우드로부터 특정 거리 이내에 존재하는 포인트 집합을 추출하고, 상기 추출된 포인트 집합에서 도로 및 건물 영역을 수학적 모델 인자로 표현 가능한 특정 라인을 추출하는 추출부;
상기 추출된 특정 라인을 포함하는 센서 주변의 지도를 생성하는 지도 생성부; 및
상기 특정 라인을 포함하는 지도를 상기 탐색 윈도우로 설정하는 윈도우 설정부
를 포함함을 특징으로 하는 지도 기반 측위 시스템.
The apparatus as claimed in claim 7,
An extraction unit for extracting a set of points existing within a specific distance from the point cloud obtained from the LIDAR sensor and extracting a specific line capable of expressing the road and building area in the extracted point set by a mathematical model factor;
A map generating unit for generating a map around the sensor including the extracted specific line; And
A window setting unit for setting a map including the specific line as the search window,
Based positioning system.
KR1020140158761A 2014-11-14 2014-11-14 Map-based positioning system and method thereof Active KR101625486B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140158761A KR101625486B1 (en) 2014-11-14 2014-11-14 Map-based positioning system and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140158761A KR101625486B1 (en) 2014-11-14 2014-11-14 Map-based positioning system and method thereof

Publications (2)

Publication Number Publication Date
KR20160057755A true KR20160057755A (en) 2016-05-24
KR101625486B1 KR101625486B1 (en) 2016-05-30

Family

ID=56113881

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140158761A Active KR101625486B1 (en) 2014-11-14 2014-11-14 Map-based positioning system and method thereof

Country Status (1)

Country Link
KR (1) KR101625486B1 (en)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180102317A (en) * 2017-03-07 2018-09-17 현대자동차주식회사 Vehicle and controlling method thereof and autonomous driving system
CN109313646A (en) * 2016-06-14 2019-02-05 罗伯特·博世有限公司 Method and apparatus for creating an optimized positioning map and method for creating a positioning map for a vehicle
CN109507995A (en) * 2017-09-14 2019-03-22 深圳乐动机器人有限公司 The management system and robot of robot map
CN109859562A (en) * 2019-01-31 2019-06-07 南方科技大学 Data generation method, device, server and storage medium
KR20190084156A (en) * 2017-12-20 2019-07-16 현대자동차주식회사 Vehicle and position recognition method of the same
US10366282B2 (en) 2016-06-09 2019-07-30 Daegu Gyeongbuk Institute Of Science And Technology Human detection apparatus and method using low-resolution two-dimensional (2D) light detection and ranging (LIDAR) sensor
KR20190104305A (en) * 2019-09-03 2019-09-09 주식회사 모빌테크 Apparatus for building map using LiDAR
KR20190104304A (en) * 2019-09-03 2019-09-09 주식회사 모빌테크 Method for building map including point cloud using LiDAR
KR102105590B1 (en) * 2018-11-05 2020-04-28 한국교통대학교산학협력단 System and method for improving accuracy of low-cost commercial GNSS Receiver
KR20200072137A (en) * 2018-12-12 2020-06-22 현대자동차주식회사 Apparatus and method for identificating odm data reliability and vehicle including the same
CN111551186A (en) * 2019-11-29 2020-08-18 福瑞泰克智能系统有限公司 Vehicle real-time positioning method and system and vehicle
CN111947642A (en) * 2019-05-15 2020-11-17 宜升有限公司 Vehicle navigation apparatus for self-driving vehicle
CN112219225A (en) * 2019-09-26 2021-01-12 深圳市大疆创新科技有限公司 Positioning method, system and movable platform
CN112241016A (en) * 2019-07-19 2021-01-19 北京初速度科技有限公司 Method and device for determining geographic coordinates of parking map
CN112455503A (en) * 2019-09-09 2021-03-09 中车株洲电力机车研究所有限公司 Train positioning method and device based on radar
KR20210058640A (en) * 2019-11-12 2021-05-24 썬 학 트레이딩 씨오., 엘티디. Vehicle navigaton switching device for golf course self-driving cars
CN112946606A (en) * 2019-12-11 2021-06-11 北京万集科技股份有限公司 Laser radar calibration method, device, equipment, system and storage medium
KR20210079815A (en) * 2019-12-20 2021-06-30 재단법인대구경북과학기술원 Apparatus and method for detecting road curb
KR20210111182A (en) * 2020-03-02 2021-09-10 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. Method and apparatus for positioning, computing device, computer-readable storage medium and computer program stored in medium
CN116380118A (en) * 2022-11-29 2023-07-04 哈尔滨理工大学 3D laser radar odometer optimization method suitable for planar road
WO2023236643A1 (en) * 2022-06-09 2023-12-14 腾讯科技(深圳)有限公司 Positioning method and apparatus, device and storage medium
WO2024138970A1 (en) * 2022-12-26 2024-07-04 中国铁路设计集团有限公司 Multi-scale array-type laser radar measurement system, and method for acquiring track boundary conditions

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108732603B (en) * 2017-04-17 2020-07-10 百度在线网络技术(北京)有限公司 Method and device for locating a vehicle
KR102561263B1 (en) 2018-04-04 2023-07-28 삼성전자주식회사 Electronic apparatus and operating method for generating a map data
CN110082783B (en) * 2019-05-10 2021-04-23 北京理工大学 Method and device for detecting cliffs

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8699755B2 (en) 2009-02-20 2014-04-15 Navteq B.V. Determining travel path features based on retroreflectivity

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10366282B2 (en) 2016-06-09 2019-07-30 Daegu Gyeongbuk Institute Of Science And Technology Human detection apparatus and method using low-resolution two-dimensional (2D) light detection and ranging (LIDAR) sensor
CN109313646A (en) * 2016-06-14 2019-02-05 罗伯特·博世有限公司 Method and apparatus for creating an optimized positioning map and method for creating a positioning map for a vehicle
CN109313646B (en) * 2016-06-14 2023-10-27 罗伯特·博世有限公司 Methods and devices and machine-readable storage media for creating optimized positioning maps
CN108571975A (en) * 2017-03-07 2018-09-25 现代自动车株式会社 Vehicle and its control method and the autonomous driving system for using the vehicle and method
CN108571975B (en) * 2017-03-07 2023-03-10 现代自动车株式会社 Vehicle, control method thereof, and autonomous driving system using the vehicle and method
KR20180102317A (en) * 2017-03-07 2018-09-17 현대자동차주식회사 Vehicle and controlling method thereof and autonomous driving system
CN109507995A (en) * 2017-09-14 2019-03-22 深圳乐动机器人有限公司 The management system and robot of robot map
KR20190084156A (en) * 2017-12-20 2019-07-16 현대자동차주식회사 Vehicle and position recognition method of the same
KR102105590B1 (en) * 2018-11-05 2020-04-28 한국교통대학교산학협력단 System and method for improving accuracy of low-cost commercial GNSS Receiver
KR20200072137A (en) * 2018-12-12 2020-06-22 현대자동차주식회사 Apparatus and method for identificating odm data reliability and vehicle including the same
CN109859562A (en) * 2019-01-31 2019-06-07 南方科技大学 Data generation method, device, server and storage medium
CN111947642A (en) * 2019-05-15 2020-11-17 宜升有限公司 Vehicle navigation apparatus for self-driving vehicle
KR20200133184A (en) * 2019-05-15 2020-11-26 선 이글 트레이딩 씨오, 엘티디 Navigation device for self-driving vehicle
CN112241016A (en) * 2019-07-19 2021-01-19 北京初速度科技有限公司 Method and device for determining geographic coordinates of parking map
KR20190104305A (en) * 2019-09-03 2019-09-09 주식회사 모빌테크 Apparatus for building map using LiDAR
KR20190104304A (en) * 2019-09-03 2019-09-09 주식회사 모빌테크 Method for building map including point cloud using LiDAR
CN112455503A (en) * 2019-09-09 2021-03-09 中车株洲电力机车研究所有限公司 Train positioning method and device based on radar
CN112219225A (en) * 2019-09-26 2021-01-12 深圳市大疆创新科技有限公司 Positioning method, system and movable platform
KR20210058640A (en) * 2019-11-12 2021-05-24 썬 학 트레이딩 씨오., 엘티디. Vehicle navigaton switching device for golf course self-driving cars
CN111551186A (en) * 2019-11-29 2020-08-18 福瑞泰克智能系统有限公司 Vehicle real-time positioning method and system and vehicle
CN111551186B (en) * 2019-11-29 2024-09-27 福瑞泰克智能系统有限公司 Real-time vehicle positioning method and system and vehicle
CN112946606A (en) * 2019-12-11 2021-06-11 北京万集科技股份有限公司 Laser radar calibration method, device, equipment, system and storage medium
CN112946606B (en) * 2019-12-11 2024-02-13 北京万集科技股份有限公司 Laser radar calibration method, device, equipment, system and storage medium
KR20210079815A (en) * 2019-12-20 2021-06-30 재단법인대구경북과학기술원 Apparatus and method for detecting road curb
KR20210111182A (en) * 2020-03-02 2021-09-10 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. Method and apparatus for positioning, computing device, computer-readable storage medium and computer program stored in medium
US11725944B2 (en) 2020-03-02 2023-08-15 Apollo Intelligent Driving Technology (Beijing) Co, Ltd. Method, apparatus, computing device and computer-readable storage medium for positioning
WO2023236643A1 (en) * 2022-06-09 2023-12-14 腾讯科技(深圳)有限公司 Positioning method and apparatus, device and storage medium
CN116380118A (en) * 2022-11-29 2023-07-04 哈尔滨理工大学 3D laser radar odometer optimization method suitable for planar road
WO2024138970A1 (en) * 2022-12-26 2024-07-04 中国铁路设计集团有限公司 Multi-scale array-type laser radar measurement system, and method for acquiring track boundary conditions

Also Published As

Publication number Publication date
KR101625486B1 (en) 2016-05-30

Similar Documents

Publication Publication Date Title
KR101625486B1 (en) Map-based positioning system and method thereof
Brenner Extraction of features from mobile laser scanning data for future driver assistance systems
Rose et al. An integrated vehicle navigation system utilizing lane-detection and lateral position estimation systems in difficult environments for GPS
CN101907714B (en) GPS aided positioning system and method based on multi-sensor data fusion
JP6694395B2 (en) Method and system for determining position relative to a digital map
JP6656886B2 (en) Information processing apparatus, control method, program, and storage medium
KR101454153B1 (en) Navigation system for unmanned ground vehicle by sensor fusion with virtual lane
CN114636993A (en) External parameter calibration method, device and equipment for laser radar and IMU
US11512975B2 (en) Method of navigating an unmanned vehicle and system thereof
EP2133662A2 (en) Methods and system of navigation using terrain features
US8818722B2 (en) Rapid lidar image correlation for ground navigation
CN108168565A (en) For the method and system of positioning vehicle
EP3647820B1 (en) Method, apparatus, and computer program product for establishing location
CN106842271B (en) Navigation positioning method and device
US20200249695A1 (en) Method for localizing a vehicle
JP2025015843A (en) Information processing device, control method, program, and storage medium
JP2025123341A (en) Position estimation device, estimation device, control method, program, and storage medium
Tao et al. Road‐Centered Map‐Aided Localization for Driverless Cars Using Single‐Frequency GNSS Receivers
JP2024161585A (en) Self-location estimation device
EP4012341A1 (en) Camera calibration for localization
CN105556244A (en) Method for determining a current position of a motor vehicle in a geodetic coordinate system and motor vehicle
JP2024161130A (en) Self-location estimation device, control method, program, and storage medium
CN115183762A (en) Airport warehouse inside and outside mapping method, system, electronic equipment and medium
Liu et al. Generating enhanced intersection maps for lane level vehicle positioning based applications
Klein et al. LiDAR and INS fusion in periods of GPS outages for mobile laser scanning mapping systems

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20141114

PA0201 Request for examination
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20151125

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20160520

GRNT Written decision to grant
PG1501 Laying open of application
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20160524

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20160524

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
FPAY Annual fee payment

Payment date: 20190325

Year of fee payment: 4

PR1001 Payment of annual fee

Payment date: 20190325

Start annual number: 4

End annual number: 4

PR1001 Payment of annual fee

Payment date: 20200324

Start annual number: 5

End annual number: 5

PR1001 Payment of annual fee

Payment date: 20210310

Start annual number: 6

End annual number: 6

PR1001 Payment of annual fee

Payment date: 20220321

Start annual number: 7

End annual number: 7

PR1001 Payment of annual fee

Payment date: 20230328

Start annual number: 8

End annual number: 8

PR1001 Payment of annual fee

Payment date: 20240402

Start annual number: 9

End annual number: 9