KR20130027367A - A navigation apparatus and method for displaying course thereof - Google Patents
A navigation apparatus and method for displaying course thereof Download PDFInfo
- Publication number
- KR20130027367A KR20130027367A KR1020110090906A KR20110090906A KR20130027367A KR 20130027367 A KR20130027367 A KR 20130027367A KR 1020110090906 A KR1020110090906 A KR 1020110090906A KR 20110090906 A KR20110090906 A KR 20110090906A KR 20130027367 A KR20130027367 A KR 20130027367A
- Authority
- KR
- South Korea
- Prior art keywords
- dimensional coordinates
- route information
- driver
- calculating
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/365—Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3446—Details of route searching algorithms, e.g. Dijkstra, A*, arc-flags or using precalculated routes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3667—Display of a road map
- G01C21/3676—Overview of the route on the road map
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/40—Business processes related to the transportation industry
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Business, Economics & Management (AREA)
- Geometry (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- Optics & Photonics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Navigation (AREA)
Abstract
내비게이션 장치 및 경로 표시 방법이 개시된다. 내비게이션 장치는 입력된 목적지까지의 경로 정보를 산출하는 내비게이션부, 차량의 전방 영상을 획득하는 카메라부, 3차원 깊이센서를 이용하여 운전자의 눈의 위치를 3차원 좌표로 산출하는 제1 센서부, 전방 영상을 증강 현실을 이용하여 처리하며, 전방 영상에 경로 정보를 매칭시키는 영상 처리부 및 경로 정보를 차량 전면 유리에 출력하는 디스플레이부를 포함하되, 영상 처리부는 눈의 위치의 변화에 따라 차량 전면 유리에 출력된 경로 정보의 위치를 보정한다.A navigation device and a route display method are disclosed. The navigation device includes a navigation unit for calculating route information to an input destination, a camera unit for acquiring a front image of the vehicle, a first sensor unit for calculating the position of the driver's eyes in three-dimensional coordinates using a three-dimensional depth sensor, A front image is processed using augmented reality, and includes an image processing unit for matching the route information to the front image and a display unit for outputting the route information on the vehicle windshield, wherein the image processing unit is mounted on the vehicle windshield according to the change of the eye position. Correct the position of the output route information.
Description
본 발명은 내비게이션 장치에 관한 것으로서, 보다 상세하게는 내비게이션 장치의 경로 표시 방법에 관한 것이다.
The present invention relates to a navigation device, and more particularly, to a method for displaying a path of a navigation device.
발명의 배경기술로는 헤드업 디스플레이를 가지는 차량 항법 장치에 관한 특허문헌이 있으며, 차량 항법 장치에서 처리된 지도데이터 및 목적지까지의 거리 및 최적경로의 계산결과를 전방유리에 조사하는 것에 대하여 개시하고 있다.
Background Art of the Invention There is a patent document relating to a vehicle navigation apparatus having a head-up display, and discloses the investigation of the windshield on the map data processed by the vehicle navigation system, the distance to the destination and the calculation result of the optimum route. have.
본 발명은 증강 현실(Augmented Reality) 기술과 헤드업 디스플레이(HUD: Head Up Display) 기술을 이용하여 경로 정보가 실제 도로와 정확히 매칭되도록 차량 전면 유리에 표시하는 것이다.The present invention uses augmented reality (Augmented Reality) technology and head up display (HUD: Head Up Display) technology to display the route information on the windshield of the vehicle to match the exact road.
또한, 본 발명은 운전자의 눈 위치에 따라 경로 정보가 실제 도로와 정확히 매칭되도록 차량 전면 유리에 표시하는 것이다.In addition, according to the present invention, the route information is displayed on the vehicle windshield so that the route information exactly matches the actual road according to the driver's eye position.
또한, 본 발명은 운전자의 제스처를 감지하여 내비게이션 장치의 입력 신호로 이용하는 것이다.
In addition, the present invention is to detect the gesture of the driver to use as an input signal of the navigation device.
본 발명의 일 측면에 따르면, 증강 현실과 헤드업 디스플레이를 이용한 내비게이션 장치가 개시된다.According to an aspect of the present invention, a navigation device using augmented reality and a head-up display is disclosed.
본 발명의 실시예에 따른 내비게이션 장치는 입력된 목적지까지의 경로 정보를 산출하는 내비게이션부, 차량의 전방 영상을 획득하는 카메라부, 3차원 깊이센서를 이용하여 운전자의 눈의 위치를 3차원 좌표로 산출하는 제1 센서부, 상기 전방 영상을 증강 현실을 이용하여 처리하며, 상기 전방 영상에 상기 경로 정보를 매칭시키는 영상 처리부 및 상기 경로 정보를 차량 전면 유리에 출력하는 디스플레이부를 포함하되, 상기 영상 처리부는 상기 눈의 위치의 변화에 따라 상기 차량 전면 유리에 출력된 경로 정보의 위치를 보정한다.According to an exemplary embodiment of the present invention, a navigation device includes a navigation unit for calculating route information to an input destination, a camera unit for acquiring a front image of a vehicle, and a 3D depth sensor using a 3D depth sensor. A first sensor unit to calculate the front image by using augmented reality, an image processing unit to match the path information to the front image, and a display unit to output the path information to the vehicle windshield, wherein the image processing unit Corrects the position of the route information output to the vehicle windshield according to the change of the position of the eye.
여기서, 상기 영상 처리부는 상기 운전자의 머리의 3차원 좌표를 산출하여 상기 눈의 위치를 산출하고, 상기 머리의 이동에 따른 이동 전후의 3차원 좌표를 이용하여 이동 방향 및 크기를 이동 벡터의 형식으로 산출하고, 상기 이동 벡터에 따라 상기 차량 전면 유리에 출력된 경로 정보의 위치를 이동시킨다.Here, the image processing unit calculates the position of the eye by calculating the three-dimensional coordinates of the head of the driver, and using the three-dimensional coordinates before and after the movement according to the movement of the head in the form of a movement vector Calculate and move the position of the route information output on the vehicle windshield according to the movement vector.
여기서, 상기 3차원 깊이센서를 이용하여 상기 운전자의 지시수단의 위치를 3차원 좌표로 산출하는 제2 센서부 및 상기 지시수단의 위치의 3차원 좌표에 대응하는 명령을 발생하는 입력부를 더 포함한다.The apparatus may further include a second sensor unit configured to calculate the position of the driver's indicating means as three-dimensional coordinates using the three-dimensional depth sensor, and an input unit generating a command corresponding to the three-dimensional coordinates of the position of the indicating means. .
여기서, 상기 제2 센서부는 상기 차량의 운전대의 중앙 부분에 일정 개수의 버튼을 나타내는 가상 터치 패드의 위치에 상기 지시수단이 위치하면, 해당 위치의 3차원 좌표를 상기 지시수단의 3차원 좌표로 산출한다.The second sensor unit calculates three-dimensional coordinates of the corresponding position as three-dimensional coordinates of the indicating means when the indicating means is positioned at a position of a virtual touch pad representing a predetermined number of buttons in the center portion of the steering wheel of the vehicle. do.
여기서, 상기 차량 전면 유리에 출력된 경로 정보는 길 안내 선 또는 길 안내 화살표이다.Here, the route information output on the vehicle windshield is a road guide line or a road guide arrow.
본 발명의 다른 측면에 따르면, 내비게이션 장치가 경로를 표시하는 방법이 개시된다.According to another aspect of the invention, a method is disclosed in which a navigation device indicates a route.
본 발명의 실시예에 따른 경로 표시 방법은 입력된 목적지에 따른 경로 정보를 산출하는 단계, 차량의 전방 영상을 획득하는 단계, 상기 전방 영상을 증강 현실을 이용하여 처리하며, 상기 전방 영상에 상기 경로 정보를 매칭시키는 단계, 상기 경로 정보를 차량 전면 유리에 출력하는 단계, 3차원 깊이센서를 이용하여 운전자의 눈의 위치를 3차원 좌표로 산출하는 단계 및 상기 눈의 위치의 변화에 따라 상기 차량 전면 유리에 출력된 경로 정보의 위치를 보정하는 단계를 포함한다.According to an embodiment of the present invention, a route display method includes calculating route information according to an input destination, acquiring a front image of a vehicle, and processing the front image by using augmented reality, wherein the route is displayed on the front image. Matching the information, outputting the route information to the vehicle front glass, calculating the position of the driver's eyes in three-dimensional coordinates using a three-dimensional depth sensor, and changing the front of the vehicle according to the change in the position of the eye Correcting the position of the route information output to the glass.
여기서, 상기 3차원 깊이센서를 이용하여 운전자의 눈의 위치를 3차원 좌표로 산출하는 단계는 상기 운전자의 머리의 3차원 좌표를 산출하여 상기 눈의 위치를 산출하는 단계를 포함하고, 상기 눈의 위치의 변화에 따라 상기 차량 전면 유리에 출력된 경로 정보의 위치를 보정하는 단계는 상기 머리의 이동에 따른 이동 전후의 3차원 좌표를 이용하여 이동 방향 및 크기를 이동 벡터의 형식으로 산출하는 단계 및 상기 이동 벡터에 따라 상기 차량 전면 유리에 출력된 경로 정보의 위치를 이동시키는 단계를 포함한다.Here, the step of calculating the position of the driver's eye using the three-dimensional depth sensor in three-dimensional coordinates includes calculating the three-dimensional coordinates of the head of the driver to calculate the position of the eye. Compensating the position of the route information output to the vehicle windshield according to the change of the position may be calculated by using the three-dimensional coordinates before and after the movement according to the movement of the head in the form of a movement vector; And moving the position of the route information output on the vehicle windshield according to the movement vector.
여기서, 상기 3차원 깊이센서를 이용하여 상기 운전자의 지시수단의 위치를 3차원 좌표로 산출하는 단계 및 상기 지시수단의 위치의 3차원 좌표에 대응하는 명령을 발생하는 단계를 더 포함한다.The method may further include calculating a position of the driver's indicating means as three-dimensional coordinates using the three-dimensional depth sensor and generating a command corresponding to the three-dimensional coordinates of the position of the indicating means.
여기서, 상기 3차원 깊이센서를 이용하여 상기 운전자의 지시수단의 위치를 3차원 좌표로 산출하는 단계는 상기 차량의 운전대의 중앙 부분에 일정 개수의 버튼을 나타내는 가상 터치 패드의 위치에 상기 지시수단이 위치하면, 해당 위치의 3차원 좌표를 상기 지시수단의 3차원 좌표로 산출한다.Here, the step of calculating the position of the driver's indicating means using the three-dimensional depth sensor in three-dimensional coordinates is the indication means at the position of the virtual touch pad representing a certain number of buttons in the center portion of the steering wheel of the vehicle. When located, the three-dimensional coordinates of the corresponding position is calculated as the three-dimensional coordinates of the indicating means.
여기서, 상기 차량 전면 유리에 출력된 경로 정보는 길 안내 선 또는 길 안내 화살표이다.
Here, the route information output on the vehicle windshield is a road guide line or a road guide arrow.
본 발명은 증강 현실(Augmented Reality) 기술과 헤드업 디스플레이(HUD: Head Up Display) 기술을 이용하여 경로 정보가 실제 도로와 정확히 매칭되도록 차량 전면 유리에 표시할 수 있다.The present invention may display the route information on the windshield of the vehicle so that the route information is exactly matched with the actual road using Augmented Reality technology and Head Up Display (HUD) technology.
또한, 본 발명은 운전자의 눈 위치에 따라 경로 정보가 실제 도로와 정확히 매칭되도록 차량 전면 유리에 표시할 수 있다.In addition, according to the present invention, the route information may be displayed on the windshield of the vehicle so that the route information is exactly matched with the actual road.
또한, 본 발명은 운전자의 제스처를 감지하여 내비게이션 장치의 입력 신호로 이용할 수 있다.
In addition, the present invention can detect the gesture of the driver can be used as an input signal of the navigation device.
도 1은 내비게이션 장치의 구성을 개략적으로 예시한 구성도.
도 2 내지 도 4는 경로 정보가 차량 전면 유리에 출력되는 것을 예시한 도면.
도 5는 운전자의 지시수단의 위치를 인식하는 것을 예시한 도면.
도 6은 내비게이션 장치의 경로 표시 방법을 나타낸 흐름도.1 is a configuration diagram schematically illustrating a configuration of a navigation device.
2 to 4 are diagrams illustrating that the route information is output to the vehicle windshield.
5 is a view illustrating recognizing a position of a driver's indicating means.
6 is a flowchart illustrating a path display method of a navigation device.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 이를 상세한 설명을 통해 상세히 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.The present invention may be variously modified and have various embodiments, and specific embodiments will be illustrated in the drawings and described in detail with reference to the accompanying drawings. It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.
본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings. In addition, numerals (e.g., first, second, etc.) used in the description of the present invention are merely an identifier for distinguishing one component from another.
또한, 본 명세서에서, 일 구성요소가 다른 구성요소와 "연결된다" 거나 "접속된다" 등으로 언급된 때에는, 상기 일 구성요소가 상기 다른 구성요소와 직접 연결되거나 또는 직접 접속될 수도 있지만, 특별히 반대되는 기재가 존재하지 않는 이상, 중간에 또 다른 구성요소를 매개하여 연결되거나 또는 접속될 수도 있다고 이해되어야 할 것이다.Also, in this specification, when an element is referred to as being "connected" or "connected" with another element, the element may be directly connected or directly connected to the other element, It should be understood that, unless an opposite description is present, it may be connected or connected via another element in the middle.
이하, 본 발명의 실시예를 첨부한 도면들을 참조하여 상세히 설명하기로 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면 번호에 상관없이 동일한 수단에 대해서는 동일한 참조 번호를 사용하기로 한다.
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description of the present invention, the same reference numerals will be used for the same means regardless of the reference numerals in order to facilitate the overall understanding.
도 1은 내비게이션 장치의 구성을 개략적으로 예시한 구성도이다.1 is a configuration diagram schematically illustrating a configuration of a navigation device.
도 1을 참조하면, 내비게이션 장치는 내비게이션부(10), 카메라부(20), 영상 처리부(30), 제1 센서부(40), 제2 센서부(50), 입력부(60), 디스플레이부(70) 및 제어부(80)를 포함한다.Referring to FIG. 1, the navigation device includes a
내비게이션부(10)는 운전자의 경로 검색 요청에 따라 입력된 목적지까지의 경로 정보를 산출한다. 이를 위하여, 내비게이션부(10)는 위치 정보 수신 모듈 및 지도 데이터 베이스를 포함할 수 있다.The
위치 정보 수신 모듈은 내비게이션 장치의 현재 위치를 확인하거나 얻기 위한 모듈이다. 위치 정보 수신 모듈의 대표적인 예로는 GPS(Global Position System) 모듈이 있다. 현재 기술에 의하면, GPS 모듈은, 일 지점(개체)이 3개 이상의 위성으로부터 떨어진 거리에 관한 정보와, 거리 정보가 측정된 시간에 관한 정보를 산출한 다음 산출된 거리 정보에 삼각법을 적용함으로써, 일 시간에 일 지점에 대한 위도, 경도 및 고도에 따른 3차원의 위치 정보를 산출할 수 있다. 나아가, 3개의 위성을 이용하여 위치 및 시간 정보를 산출하고, 또 다른 1개의 위성을 이용하여 산출된 위치 및 시간 정보의 오차를 수정하는 방법 또한 사용되고 있다. GPS 모듈은 현 위치를 실시간으로 계속 산출하고 이를 이용하여 속도 정보를 산출하기도 한다.The location information receiving module is a module for checking or obtaining the current location of the navigation device. A representative example of the position information receiving module is a global position system (GPS) module. According to the present technology, the GPS module calculates information on a distance (distance) from three or more satellites, information on a time when the distance information is measured, and then applies trigonometry to the calculated distance information, It is possible to calculate three-dimensional position information according to latitude, longitude and altitude with respect to one point in one hour. Further, a method of calculating position and time information using three satellites and correcting an error of position and time information calculated using another satellite is also used. The GPS module continuously calculates the current position in real time and uses it to calculate speed information.
카메라부(20)는 차량의 전방 영상을 획득한다. 예를 들어, 카메라부(20)는 차량의 전방을 향하도록 차량의 앞부분에 설치될 수 있으며, 특히, 운전자가 차량 전면 유리를 통해 보는 전경과 일치하는 전방 영상을 획득하도록 설치될 수 있다.The
제1 센서부(40)는 운전자의 눈의 위치를 3차원 좌표로 산출한다. 예를 들어, 제1 센서부(40)는 3차원 깊이센서를 이용하여 운전자의 머리에 대한 3차원 좌표를 산출할 수 있으며, 3차원 깊이센서는 운전자의 머리가 센싱되도록 차량 내부에 장착될 수 있다. 이때, 제1 센서부(40)는 깊이값(z축 좌표값)이 미리 설정된 범위에 포함되면, 해당하는 3차원 좌표를 운전자의 머리에 대한 3차원 좌표로 인식할 수 있다. 또한, 제1 센서부(40)는 지속적으로 센싱하여 운전자의 머리에 대한 3차원 좌표를 산출하여 출력할 수 있다.The
영상 처리부(30)는 카메라부(20)에 의하여 획득된 전방 영상에 경로 정보를 매칭시킨다. 여기서, 전방 영상에 매칭된 경로 정보는 디스플레이부(70)를 통해 차량 전면 유리에 출력된다. 이에 따라, 경로 정보는 실제 도로와 매칭되어 보여질 수 있다.The
영상 처리부(30)는 증강 현실을 이용하여 전방 영상을 처리함으로써, 전방 영상에 경로 정보를 매칭시킬 수 있다. The
예를 들어, 영상 처리부(30)는 2차원으로 획득된 전방 영상을 미리 설정된 알고리즘에 따라 이미지 프로세싱(Image Processing)하여 3차원 정보를 산출함으로써, 전방 영상을 증강 현실 처리할 수 있다. 그리고, 영상 처리부(30)는 증강 현실 처리된 전방 영상에서 도로를 따라 일정 거리 간격을 의미하는 포인트를 표시하고, 이 포인트에 따라 경로 정보를 매칭시킬 수 있다.For example, the
영상 처리부(30)는 전방 영상에 매칭된 경로 정보를 운전자의 눈의 위치에 따라 보정한다. 예를 들어, 차량 전면 유리에 출력된 경로 정보는 사람의 눈의 위치(즉, 시점)에 따라 오차가 발생되어 보여질 수 있다. 그래서, 영상 처리부(30)는 이 오차를 보정하기 위하여 운전자의 머리에 대한 3차원 좌표의 변화를 감지하고, 3차원 좌표의 변화에 따라 경로 정보의 위치를 변화시킬 수 있다. 이에 대하여, 도 2 내지 도 4를 참조하여 설명한다.The
도 2 내지 도 4는 경로 정보가 차량 전면 유리에 출력되는 것을 예시한 도면이다. 차량 전면 유리(100)에 출력되는 경로 정보는 실제 도로(101)에 매칭된 길 안내 선 또는 길 안내 화살표(102)의 형태로 표시될 수 있다. 또한, 출력되는 경로 정보는 주행 속도 정보, 진행 방향 정보, 도로 정보 등을 포함할 수도 있다.2 to 4 are diagrams illustrating that the route information is output to the vehicle windshield. Route information output to the
우선, 영상 처리부(30)가 전방 영상에 매칭한 길 안내 선(102)이 도 2에 도시된 바와 같이 나타난다고 가정한다. 이때, 운전자의 눈(103)의 위치가 미리 설정된 기준 위치인 것으로 가정한다.First, it is assumed that the
이후, 도 3에 도시된 바와 같이, 운전자의 눈(103)의 위치가 좌측으로 이동하면, 운전자가 보는 길 안내 선(102)은 우측으로 이동할 수 있다. 이때, 영상 처리부(30)는 제1 센서부(40)에 의하여 산출되는 운전자의 머리에 대한 3차원 좌표를 이용하여 운전자의 눈의 위치 변화를 인식하며, 눈의 위치 변화에 따라 길 안내 선(102)의 위치를 이동시킬 수 있다.Then, as shown in FIG. 3, when the position of the driver's
즉, 도 4에 나타낸 바와 같이, 영상 처리부(30)는 운전자의 눈(103)의 위치가 좌측으로 이동함에 따라 길 안내 선(102)을 좌측으로 이동시킴으로써, 길 안내 선(102)이 실제 도로에 매칭되어 보여질 수 있다.That is, as shown in FIG. 4, the
예를 들어, 영상 처리부(30)는 운전자의 눈(103)의 위치의 이동 전후의 3차원 좌표를 이용하여 이동 방향 및 크기를 이동 벡터의 형식으로 산출할 수 있다. 이어, 영상 처리부(30)는 산출된 크기만큼 또는 산출된 크기에 비례하게 길 안내 선(102)을 산출된 이동 방향으로 이동시킬 수 있다.For example, the
제2 센서부(50)는 운전자의 지시수단의 위치를 3차원 좌표로 산출한다. 예를 들어, 지시수단은 운전자의 손가락끝이나 터치펜 등이 될 수 있으며, 제2 센서부(50)는 3차원 깊이센서를 이용하여 운전자의 지시수단에 대한 3차원 좌표를 산출할 수 있으며, 3차원 깊이센서는 운전자의 지시수단이 센싱되도록 차량 내부에 장착될 수 있다. 이때, 제2 센서부(50)는 깊이값(z축 좌표값)이 미리 설정된 범위에 포함되면, 해당하는 3차원 좌표를 운전자의 지시수단에 대한 3차원 좌표로 인식할 수 있다. 예를 들어, 도 5를 참조하면, 도 5는 운전자의 지시수단의 위치를 인식하는 것을 예시한 도면이다. 도 5에 도시된 바와 같이, 차량 내부에 설치된 운전대(200)의 중앙 부분에 일정 개수의 버튼을 나타내는 가상 터치 패드(201)가 그림 형태로 부착되거나 그려질 수 있다. 그래서, 제2 센서부(50)는 가상 터치 패드(201)의 위치에 운전자의 지시수단이 위치하면, 해당 위치의 3차원 좌표를 운전자의 지시수단에 대한 3차원 좌표로 산출할 수 있다. 여기서, 산출되는 3차원 좌표는 가상 터치 패드(201)의 각 버튼 별로 산출될 수 있다.The
입력부(60)는 제2 센서부(50)를 통해 산출된 지시수단의 3차원 좌표에 대응하는 명령를 발생한다. 또한, 입력부(60)는 사용자로부터 각종 명령을 입력받기 위한 복수의 조작 유닛을 포함할 수 있다. 예를 들어, 조작 유닛들은 키 패드(key pad), 터치 패드(정압/정전), 휠 키, 조그 스위치 등으로 제작될 수 있다.The
디스플레이부(70)는 영상 처리부(30)에 의하여 처리된 경로 정보를 차량 전면 유리에 출력한다.The
제어부(80)는 통상적으로 내비게이션 장치(100)의 전반적인 동작을 제어한다. 특히, 제어부(80)는 영상 처리부(30)가 전방 영상에 경로 정보를 매칭시키도록 제어할 수 있다. 또한, 제어부(80)는 제1 센서부(40)가 운전자의 눈 위치를 산출하고, 영상 처리부(30)가 눈의 위치에 따라 차량 전면 유리에 출력되는 경로 정보의 위치를 보정하도록 제어할 수 있다. 또한, 제어부(80)는 제2 센서부(40)가 운전자의 지시수단의 위치를 산출하도록 제어할 수 있다.
The
도 6은 내비게이션 장치의 경로 표시 방법을 나타낸 흐름도이다.6 is a flowchart illustrating a path display method of a navigation device.
S610 단계에서, 내비게이션 장치는 운전자로부터 목적지를 입력받는다. 예를 들어, 내비게이션 장치는 3차원 깊이 센서를 통해 운전자의 지시수단의 위치를 3차원 좌표로 산출하고, 3차원 좌표에 대응하는 입력신호에 따른 명령을 수행할 수 있다.In operation S610, the navigation device receives a destination from the driver. For example, the navigation device may calculate the position of the driver's indicating means in three-dimensional coordinates through a three-dimensional depth sensor and perform a command according to an input signal corresponding to the three-dimensional coordinates.
S620 단계에서, 내비게이션 장치는 목적지에 따른 경로 정보를 산출한다. 예를 들어, 내비게이션 장치는 위치 정보 모듈을 이용하여 차량의 현재 위치를 획득하고, 지도 데이터 베이스에 저장된 지도 데이터를 이용하여 현재 위치로부터 목적지까지의 경로 정보를 산출할 수 있다.In operation S620, the navigation apparatus calculates route information according to the destination. For example, the navigation device may acquire the current location of the vehicle using the location information module and calculate route information from the current location to the destination using map data stored in the map database.
S630 단계에서, 내비게이션 장치는 전방 영상을 획득한다. 예를 들어, 전방 영상은 운전자가 차량 전면 유리를 통해 보는 전경과 일치하는 영상으로 획득될 수 있다.In operation S630, the navigation device acquires a forward image. For example, the front image may be obtained as an image corresponding to the foreground seen by the driver through the vehicle windshield.
S640 단계에서, 내비게이션 장치는 획득한 전방 영상에 경로 정보를 매칭시킨다. 즉, 내비게이션 장치는 전방 영상을 증강 현실 처리하여 전방 영상에 경로 정보를 매칭시킬 수 있다.In operation S640, the navigation device matches path information with the acquired front image. That is, the navigation device may match the path information with the front image by augmented reality processing the front image.
S650 단계에서, 내비게이션 장치는 전방 영상에 매칭된 경로 정보를 차량 전면 유리에 출력한다.In step S650, the navigation device outputs the route information matched to the front image on the vehicle windshield.
S660 단계에서, 내비게이션 장치는 운전자의 눈 위치를 산출한다. 예를 들어, 내비게이션 장치는 3차원 깊이 센서를 통해 운전자의 머리 위치를 3차원 좌표로 산출할 수 있다.In operation S660, the navigation device calculates the eye position of the driver. For example, the navigation device may calculate the driver's head position in three-dimensional coordinates through the three-dimensional depth sensor.
S670 단계에서, 내비게이션 장치는 운전자의 눈 위치에 따라 차량 전면 유리에 출력되는 경로 정보의 위치를 보정한다. 예를 들어, 내비게이션 장치는 기준 위치에 대한 운전자 머리의 위치 변화에 따라 차량 전면 유리에 출력되는 경로 정보의 위치를 보정할 수 있다.
In operation S670, the navigation device corrects the position of the route information output on the vehicle windshield according to the driver's eye position. For example, the navigation device may correct the position of the route information output to the vehicle windshield according to the change of the position of the driver's head with respect to the reference position.
한편, 본 발명의 실시예에 따른 경로 표시 방법은 다양한 전자적으로 정보를 처리하는 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 저장 매체에 기록될 수 있다. 저장 매체는 프로그램 명령, 데이터 파일, 데이터 구조등을 단독으로 또는 조합하여 포함할 수 있다. On the other hand, the path display method according to an embodiment of the present invention can be implemented in the form of program instructions that can be executed through various electronic means for processing information can be recorded in the storage medium. The storage medium may include program instructions, data files, data structures, etc. alone or in combination.
저장 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 소프트웨어 분야 당업자에게 공지되어 사용 가능한 것일 수도 있다. 저장 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 또한 상술한 매체는 프로그램 명령, 데이터 구조 등을 지정하는 신호를 전송하는 반송파를 포함하는 광 또는 금속선, 도파관 등의 전송 매체일 수도 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 전자적으로 정보를 처리하는 장치, 예를 들어, 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. Program instructions to be recorded on the storage medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of software. Examples of storage media include magnetic media such as hard disks, floppy disks and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic-optical media such as floppy disks. hardware devices specifically configured to store and execute program instructions such as magneto-optical media and ROM, RAM, flash memory, and the like. In addition, the above-described medium may be a transmission medium such as an optical or metal wire, a waveguide, or the like including a carrier wave for transmitting a signal specifying a program command, a data structure, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as devices for processing information electronically using an interpreter or the like, for example, a high-level language code that can be executed by a computer.
상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the invention as defined in the appended claims. It will be understood that the invention may be varied and varied without departing from the scope of the invention.
10: 내비게이션부
20: 카메라부
30: 영상 처리부
40: 제1 센서부
50: 제2 센서부
60: 입력부
70: 디스플레이부
80: 제어부10: navigation unit
20: camera unit
30: image processing unit
40: first sensor unit
50: second sensor unit
60: input unit
70:
80: control unit
Claims (10)
차량의 전방 영상을 획득하는 카메라부;
3차원 깊이센서를 이용하여 운전자의 눈의 위치를 3차원 좌표로 산출하는 제1 센서부;
상기 전방 영상을 증강 현실을 이용하여 처리하며, 상기 전방 영상에 상기 경로 정보를 매칭시키는 영상 처리부; 및
상기 경로 정보를 차량 전면 유리에 출력하는 디스플레이부를 포함하되,
상기 영상 처리부는 상기 눈의 위치의 변화에 따라 상기 차량 전면 유리에 출력된 경로 정보의 위치를 보정하는 것을 특징으로 하는 내비게이션 장치.
A navigation unit for calculating route information to an input destination;
A camera unit for acquiring a front image of the vehicle;
A first sensor unit which calculates the position of the driver's eyes in three-dimensional coordinates using a three-dimensional depth sensor;
An image processor which processes the front image using augmented reality and matches the path information with the front image; And
Including a display unit for outputting the route information on the vehicle windshield,
And the image processing unit corrects the position of the route information output to the vehicle windshield according to the change of the position of the eye.
상기 영상 처리부는 상기 운전자의 머리의 3차원 좌표를 산출하여 상기 눈의 위치를 산출하고, 상기 머리의 이동에 따른 이동 전후의 3차원 좌표를 이용하여 이동 방향 및 크기를 이동 벡터의 형식으로 산출하고, 상기 이동 벡터에 따라 상기 차량 전면 유리에 출력된 경로 정보의 위치를 이동시키는 것을 특징으로 하는 내비게이션 장치.
The method of claim 1,
The image processing unit calculates the position of the eye by calculating the three-dimensional coordinates of the head of the driver, and calculates the movement direction and size in the form of a movement vector by using three-dimensional coordinates before and after the movement according to the movement of the head. And move the position of the route information output on the vehicle windshield according to the movement vector.
상기 3차원 깊이센서를 이용하여 상기 운전자의 지시수단의 위치를 3차원 좌표로 산출하는 제2 센서부; 및
상기 지시수단의 위치의 3차원 좌표에 대응하는 명령을 발생하는 입력부를 더 포함하는 내비게이션 장치.
The method of claim 1,
A second sensor unit which calculates the position of the driver's indicating means in three-dimensional coordinates using the three-dimensional depth sensor; And
And an input unit for generating a command corresponding to the three-dimensional coordinates of the position of the indicating means.
상기 제2 센서부는 상기 차량의 운전대의 중앙 부분에 일정 개수의 버튼을 나타내는 가상 터치 패드의 위치에 상기 지시수단이 위치하면, 해당 위치의 3차원 좌표를 상기 지시수단의 3차원 좌표로 산출하는 것을 특징으로 하는 내비게이션 장치.
The method of claim 3,
The second sensor unit calculates the three-dimensional coordinates of the position as the three-dimensional coordinates of the indicating means when the indicating means is located at the position of the virtual touch pad representing a certain number of buttons in the center of the steering wheel of the vehicle. A navigation device characterized by the above-mentioned.
상기 차량 전면 유리에 출력된 경로 정보는 길 안내 선 또는 길 안내 화살표인 것을 특징으로 하는 내비게이션 장치.
The method of claim 1,
The route information output on the vehicle windshield is a road guide line or a road guide arrow.
입력된 목적지에 따른 경로 정보를 산출하는 단계;
차량의 전방 영상을 획득하는 단계;
상기 전방 영상을 증강 현실을 이용하여 처리하며, 상기 전방 영상에 상기 경로 정보를 매칭시키는 단계;
상기 경로 정보를 차량 전면 유리에 출력하는 단계;
3차원 깊이센서를 이용하여 운전자의 눈의 위치를 3차원 좌표로 산출하는 단계; 및
상기 눈의 위치의 변화에 따라 상기 차량 전면 유리에 출력된 경로 정보의 위치를 보정하는 단계를 포함하는 경로 표시 방법.
In the way a navigation device displays a route,
Calculating route information according to the input destination;
Obtaining a front image of the vehicle;
Processing the front image by using augmented reality and matching the path information to the front image;
Outputting the route information to the vehicle windshield;
Calculating the position of the driver's eyes in three-dimensional coordinates using a three-dimensional depth sensor; And
And correcting the position of the route information output on the vehicle windshield according to the change of the position of the eye.
상기 3차원 깊이센서를 이용하여 운전자의 눈의 위치를 3차원 좌표로 산출하는 단계는
상기 운전자의 머리의 3차원 좌표를 산출하여 상기 눈의 위치를 산출하는 단계를 포함하고,
상기 눈의 위치의 변화에 따라 상기 차량 전면 유리에 출력된 경로 정보의 위치를 보정하는 단계는
상기 머리의 이동에 따른 이동 전후의 3차원 좌표를 이용하여 이동 방향 및 크기를 이동 벡터의 형식으로 산출하는 단계; 및
상기 이동 벡터에 따라 상기 차량 전면 유리에 출력된 경로 정보의 위치를 이동시키는 단계를 포함하는 것을 특징으로 하는 경로 표시 방법.
The method according to claim 6,
The step of calculating the position of the driver's eyes in 3D coordinates using the 3D depth sensor
Calculating the position of the eye by calculating three-dimensional coordinates of the head of the driver,
Correcting the position of the route information output to the vehicle windshield according to the change of the position of the eye
Calculating a moving direction and a magnitude in the form of a moving vector by using three-dimensional coordinates before and after moving according to the movement of the head; And
And moving the position of the route information output to the vehicle windshield according to the movement vector.
상기 3차원 깊이센서를 이용하여 상기 운전자의 지시수단의 위치를 3차원 좌표로 산출하는 단계; 및
상기 지시수단의 위치의 3차원 좌표에 대응하는 명령을 발생하는 단계를 더 포함하는 경로 표시 방법.
The method according to claim 6,
Calculating the position of the driver's indicating means in three-dimensional coordinates using the three-dimensional depth sensor; And
And generating a command corresponding to the three-dimensional coordinates of the position of the indicating means.
상기 3차원 깊이센서를 이용하여 상기 운전자의 지시수단의 위치를 3차원 좌표로 산출하는 단계는
상기 차량의 운전대의 중앙 부분에 일정 개수의 버튼을 나타내는 가상 터치 패드의 위치에 상기 지시수단이 위치하면, 해당 위치의 3차원 좌표를 상기 지시수단의 3차원 좌표로 산출하는 것을 특징으로 하는 경로 표시 방법.
9. The method of claim 8,
The step of calculating the position of the driver's indicating means by the three-dimensional coordinates using the three-dimensional depth sensor
If the indicating means is located at the position of the virtual touch pad representing a certain number of buttons in the center portion of the steering wheel of the vehicle, the route display comprising calculating the three-dimensional coordinates of the corresponding position as the three-dimensional coordinates of the indicating means. Way.
상기 차량 전면 유리에 출력된 경로 정보는 길 안내 선 또는 길 안내 화살표인 것을 특징으로 하는 경로 표시 방법.The method according to claim 6,
The route information output on the vehicle windshield is a route guide line or a route guide arrow.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020110090906A KR20130027367A (en) | 2011-09-07 | 2011-09-07 | A navigation apparatus and method for displaying course thereof |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020110090906A KR20130027367A (en) | 2011-09-07 | 2011-09-07 | A navigation apparatus and method for displaying course thereof |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| KR20130027367A true KR20130027367A (en) | 2013-03-15 |
Family
ID=48178352
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020110090906A Ceased KR20130027367A (en) | 2011-09-07 | 2011-09-07 | A navigation apparatus and method for displaying course thereof |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR20130027367A (en) |
Cited By (11)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9151634B2 (en) | 2014-02-11 | 2015-10-06 | Hyundai Motor Company | Apparatus and method of providing road guidance based on augmented reality head-up display |
| KR20150144681A (en) * | 2014-06-17 | 2015-12-28 | 팅크웨어(주) | Electronic apparatus and control method thereof |
| KR101588184B1 (en) * | 2014-10-22 | 2016-01-25 | 현대자동차주식회사 | Control apparatus for vechicle, vehicle, and controlling method for vehicle |
| KR20160065724A (en) * | 2014-12-01 | 2016-06-09 | 팅크웨어(주) | Electronic apparatus, control method of electronic apparatus, computer program and computer readable recording medium |
| CN107226027A (en) * | 2016-03-25 | 2017-10-03 | Lg电子株式会社 | Display device and the vehicle including it |
| WO2019154673A1 (en) * | 2018-02-06 | 2019-08-15 | Volkswagen Aktiengesellschaft | Method, device and computer-readable storage medium with instructions for controlling a display of an augmented-reality head-up display device for a motor vehicle |
| CN110132258A (en) * | 2019-05-22 | 2019-08-16 | 广东工业大学 | A car navigation method, system and device |
| KR20200017141A (en) * | 2018-08-08 | 2020-02-18 | 현대자동차주식회사 | Appartus and method for displaying image of vehicle |
| US11099026B2 (en) | 2018-10-15 | 2021-08-24 | Samsung Electronics Co., Ltd. | Content visualizing method and apparatus |
| CN114572112A (en) * | 2022-02-25 | 2022-06-03 | 智己汽车科技有限公司 | Augmented reality method and system for automobile front windshield |
| US11543256B2 (en) | 2014-06-17 | 2023-01-03 | Hyundai Motor Company | Electronic apparatus and control method thereof |
-
2011
- 2011-09-07 KR KR1020110090906A patent/KR20130027367A/en not_active Ceased
Cited By (18)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9151634B2 (en) | 2014-02-11 | 2015-10-06 | Hyundai Motor Company | Apparatus and method of providing road guidance based on augmented reality head-up display |
| KR20210061319A (en) * | 2014-06-17 | 2021-05-27 | 팅크웨어(주) | Electronic apparatus and control method thereof |
| KR20150144681A (en) * | 2014-06-17 | 2015-12-28 | 팅크웨어(주) | Electronic apparatus and control method thereof |
| US11543256B2 (en) | 2014-06-17 | 2023-01-03 | Hyundai Motor Company | Electronic apparatus and control method thereof |
| CN109323708A (en) * | 2014-06-17 | 2019-02-12 | 星克跃尔株式会社 | Electronic device and its control method |
| CN109323708B (en) * | 2014-06-17 | 2022-04-05 | 现代自动车株式会社 | Electronic device and control method thereof |
| KR101588184B1 (en) * | 2014-10-22 | 2016-01-25 | 현대자동차주식회사 | Control apparatus for vechicle, vehicle, and controlling method for vehicle |
| KR20160065724A (en) * | 2014-12-01 | 2016-06-09 | 팅크웨어(주) | Electronic apparatus, control method of electronic apparatus, computer program and computer readable recording medium |
| CN107226027A (en) * | 2016-03-25 | 2017-10-03 | Lg电子株式会社 | Display device and the vehicle including it |
| CN107226027B (en) * | 2016-03-25 | 2019-10-11 | Lg电子株式会社 | Display device and vehicle including same |
| US10106194B2 (en) | 2016-03-25 | 2018-10-23 | Lg Electronics Inc. | Display apparatus and vehicle having the same |
| CN111655528A (en) * | 2018-02-06 | 2020-09-11 | 大众汽车股份公司 | Method, apparatus, and computer-readable storage medium with instructions for controlling display of augmented reality head-up display device for motor vehicle |
| WO2019154673A1 (en) * | 2018-02-06 | 2019-08-15 | Volkswagen Aktiengesellschaft | Method, device and computer-readable storage medium with instructions for controlling a display of an augmented-reality head-up display device for a motor vehicle |
| KR20200017141A (en) * | 2018-08-08 | 2020-02-18 | 현대자동차주식회사 | Appartus and method for displaying image of vehicle |
| US11099026B2 (en) | 2018-10-15 | 2021-08-24 | Samsung Electronics Co., Ltd. | Content visualizing method and apparatus |
| US11656091B2 (en) | 2018-10-15 | 2023-05-23 | Samsung Electronics Co., Ltd. | Content visualizing method and apparatus |
| CN110132258A (en) * | 2019-05-22 | 2019-08-16 | 广东工业大学 | A car navigation method, system and device |
| CN114572112A (en) * | 2022-02-25 | 2022-06-03 | 智己汽车科技有限公司 | Augmented reality method and system for automobile front windshield |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR20130027367A (en) | A navigation apparatus and method for displaying course thereof | |
| EP3845861B1 (en) | Method and device for displaying 3d augmented reality navigation information | |
| US9151634B2 (en) | Apparatus and method of providing road guidance based on augmented reality head-up display | |
| US20150066360A1 (en) | Dashboard display navigation | |
| KR102306790B1 (en) | Device and method to visualize content | |
| US20160019807A1 (en) | Vehicle risky situation reproducing apparatus and method for operating the same | |
| US9285587B2 (en) | Window-oriented displays for travel user interfaces | |
| KR20190070665A (en) | Method and device to visualize content | |
| CN111094898B (en) | Method and device for controlling display of a motor vehicle augmented reality head-up display device | |
| JPWO2017056211A1 (en) | Vehicle display device | |
| KR20140043948A (en) | A navigation apparatus and method for displaying thereof | |
| US10473480B2 (en) | Display control device, and display device having a virtual image displayed on a windshield, and display control method thereof | |
| US20140176609A1 (en) | Mixed reality apparatus | |
| JP2011149835A (en) | Car navigation device | |
| EP2988097B1 (en) | Driving support system, method, and program | |
| KR20190052709A (en) | Magnetic position estimation method and magnetic position estimation apparatus | |
| CN109345015B (en) | Method and device for selecting route | |
| WO2011135660A1 (en) | Navigation system, navigation method, navigation program, and storage medium | |
| JP5881566B2 (en) | Navigation device and navigation information display control method | |
| US10386200B2 (en) | Map display system, method, and program | |
| JP6432312B2 (en) | Navigation system, navigation method, and navigation program | |
| JP5829154B2 (en) | Augmented reality system | |
| CN102200444B (en) | Real-time augmented reality device and method thereof | |
| KR101637298B1 (en) | Head-up display apparatus for vehicle using aumented reality | |
| JP2014174879A (en) | Information processor and information program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A201 | Request for examination | ||
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20110907 |
|
| PA0201 | Request for examination | ||
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20130103 Patent event code: PE09021S01D |
|
| E601 | Decision to refuse application | ||
| PE0601 | Decision on rejection of patent |
Patent event date: 20130306 Comment text: Decision to Refuse Application Patent event code: PE06012S01D Patent event date: 20130103 Comment text: Notification of reason for refusal Patent event code: PE06011S01I |
|
| PG1501 | Laying open of application |