[go: up one dir, main page]

KR20130027367A - A navigation apparatus and method for displaying course thereof - Google Patents

A navigation apparatus and method for displaying course thereof Download PDF

Info

Publication number
KR20130027367A
KR20130027367A KR1020110090906A KR20110090906A KR20130027367A KR 20130027367 A KR20130027367 A KR 20130027367A KR 1020110090906 A KR1020110090906 A KR 1020110090906A KR 20110090906 A KR20110090906 A KR 20110090906A KR 20130027367 A KR20130027367 A KR 20130027367A
Authority
KR
South Korea
Prior art keywords
dimensional coordinates
route information
driver
calculating
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
KR1020110090906A
Other languages
Korean (ko)
Inventor
이동욱
한주용
이중현
Original Assignee
동국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동국대학교 산학협력단 filed Critical 동국대학교 산학협력단
Priority to KR1020110090906A priority Critical patent/KR20130027367A/en
Publication of KR20130027367A publication Critical patent/KR20130027367A/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/365Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3446Details of route searching algorithms, e.g. Dijkstra, A*, arc-flags or using precalculated routes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • G01C21/3676Overview of the route on the road map
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Business, Economics & Management (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Optics & Photonics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Navigation (AREA)

Abstract

내비게이션 장치 및 경로 표시 방법이 개시된다. 내비게이션 장치는 입력된 목적지까지의 경로 정보를 산출하는 내비게이션부, 차량의 전방 영상을 획득하는 카메라부, 3차원 깊이센서를 이용하여 운전자의 눈의 위치를 3차원 좌표로 산출하는 제1 센서부, 전방 영상을 증강 현실을 이용하여 처리하며, 전방 영상에 경로 정보를 매칭시키는 영상 처리부 및 경로 정보를 차량 전면 유리에 출력하는 디스플레이부를 포함하되, 영상 처리부는 눈의 위치의 변화에 따라 차량 전면 유리에 출력된 경로 정보의 위치를 보정한다.A navigation device and a route display method are disclosed. The navigation device includes a navigation unit for calculating route information to an input destination, a camera unit for acquiring a front image of the vehicle, a first sensor unit for calculating the position of the driver's eyes in three-dimensional coordinates using a three-dimensional depth sensor, A front image is processed using augmented reality, and includes an image processing unit for matching the route information to the front image and a display unit for outputting the route information on the vehicle windshield, wherein the image processing unit is mounted on the vehicle windshield according to the change of the eye position. Correct the position of the output route information.

Description

내비게이션 장치 및 경로 표시 방법{A NAVIGATION APPARATUS AND METHOD FOR DISPLAYING COURSE THEREOF}A NAVIGATION APPARATUS AND METHOD FOR DISPLAYING COURSE THEREOF}

본 발명은 내비게이션 장치에 관한 것으로서, 보다 상세하게는 내비게이션 장치의 경로 표시 방법에 관한 것이다.
The present invention relates to a navigation device, and more particularly, to a method for displaying a path of a navigation device.

발명의 배경기술로는 헤드업 디스플레이를 가지는 차량 항법 장치에 관한 특허문헌이 있으며, 차량 항법 장치에서 처리된 지도데이터 및 목적지까지의 거리 및 최적경로의 계산결과를 전방유리에 조사하는 것에 대하여 개시하고 있다.
Background Art of the Invention There is a patent document relating to a vehicle navigation apparatus having a head-up display, and discloses the investigation of the windshield on the map data processed by the vehicle navigation system, the distance to the destination and the calculation result of the optimum route. have.

KR 523574 B1 2005. 10. 17 도면 2, 3KR 523574 B1 2005. 10. 17 Drawings 2, 3

본 발명은 증강 현실(Augmented Reality) 기술과 헤드업 디스플레이(HUD: Head Up Display) 기술을 이용하여 경로 정보가 실제 도로와 정확히 매칭되도록 차량 전면 유리에 표시하는 것이다.The present invention uses augmented reality (Augmented Reality) technology and head up display (HUD: Head Up Display) technology to display the route information on the windshield of the vehicle to match the exact road.

또한, 본 발명은 운전자의 눈 위치에 따라 경로 정보가 실제 도로와 정확히 매칭되도록 차량 전면 유리에 표시하는 것이다.In addition, according to the present invention, the route information is displayed on the vehicle windshield so that the route information exactly matches the actual road according to the driver's eye position.

또한, 본 발명은 운전자의 제스처를 감지하여 내비게이션 장치의 입력 신호로 이용하는 것이다.
In addition, the present invention is to detect the gesture of the driver to use as an input signal of the navigation device.

본 발명의 일 측면에 따르면, 증강 현실과 헤드업 디스플레이를 이용한 내비게이션 장치가 개시된다.According to an aspect of the present invention, a navigation device using augmented reality and a head-up display is disclosed.

본 발명의 실시예에 따른 내비게이션 장치는 입력된 목적지까지의 경로 정보를 산출하는 내비게이션부, 차량의 전방 영상을 획득하는 카메라부, 3차원 깊이센서를 이용하여 운전자의 눈의 위치를 3차원 좌표로 산출하는 제1 센서부, 상기 전방 영상을 증강 현실을 이용하여 처리하며, 상기 전방 영상에 상기 경로 정보를 매칭시키는 영상 처리부 및 상기 경로 정보를 차량 전면 유리에 출력하는 디스플레이부를 포함하되, 상기 영상 처리부는 상기 눈의 위치의 변화에 따라 상기 차량 전면 유리에 출력된 경로 정보의 위치를 보정한다.According to an exemplary embodiment of the present invention, a navigation device includes a navigation unit for calculating route information to an input destination, a camera unit for acquiring a front image of a vehicle, and a 3D depth sensor using a 3D depth sensor. A first sensor unit to calculate the front image by using augmented reality, an image processing unit to match the path information to the front image, and a display unit to output the path information to the vehicle windshield, wherein the image processing unit Corrects the position of the route information output to the vehicle windshield according to the change of the position of the eye.

여기서, 상기 영상 처리부는 상기 운전자의 머리의 3차원 좌표를 산출하여 상기 눈의 위치를 산출하고, 상기 머리의 이동에 따른 이동 전후의 3차원 좌표를 이용하여 이동 방향 및 크기를 이동 벡터의 형식으로 산출하고, 상기 이동 벡터에 따라 상기 차량 전면 유리에 출력된 경로 정보의 위치를 이동시킨다.Here, the image processing unit calculates the position of the eye by calculating the three-dimensional coordinates of the head of the driver, and using the three-dimensional coordinates before and after the movement according to the movement of the head in the form of a movement vector Calculate and move the position of the route information output on the vehicle windshield according to the movement vector.

여기서, 상기 3차원 깊이센서를 이용하여 상기 운전자의 지시수단의 위치를 3차원 좌표로 산출하는 제2 센서부 및 상기 지시수단의 위치의 3차원 좌표에 대응하는 명령을 발생하는 입력부를 더 포함한다.The apparatus may further include a second sensor unit configured to calculate the position of the driver's indicating means as three-dimensional coordinates using the three-dimensional depth sensor, and an input unit generating a command corresponding to the three-dimensional coordinates of the position of the indicating means. .

여기서, 상기 제2 센서부는 상기 차량의 운전대의 중앙 부분에 일정 개수의 버튼을 나타내는 가상 터치 패드의 위치에 상기 지시수단이 위치하면, 해당 위치의 3차원 좌표를 상기 지시수단의 3차원 좌표로 산출한다.The second sensor unit calculates three-dimensional coordinates of the corresponding position as three-dimensional coordinates of the indicating means when the indicating means is positioned at a position of a virtual touch pad representing a predetermined number of buttons in the center portion of the steering wheel of the vehicle. do.

여기서, 상기 차량 전면 유리에 출력된 경로 정보는 길 안내 선 또는 길 안내 화살표이다.Here, the route information output on the vehicle windshield is a road guide line or a road guide arrow.

본 발명의 다른 측면에 따르면, 내비게이션 장치가 경로를 표시하는 방법이 개시된다.According to another aspect of the invention, a method is disclosed in which a navigation device indicates a route.

본 발명의 실시예에 따른 경로 표시 방법은 입력된 목적지에 따른 경로 정보를 산출하는 단계, 차량의 전방 영상을 획득하는 단계, 상기 전방 영상을 증강 현실을 이용하여 처리하며, 상기 전방 영상에 상기 경로 정보를 매칭시키는 단계, 상기 경로 정보를 차량 전면 유리에 출력하는 단계, 3차원 깊이센서를 이용하여 운전자의 눈의 위치를 3차원 좌표로 산출하는 단계 및 상기 눈의 위치의 변화에 따라 상기 차량 전면 유리에 출력된 경로 정보의 위치를 보정하는 단계를 포함한다.According to an embodiment of the present invention, a route display method includes calculating route information according to an input destination, acquiring a front image of a vehicle, and processing the front image by using augmented reality, wherein the route is displayed on the front image. Matching the information, outputting the route information to the vehicle front glass, calculating the position of the driver's eyes in three-dimensional coordinates using a three-dimensional depth sensor, and changing the front of the vehicle according to the change in the position of the eye Correcting the position of the route information output to the glass.

여기서, 상기 3차원 깊이센서를 이용하여 운전자의 눈의 위치를 3차원 좌표로 산출하는 단계는 상기 운전자의 머리의 3차원 좌표를 산출하여 상기 눈의 위치를 산출하는 단계를 포함하고, 상기 눈의 위치의 변화에 따라 상기 차량 전면 유리에 출력된 경로 정보의 위치를 보정하는 단계는 상기 머리의 이동에 따른 이동 전후의 3차원 좌표를 이용하여 이동 방향 및 크기를 이동 벡터의 형식으로 산출하는 단계 및 상기 이동 벡터에 따라 상기 차량 전면 유리에 출력된 경로 정보의 위치를 이동시키는 단계를 포함한다.Here, the step of calculating the position of the driver's eye using the three-dimensional depth sensor in three-dimensional coordinates includes calculating the three-dimensional coordinates of the head of the driver to calculate the position of the eye. Compensating the position of the route information output to the vehicle windshield according to the change of the position may be calculated by using the three-dimensional coordinates before and after the movement according to the movement of the head in the form of a movement vector; And moving the position of the route information output on the vehicle windshield according to the movement vector.

여기서, 상기 3차원 깊이센서를 이용하여 상기 운전자의 지시수단의 위치를 3차원 좌표로 산출하는 단계 및 상기 지시수단의 위치의 3차원 좌표에 대응하는 명령을 발생하는 단계를 더 포함한다.The method may further include calculating a position of the driver's indicating means as three-dimensional coordinates using the three-dimensional depth sensor and generating a command corresponding to the three-dimensional coordinates of the position of the indicating means.

여기서, 상기 3차원 깊이센서를 이용하여 상기 운전자의 지시수단의 위치를 3차원 좌표로 산출하는 단계는 상기 차량의 운전대의 중앙 부분에 일정 개수의 버튼을 나타내는 가상 터치 패드의 위치에 상기 지시수단이 위치하면, 해당 위치의 3차원 좌표를 상기 지시수단의 3차원 좌표로 산출한다.Here, the step of calculating the position of the driver's indicating means using the three-dimensional depth sensor in three-dimensional coordinates is the indication means at the position of the virtual touch pad representing a certain number of buttons in the center portion of the steering wheel of the vehicle. When located, the three-dimensional coordinates of the corresponding position is calculated as the three-dimensional coordinates of the indicating means.

여기서, 상기 차량 전면 유리에 출력된 경로 정보는 길 안내 선 또는 길 안내 화살표이다.
Here, the route information output on the vehicle windshield is a road guide line or a road guide arrow.

본 발명은 증강 현실(Augmented Reality) 기술과 헤드업 디스플레이(HUD: Head Up Display) 기술을 이용하여 경로 정보가 실제 도로와 정확히 매칭되도록 차량 전면 유리에 표시할 수 있다.The present invention may display the route information on the windshield of the vehicle so that the route information is exactly matched with the actual road using Augmented Reality technology and Head Up Display (HUD) technology.

또한, 본 발명은 운전자의 눈 위치에 따라 경로 정보가 실제 도로와 정확히 매칭되도록 차량 전면 유리에 표시할 수 있다.In addition, according to the present invention, the route information may be displayed on the windshield of the vehicle so that the route information is exactly matched with the actual road.

또한, 본 발명은 운전자의 제스처를 감지하여 내비게이션 장치의 입력 신호로 이용할 수 있다.
In addition, the present invention can detect the gesture of the driver can be used as an input signal of the navigation device.

도 1은 내비게이션 장치의 구성을 개략적으로 예시한 구성도.
도 2 내지 도 4는 경로 정보가 차량 전면 유리에 출력되는 것을 예시한 도면.
도 5는 운전자의 지시수단의 위치를 인식하는 것을 예시한 도면.
도 6은 내비게이션 장치의 경로 표시 방법을 나타낸 흐름도.
1 is a configuration diagram schematically illustrating a configuration of a navigation device.
2 to 4 are diagrams illustrating that the route information is output to the vehicle windshield.
5 is a view illustrating recognizing a position of a driver's indicating means.
6 is a flowchart illustrating a path display method of a navigation device.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 이를 상세한 설명을 통해 상세히 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.The present invention may be variously modified and have various embodiments, and specific embodiments will be illustrated in the drawings and described in detail with reference to the accompanying drawings. It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention.

본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings. In addition, numerals (e.g., first, second, etc.) used in the description of the present invention are merely an identifier for distinguishing one component from another.

또한, 본 명세서에서, 일 구성요소가 다른 구성요소와 "연결된다" 거나 "접속된다" 등으로 언급된 때에는, 상기 일 구성요소가 상기 다른 구성요소와 직접 연결되거나 또는 직접 접속될 수도 있지만, 특별히 반대되는 기재가 존재하지 않는 이상, 중간에 또 다른 구성요소를 매개하여 연결되거나 또는 접속될 수도 있다고 이해되어야 할 것이다.Also, in this specification, when an element is referred to as being "connected" or "connected" with another element, the element may be directly connected or directly connected to the other element, It should be understood that, unless an opposite description is present, it may be connected or connected via another element in the middle.

이하, 본 발명의 실시예를 첨부한 도면들을 참조하여 상세히 설명하기로 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면 번호에 상관없이 동일한 수단에 대해서는 동일한 참조 번호를 사용하기로 한다.
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description of the present invention, the same reference numerals will be used for the same means regardless of the reference numerals in order to facilitate the overall understanding.

도 1은 내비게이션 장치의 구성을 개략적으로 예시한 구성도이다.1 is a configuration diagram schematically illustrating a configuration of a navigation device.

도 1을 참조하면, 내비게이션 장치는 내비게이션부(10), 카메라부(20), 영상 처리부(30), 제1 센서부(40), 제2 센서부(50), 입력부(60), 디스플레이부(70) 및 제어부(80)를 포함한다.Referring to FIG. 1, the navigation device includes a navigation unit 10, a camera unit 20, an image processing unit 30, a first sensor unit 40, a second sensor unit 50, an input unit 60, and a display unit. 70 and the controller 80 are included.

내비게이션부(10)는 운전자의 경로 검색 요청에 따라 입력된 목적지까지의 경로 정보를 산출한다. 이를 위하여, 내비게이션부(10)는 위치 정보 수신 모듈 및 지도 데이터 베이스를 포함할 수 있다.The navigation unit 10 calculates route information to the input destination according to the driver's route search request. To this end, the navigation unit 10 may include a location information receiving module and a map database.

위치 정보 수신 모듈은 내비게이션 장치의 현재 위치를 확인하거나 얻기 위한 모듈이다. 위치 정보 수신 모듈의 대표적인 예로는 GPS(Global Position System) 모듈이 있다. 현재 기술에 의하면, GPS 모듈은, 일 지점(개체)이 3개 이상의 위성으로부터 떨어진 거리에 관한 정보와, 거리 정보가 측정된 시간에 관한 정보를 산출한 다음 산출된 거리 정보에 삼각법을 적용함으로써, 일 시간에 일 지점에 대한 위도, 경도 및 고도에 따른 3차원의 위치 정보를 산출할 수 있다. 나아가, 3개의 위성을 이용하여 위치 및 시간 정보를 산출하고, 또 다른 1개의 위성을 이용하여 산출된 위치 및 시간 정보의 오차를 수정하는 방법 또한 사용되고 있다. GPS 모듈은 현 위치를 실시간으로 계속 산출하고 이를 이용하여 속도 정보를 산출하기도 한다.The location information receiving module is a module for checking or obtaining the current location of the navigation device. A representative example of the position information receiving module is a global position system (GPS) module. According to the present technology, the GPS module calculates information on a distance (distance) from three or more satellites, information on a time when the distance information is measured, and then applies trigonometry to the calculated distance information, It is possible to calculate three-dimensional position information according to latitude, longitude and altitude with respect to one point in one hour. Further, a method of calculating position and time information using three satellites and correcting an error of position and time information calculated using another satellite is also used. The GPS module continuously calculates the current position in real time and uses it to calculate speed information.

카메라부(20)는 차량의 전방 영상을 획득한다. 예를 들어, 카메라부(20)는 차량의 전방을 향하도록 차량의 앞부분에 설치될 수 있으며, 특히, 운전자가 차량 전면 유리를 통해 보는 전경과 일치하는 전방 영상을 획득하도록 설치될 수 있다.The camera unit 20 acquires a front image of the vehicle. For example, the camera unit 20 may be installed at the front of the vehicle to face the front of the vehicle, and in particular, may be installed to acquire a front image corresponding to the foreground seen by the driver through the vehicle windshield.

제1 센서부(40)는 운전자의 눈의 위치를 3차원 좌표로 산출한다. 예를 들어, 제1 센서부(40)는 3차원 깊이센서를 이용하여 운전자의 머리에 대한 3차원 좌표를 산출할 수 있으며, 3차원 깊이센서는 운전자의 머리가 센싱되도록 차량 내부에 장착될 수 있다. 이때, 제1 센서부(40)는 깊이값(z축 좌표값)이 미리 설정된 범위에 포함되면, 해당하는 3차원 좌표를 운전자의 머리에 대한 3차원 좌표로 인식할 수 있다. 또한, 제1 센서부(40)는 지속적으로 센싱하여 운전자의 머리에 대한 3차원 좌표를 산출하여 출력할 수 있다.The first sensor unit 40 calculates the position of the driver's eyes in three-dimensional coordinates. For example, the first sensor unit 40 may calculate three-dimensional coordinates of the driver's head using the three-dimensional depth sensor, and the three-dimensional depth sensor may be mounted inside the vehicle to sense the driver's head. have. In this case, when the depth value (z-axis coordinate value) is included in a preset range, the first sensor unit 40 may recognize the corresponding three-dimensional coordinates as three-dimensional coordinates of the driver's head. In addition, the first sensor unit 40 may continuously sense and calculate and output three-dimensional coordinates of the head of the driver.

영상 처리부(30)는 카메라부(20)에 의하여 획득된 전방 영상에 경로 정보를 매칭시킨다. 여기서, 전방 영상에 매칭된 경로 정보는 디스플레이부(70)를 통해 차량 전면 유리에 출력된다. 이에 따라, 경로 정보는 실제 도로와 매칭되어 보여질 수 있다.The image processor 30 matches the path information with the front image obtained by the camera unit 20. Here, the route information matched to the front image is output to the vehicle windshield through the display unit 70. Accordingly, the route information can be seen to match the actual road.

영상 처리부(30)는 증강 현실을 이용하여 전방 영상을 처리함으로써, 전방 영상에 경로 정보를 매칭시킬 수 있다. The image processor 30 may match the path information with the front image by processing the front image by using augmented reality.

예를 들어, 영상 처리부(30)는 2차원으로 획득된 전방 영상을 미리 설정된 알고리즘에 따라 이미지 프로세싱(Image Processing)하여 3차원 정보를 산출함으로써, 전방 영상을 증강 현실 처리할 수 있다. 그리고, 영상 처리부(30)는 증강 현실 처리된 전방 영상에서 도로를 따라 일정 거리 간격을 의미하는 포인트를 표시하고, 이 포인트에 따라 경로 정보를 매칭시킬 수 있다.For example, the image processor 30 may process the front image by augmented reality by image processing the front image acquired in two dimensions according to a preset algorithm and calculating three-dimensional information. In addition, the image processor 30 may display a point representing a predetermined distance along the road in the front image processed by the augmented reality, and match the route information according to the point.

영상 처리부(30)는 전방 영상에 매칭된 경로 정보를 운전자의 눈의 위치에 따라 보정한다. 예를 들어, 차량 전면 유리에 출력된 경로 정보는 사람의 눈의 위치(즉, 시점)에 따라 오차가 발생되어 보여질 수 있다. 그래서, 영상 처리부(30)는 이 오차를 보정하기 위하여 운전자의 머리에 대한 3차원 좌표의 변화를 감지하고, 3차원 좌표의 변화에 따라 경로 정보의 위치를 변화시킬 수 있다. 이에 대하여, 도 2 내지 도 4를 참조하여 설명한다.The image processor 30 corrects the path information matched to the front image according to the position of the driver's eyes. For example, the path information output on the windshield of the vehicle may be viewed as an error is generated according to the position (ie, viewpoint) of the human eye. Thus, in order to correct this error, the image processor 30 may detect a change in the three-dimensional coordinates of the driver's head and change the position of the path information according to the change in the three-dimensional coordinates. This will be described with reference to FIGS. 2 to 4.

도 2 내지 도 4는 경로 정보가 차량 전면 유리에 출력되는 것을 예시한 도면이다. 차량 전면 유리(100)에 출력되는 경로 정보는 실제 도로(101)에 매칭된 길 안내 선 또는 길 안내 화살표(102)의 형태로 표시될 수 있다. 또한, 출력되는 경로 정보는 주행 속도 정보, 진행 방향 정보, 도로 정보 등을 포함할 수도 있다.2 to 4 are diagrams illustrating that the route information is output to the vehicle windshield. Route information output to the vehicle windshield 100 may be displayed in the form of a road guide line or a road guide arrow 102 matched to the actual road 101. In addition, the output route information may include driving speed information, traveling direction information, road information, and the like.

우선, 영상 처리부(30)가 전방 영상에 매칭한 길 안내 선(102)이 도 2에 도시된 바와 같이 나타난다고 가정한다. 이때, 운전자의 눈(103)의 위치가 미리 설정된 기준 위치인 것으로 가정한다.First, it is assumed that the road guide line 102 matched to the front image by the image processor 30 appears as shown in FIG. 2. In this case, it is assumed that the position of the driver's eye 103 is a preset reference position.

이후, 도 3에 도시된 바와 같이, 운전자의 눈(103)의 위치가 좌측으로 이동하면, 운전자가 보는 길 안내 선(102)은 우측으로 이동할 수 있다. 이때, 영상 처리부(30)는 제1 센서부(40)에 의하여 산출되는 운전자의 머리에 대한 3차원 좌표를 이용하여 운전자의 눈의 위치 변화를 인식하며, 눈의 위치 변화에 따라 길 안내 선(102)의 위치를 이동시킬 수 있다.Then, as shown in FIG. 3, when the position of the driver's eye 103 moves to the left, the road guide line 102 that the driver sees may move to the right. At this time, the image processing unit 30 recognizes a change in the position of the driver's eyes using the three-dimensional coordinates of the driver's head calculated by the first sensor unit 40, and the road guide line ( 102 may be moved.

즉, 도 4에 나타낸 바와 같이, 영상 처리부(30)는 운전자의 눈(103)의 위치가 좌측으로 이동함에 따라 길 안내 선(102)을 좌측으로 이동시킴으로써, 길 안내 선(102)이 실제 도로에 매칭되어 보여질 수 있다.That is, as shown in FIG. 4, the image processing unit 30 moves the road guide line 102 to the left as the position of the driver's eye 103 moves to the left, so that the road guide line 102 is the actual road. Can be shown to match.

예를 들어, 영상 처리부(30)는 운전자의 눈(103)의 위치의 이동 전후의 3차원 좌표를 이용하여 이동 방향 및 크기를 이동 벡터의 형식으로 산출할 수 있다. 이어, 영상 처리부(30)는 산출된 크기만큼 또는 산출된 크기에 비례하게 길 안내 선(102)을 산출된 이동 방향으로 이동시킬 수 있다.For example, the image processor 30 may calculate the movement direction and the size in the form of a movement vector by using three-dimensional coordinates before and after the movement of the position of the driver's eye 103. Subsequently, the image processor 30 may move the road guide line 102 in the calculated movement direction by the calculated size or in proportion to the calculated size.

제2 센서부(50)는 운전자의 지시수단의 위치를 3차원 좌표로 산출한다. 예를 들어, 지시수단은 운전자의 손가락끝이나 터치펜 등이 될 수 있으며, 제2 센서부(50)는 3차원 깊이센서를 이용하여 운전자의 지시수단에 대한 3차원 좌표를 산출할 수 있으며, 3차원 깊이센서는 운전자의 지시수단이 센싱되도록 차량 내부에 장착될 수 있다. 이때, 제2 센서부(50)는 깊이값(z축 좌표값)이 미리 설정된 범위에 포함되면, 해당하는 3차원 좌표를 운전자의 지시수단에 대한 3차원 좌표로 인식할 수 있다. 예를 들어, 도 5를 참조하면, 도 5는 운전자의 지시수단의 위치를 인식하는 것을 예시한 도면이다. 도 5에 도시된 바와 같이, 차량 내부에 설치된 운전대(200)의 중앙 부분에 일정 개수의 버튼을 나타내는 가상 터치 패드(201)가 그림 형태로 부착되거나 그려질 수 있다. 그래서, 제2 센서부(50)는 가상 터치 패드(201)의 위치에 운전자의 지시수단이 위치하면, 해당 위치의 3차원 좌표를 운전자의 지시수단에 대한 3차원 좌표로 산출할 수 있다. 여기서, 산출되는 3차원 좌표는 가상 터치 패드(201)의 각 버튼 별로 산출될 수 있다.The second sensor unit 50 calculates the position of the driver's indicating means in three-dimensional coordinates. For example, the indicating means may be a fingertip or a touch pen of the driver, and the second sensor unit 50 may calculate three-dimensional coordinates of the indicating means of the driver by using a three-dimensional depth sensor. The 3D depth sensor may be mounted in the vehicle to sense the driver's indicating means. In this case, when the depth value (z-axis coordinate value) is included in a preset range, the second sensor unit 50 may recognize the corresponding three-dimensional coordinates as three-dimensional coordinates for the driver's indicating means. For example, referring to FIG. 5, FIG. 5 is a diagram illustrating recognizing a position of a driver's indicating means. As illustrated in FIG. 5, a virtual touch pad 201 representing a predetermined number of buttons may be attached or drawn to a central portion of the steering wheel 200 installed in a vehicle. Thus, when the driver's instruction means is located at the position of the virtual touch pad 201, the second sensor unit 50 may calculate three-dimensional coordinates of the corresponding position as three-dimensional coordinates with respect to the driver's instruction means. Here, the calculated 3D coordinates may be calculated for each button of the virtual touch pad 201.

입력부(60)는 제2 센서부(50)를 통해 산출된 지시수단의 3차원 좌표에 대응하는 명령를 발생한다. 또한, 입력부(60)는 사용자로부터 각종 명령을 입력받기 위한 복수의 조작 유닛을 포함할 수 있다. 예를 들어, 조작 유닛들은 키 패드(key pad), 터치 패드(정압/정전), 휠 키, 조그 스위치 등으로 제작될 수 있다.The input unit 60 generates a command corresponding to the three-dimensional coordinates of the indicating means calculated through the second sensor unit 50. In addition, the input unit 60 may include a plurality of operation units for receiving various commands from a user. For example, the operation units may be manufactured with a key pad, a touch pad (static pressure / capacitance), a wheel key, a jog switch, and the like.

디스플레이부(70)는 영상 처리부(30)에 의하여 처리된 경로 정보를 차량 전면 유리에 출력한다.The display unit 70 outputs route information processed by the image processor 30 to the vehicle windshield.

제어부(80)는 통상적으로 내비게이션 장치(100)의 전반적인 동작을 제어한다. 특히, 제어부(80)는 영상 처리부(30)가 전방 영상에 경로 정보를 매칭시키도록 제어할 수 있다. 또한, 제어부(80)는 제1 센서부(40)가 운전자의 눈 위치를 산출하고, 영상 처리부(30)가 눈의 위치에 따라 차량 전면 유리에 출력되는 경로 정보의 위치를 보정하도록 제어할 수 있다. 또한, 제어부(80)는 제2 센서부(40)가 운전자의 지시수단의 위치를 산출하도록 제어할 수 있다.
The controller 80 typically controls the overall operation of the navigation device 100. In particular, the controller 80 may control the image processor 30 to match the path information with the front image. In addition, the controller 80 may control the first sensor unit 40 to calculate the eye position of the driver and the image processor 30 to correct the position of the path information output to the windshield according to the eye position. have. In addition, the controller 80 may control the second sensor unit 40 to calculate the position of the driver's indicating means.

도 6은 내비게이션 장치의 경로 표시 방법을 나타낸 흐름도이다.6 is a flowchart illustrating a path display method of a navigation device.

S610 단계에서, 내비게이션 장치는 운전자로부터 목적지를 입력받는다. 예를 들어, 내비게이션 장치는 3차원 깊이 센서를 통해 운전자의 지시수단의 위치를 3차원 좌표로 산출하고, 3차원 좌표에 대응하는 입력신호에 따른 명령을 수행할 수 있다.In operation S610, the navigation device receives a destination from the driver. For example, the navigation device may calculate the position of the driver's indicating means in three-dimensional coordinates through a three-dimensional depth sensor and perform a command according to an input signal corresponding to the three-dimensional coordinates.

S620 단계에서, 내비게이션 장치는 목적지에 따른 경로 정보를 산출한다. 예를 들어, 내비게이션 장치는 위치 정보 모듈을 이용하여 차량의 현재 위치를 획득하고, 지도 데이터 베이스에 저장된 지도 데이터를 이용하여 현재 위치로부터 목적지까지의 경로 정보를 산출할 수 있다.In operation S620, the navigation apparatus calculates route information according to the destination. For example, the navigation device may acquire the current location of the vehicle using the location information module and calculate route information from the current location to the destination using map data stored in the map database.

S630 단계에서, 내비게이션 장치는 전방 영상을 획득한다. 예를 들어, 전방 영상은 운전자가 차량 전면 유리를 통해 보는 전경과 일치하는 영상으로 획득될 수 있다.In operation S630, the navigation device acquires a forward image. For example, the front image may be obtained as an image corresponding to the foreground seen by the driver through the vehicle windshield.

S640 단계에서, 내비게이션 장치는 획득한 전방 영상에 경로 정보를 매칭시킨다. 즉, 내비게이션 장치는 전방 영상을 증강 현실 처리하여 전방 영상에 경로 정보를 매칭시킬 수 있다.In operation S640, the navigation device matches path information with the acquired front image. That is, the navigation device may match the path information with the front image by augmented reality processing the front image.

S650 단계에서, 내비게이션 장치는 전방 영상에 매칭된 경로 정보를 차량 전면 유리에 출력한다.In step S650, the navigation device outputs the route information matched to the front image on the vehicle windshield.

S660 단계에서, 내비게이션 장치는 운전자의 눈 위치를 산출한다. 예를 들어, 내비게이션 장치는 3차원 깊이 센서를 통해 운전자의 머리 위치를 3차원 좌표로 산출할 수 있다.In operation S660, the navigation device calculates the eye position of the driver. For example, the navigation device may calculate the driver's head position in three-dimensional coordinates through the three-dimensional depth sensor.

S670 단계에서, 내비게이션 장치는 운전자의 눈 위치에 따라 차량 전면 유리에 출력되는 경로 정보의 위치를 보정한다. 예를 들어, 내비게이션 장치는 기준 위치에 대한 운전자 머리의 위치 변화에 따라 차량 전면 유리에 출력되는 경로 정보의 위치를 보정할 수 있다.
In operation S670, the navigation device corrects the position of the route information output on the vehicle windshield according to the driver's eye position. For example, the navigation device may correct the position of the route information output to the vehicle windshield according to the change of the position of the driver's head with respect to the reference position.

한편, 본 발명의 실시예에 따른 경로 표시 방법은 다양한 전자적으로 정보를 처리하는 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 저장 매체에 기록될 수 있다. 저장 매체는 프로그램 명령, 데이터 파일, 데이터 구조등을 단독으로 또는 조합하여 포함할 수 있다. On the other hand, the path display method according to an embodiment of the present invention can be implemented in the form of program instructions that can be executed through various electronic means for processing information can be recorded in the storage medium. The storage medium may include program instructions, data files, data structures, etc. alone or in combination.

저장 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 소프트웨어 분야 당업자에게 공지되어 사용 가능한 것일 수도 있다. 저장 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 또한 상술한 매체는 프로그램 명령, 데이터 구조 등을 지정하는 신호를 전송하는 반송파를 포함하는 광 또는 금속선, 도파관 등의 전송 매체일 수도 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 전자적으로 정보를 처리하는 장치, 예를 들어, 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. Program instructions to be recorded on the storage medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of software. Examples of storage media include magnetic media such as hard disks, floppy disks and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic-optical media such as floppy disks. hardware devices specifically configured to store and execute program instructions such as magneto-optical media and ROM, RAM, flash memory, and the like. In addition, the above-described medium may be a transmission medium such as an optical or metal wire, a waveguide, or the like including a carrier wave for transmitting a signal specifying a program command, a data structure, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as devices for processing information electronically using an interpreter or the like, for example, a high-level language code that can be executed by a computer.

상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the invention as defined in the appended claims. It will be understood that the invention may be varied and varied without departing from the scope of the invention.

10: 내비게이션부
20: 카메라부
30: 영상 처리부
40: 제1 센서부
50: 제2 센서부
60: 입력부
70: 디스플레이부
80: 제어부
10: navigation unit
20: camera unit
30: image processing unit
40: first sensor unit
50: second sensor unit
60: input unit
70:
80: control unit

Claims (10)

입력된 목적지까지의 경로 정보를 산출하는 내비게이션부;
차량의 전방 영상을 획득하는 카메라부;
3차원 깊이센서를 이용하여 운전자의 눈의 위치를 3차원 좌표로 산출하는 제1 센서부;
상기 전방 영상을 증강 현실을 이용하여 처리하며, 상기 전방 영상에 상기 경로 정보를 매칭시키는 영상 처리부; 및
상기 경로 정보를 차량 전면 유리에 출력하는 디스플레이부를 포함하되,
상기 영상 처리부는 상기 눈의 위치의 변화에 따라 상기 차량 전면 유리에 출력된 경로 정보의 위치를 보정하는 것을 특징으로 하는 내비게이션 장치.
A navigation unit for calculating route information to an input destination;
A camera unit for acquiring a front image of the vehicle;
A first sensor unit which calculates the position of the driver's eyes in three-dimensional coordinates using a three-dimensional depth sensor;
An image processor which processes the front image using augmented reality and matches the path information with the front image; And
Including a display unit for outputting the route information on the vehicle windshield,
And the image processing unit corrects the position of the route information output to the vehicle windshield according to the change of the position of the eye.
제1항에 있어서,
상기 영상 처리부는 상기 운전자의 머리의 3차원 좌표를 산출하여 상기 눈의 위치를 산출하고, 상기 머리의 이동에 따른 이동 전후의 3차원 좌표를 이용하여 이동 방향 및 크기를 이동 벡터의 형식으로 산출하고, 상기 이동 벡터에 따라 상기 차량 전면 유리에 출력된 경로 정보의 위치를 이동시키는 것을 특징으로 하는 내비게이션 장치.
The method of claim 1,
The image processing unit calculates the position of the eye by calculating the three-dimensional coordinates of the head of the driver, and calculates the movement direction and size in the form of a movement vector by using three-dimensional coordinates before and after the movement according to the movement of the head. And move the position of the route information output on the vehicle windshield according to the movement vector.
제1항에 있어서,
상기 3차원 깊이센서를 이용하여 상기 운전자의 지시수단의 위치를 3차원 좌표로 산출하는 제2 센서부; 및
상기 지시수단의 위치의 3차원 좌표에 대응하는 명령을 발생하는 입력부를 더 포함하는 내비게이션 장치.
The method of claim 1,
A second sensor unit which calculates the position of the driver's indicating means in three-dimensional coordinates using the three-dimensional depth sensor; And
And an input unit for generating a command corresponding to the three-dimensional coordinates of the position of the indicating means.
제3항에 있어서,
상기 제2 센서부는 상기 차량의 운전대의 중앙 부분에 일정 개수의 버튼을 나타내는 가상 터치 패드의 위치에 상기 지시수단이 위치하면, 해당 위치의 3차원 좌표를 상기 지시수단의 3차원 좌표로 산출하는 것을 특징으로 하는 내비게이션 장치.
The method of claim 3,
The second sensor unit calculates the three-dimensional coordinates of the position as the three-dimensional coordinates of the indicating means when the indicating means is located at the position of the virtual touch pad representing a certain number of buttons in the center of the steering wheel of the vehicle. A navigation device characterized by the above-mentioned.
제1항에 있어서,
상기 차량 전면 유리에 출력된 경로 정보는 길 안내 선 또는 길 안내 화살표인 것을 특징으로 하는 내비게이션 장치.
The method of claim 1,
The route information output on the vehicle windshield is a road guide line or a road guide arrow.
내비게이션 장치가 경로를 표시하는 방법에 있어서,
입력된 목적지에 따른 경로 정보를 산출하는 단계;
차량의 전방 영상을 획득하는 단계;
상기 전방 영상을 증강 현실을 이용하여 처리하며, 상기 전방 영상에 상기 경로 정보를 매칭시키는 단계;
상기 경로 정보를 차량 전면 유리에 출력하는 단계;
3차원 깊이센서를 이용하여 운전자의 눈의 위치를 3차원 좌표로 산출하는 단계; 및
상기 눈의 위치의 변화에 따라 상기 차량 전면 유리에 출력된 경로 정보의 위치를 보정하는 단계를 포함하는 경로 표시 방법.
In the way a navigation device displays a route,
Calculating route information according to the input destination;
Obtaining a front image of the vehicle;
Processing the front image by using augmented reality and matching the path information to the front image;
Outputting the route information to the vehicle windshield;
Calculating the position of the driver's eyes in three-dimensional coordinates using a three-dimensional depth sensor; And
And correcting the position of the route information output on the vehicle windshield according to the change of the position of the eye.
제6항에 있어서,
상기 3차원 깊이센서를 이용하여 운전자의 눈의 위치를 3차원 좌표로 산출하는 단계는
상기 운전자의 머리의 3차원 좌표를 산출하여 상기 눈의 위치를 산출하는 단계를 포함하고,
상기 눈의 위치의 변화에 따라 상기 차량 전면 유리에 출력된 경로 정보의 위치를 보정하는 단계는
상기 머리의 이동에 따른 이동 전후의 3차원 좌표를 이용하여 이동 방향 및 크기를 이동 벡터의 형식으로 산출하는 단계; 및
상기 이동 벡터에 따라 상기 차량 전면 유리에 출력된 경로 정보의 위치를 이동시키는 단계를 포함하는 것을 특징으로 하는 경로 표시 방법.
The method according to claim 6,
The step of calculating the position of the driver's eyes in 3D coordinates using the 3D depth sensor
Calculating the position of the eye by calculating three-dimensional coordinates of the head of the driver,
Correcting the position of the route information output to the vehicle windshield according to the change of the position of the eye
Calculating a moving direction and a magnitude in the form of a moving vector by using three-dimensional coordinates before and after moving according to the movement of the head; And
And moving the position of the route information output to the vehicle windshield according to the movement vector.
제6항에 있어서,
상기 3차원 깊이센서를 이용하여 상기 운전자의 지시수단의 위치를 3차원 좌표로 산출하는 단계; 및
상기 지시수단의 위치의 3차원 좌표에 대응하는 명령을 발생하는 단계를 더 포함하는 경로 표시 방법.
The method according to claim 6,
Calculating the position of the driver's indicating means in three-dimensional coordinates using the three-dimensional depth sensor; And
And generating a command corresponding to the three-dimensional coordinates of the position of the indicating means.
제8항에 있어서,
상기 3차원 깊이센서를 이용하여 상기 운전자의 지시수단의 위치를 3차원 좌표로 산출하는 단계는
상기 차량의 운전대의 중앙 부분에 일정 개수의 버튼을 나타내는 가상 터치 패드의 위치에 상기 지시수단이 위치하면, 해당 위치의 3차원 좌표를 상기 지시수단의 3차원 좌표로 산출하는 것을 특징으로 하는 경로 표시 방법.
9. The method of claim 8,
The step of calculating the position of the driver's indicating means by the three-dimensional coordinates using the three-dimensional depth sensor
If the indicating means is located at the position of the virtual touch pad representing a certain number of buttons in the center portion of the steering wheel of the vehicle, the route display comprising calculating the three-dimensional coordinates of the corresponding position as the three-dimensional coordinates of the indicating means. Way.
제6항에 있어서,
상기 차량 전면 유리에 출력된 경로 정보는 길 안내 선 또는 길 안내 화살표인 것을 특징으로 하는 경로 표시 방법.
The method according to claim 6,
The route information output on the vehicle windshield is a route guide line or a route guide arrow.
KR1020110090906A 2011-09-07 2011-09-07 A navigation apparatus and method for displaying course thereof Ceased KR20130027367A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110090906A KR20130027367A (en) 2011-09-07 2011-09-07 A navigation apparatus and method for displaying course thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110090906A KR20130027367A (en) 2011-09-07 2011-09-07 A navigation apparatus and method for displaying course thereof

Publications (1)

Publication Number Publication Date
KR20130027367A true KR20130027367A (en) 2013-03-15

Family

ID=48178352

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110090906A Ceased KR20130027367A (en) 2011-09-07 2011-09-07 A navigation apparatus and method for displaying course thereof

Country Status (1)

Country Link
KR (1) KR20130027367A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9151634B2 (en) 2014-02-11 2015-10-06 Hyundai Motor Company Apparatus and method of providing road guidance based on augmented reality head-up display
KR20150144681A (en) * 2014-06-17 2015-12-28 팅크웨어(주) Electronic apparatus and control method thereof
KR101588184B1 (en) * 2014-10-22 2016-01-25 현대자동차주식회사 Control apparatus for vechicle, vehicle, and controlling method for vehicle
KR20160065724A (en) * 2014-12-01 2016-06-09 팅크웨어(주) Electronic apparatus, control method of electronic apparatus, computer program and computer readable recording medium
CN107226027A (en) * 2016-03-25 2017-10-03 Lg电子株式会社 Display device and the vehicle including it
WO2019154673A1 (en) * 2018-02-06 2019-08-15 Volkswagen Aktiengesellschaft Method, device and computer-readable storage medium with instructions for controlling a display of an augmented-reality head-up display device for a motor vehicle
CN110132258A (en) * 2019-05-22 2019-08-16 广东工业大学 A car navigation method, system and device
KR20200017141A (en) * 2018-08-08 2020-02-18 현대자동차주식회사 Appartus and method for displaying image of vehicle
US11099026B2 (en) 2018-10-15 2021-08-24 Samsung Electronics Co., Ltd. Content visualizing method and apparatus
CN114572112A (en) * 2022-02-25 2022-06-03 智己汽车科技有限公司 Augmented reality method and system for automobile front windshield
US11543256B2 (en) 2014-06-17 2023-01-03 Hyundai Motor Company Electronic apparatus and control method thereof

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9151634B2 (en) 2014-02-11 2015-10-06 Hyundai Motor Company Apparatus and method of providing road guidance based on augmented reality head-up display
KR20210061319A (en) * 2014-06-17 2021-05-27 팅크웨어(주) Electronic apparatus and control method thereof
KR20150144681A (en) * 2014-06-17 2015-12-28 팅크웨어(주) Electronic apparatus and control method thereof
US11543256B2 (en) 2014-06-17 2023-01-03 Hyundai Motor Company Electronic apparatus and control method thereof
CN109323708A (en) * 2014-06-17 2019-02-12 星克跃尔株式会社 Electronic device and its control method
CN109323708B (en) * 2014-06-17 2022-04-05 现代自动车株式会社 Electronic device and control method thereof
KR101588184B1 (en) * 2014-10-22 2016-01-25 현대자동차주식회사 Control apparatus for vechicle, vehicle, and controlling method for vehicle
KR20160065724A (en) * 2014-12-01 2016-06-09 팅크웨어(주) Electronic apparatus, control method of electronic apparatus, computer program and computer readable recording medium
CN107226027A (en) * 2016-03-25 2017-10-03 Lg电子株式会社 Display device and the vehicle including it
CN107226027B (en) * 2016-03-25 2019-10-11 Lg电子株式会社 Display device and vehicle including same
US10106194B2 (en) 2016-03-25 2018-10-23 Lg Electronics Inc. Display apparatus and vehicle having the same
CN111655528A (en) * 2018-02-06 2020-09-11 大众汽车股份公司 Method, apparatus, and computer-readable storage medium with instructions for controlling display of augmented reality head-up display device for motor vehicle
WO2019154673A1 (en) * 2018-02-06 2019-08-15 Volkswagen Aktiengesellschaft Method, device and computer-readable storage medium with instructions for controlling a display of an augmented-reality head-up display device for a motor vehicle
KR20200017141A (en) * 2018-08-08 2020-02-18 현대자동차주식회사 Appartus and method for displaying image of vehicle
US11099026B2 (en) 2018-10-15 2021-08-24 Samsung Electronics Co., Ltd. Content visualizing method and apparatus
US11656091B2 (en) 2018-10-15 2023-05-23 Samsung Electronics Co., Ltd. Content visualizing method and apparatus
CN110132258A (en) * 2019-05-22 2019-08-16 广东工业大学 A car navigation method, system and device
CN114572112A (en) * 2022-02-25 2022-06-03 智己汽车科技有限公司 Augmented reality method and system for automobile front windshield

Similar Documents

Publication Publication Date Title
KR20130027367A (en) A navigation apparatus and method for displaying course thereof
EP3845861B1 (en) Method and device for displaying 3d augmented reality navigation information
US9151634B2 (en) Apparatus and method of providing road guidance based on augmented reality head-up display
US20150066360A1 (en) Dashboard display navigation
KR102306790B1 (en) Device and method to visualize content
US20160019807A1 (en) Vehicle risky situation reproducing apparatus and method for operating the same
US9285587B2 (en) Window-oriented displays for travel user interfaces
KR20190070665A (en) Method and device to visualize content
CN111094898B (en) Method and device for controlling display of a motor vehicle augmented reality head-up display device
JPWO2017056211A1 (en) Vehicle display device
KR20140043948A (en) A navigation apparatus and method for displaying thereof
US10473480B2 (en) Display control device, and display device having a virtual image displayed on a windshield, and display control method thereof
US20140176609A1 (en) Mixed reality apparatus
JP2011149835A (en) Car navigation device
EP2988097B1 (en) Driving support system, method, and program
KR20190052709A (en) Magnetic position estimation method and magnetic position estimation apparatus
CN109345015B (en) Method and device for selecting route
WO2011135660A1 (en) Navigation system, navigation method, navigation program, and storage medium
JP5881566B2 (en) Navigation device and navigation information display control method
US10386200B2 (en) Map display system, method, and program
JP6432312B2 (en) Navigation system, navigation method, and navigation program
JP5829154B2 (en) Augmented reality system
CN102200444B (en) Real-time augmented reality device and method thereof
KR101637298B1 (en) Head-up display apparatus for vehicle using aumented reality
JP2014174879A (en) Information processor and information program

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20110907

PA0201 Request for examination
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20130103

Patent event code: PE09021S01D

E601 Decision to refuse application
PE0601 Decision on rejection of patent

Patent event date: 20130306

Comment text: Decision to Refuse Application

Patent event code: PE06012S01D

Patent event date: 20130103

Comment text: Notification of reason for refusal

Patent event code: PE06011S01I

PG1501 Laying open of application