KR20170135522A - Control device for a vehhicle and control metohd thereof - Google Patents
Control device for a vehhicle and control metohd thereof Download PDFInfo
- Publication number
- KR20170135522A KR20170135522A KR1020160067557A KR20160067557A KR20170135522A KR 20170135522 A KR20170135522 A KR 20170135522A KR 1020160067557 A KR1020160067557 A KR 1020160067557A KR 20160067557 A KR20160067557 A KR 20160067557A KR 20170135522 A KR20170135522 A KR 20170135522A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- vehicle
- distortion correction
- distortion
- driver
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
-
- G06K9/00597—
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
-
- H04N5/235—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/20—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
- B60R2300/205—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using a head-up display
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B60W2420/42—
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Combustion & Propulsion (AREA)
- Chemical & Material Sciences (AREA)
- Mathematical Physics (AREA)
- Optics & Photonics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Controls And Circuits For Display Device (AREA)
- Instrument Panels (AREA)
Abstract
Description
본 발명은 차량에 구비되는 차량용 제어장치 및 그것의 제어방법에 관한 것이다. BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a vehicle control apparatus provided in a vehicle and a control method thereof.
차량은 운동 에너지를 이용하여 사람이나 짐을 이동시킬 수 있는 교통 수단을 의미한다. 차량의 대표적인 예로, 자동차를 들 수 있다. A vehicle means a means of transporting people or goods by using kinetic energy. A representative example of a vehicle is an automobile.
차량을 이용하는 사용자의 안전 및 편의를 위해, 차량에는 각종 센서와 장치가 구비되고 있으며, 차량의 기능이 다양화 되고 있다. For safety and convenience of a user who uses the vehicle, various sensors and devices are provided in the vehicle, and the functions of the vehicle are diversified.
차량의 기능은 운전자의 편의를 도모하기 위한 편의 기능, 그리고 운전자 및/또는 보행자의 안전을 도모하기 위한 안전 기능으로 나뉠 수 있다. The function of the vehicle can be divided into a convenience function for the convenience of the driver and a safety function for the safety of the driver and / or the pedestrian.
먼저, 편의 기능은 차량에 인포테인먼트(information + entertainment) 기능을 부여하고, 부분적인 자율 주행 기능을 지원하거나, 야간 시야나 사각 지대와 같은 운전자의 시야 확보를 돕는 등의 운전자 편의와 관련된 개발 동기를 가진다. 예를 들어, 적응 순향 제어(active cruise control, ACC), 스마트주자시스템(smart parking assist system, SPAS), 나이트비전(night vision, NV), 헤드 업 디스플레이(head up display, HUD), 어라운드 뷰 모니터(around view monitor, AVM), 적응형 상향등 제어(adaptive headlight system, AHS) 기능 등이 있다. First, the convenience function has the motive for development related to driver convenience, such as providing infotainment (information + entertainment) function to the vehicle, supporting partial autonomous driving function, assisting driver's vision such as night vision or blind spot . For example, an active cruise control (ACC), a smart parking assist system (SPAS), a night vision (NV), a head up display (HUD) (AVM), adaptive headlight system (AHS), and so on.
안전 기능은 운전자의 안전 및/또는 보행자의 안전을 확보하는 기술로, 차선 이탈 경고 시스템(lane departure warning system, LDWS), 차선 유지 보조 시스템(lane keeping assist system, LKAS), 자동 긴급 제동(autonomous emergency braking, AEB) 기능 등이 있다. The safety function is to secure the safety of the driver and / or pedestrians. The lane departure warning system (LDWS), the lane keeping assist system (LKAS), the autonomous emergency braking, and AEB) functions.
이러한 차량의 기능 지지 및 증대를 위하여, 헤드 업 디스플레이(head up display, HUD)가 개발되고 있다. In order to support and enhance the function of such a vehicle, a head up display (HUD) is being developed.
헤드 업 디스플레이(head up display, HUD)는 차량의 윈드실드에 가상 화상(virtual image)을 투영한다. A head up display (HUD) projects a virtual image onto the windshield of the vehicle.
자동차에 설치된 장치들에 따라 이 가상 화상의 내용은 달라질 수 있으며, 운전자가 필요로 하는 정보(예 : 정속주행, 능동정속주행, 내비게이션, 주행속도, 체크 컨트롤 메시지 등)에 따라서도 달라질 수 있다.Depending on the devices installed in the vehicle, the contents of this virtual image may vary and may also vary depending on the information the driver needs (e.g., cruise control, active cruise control, navigation, cruising speed, check control messages, etc.).
운전자의 가시영역 내에 운전에 필요한 정보를 제공하므로, 운전자는 도로교통 상황에 정신을 집중할 수 있다. 그리고 운전자가 계기판과 도로를 번갈아가며 주시할 필요가 줄어든다. 이에 따라, 헤드 업 디스플레이는 운전자의 피로경감 및 주행안전에 기여한다.Providing information necessary for driving within the visible area of the driver, the driver can concentrate on the road traffic situation. And it reduces the need for the driver to alternate between the instrument cluster and the road. Accordingly, the head-up display contributes to driver's fatigue reduction and driving safety.
헤드 업 디스플레이(HUD)는 영상을 생성하는 박막 트랜지스터(thin film transistor, TFT)에 엘이디 어레이(LED array)와 같은 광원에서 출력되는 빛을 투사시킴으로써, 박막 트랜지스터(TFT)에서 생성된 영상이 윈드실드에 투영되어 전방 노면 상의 공간에 떠 있는 상태로 나타나도록 제어한다. 따라서, 운전자는 전방을 주시한 상태에서 필요한 주행정보를 확인할 수 있게 된다. The head-up display (HUD) projects light output from a light source such as an LED array to a thin film transistor (TFT) that generates an image, so that an image generated in a thin film transistor (TFT) So as to appear floating in a space on the front road surface. Therefore, the driver can check necessary traveling information while looking ahead.
한편, 헤드 업 디스플레이(HUD)가 차량에 설치되는 경우, 영상이 표시되는 영역이 고정된다. 허나, 운전자의 눈 위치(driver-view)는 운전자에 따라 달라지기 때문에 출력되는 영상에 왜곡이 없어도, 운전자가 바라보는 영상에는 왜곡(distortion)이 발생하는 문제가 있다. On the other hand, when the head-up display (HUD) is installed in the vehicle, the area in which the image is displayed is fixed. However, since the driver's view (driver-view) varies depending on the driver, there is a problem that distortion occurs in the image that the driver sees, even if there is no distortion in the output image.
본 발명은 전술한 문제 및 다른 문제를 해결하는 것을 목적으로 한다.The present invention is directed to solving the above-mentioned problems and other problems.
또 다른 목적은, 운전자의 눈 위치에 따라 윈드쉴드에 투영되는 영상에 서로 다른 왜곡이 발생하는 문제를 해결할 수 있도록 하는 차량용 제어장치 및 그 제어방법을 제공하는 것이다.Another object of the present invention is to provide a vehicle control apparatus and a control method thereof that can solve the problem that different distortions occur in an image projected on a windshield depending on the driver's eye position.
상기와 같은 과제를 실현하기 위한 본 발명의 일 실시 예는 차량용 제어장치의 제어방법과 관련된다. 상기 제어방법은, 운전자의 눈 위치를 감지하는 단계; 메모리에 저장된 복수의 왜곡 보정 함수들 중에서 상기 감지된 눈 위치에 대응하는 어느 하나의 왜곡 보정 함수를 선택하는 단계; 및 상기 선택된 왜곡 보정 함수를 이용하여 차량의 윈드실드를 향하여 출력되는 영상을 보정하는 단계를 포함한다.An embodiment of the present invention for realizing the above-described problems relates to a control method of a vehicle control apparatus. The control method includes: sensing an eye position of a driver; Selecting one distortion correction function corresponding to the sensed eye position from among a plurality of distortion correction functions stored in the memory; And correcting an image output toward the windshield of the vehicle using the selected distortion correction function.
일 실시 예에 있어서, 상기 감지된 눈 위치가 변경됨에 따라 상기 선택된 왜곡 보정 함수가 상기 어느 하나에서 다른 하나로 변경될 수 있다. In one embodiment, as the sensed eye position changes, the selected distortion correction function may be changed from one to another.
일 실시 예에 있어서, 상기 제어방법은 상기 복수의 왜곡 보정 함수들을 상기 메모리에 저장하는 단계를 더 포함하고, 상기 복수의 왜곡 보정 함수들을 상기 메모리에 저장하는 단계는, 상기 차량의 윈드실드에 그리드 셀들을 포함하는 이미지를 출력하는 단계; 상기 차량의 운전석에서 상기 이미지를 향하도록 배치된 카메라를 이용하여 상기 그리드 셀들의 왜곡을 측정하는 단계; 상기 측정된 그리드 셀들의 왜곡에 근거하여 상기 카메라의 촬영위치에 대응하는 왜곡 보정 함수를 생성하는 단계; 및 서로 다른 촬영위치에서 생성된 복수의 왜곡 보정 함수들을 상기 메모리에 저장하는 단계를 포함할 수 있다.In one embodiment, the control method further comprises storing the plurality of distortion correction functions in the memory, wherein the step of storing the plurality of distortion correction functions in the memory comprises: Outputting an image including cells; Measuring a distortion of the grid cells using a camera arranged to face the image at a driver's seat of the vehicle; Generating a distortion correction function corresponding to a photographing position of the camera based on the distortion of the measured grid cells; And storing a plurality of distortion correction functions generated at different shooting positions in the memory.
일 실시 예에 있어서, 상기 그리드 셀들의 왜곡을 측정하는 단계는, 상기 그리드 셀들 중 상호 인접한 적어도 3개의 그리드 셀들이 형성하는 적어도 하나의 도형을 추출하는 단계; 및 상기 추출된 도형의 왜곡을 측정하는 단계를 포함하고, 상기 카메라의 촬영위치에 대응하는 왜곡 보정 함수를 생성하는 단계에서는, 상기 추출된 도형의 왜곡을 정규화하는 왜곡 보정 함수가 생성되며, 상기 카메라의 촬영위치에 따라 서로 다른 왜곡 보정 함수가 생성될 수 있다.In one embodiment, measuring the distortion of the grid cells comprises: extracting at least one graphic form formed by at least three adjacent grid cells of the grid cells; And a step of measuring a distortion of the extracted figure. In the step of generating a distortion correction function corresponding to a photographing position of the camera, a distortion correction function for normalizing the distortion of the extracted figure is generated, A different distortion correction function may be generated depending on the photographing position of the camera.
일 실시 예에 있어서, 상기 제어방법은, 상기 감지된 눈 위치가 소정 범위를 벗어난 경우, 상기 보정된 영상이 출력되는 영역의 위치 및 크기 중 적어도 하나를 상기 감지된 눈 위치에 근거하여 변경하는 단계를 더 포함 할 수 있다.In one embodiment, the control method further includes changing at least one of a position and a size of an area in which the corrected image is output based on the sensed eye position when the sensed eye position is out of a predetermined range As shown in FIG.
일 실시 예에 있어서, 상기 제어방법은, GPS 정보에 근거하여, 상기 운전자의 눈 위치가 소정 범위를 벗어날 확률이 기준보다 큰 지역을 탐색하는 단계; 및 상기 탐색된 지역에 상기 차량이 진입하는 경우, 상기 보정된 영상이 출력되는 영역의 위치 및 크기 중 적어도 하나를 변경하는 단계를 더 포함 할 수 있다.In one embodiment, the control method includes: searching for an area where a probability that the driver's eye position is out of a predetermined range is greater than a reference, based on GPS information; And changing at least one of a position and a size of an area where the corrected image is output when the vehicle enters the searched area.
일 실시 예에 있어서, 상기 제어방법은, 상기 감지된 눈 위치가 소정 범위를 벗어난 경우, 상기 보정된 영상의 전체영역 중에서 적어도 일 영역을 편집하고, 상기 적어도 일 영역이 편집된 영상을 상기 차량의 윈드실드에 출력하는 단계를 더 포함 할 수 있다.In one embodiment, the control method further comprises: if at least one of the entire region of the corrected image is edited when the sensed eye position is out of a predetermined range, And outputting the windshield to the windshield.
일 실시 예에 있어서, 상기 적어도 일 영역의 크기 및 위치 중 적어도 하나는 상기 감지된 눈 위치에 따라 달라질 수 있다. In one embodiment, at least one of the size and position of the at least one region may vary according to the sensed eye position.
일시 예에 있어서, 보정 전 영상 또는 보정 후 영상을 사용자 입력에 근거하여 선택적으로 상기 차량의 윈드실드를 향하여 출력하는 단계를 더 포함 할 수 있다.In a temporary example, the method may further include outputting the pre-correction image or the post-correction image selectively toward the windshield of the vehicle based on the user input.
일 실시 예에 있어서, 상기 제어방법은, 상기 복수의 왜곡 보정 함수들을 서버로부터 수신하는 단계; 및 상기 수신된 복수의 왜곡 보정 함수들을 상기 메모리에 업데이트 하는 단계를 더 포함 할 수 있다.In one embodiment, the control method further comprises: receiving the plurality of distortion correction functions from a server; And updating the received plurality of distortion correction functions to the memory.
한편, 본 발명에 따른 일 실시 예는 차량용 제어장치는 제어부를 구비하고, 상기 제어부는 차량에 배치된 디스플레이 및 메모리 중 적어도 하나를 이용하여 상술한 제어방법들 중 적어도 하나를 수행할 수 있다. Meanwhile, in an embodiment according to the present invention, the vehicle control apparatus includes a control section, and the control section can perform at least one of the control methods described above using at least one of the display and the memory disposed in the vehicle.
본 발명에 따른 차량용 제어장치 및 그 제어 방법의 효과에 대해 설명하면 다음과 같다.Effects of the vehicle control apparatus and the control method thereof according to the present invention will be described as follows.
기 저장된 복수의 왜곡 보정 함수들에 의하여 HUD 영상이 실시간으로 보정되기 때문에, 현실 세계에 매칭되는 증강 현실이 HUD에 의하여 제공될 수 있다. Since the HUD image is corrected in real time by a plurality of pre-stored distortion correction functions, the augmented reality matching the real world can be provided by the HUD.
복수의 왜곡 보정 함수들이 룩업 테이블로 저장되어 HUD 영상이 실시간으로 보정되기 때문에, 연산량이 적고, 눈 위치에 따라 비선형적으로 발생하는 왜곡에 대하여 우수한 보정 능력을 가진다. Since a plurality of distortion correction functions are stored in a lookup table and the HUD image is corrected in real time, it has a small amount of calculation and excellent correction ability against distortion occurring nonlinearly according to the eye position.
눈 위치에 의하여 HUD 영상의 적어도 일부가 운전자의 시야에 포함되지 않는 경우, HUD 영상이 편집되거나 출력되는 위치가 변경되기 때문에 운전자는 HUD를 통해 지속적으로 정보를 제공받을 수 있다. If at least a part of the HUD image is not included in the driver's view due to the eye position, the driver can continuously receive information through the HUD since the position of editing or outputting the HUD image is changed.
본 발명의 적용 가능성의 추가적인 범위는 이하의 상세한 설명으로부터 명백해질 것이다. 그러나 본 발명의 사상 및 범위 내에서 다양한 변경 및 수정은 당업자에게 명확하게 이해될 수 있으므로, 상세한 설명 및 본 발명의 바람직한 실시 예와 같은 특정 실시 예는 단지 예시로 주어진 것으로 이해되어야 한다. Further scope of applicability of the present invention will become apparent from the following detailed description. It should be understood, however, that the detailed description and specific examples, such as the preferred embodiments of the invention, are given by way of illustration only, since various changes and modifications within the spirit and scope of the invention will become apparent to those skilled in the art.
도 1은 본 발명과 관련된 차량용 제어장치를 설명하기 위한 블록도
도 2는 차량에 배치되는 헤드 업 디스플레이를 설명하기 위한 개념도
도 3은 도 1의 차량용 제어장치에서 수행되는 제어방법을 설명하기 위한 흐름도
도 4는 왜곡 보정 함수들을 메모리에 저장하는 방법을 좀 더 상세히 설명하기 위한 흐름도
도 5는 운전석에서 윈드실드 방향으로 설치된 카메라를 이용하여 왜곡 보정 함수들을 생성하는 방법을 설명하기 위한 개념도
도 6은 카메라에 촬영된 영상을 이용하여 왜곡 보정 함수를 생성하는 방법을 설명하기 위한 예시도
도 7은 주행 환경에 따라 영상이 출력되는 영역을 다르게 조절하는 방법을 설명하기 위한 흐름도
도 8a 및 도 8b는 도 7의 방법을 설명하기 위한 예시도들
도 9는 눈의 위치에 따라 서로 다른 영상을 출력하는 방법을 설명하기 위한 흐름도
도 10a 및 도 10b는 도 9의 방법을 설명하기 위한 예시도들1 is a block diagram for explaining a control apparatus for a vehicle related to the present invention;
2 is a conceptual diagram for explaining a head-up display disposed in a vehicle
3 is a flowchart for explaining a control method performed in the vehicle control apparatus of FIG.
4 is a flowchart for describing in more detail a method for storing distortion correction functions in memory.
5 is a conceptual diagram for explaining a method of generating distortion correction functions using a camera installed in a windshield direction in a driver's seat
6 is an exemplary diagram for explaining a method of generating a distortion correction function using an image photographed by a camera
7 is a flowchart for explaining a method of adjusting a region in which an image is output according to a driving environment differently
Figs. 8A and 8B are illustrations for explaining the method of Fig. 7
9 is a flowchart for explaining a method of outputting different images according to the positions of eyes
10A and 10B are illustrations for explaining the method of FIG. 9
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals are used to designate identical or similar elements, and redundant description thereof will be omitted. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role. In the following description of the embodiments of the present invention, a detailed description of related arts will be omitted when it is determined that the gist of the embodiments disclosed herein may be blurred. It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are intended to provide further explanation of the invention as claimed. , ≪ / RTI > equivalents, and alternatives.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinals, such as first, second, etc., may be used to describe various elements, but the elements are not limited to these terms. The terms are used only for the purpose of distinguishing one component from another.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The singular expressions include plural expressions unless the context clearly dictates otherwise.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present application, the terms "comprises", "having", and the like are used to specify that a feature, a number, a step, an operation, an element, a component, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.
본 명세서에서 설명되는 차량용 제어장치에는 차량에 구비된 적어도 하나의 구성요소를 전자적으로 제어하는 장치로서, 일 예로 전자 제어 장치(electronic control unit, ECU)일 수 있다. The vehicle control apparatus described herein may be an apparatus for electronically controlling at least one component provided in a vehicle, for example, an electronic control unit (ECU).
차량용 제어장치는, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device) 와 같은 이동 단말기뿐만 아니라, 디지털 TV, 데스크탑 컴퓨터, 디지털 사이니지 등과 같은 고정 단말기의 형태로 나타날 수 있다. The vehicle control device may be a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), a navigation device, a slate PC, mobile phones such as tablet PCs, ultrabooks and wearable devices as well as fixed terminals such as digital TVs, desktop computers, digital signage, and the like.
도 1은 본 발명과 관련된 차량용 제어장치를 설명하기 위한 블록도이다.1 is a block diagram for explaining a vehicle control apparatus related to the present invention.
상기 차량용 제어장치(100)는 무선 통신부(110), 입력부(120), 센싱부(140), 출력부(150), 인터페이스부(160), 메모리(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1에 도시된 구성요소들은 차량용 제어장치를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 차량용 제어장치는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.The
보다 구체적으로, 상기 구성요소들 중 무선 통신부(110)는, 차량용 제어장치(100)와 무선 통신 시스템 사이, 차량용 제어장치(100)와 다른 차량용 제어장치 사이, 또는 차량용 제어장치(100)와 외부서버 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 상기 무선 통신부(110)는, 차량용 제어장치(100)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.More specifically, the
이러한 무선 통신부(110)는, 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114), 위치정보 모듈(115) 중 적어도 하나를 포함할 수 있다.The
입력부(120)는, 영상 신호 입력을 위한 카메라(121) 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone, 122), 또는 오디오 입력부, 사용자로부터 정보를 입력받기 위한 사용자 입력부(123, 예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(120)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.The
센싱부(140)는 차량용 제어장치(100) 내 정보, 차량용 제어장치(100)를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱부(140)는 근접센서(141, proximity sensor), 조도 센서(142, illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라(121 참조)), 마이크로폰(microphone, 122 참조), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 차량용 제어장치(100)는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.The
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(151), 음향 출력부(152), 햅팁 모듈(153), 광 출력부(154) 중 적어도 하나를 포함할 수 있다. 디스플레이부(151)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 차량용 제어장치(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(123)로써 기능함과 동시에, 차량용 제어장치(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.The
인터페이스부(160)는 차량용 제어장치(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행한다. 이러한 인터페이스부(160)는, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함할 수 있다. 차량용 제어장치(100)에서는, 상기 인터페이스부(160)에 외부 기기가 연결되는 것에 대응하여, 연결된 외부 기기와 관련된 적절할 제어를 수행할 수 있다.The
또한, 메모리(170)는 차량용 제어장치(100)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(170)는 차량용 제어장치(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 차량용 제어장치(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 차량용 제어장치(100)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 출고 당시부터 차량용 제어장치(100)상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리(170)에 저장되고, 차량용 제어장치(100) 상에 설치되어, 제어부(180)에 의하여 상기 차량용 제어장치의 동작(또는 기능)을 수행하도록 구동될 수 있다.In addition, the
제어부(180)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 차량용 제어장치(100)의 전반적인 동작을 제어한다. 제어부(180)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(170)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.In addition to the operations related to the application program, the
또한, 제어부(180)는 메모리(170)에 저장된 응용 프로그램을 구동하기 위하여, 도 1a와 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 제어부(180)는 상기 응용 프로그램의 구동을 위하여, 차량용 제어장치(100)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.In addition, the
전원공급부(190)는 제어부(180)의 제어 하에서, 외부의 전원, 내부의 전원을 인가 받아 차량용 제어장치(100)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원공급부(190)는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체가능한 형태의 배터리가 될 수 있다.The
상기 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 차량용 제어장치의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 차량용 제어장치의 동작, 제어, 또는 제어방법은 상기 메모리(170)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 차량용 제어장치 상에서 구현될 수 있다.At least some of the respective components may operate in cooperation with one another to implement an operation, control, or control method of a vehicle control apparatus according to various embodiments described below. Further, the operation, control, or control method of the on-vehicle control device may be implemented on the on-vehicle control device by driving at least one application program stored in the
이하에서는, 위에서 살펴본 차량용 제어장치(100)를 통하여 구현되는 다양한 실시 예들을 살펴보기에 앞서, 위에서 열거된 디스플레이부(151) 에 대하여 보다 구체적으로 살펴본다.Hereinafter, the
디스플레이부(151)는 차량용 제어장치(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 디스플레이부(151)는 차량용 제어장치(100)에서 구동되는 응용 프로그램의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다.The
다른 예를 들어, 디스플레이부(151)는 차량 관련 정보를 표시할 수 있다. 여기서, 차량 관련 정보는, 차량에 대한 직접적인 제어를 위한 차량 제어 정보, 또는 운전자에게 운전 가이드를 위한 차량 운전 보조 정보를 포함할 수 있다. 또한, 차량 관련 정보는, 현재 차량의 상태를 알려주는 차량 상태 정보 또는 차량의 운행과 관련되는 차량 운행 정보를 포함할 수 있다.In another example, the
디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(eink display) 중에서 적어도 하나를 포함할 수 있다.The
또한, 디스플레이부(151)는 차량용 제어장치(100)의 구현 형태에 따라 2개 이상 존재할 수 있다. 이 경우, 차량용 제어장치(100)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다.In addition, the
디스플레이부(151)는 터치 방식에 의하여 제어 명령을 입력 받을 수 있도록, 디스플레이부(151)에 대한 터치를 감지하는 터치센서를 포함할 수 있다. The
구체적으로, 디스플레이부(151)는 디스플레이와 터치센서를 구비하고, 디스플레이와 터치센서는 제어부(180)의 제어에 의하여 유기적으로 동작할 수 있다. 예를 들어, 디스플레이부(151)에 대하여 터치가 이루어지면, 터치센서는 상기 터치를 감지하고, 제어부(180)는 이에 근거하여 상기 터치에 대응하는 제어명령을 발생시키도록 이루어질 수 있다. 제어부(180)는 디스플레이가 꺼져있는 상황에서도 터치센서에 인가되는 터치를 감지하고, 감지된 터치에 대응하는 제어를 수행할 수 있다. 터치 방식에 의하여 입력되는 내용은 문자 또는 숫자이거나, 각종 모드에서의 지시 또는 지정 가능한 메뉴항목 등일 수 있다.Specifically, the
이처럼, 디스플레이부(151)는 터치센서와 함께 터치 스크린을 형성할 수 있으며, 이 경우에 터치 스크린은 사용자 입력부(123, 도 1a 참조)로 기능할 수 있다.In this way, the
한편, 디스플레이부(151)는 운전자가 운전을 함과 동시에 차량 상태 정보 또는 차량 운행 정보를 확인할 수 있도록 클러스터(cluster)를 포함할 수 있다. 클러스터는 대시보드 위에 위치할 수 있다. 이경우, 운전자는, 시선을 차량 전방에 유지한 채로 클러스터에 표시되는 정보를 확인할 수 있다.Meanwhile, the
한편, 실시예에 따라, 디스플레이부(151)는 HUD(Head Up Display)로 구현될 수 있다. 디스플레이부(151)가 HUD로 구현되는 경우, 윈드 쉴드에 구비되는 투명 디스플레이를 통해 정보를 출력할 수 있다. 또는, 디스플레이부(151)는 투사 모듈을 구비하여 윈드 쉴드에 투사되는 이미지를 통해 정보를 출력할 수 있다.Meanwhile, according to the embodiment, the
한편, 실시예에 따라, 디스플레이부(151)는, 투명 디스플레이를 포함할 수 있다. 이경우, 투명 디스플레이는 윈드 쉴드에 부착될 수 있다.On the other hand, according to the embodiment, the
투명 디스플레이는 소정의 투명도를 가지면서, 소정의 화면을 표시할 수 있다. 투명 디스플레이는, 투명도를 가지기 위해, 투명 디스플레이는 투명 TFEL(Thin Film Elecroluminescent), 투명 OLED(Organic Light-Emitting Diode), 투명 LCD(Liquid Crystal Display), 투과형 투명디스플레이, 투명 LED(Light Emitting Diode) 디스플레이 중 적어도 하나를 포함할 수 있다. 투명 디스플레이의 투명도는 조절될 수 있다.The transparent display can display a predetermined screen while having a predetermined transparency. Transparent displays can be made of transparent TFEL (Thin Film Elecroluminescent), transparent OLED (Organic Light-Emitting Diode), transparent LCD (Liquid Crystal Display), transmissive transparent display, transparent LED (Light Emitting Diode) Or the like. The transparency of the transparent display can be adjusted.
상술한 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 차량용 제어장치(100)의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 차량용 제어장치(100)의 동작, 제어, 또는 제어방법은 상기 메모리(170)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 차량용 제어장치(100) 상에서 구현될 수 있다. At least some of the above-described components may operate in cooperation with one another to implement the operation, control, or control method of the
한편, 이하에서 다양한 실시 예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다. In the following, various embodiments may be embodied in a recording medium readable by a computer or similar device using, for example, software, hardware, or a combination thereof.
이하에서는 이와 같이 구성된 차량용 제어장치에서 구현될 수 있는 제어 방법과 관련된 실시 예들에 대해 첨부된 도면을 참조하여 살펴보겠다. 본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다. 예를 들어, 차량용 제어장치가 수행하는 동작들은 헤드 업 디스플레이가 수행하는 것으로 변형될 수 있다. Hereinafter, embodiments related to a control method that can be implemented in the vehicle control apparatus configured as above will be described with reference to the accompanying drawings. It will be apparent to those skilled in the art that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. For example, the operations performed by the vehicle control apparatus can be modified to be performed by the head-up display.
이하의 도면의 설명에서는 왼쪽 위에 그려진 도면을 기준으로, 시계 방향으로 또는 위에서 아래로 순서를 붙여 설명한다.In the following description of the drawings, the drawings drawn on the left side are referred to in the order of clockwise or top-down.
도 2는 차량에 배치되는 헤드 업 디스플레이를 설명하기 위한 개념도이다.2 is a conceptual diagram for explaining a head-up display disposed in a vehicle.
차량의 헤드 업 디스플레이(이하, 'HUD'로 호칭)는 운행 정보가 차량의 전면 유리에 나타나도록 설계된 장치로서, 초기에는 비행기 조종사의 전방 시야를 확보해 주기 위해 도입되었으나, 최근에는 사고 감소를 위해 차량에도 도입되고 있다.A head-up display (hereinafter referred to as "HUD") of a vehicle is a device designed to display driving information on the windshield of a vehicle. Initially, it was introduced to secure the front view of an airplane pilot. It is also introduced in vehicles.
HUD는 차량용 제어장치의 제어하에 경로를 안내하는 이미지 정보, 속도를 안내하는 텍스트 정보 등 주행과 관련된 다양한 정보를 윈드실드 글래스(windshield glass) 상에 또는 윈드실드 글래스 너머에 증강현실(augmented reality, AR) 형태로 표시함으로써, 운전자의 시선이 분산되는 것을 방지한다.Under the control of the vehicle control unit, the HUD displays various information related to driving such as image information for guiding the route and text information for guiding the speed on a windshield glass or augmented reality (AR) ), Thereby preventing the driver's line of sight from being dispersed.
이하에서는, HUD에 의하여 출력되는 영상을 'HUD 영상'이라고 호칭한다. Hereinafter, an image output by the HUD is referred to as a 'HUD image'.
HUD 영상의 출력은, 프로젝터와 같은 디스플레이 모듈을 통해서 투사된 영상이 거울에 의해서 반사됨으로써, 운전자가 볼 수 있는 위치에 HUD 영상이 출력되는 방식으로 구현된다. The output of the HUD image is implemented in such a way that the projected image is reflected by the mirror through a display module such as a projector, thereby outputting the HUD image at a position visible to the driver.
도 2에 도시된 바와 같이, HUD 영상은 디스플레이 모듈(210)로부터 출력되고, 출력된 영상의 경로가 거울(220)에 의하여 변경되어 차량의 윈드실드(230)를 향하여 출력된다. 이때, HUD 영상은 윈드실드(230)에 투영되거나, 거울(220)과 윈드실드(230) 사이에 위치하는 별도의 스크린(미도시)에 투영될 수 있다.As shown in FIG. 2, the HUD image is output from the
HUD 영상이 투명한 윈드실드에 반사되어 비치기 때문에, 운전자는 HUD 영상을 확인함과 동시에 주행 중인 도로를 확인할 수 있게 된다. 다시 말해, HUD 영상에 의하여 증강현실이 구현될 수 있다. Since the HUD image is reflected on the transparent windshield, the driver can check the road while confirming the HUD image. In other words, the augmented reality can be realized by the HUD image.
증강현실은 현실의 사물에 대해 가상의 관련 정보를 덧붙여 보여주는 것으로, 차량 내부에서 윈드실드 밖으로 보이는 현실의 배경에 HUD 영상이 겹쳐서 표시된다. 이를 통해, 운전자는 현실의 건물을 배경으로 해당 건물의 주소, 부동산 동향, 건물에 구비된 편의시설과 그 이용 후기 등과 같은 정보를 HUD 영상을 통해 확인할 수 있게 된다.The augmented reality shows virtual reality related information about real objects, and HUD images are superimposed on the background of reality inside windshields inside the vehicle. Through this, the driver can view information such as the address of the building, the trend of the real estate, the facilities provided in the building, and the usage history thereof through the HUD video in the background of the actual building.
보다 완벽한 증강현실이 구현되기 위해서는, 현실 세계의 배경과 HUD 영상으로 표시되는 정보가 완벽히 매칭(matching) 되어야 한다. HUD 영상에 왜곡이 발생하면, 제1건물에 상기 제1건물과 다른 제2건물에 대한 정보가 표시되게 되어 불편이 발생할 수 있다. In order to realize more perfect augmented reality, the background of the real world and the information displayed by the HUD image must be perfectly matched. When distortion occurs in the HUD image, information about the second building different from the first building is displayed in the first building, which may cause inconvenience.
한편, 윈드실드(230)는 윈드실드 앵글(windshield angle)을 가지며, 윈드실드(230)의 각 부분은 위치에 따라 서로 다른 곡률을 가질 수 있다. 여기서, 윈드실드 앵글은 중력방향을 기준으로 윈드실드가 이루는 각도를 의미한다. 윈드실드 앵글과 곡률에 의하여, 윈드실드에 투영되는 HUD 영상에는 왜곡(distortion)이 발생할 수 있다. 이러한 왜곡은 완벽한 증강현실을 만드는데 문제가 된다. On the other hand, the
이러한 문제를 해결하기 위하여, 본원발명은 HUD 영상의 왜곡을 실시간을 보정할 수 있는 차량용 제어장치 및/또는 헤드 업 디스플레이(HUD)를 제안한다. In order to solve such a problem, the present invention proposes a vehicle control device and / or a head-up display (HUD) capable of correcting the distortion of the HUD image in real time.
도 3은 도 1의 차량용 제어장치에서 수행되는 제어방법을 설명하기 위한 흐름도이다.3 is a flowchart for explaining a control method performed by the vehicle control apparatus of FIG.
먼저, 제어부는 복수의 왜곡 보정 함수들을 메모리에 저장한다(S310). First, the control unit stores a plurality of distortion correction functions in a memory (S310).
운전자의 눈 위치에 따라 HUD 영상에는 서로 다른 왜곡이 발생하게 된다. 예를 들어, 차량이 커브를 돌 때 운전자는 커브 바깥쪽으로 쏠리는 원심력의 영향을 받게 되는데, 운전자의 눈 위치는 스티어링 휠의 중앙에서 좌나 우로 움직이게 되고, 움직인 위치에 의하여 서로 다른 왜곡이 HUD 영상에 나타나게 된다. HUD 영상 자체는 왜곡이 없이 출력이 되지만, 운전자의 눈 위치, 윈드실드 앵글, 그리고 윈드실드의 곡률에 의하여 운전자는 HUD 영상에 왜곡이 있는 것처럼 느끼게 되거나, 왜곡된 정보를 이용하게 된다.Depending on the position of the driver's eyes, different distortions occur in the HUD image. For example, when the vehicle is turning a curve, the driver is influenced by the centrifugal force exerted on the outside of the curve. The driver's eye position moves from the center of the steering wheel to the left or right, . The HUD image itself is output without distortion. However, due to driver's eye position, windshield angle, and curvature of the windshield, the driver feels distorted in the HUD image or uses distorted information.
차량이 특정되면 윈드실드 앵글 그리고 윈드실드의 곡률은 고정적인 값을 가지지만, 운전자의 눈 위치는 운전자의 종류, 좌석의 위치, 주행 상황에 따라 다른 값을 가진다. When the vehicle is identified, the curvature of the windshield angle and the windshield has a fixed value, but the driver's eye position has different values depending on the type of the driver, the position of the seat, and the driving situation.
여기서, 눈 위치는 눈과 관련된 위치정보를 의미한다. 예를 들어, 상기 위치정보는 운전자의 눈의 위치, 그리고 상기 눈의 위치에서 눈이 향하는 방향을 포함한다. Here, the eye position means position information related to the eye. For example, the position information includes the position of the driver ' s eyes and the direction the eyes point at the position of the eyes.
왜곡 보정 함수는 실시간으로 변화하는 운전자의 눈 위치에 대응하여 HUD 영상의 왜곡을 보정하는 함수를 의미한다. 구체적으로, 운전자의 눈 위치로 인하여 생성되는 HUD 영상의 왜곡은, 운전자의 눈 위치에 대응하는 왜곡 보정 함수에 의하여 보정될 수 있다. The distortion correction function is a function for correcting the distortion of the HUD image corresponding to the eye position of the driver changing in real time. Specifically, the distortion of the HUD image generated due to the driver's eye position can be corrected by a distortion correction function corresponding to the driver's eye position.
운전자의 눈 위치는 2차원 좌표계 내지 3차원 좌표계로 나타낼 수 있다. 예를 들어, 중력 방향을 기준으로 하는 y축과, 상기 y축에 수직하며 차량의 차폭 방향으로 이어지는 x축에 의하여 운전자의 눈 위치가 표현될 수 있다. The driver's eye position can be represented by a two-dimensional coordinate system or a three-dimensional coordinate system. For example, the driver's eye position can be expressed by the y-axis with respect to the direction of gravity and the x-axis perpendicular to the y-axis and extending along the vehicle width direction of the vehicle.
이 경우, 복수의 왜곡 보정 함수들은 운전자의 눈 위치를 변수(e.g. x1, y1)로 하는 룩업 테이블(lookup table)로 메모리에 저장될 수 있다. 제어부는 룩업 테이블을 이용하여 운전자의 눈 위치에 대응하는 어느 하나의 왜곡 보정 함수를 빠르게 검색할 수 있다. In this case, the plurality of distortion correction functions may be stored in a memory as a lookup table having the driver's eye position as a variable (e.g., x1, y1). The control unit can quickly search for any one of the distortion correction functions corresponding to the driver's eye position using the lookup table.
복수의 왜곡 보정 함수들은 제품출시 단계에서 제조사에 의하여 메모리에 저장될 수 있다. The plurality of distortion correction functions may be stored in memory by the manufacturer at the product launch stage.
또한, 제어부는 서버로부터 복수의 왜곡 보정 함수들을 수신하고, 수신된 복수의 왜곡 보정 함수들을 메모리에 업데이트 할 수도 있다. 차량용 제어장치는 다양한 차량에 장착될 수 있는데, 차량에 따라 적용되어야 하는 왜곡 보정 함수들은 달라져야 한다. 따라서, 차량용 제어장치는 차량에 장착된 후, 정기적 또는 비정기적으로 서버와 통신을 수행하고, 장착된 차량에 대응하는 왜곡 보정 함수들을 업데이트 할 수 있다. In addition, the control unit may receive a plurality of distortion correction functions from the server and update the received plurality of distortion correction functions in the memory. The vehicle control apparatus can be mounted on various vehicles, and the distortion correction functions to be applied to the vehicle must be different. Thus, the on-vehicle control device may be installed in the vehicle, and then periodically or irregularly communicate with the server and update the distortion correction functions corresponding to the mounted vehicle.
왜곡 보정 함수를 생성하는 방법에 대해서는 이하 도 4를 참조하여 구체적으로 후술한다. A method of generating the distortion correction function will be described later in detail with reference to FIG.
한편, 제어부는 운전자의 눈 위치를 감지하고(S330), 메모리에 저장된 복수의 왜곡 보정 함수들 중에서 상기 감지된 운전자의 눈 위치에 대응하는 어느 하나의 왜곡 보정 함수를 선택한다(S350).In operation S350, the control unit senses the eye position of the driver and selects any distortion correction function corresponding to the eye position of the sensed driver among the plurality of distortion correction functions stored in the memory in operation S350.
제어부는 운전석을 향하여 배치된 카메라를 이용하여 운전자의 눈 위치를 감지할 수 있다. 보다 구체적으로, 카메라에 포착된 영상에서 운전자의 눈을 탐색하고, 탐색된 눈의 위치를 기설정된 좌표계로 나타낼 수 있다. 예를 들어, 기설정된 좌표계가 2차원으로 이루어진 경우, 운전자의 눈 위치는 x축 값과 y축 값을 가진 좌표로 산출될 수 있다. The control unit can detect the driver's eye position using a camera disposed toward the driver's seat. More specifically, the driver's eye can be searched for in the image captured by the camera, and the position of the searched eye can be represented in a predetermined coordinate system. For example, when the predetermined coordinate system is two-dimensional, the eye position of the driver can be calculated with coordinates having the x-axis value and the y-axis value.
제어부는 산출된 좌표를 이용하여 복수의 왜곡 보정 함수들 중 어느 하나의 왜곡 보정 함수를 선택한다. 예를 들어, 제1 좌표 범위에 대응하는 제1 왜곡 보정 함수와 제2 좌표 범위에 대응하는 제2 왜곡 보정 함수가 저장되어 있는 상태에서, 산출된 좌표가 상기 제1 및 제2 좌표 범위 중 어디에 포함되는지에 따라 제1 함수 또는 제2 함수가 선택될 수 있다. The control unit selects one of the plurality of distortion correction functions using the calculated coordinates. For example, in a state where the first distortion correction function corresponding to the first coordinate range and the second distortion correction function corresponding to the second coordinate range are stored, the calculated coordinates are stored in the first and second coordinate ranges A first function or a second function may be selected depending on whether it is included.
다음으로, 제어부는 상기 선택된 왜곡 보정 함수를 이용하여 차량의 윈드실드를 향하여 출력되는 영상을 보정한다(S370). 감지된 눈 위치가 변경됨에 따라 왜곡 보정 함수가 어느 하나에서 다른 하나로 변경되게 된다.Next, the controller corrects the image output toward the windshield of the vehicle using the selected distortion correction function (S370). As the sensed eye position is changed, the distortion correction function is changed from one to another.
메모리에 저장된 복수의 왜곡 보정 함수들에 의하여 HUD 영상이 실시간으로 보정되기 때문에, 연산량이 적으며, 주행 중인 차량에 정확한 정보를 제공할 수 있다는 장점이 있다. Since the HUD image is corrected in real time by a plurality of distortion correction functions stored in the memory, the amount of computation is small and accurate information can be provided to the vehicle in operation.
한편, 운전자의 눈이 감지되지 않는 경우, 제어부는 HUD 영상이 출력되지 않도록 HUD를 제어할 수 있다. 즉, 불필요하게 HUD 영상이 출력되어 배터리가 소모되는 것을 방지한다. On the other hand, if the driver's eyes are not detected, the control unit can control the HUD so that the HUD image is not output. That is, the HUD image is unnecessarily output and the battery is prevented from being consumed.
왜곡 보정 함수에 의하여 보정된 영상을 보정 후 영상이라고 할 때, 보정 전의 영상을 보정 전 영상이라고 할 수 있다. 운전자는 자신의 의사와 관계없이 보정 후 영상이 출력되는 것에 불편을 느낄 수도 있다.When an image corrected by the distortion correction function is a post-correction image, the image before correction can be referred to as a pre-correction image. The driver may feel inconvenienced in outputting the corrected image regardless of his or her intention.
이러한 불편을 해결하기 위하여, 본 발명에 따른 차량용 제어장치는 보정 전 영상 또는 보정 후 영상을 사용자 입력에 근거하여 선택적으로 차량의 윈드실드를 향하여 출력할 수 있다. 예를 들어, 보정 활성화 버튼이 하드웨어 또는 소프트웨어 방식으로 구현되고, 상기 보정 활성화 버튼에 사용자 입력이 입력될 때마다 보정 기능의 실행 여부가 on/off 되어 보정 전 영상 또는 보정 후 영상이 출력될 수 있다. In order to solve such inconvenience, the vehicle control apparatus according to the present invention can selectively output the pre-correction image or the post-correction image toward the windshield of the vehicle based on the user input. For example, the correction activation button is implemented in a hardware or software manner, and the execution of the correction function is turned on / off each time a user input is input to the correction activation button, so that the pre-correction image or the post-correction image can be outputted .
나아가, 제어부는 보정 전 영상과 보정 후 영상을 동시에 출력하고, 사용자 입력에 의하여 선택된 어느 하나의 영상을 출력할 수도 있다. Furthermore, the control unit may simultaneously output the pre-correction image and the post-correction image, and may output any one of the images selected by the user.
도 4는 왜곡 보정 함수들을 메모리에 저장하는 방법을 좀 더 상세히 설명하기 위한 흐름도이다. 도 5 및 도 6을 함께 참조하여, 왜곡 보정 함수들을 생성하는 방법을 보다 구체적으로 살펴본다. Figure 4 is a flow chart for describing in more detail a method for storing distortion correction functions in memory. 5 and 6 together, a method for generating distortion correction functions will be described in more detail.
복수의 왜곡 보정 함수들을 획득하기 위해서는, 서로 다른 눈 위치에 대응하는 HUD 영상의 왜곡을 먼저 특정해야 한다. HUD 영상의 왜곡을 측정하기 위하여, 차량은 HUD(510) 및 카메라(520)를 구비한다. In order to obtain a plurality of distortion correction functions, the distortion of the HUD image corresponding to different eye positions must first be specified. In order to measure the distortion of the HUD image, the vehicle has a
제어부는 차량의 윈드실드에 그리드 셀들을 포함하는 이미지를 출력한다(S312).The control unit outputs an image including the grid cells to the windshield of the vehicle (S312).
HUD(510)는 차량의 윈드실드가 위치한 방향으로 기설정된 이미지를 출력한다. 상기 기설정된 이미지는 왜곡을 측정하기 위한 것으로, 규칙적으로 배열된 복수의 그리드 셀들을 포함한다. 도면에는 원형의 그리드 셀들이 도시되어 있으나, 그리드 셀들의 모양은 다양하게 변형될 될 수 있다. The
다음으로, 차량의 운전석에서 상기 이미지를 향하도록 배치된 카메라를 이용하여 상기 그리드 셀들의 왜곡을 측정한다(S314).Next, the distortion of the grid cells is measured using a camera arranged in the driver's seat of the vehicle so as to face the image (S314).
상기 카메라(520)는 운전자의 눈에 대응 하며, 상기 카메라(520)로부터 포착된 영상에 의하여 HUD 영상의 왜곡이 측정될 수 있다. 운전자의 눈 위치를 특정할 수 있도록, 상기 카메라(520)는 차량의 운전석에서 전방을 향하도록 배치된다. The
상기 카메라(520)에 포착된 영상(이하, '카메라 영상'으로 호칭)에는 HUD에 의하여 출력되는 상기 이미지가 포함된다. The image captured by the camera 520 (hereinafter referred to as a 'camera image') includes the image output by the HUD.
제1 촬영위치에서 제1 카메라 영상이 획득되고, 제2 촬영위치에서 제2 카메라 영상이 획득될 수 있다. 제어부는 제1 카메라 영상을 이용하여 제1 촬영위치에 대응하는 HUD 영상의 왜곡을 측정하고, 제2 카메라 영상을 이용하여 제2 촬영위치에 대응하는 HUD 영상의 왜곡을 측정할 수 있다. The first camera image may be obtained at the first photographing position, and the second camera image may be obtained at the second photographing position. The controller may measure the distortion of the HUD image corresponding to the first photographing position using the first camera image and measure the distortion of the HUD image corresponding to the second photographing position using the second camera image.
HUD 영상의 왜곡을 측정하는 단계는, 카메라 영상에 포함된 그리드 셀들 중 상호 인접한 적어도 3개의 그리드 셀들이 형성하는 적어도 하나의 도형을 추출하는 단계, 그리고 추출된 도형의 왜곡을 측정하는 단계를 포함할 수 있다. The step of measuring the distortion of the HUD image includes extracting at least one figure formed by at least three adjacent grid cells among the grid cells included in the camera image and measuring the distortion of the extracted figure .
예를 들어, 도 6에 도시된 바와 같이, 인접한 4개의 그리드 셀들이 형성하는 사각형을 추출하고, 사각형의 찌그러짐을 측정함으로써 상기 4개의 그리드 셀들을 포함하는 영역의 왜곡을 측정할 수 있다. 모든 그리드 셀들에 대한 왜곡을 측정함으로써, HUD 영상의 전체영역에 대한 왜곡을 측정할 수 있게 된다.For example, as shown in FIG. 6, the distortion of the region including the four grid cells can be measured by extracting the rectangles formed by the four adjacent grid cells and measuring the squash distortion. By measuring the distortion for all the grid cells, it is possible to measure the distortion of the entire area of the HUD image.
다음으로, 상기 측정된 그리드 셀들의 왜곡에 근거하여 상기 카메라의 촬영위치에 대응하는 왜곡 보정 함수를 생성한다(S316).Next, a distortion correction function corresponding to the photographing position of the camera is generated based on the distortion of the measured grid cells (S316).
추출된 각 도형의 왜곡을 정규화하는 왜곡 보정 함수가 생성되며, 상기 카메라(520)의 촬영위치에 따라 서로 다른 왜곡 보정 함수가 생성될 수 있다. 예를 들어, 제1 촬영위치에서 획득된 제1 카메라 영상을 이용하여 제1 왜곡 보정 함수를 생성하고, 제2 촬영위치에서 획득된 제2 카메라 영상을 이용하여 제2 왜곡 보정 함수를 생성할 수 있다. A distortion correction function for normalizing the distortion of each extracted graphic is generated and a different distortion correction function may be generated according to the photographing position of the
왜곡 보정 함수는 각 그리드 셀이 표시되어야 할 위치를 보정하도록 이루어진다. 즉, 왜곡 보정 함수에 의하면, 각 그리드 셀의 위치는 그리드 셀들이 형성하는 다수의 도형들이 찌그러져 있지 않고 네각이 모두 직각을 이루도록 보정된다. The distortion correction function is made to correct the position where each grid cell should be displayed. In other words, according to the distortion correction function, the position of each grid cell is corrected so that the plurality of graphic shapes formed by the grid cells are not distorted, and all the four angles are at right angles.
구체적으로, 왜곡 보정 함수는, HUD 영상을 복수의 영역들(또는, 픽셀들)로 구분하고, 각 영역이 출력되어야 하는 위치를 보정하는 행렬로 이루어질 수 있다. 보정 전 영상을 상기 왜곡 보정 함수를 이용하여 보정함으로써, 적어도 하나의 영역의 위치가 달라진 보정 후 영상을 획득할 수 있다. 이에 따라, 보정 전 영상에 의하면 발생하였던 왜곡이 보정 후 영상에서는 발견되지 않게 된다. Specifically, the distortion correction function may be a matrix for dividing the HUD image into a plurality of regions (or pixels), and correcting a position where each region should be output. It is possible to obtain a post-correction image in which the position of at least one region is changed by correcting the pre-correction image using the distortion correction function. Thus, the distortion that has occurred according to the pre-correction image is not found in the post-correction image.
다음으로, 제어부는 서로 다른 촬영위치에서 생성된 복수의 왜곡 보정 함수들을 메모리에 저장한다(S318).Next, the control unit stores a plurality of distortion correction functions generated at different shooting positions in a memory (S318).
촬영위치는 인위적으로 달라지거나, 차량 주행에 따라 원심력이나 기타 자연적으로 발생하는 힘에 의하여 달라질 수 있다. 예를 들어, 사용자는 상기 카메라(520)의 촬영위치를 변경해 가며 영상을 포착하고, 제어부는 포착된 영상을 이용하여 각 촬영위치에 대응하는 왜곡 보정 함수를 획득할 수 있다.The shooting position can be artificially varied, or it can be varied by centrifugal force or other naturally occurring forces as the vehicle travels. For example, the user may capture an image while changing the photographing position of the
한편, 상기 카메라(520)에 포착된 영상에는 상기 이미지 뿐만 아니라, 윈드실드 밖으로 존재하는 도로가 포함될 수 있다. On the other hand, the image captured by the
상기 도로에는, 상기 카메라(520)의 촬영위치를 산출할 수 있도록, 그리드 셀들을 포함하는 배경 이미지(530)가 설치될 수 있다. 이경우, 상기 카메라 영상에는 상기 HUD(510)에서 출력되는 이미지뿐만 아니라, 상기 배경 이미지(530)의 적어도 일부가 포함될 수 있다. On the road, a
상기 카메라 영상에 포함된 상기 배경 이미지(530)에 의하여 상기 카메라(520)의 촬영위치가 산출될 수 있다. 제어부는 상기 배경 이미지(530)에 포함된 그리드 셀들을 이용하여 상기 카메라(520)의 촬영위치를 산출한다. 예를 들어, 기설정된 좌표계가 2차원인 경우, x축 좌표값과 y축 좌표값이 상기 카메라(520)의 촬영위치로 산출될 수 있다. 상기 촬영위치는 운전자의 눈 위치에 대응하게 된다. The photographing position of the
이에 따라, 차량은 상기 배경 이미지(530)가 설치된 트랙을 주행하면서, 다양한 환경에서의 카메라 영상을 획득할 수 있으며, 그에 따른 왜곡 보정 함수들을 생성할 수 있다. Accordingly, the vehicle can acquire camera images in various environments while driving the track on which the
상술한 바와 같이, 운전자의 눈 위치에 따라 달라지는 왜곡 보정 함수에 의하여, HUD 영상을 이루는 각 영역(또는, 각 픽셀)의 출력 위치가 보정된다. 이에 따라, 운전자에게 발생하는 왜곡이 실시간으로 보정되고, 현실 세계와 완벽히 매칭되는 증강 현실이 제공될 수 있다. As described above, the output position of each region (or each pixel) of the HUD image is corrected by the distortion correction function that varies depending on the driver's eye position. Thus, an augmented reality in which a distortion occurring to a driver is corrected in real time and perfectly matches with the real world can be provided.
한편, 차량의 주행 환경에 따라 운전자의 눈 위치가 달라질 수 있는데, 눈 위치에 따라 HUD 영상이 출력되는 영역의 위치 및 크기 중 적어도 하나가 달라질 수 있다. Meanwhile, at least one of the position and the size of the area in which the HUD image is output may vary depending on the eye position, depending on the driving environment of the vehicle.
도 7은 주행 환경에 따라 영상이 출력되는 영역을 다르게 조절하는 방법을 설명하기 위한 흐름도이고, 도 8a 및 도 8b는 도 7의 방법을 설명하기 위한 예시도들이다.FIG. 7 is a flowchart for explaining a method of controlling an image output region according to a driving environment, and FIGS. 8A and 8B are illustrations for explaining the method of FIG.
제어부는 차량에 구비된 센서를 이용하여 차량의 주행 환경을 감지할 수 있다(S710). 주행 환경이 감지됨에 따라 주행 정보가 생성된다. The control unit can sense the driving environment of the vehicle using a sensor provided in the vehicle (S710). Driving information is generated as the driving environment is detected.
여기서, 주행 정보는 센서를 통해 감지되는 차량과 관련된 모든 종류의 정보를 의미한다.Here, the driving information means all kinds of information related to the vehicle sensed through the sensor.
일 예로, 주행 정보는 주행 속도, 무게, 충돌 가능성, 도로의 특성(비포장 도로, 고속도로, 교차로와 같은 도로의 종류, 곡선 구간에서의 곡률, 도로에 설정된 제한속도 등)과 같이 차량 자체와 관련된 정보 및 차량의 주변 환경에서 감지되는 정보를 포함할 수 있다. For example, the driving information may include information related to the vehicle itself, such as driving speed, weight, collision probability, characteristics of the road (kind of road such as unpaved road, highway, intersection, curvature in curve section, And information sensed in the surroundings of the vehicle.
또한, 주행 정보는 GPS와 같은 차량의 위치 정보, 이미지 센서에 의하여 포착된 이미지로부터 분석된 각종 정보, 레이더나 라이더에 의하여 감지된 물체와 상기 물체와의 충돌 가능성, 차량의 중심점을 앞뒤방향, 좌우방향, 상하방향으로 각각 꿰뚫는 3개의 축을 중심으로 하는 회전 정보(피치, 롤, 요) 등을 포함할 수 있다. The traveling information may include position information of the vehicle such as GPS, various information analyzed from the image captured by the image sensor, possibility of collision between the object detected by the radar or the rider and the object, (Pitch, roll, yaw) about three axes pierced in the vertical direction and the vertical direction, respectively.
다음으로, 제어부는 감지된 주행 정보에 근거하여 운전자의 눈 위치를 예측할 수 있다(S730). 예를 들어, t1 시점에 운전자의 눈 위치가 제1 좌표(x1, y2)에서 감지되면, 감지된 주행 정보에 근거하여 t2 시점에 위치할 운전자의 눈 위치로서 제2 좌표(x2, y2)를 예측할 수 있다. 여기서 t1은 현재 시점이고 t2는 미래 시점에 해당한다.Next, the control unit can predict the driver's eye position based on the sensed driving information (S730). For example, if the driver's eye position is detected at the first coordinate (x1, y2) at the time t1, the second coordinate (x2, y2) is calculated as the eye position of the driver to be positioned at the time t2 based on the detected driving information Can be predicted. Where t1 is the current time and t2 is the future time.
제어부는 감지된 눈 위치(예를 들어, 제1좌표) 또는 예측된 눈 위치(예를 들어, 제2좌표)에 근거하여 HUD 영상이 출력되는 영역의 위치 및 크기 중 적어도 하나를 결정할 수 있다(S750).The control unit may determine at least one of the position and the size of the area in which the HUD image is output based on the sensed eye position (e.g., the first coordinate) or the predicted eye position (e.g., the second coordinate) S750).
구체적으로, 제어부는 눈 위치가 기설정된 소정 범위 이내에 위치하는 정상 상태와 상기 소정 범위를 벗어난 곳에 위치하는 비정상 상태로 구분할 수 있다. Specifically, the control unit can distinguish between a steady state in which the eye position is within a predetermined range and an abnormal state in which the eye position is out of the predetermined range.
도 8a에 도시된 바와 같이, 정상 상태에서 HUD 영상(820)은 기설정된 영역(810)에 출력될 수 있다. 정상 상태에서 사용자는 기설정된 영역(810)에 표시된 HUD 영상(820)의 전체를 확인할 수 있다. 하지만, 비정상 상태에서 사용자는 HUD 영상(820)의 일부분을 확인할 수 없다. 운전자에게 HUD 영상(820)의 일부는 잘려나간 것처럼 인지된다. 눈 위치에 따라 운전자가 확인할 수 있는 디스플레이 영역(810->810')이 달라지기 때문이다. As shown in FIG. 8A, the
제어부는, 운전자의 눈 위치가 소정 범위를 벗어난 경우, 보정 후 영상이 출력되는 영역의 위치 및 크기 중 적어도 하나를 눈 위치에 근거하여 변경할 수 있다. 이로써, 운전자가 바라보는 시야에 HUD 영상이 출력될 수 있다. The control unit may change at least one of the position and the size of the region in which the post-correction video is output based on the eye position when the eye position of the driver is out of the predetermined range. As a result, the HUD image can be outputted in the field of view of the driver.
제어부는 운전자의 눈 위치에 근거하여 운전자가 HUD 영상을 확인할 수 있는 디스플레이 영역(810->810')을 산출할 수 있다. 제어부는 산출된 디스플레이 영역(810')에 근거하여 HUD 영상이 출력되는 영역의 위치 및 크기 중 적어도 하나를 조절한다. The control unit can calculate the display area 810- > 810 'in which the driver can confirm the HUD image based on the eye position of the driver. The control unit controls at least one of the position and the size of the area in which the HUD image is output based on the calculated display area 810 '.
예를 들어, 제어부는 HUD의 디스플레이 모듈(210, 도 2 참조)과 거울(220, 도 2 참조) 사이의 각도를 조절함으로써, 도 8a에 도시된 바와 같이, HUD 영상이 출력되는 영역의 위치 및 크기 중 적어도 하나를 변경할 수 있다. For example, by controlling the angle between the display module 210 (see FIG. 2) of the HUD and the mirror 220 (see FIG. 2), the control unit can control the position of the area in which the HUD image is output, Size can be changed.
다른 예를 들어, HUD 영상이 출력될 수 있는 영역은 고정될 수 있다. 이경우, 제어부는 HUD 영상이 출력될 수 있는 영역과 운전자가 HUD 영상을 확인할 수 있는 디스플레이 영역이 중첩되는 부분을 산출하고, 산출된 부분에 HUD 영상을 출력할 수도 있다(820->820"). As another example, the area in which the HUD image can be output can be fixed. In this case, the control unit may calculate the overlapping area between the area where the HUD image can be output and the display area where the driver can confirm the HUD image, and output the HUD image at the calculated area (820-> 820 ").
HUD 영상이 출력되는 영역의 크기가 변경됨에 따라, HUD 영상에 포함된 객체의 크기도 달라질 수 있다. 예를 들어, 영역의 크기가 커지면, HUD 영상에 포함된 객체의 크기도 커질 수 있다. As the size of the area in which the HUD image is output is changed, the size of the object included in the HUD image may be changed. For example, if the size of the region increases, the size of the object included in the HUD image may also increase.
한편, 제어부는 GPS 정보에 근거하여, 운전자의 눈 위치가 소정 범위를 벗어날 확률이 기준보다 큰 지역을 탐색하고, 탐색된 지역에 차량이 진입하는 경우, 보정 후 영상이 출력되는 영역의 위치 및 크기 중 적어도 하나를 변경할 수 있다. 이때, 운전자의 눈 위치를 예측하고, 예측된 눈 위치에 근거하여 보정 후 영상이 출력되는 영역의 위치 및 크기 중 적어도 하나를 변경할 수 있다. 운전자의 눈 위치가 달라진 후 상기 적어도 하나가 달라지는 것이 아니라, 달라질 눈 위치를 미리 예상하여 상기 적어도 하나를 변경해 놓기 때문에, 보다 정확한 증강 현실이 제공될 수 있다. On the other hand, the control unit searches for an area where the probability that the driver's eye position is out of a predetermined range is greater than a reference based on the GPS information, and when the vehicle enters the search area, Can be changed. At this time, it is possible to predict at least one of the position and the size of the area where the post-correction image is output based on the predicted eye position. Since at least one of the at least one of the eyes is changed after the eye position of the driver is changed, at least one of the eye positions is predicted in advance and a more accurate augmented reality can be provided.
한편, 제어부는 눈의 위치에 따라 HUD 영상의 종류를 변경할 수도 있다. Meanwhile, the control unit may change the type of the HUD image according to the position of the eyes.
도 9는 눈의 위치에 따라 서로 다른 영상을 출력하는 방법을 설명하기 위한 흐름도이고, 도 10a 및 도 10b는 도 9의 방법을 설명하기 위한 예시도들이다.FIG. 9 is a flowchart for explaining a method of outputting different images according to the positions of eyes, and FIGS. 10A and 10B are illustrations for explaining the method of FIG.
먼저, 제어부는 눈 위치가 소정 범위를 벗어났는지를 판단한다(S910). 소정 범위를 벗어나지 않았다면, 눈 위치에 근거하여 왜곡 보정 함수를 선택하고(S350), 선택된 왜곡 보정 함수를 이용하여 HUD 영상의 왜곡을 보정한다(S370).First, the control unit determines whether the eye position is out of a predetermined range (S910). If it is not within the predetermined range, the distortion correction function is selected based on the eye position (S350), and the distortion of the HUD image is corrected using the selected distortion correction function (S370).
이와 달리, 소정 범위를 벗어났다면, 대체 영상을 선택하고(S930), 선택된 대체 영상에 왜곡 보정 함수를 이용하여 왜곡을 보정한다. 상기 소정 범위를 벗어났다면, HUD 영상의 적어도 일부가 잘려나간 것처럼 보이기 때문이다. On the other hand, if the predetermined range is exceeded, a replacement image is selected (S930), and the distortion is corrected using the distortion correction function on the selected replacement image. If it is outside the predetermined range, at least a part of the HUD image appears to be cut off.
대체 영상은, 예를 들어, HUD 영상에 블러(blur) 효과를 준 것일 수 있다. 다른 예를 들어, 대체 영상은 눈 위치가 소정 범위를 벗어났으므로, 바른 자세로 앉거나 HUD 세팅을 다시 하라는 알림 정보를 포함할 수 있다. The substitute image may be, for example, a blur effect on the HUD image. As another example, the substitute image may include notification information that the eye position is out of a predetermined range, so that it can sit in the correct posture or repeat the HUD setting.
도 10a를 참조하면, 눈 위치가 소정 범위 내에 위치하는 경우, 눈 위치에 따라 운전자가 확인할 수 있는 디스플레이 영역(1010)과 HUD 영상이 출력되는 영역(1020)은 일치하게 된다. Referring to FIG. 10A, when the eye position is located within a predetermined range, the
눈 위치가 소정 범위를 벗어나면, 운전자가 확인할 수 있는 디스플레이 영역(1010')과 HUD 영상이 출력되는 영역(1020) 사이에 불일치가 발생하고, HUD 영상의 전체영역 중에서 디스플레이 영역(1010')에 포함되지 않는 적어도 일부는 운전자의 시야에 포함되지 않게 된다. If the eye position deviates from the predetermined range, a discrepancy occurs between the display area 1010 'that the driver can check and the
이 경우, 제어부는 HUD 영상 전체를 기설정된 대체 영상으로 대체하거나, HUD 영상에 기설정된 디스플레이 효과를 적용하여 눈 위치가 소정 범위를 벗어났음을 운전자에게 알릴 수 있다. 이로써, 운전자는 자세를 바로 잡거나, 잘못 세팅된 HUD를 다시 세팅함으로써 자신의 눈 위치에서 HUD 영상 전체가 확인될 수 있도록 조치할 수 있다. In this case, the control unit may replace the entire HUD image with a predetermined alternative image, or may notify the driver that the eye position is out of a predetermined range by applying a predetermined display effect to the HUD image. In this way, the driver can correct the posture or set the wrongly set HUD so that the entire HUD image can be confirmed at his / her eye position.
다른 일 예로, 제어부는 눈 위치가 소정 범위를 벗어난 경우, HUD 영상의 전체영역 중에서 적어도 일 영역을 편집하고, 상기 적어도 일 영역이 편집된 영상을 차량의 윈드실드를 향하여 출력할 수 있다. In another example, when the eye position is out of a predetermined range, the control unit may edit at least one area of the entire area of the HUD image and output the edited image toward the windshield of the vehicle.
도 10b에 도시된 바와 같이, 눈 위치가 소정 범위를 벗어나면, 운전자가 확인할 수 있는 디스플레이 영역(1030)과 HUD 영상이 출력되는 영역(1040) 사이에 불일치가 발생하게 된다. 제어부는 HUD 영상에 포함된 객체가 디스플레이 영역(1030) 내에서 모두 표시될 수 있도록 HUD 영상을 편집한다. 구체적으로, HUD 영상의 전체영역을 객체가 포함되지 않은 객체 불포함 영역과 객체가 포함된 객체 포함 영역으로 구분하고, 디스플레이 영역(1030)에 객체 포함 영역이 출력되도록 HUD를 제어한다. As shown in FIG. 10B, if the eye position is out of a predetermined range, a mismatch occurs between the
한편, 편집되는 적어도 일 영역의 크기 및 위치 중 적어도 하나는 운전자의 눈 위치에 따라 달라라지게 된다.On the other hand, at least one of the size and position of at least one area to be edited varies depending on the driver's eye position.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 단말기의 제어부(180)를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The present invention described above can be embodied as computer-readable codes on a medium on which a program is recorded. The computer readable medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of the computer readable medium include a hard disk drive (HDD), a solid state disk (SSD), a silicon disk drive (SDD), a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, , And may also be implemented in the form of a carrier wave (e.g., transmission over the Internet). Also, the computer may include a
Claims (10)
메모리에 저장된 복수의 왜곡 보정 함수들 중에서 상기 감지된 눈 위치에 대응하는 어느 하나의 왜곡 보정 함수를 선택하는 단계; 및
상기 선택된 왜곡 보정 함수를 이용하여 차량의 윈드실드를 향하여 출력되는 영상을 보정하는 단계를 포함하는 차량용 제어장치의 제어방법.Sensing a driver's eye position;
Selecting one distortion correction function corresponding to the sensed eye position from among a plurality of distortion correction functions stored in the memory; And
And correcting the image output toward the windshield of the vehicle using the selected distortion correction function.
상기 감지된 눈 위치가 변경됨에 따라 상기 선택된 왜곡 보정 함수가 상기 어느 하나에서 다른 하나로 변경되는 것을 특징으로 하는 차량용 제어장치의 제어방법.The method according to claim 1,
And the selected distortion correction function is changed from one to another as the sensed eye position is changed.
상기 복수의 왜곡 보정 함수들을 상기 메모리에 저장하는 단계를 더 포함하고,
상기 복수의 왜곡 보정 함수들을 상기 메모리에 저장하는 단계는,
상기 차량의 윈드실드에 그리드 셀들을 포함하는 이미지를 출력하는 단계;
상기 차량의 운전석에서 상기 이미지를 향하도록 배치된 카메라를 이용하여 상기 그리드 셀들의 왜곡을 측정하는 단계;
상기 측정된 그리드 셀들의 왜곡에 근거하여 상기 카메라의 촬영위치에 대응하는 왜곡 보정 함수를 생성하는 단계; 및
서로 다른 촬영위치에서 생성된 복수의 왜곡 보정 함수들을 상기 메모리에 저장하는 단계를 포함하는 것을 특징으로 하는 차량용 제어장치의 제어방법.The method according to claim 1,
Further comprising storing the plurality of distortion correction functions in the memory,
Wherein the step of storing the plurality of distortion correction functions in the memory comprises:
Outputting an image including grid cells to a windshield of the vehicle;
Measuring a distortion of the grid cells using a camera arranged to face the image at a driver's seat of the vehicle;
Generating a distortion correction function corresponding to a photographing position of the camera based on the distortion of the measured grid cells; And
And storing a plurality of distortion correction functions generated at different shooting positions in the memory.
상기 그리드 셀들의 왜곡을 측정하는 단계는,
상기 그리드 셀들 중 상호 인접한 적어도 3개의 그리드 셀들이 형성하는 적어도 하나의 도형을 추출하는 단계; 및
상기 추출된 도형의 왜곡을 측정하는 단계를 포함하고,
상기 카메라의 촬영위치에 대응하는 왜곡 보정 함수를 생성하는 단계에서는, 상기 추출된 도형의 왜곡을 정규화하는 왜곡 보정 함수가 생성되며, 상기 카메라의 촬영위치에 따라 서로 다른 왜곡 보정 함수가 생성되는 것을 특징으로 하는 차량용 제어장치의 제어방법.The method of claim 3,
Wherein measuring the distortion of the grid cells comprises:
Extracting at least one graphic form formed by at least three adjacent grid cells among the grid cells; And
And measuring distortion of the extracted figure,
The step of generating the distortion correction function corresponding to the photographing position of the camera generates the distortion correction function for normalizing the distortion of the extracted figure so that different distortion correction functions are generated according to the photographing position of the camera Of the vehicle.
상기 감지된 눈 위치가 소정 범위를 벗어난 경우, 상기 보정된 영상이 출력되는 영역의 위치 및 크기 중 적어도 하나를 상기 감지된 눈 위치에 근거하여 변경하는 단계를 더 포함하는 것을 특징으로 하는 차량용 제어장치의 제어방법.The method according to claim 1,
Further comprising changing at least one of a position and a size of an area in which the corrected image is output based on the sensed eye position when the sensed eye position is out of a predetermined range, / RTI >
GPS 정보에 근거하여, 상기 운전자의 눈 위치가 소정 범위를 벗어날 확률이 기준보다 큰 지역을 탐색하는 단계; 및
상기 탐색된 지역에 상기 차량이 진입하는 경우, 상기 보정된 영상이 출력되는 영역의 위치 및 크기 중 적어도 하나를 변경하는 단계를 더 포함하는 것을 특징으로 하는 차량용 제어장치의 제어방법.The method according to claim 1,
Searching for an area where the probability that the driver's eye position is out of a predetermined range is greater than a reference, based on GPS information; And
Further comprising changing at least one of a position and a size of an area where the corrected image is outputted when the vehicle enters the searched area.
상기 감지된 눈 위치가 소정 범위를 벗어난 경우, 상기 보정된 영상의 전체영역 중에서 적어도 일 영역을 편집하고, 상기 적어도 일 영역이 편집된 영상을 상기 차량의 윈드실드에 출력하는 단계를 더 포함하는 차량용 제어장치의 제어방법.The method according to claim 1,
Further comprising editing at least one region of the entire area of the corrected image when the detected eye position is out of a predetermined range and outputting the edited image of at least one region to the windshield of the vehicle A control method of a control device.
상기 적어도 일 영역의 크기 및 위치 중 적어도 하나는 상기 감지된 눈 위치에 따라 달라지는 것을 특징으로 하는 차량용 제어장치의 제어방법.8. The method of claim 7,
Wherein at least one of a size and a position of the at least one region varies depending on the sensed eye position.
보정 전 영상 또는 보정 후 영상을 사용자 입력에 근거하여 선택적으로 상기 차량의 윈드실드를 향하여 출력하는 단계를 더 포함하는 것을 특징으로 하는 헤드 업 디스플레이의 제어방법.The method according to claim 1,
And outputting the pre-correction image or the post-correction image selectively to the windshield of the vehicle based on the user input.
상기 복수의 왜곡 보정 함수들을 서버로부터 수신하는 단계; 및
상기 수신된 복수의 왜곡 보정 함수들을 상기 메모리에 업데이트 하는 단계를 더 포함하는 것을 특징으로 하는 헤드 업 디스플레이의 제어방법.The method according to claim 1,
Receiving the plurality of distortion correction functions from a server; And
Further comprising updating the received plurality of distortion correction functions in the memory.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020160067557A KR20170135522A (en) | 2016-05-31 | 2016-05-31 | Control device for a vehhicle and control metohd thereof |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020160067557A KR20170135522A (en) | 2016-05-31 | 2016-05-31 | Control device for a vehhicle and control metohd thereof |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| KR20170135522A true KR20170135522A (en) | 2017-12-08 |
Family
ID=60919775
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020160067557A Ceased KR20170135522A (en) | 2016-05-31 | 2016-05-31 | Control device for a vehhicle and control metohd thereof |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR20170135522A (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN113552905A (en) * | 2021-06-22 | 2021-10-26 | 歌尔光学科技有限公司 | Method and system for position adjustment of vehicle HUD |
| US20220281317A1 (en) * | 2021-03-02 | 2022-09-08 | Samsung Electronics Co., Ltd. | Electronic device for projecting image onto windshield of vehicle and operating method thereof |
| WO2022186546A1 (en) * | 2021-03-02 | 2022-09-09 | 삼성전자 주식회사 | Electronic device for projecting image on windshield of vehicle, and operating method therefor |
| EP4141621A4 (en) * | 2020-05-15 | 2024-01-17 | Huawei Technologies Co., Ltd. | DATA PROCESSING METHOD AND CORRESPONDING DEVICE |
-
2016
- 2016-05-31 KR KR1020160067557A patent/KR20170135522A/en not_active Ceased
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP4141621A4 (en) * | 2020-05-15 | 2024-01-17 | Huawei Technologies Co., Ltd. | DATA PROCESSING METHOD AND CORRESPONDING DEVICE |
| US20220281317A1 (en) * | 2021-03-02 | 2022-09-08 | Samsung Electronics Co., Ltd. | Electronic device for projecting image onto windshield of vehicle and operating method thereof |
| WO2022186546A1 (en) * | 2021-03-02 | 2022-09-09 | 삼성전자 주식회사 | Electronic device for projecting image on windshield of vehicle, and operating method therefor |
| US12172523B2 (en) | 2021-03-02 | 2024-12-24 | Samsung Electronics Co, Ltd. | Electronic device for projecting image onto windshield of vehicle and operating method thereof |
| CN113552905A (en) * | 2021-06-22 | 2021-10-26 | 歌尔光学科技有限公司 | Method and system for position adjustment of vehicle HUD |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR101806892B1 (en) | Control device for a vehhicle | |
| KR102862959B1 (en) | Apparatus and method for displaying navigation information of three dimention augmented reality | |
| KR102854553B1 (en) | Electronic apparatus for controlling a passenger seat display and method for controlling the passenger seat display | |
| US11181743B2 (en) | Head up display apparatus and display control method thereof | |
| US20170364148A1 (en) | Control device for vehicle and control method thereof | |
| US10168782B1 (en) | Ultrasonic haptic feedback control system and method | |
| US8952869B1 (en) | Determining correlated movements associated with movements caused by driving a vehicle | |
| US9268136B1 (en) | Use of comparative sensor data to determine orientation of head relative to body | |
| US8907887B2 (en) | Methods and systems for operating avionic systems based on user gestures | |
| US10168824B2 (en) | Electronic device and control method for the electronic device | |
| US20170053444A1 (en) | Augmented reality interactive system and dynamic information interactive display method thereof | |
| US20180056861A1 (en) | Vehicle-mounted augmented reality systems, methods, and devices | |
| US10885819B1 (en) | In-vehicle augmented reality system | |
| KR20230034448A (en) | Vehicle and method for controlling thereof | |
| EP3694740A1 (en) | Display device, program, image processing method, display system, and moving body | |
| WO2005124431A1 (en) | Information display device and navigation device | |
| US11305692B2 (en) | Display system | |
| JP2017094882A (en) | Virtual image generation system, virtual image generation method and computer program | |
| KR20180053290A (en) | Control device for a vehhicle and control metohd thereof | |
| JP2020071415A (en) | Heads up display system | |
| KR20170135522A (en) | Control device for a vehhicle and control metohd thereof | |
| WO2020241134A1 (en) | Display system | |
| JP2025530142A (en) | Information display method, information display device, electronic device, and computer program | |
| US11945310B2 (en) | Display system | |
| US10474912B2 (en) | Vehicle display controller, vehicle display system, vehicle display control method, and non-transitory storage medium |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A201 | Request for examination | ||
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20160531 |
|
| PA0201 | Request for examination | ||
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20170822 Patent event code: PE09021S01D |
|
| AMND | Amendment | ||
| PG1501 | Laying open of application | ||
| E601 | Decision to refuse application | ||
| PE0601 | Decision on rejection of patent |
Patent event date: 20180213 Comment text: Decision to Refuse Application Patent event code: PE06012S01D Patent event date: 20170822 Comment text: Notification of reason for refusal Patent event code: PE06011S01I |
|
| PX0901 | Re-examination |
Patent event code: PX09011S01I Patent event date: 20180213 Comment text: Decision to Refuse Application Patent event code: PX09012R01I Patent event date: 20171023 Comment text: Amendment to Specification, etc. |
|
| E601 | Decision to refuse application | ||
| E801 | Decision on dismissal of amendment | ||
| PE0601 | Decision on rejection of patent |
Patent event date: 20180416 Comment text: Decision to Refuse Application Patent event code: PE06012S01D Patent event date: 20170822 Comment text: Notification of reason for refusal Patent event code: PE06011S01I |
|
| PE0801 | Dismissal of amendment |
Patent event code: PE08012E01D Comment text: Decision on Dismissal of Amendment Patent event date: 20180416 Patent event code: PE08011R01I Comment text: Amendment to Specification, etc. Patent event date: 20180316 Patent event code: PE08011R01I Comment text: Amendment to Specification, etc. Patent event date: 20171023 |