[go: up one dir, main page]

WO2012165718A1 - Automatic convergence control apparatus using eye-tracking and method for same - Google Patents

Automatic convergence control apparatus using eye-tracking and method for same Download PDF

Info

Publication number
WO2012165718A1
WO2012165718A1 PCT/KR2011/006805 KR2011006805W WO2012165718A1 WO 2012165718 A1 WO2012165718 A1 WO 2012165718A1 KR 2011006805 W KR2011006805 W KR 2011006805W WO 2012165718 A1 WO2012165718 A1 WO 2012165718A1
Authority
WO
WIPO (PCT)
Prior art keywords
convergence
eye
image
camera module
stereoscopic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/KR2011/006805
Other languages
French (fr)
Korean (ko)
Inventor
이덕명
최한준
허창원
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nexuschips Co Ltd
Original Assignee
Nexuschips Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nexuschips Co Ltd filed Critical Nexuschips Co Ltd
Publication of WO2012165718A1 publication Critical patent/WO2012165718A1/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking

Definitions

  • the present invention relates to an apparatus and method for automatically adjusting convergence by detecting eye movement when generating or playing a stereoscopic 3D image using a binocular camera, and more particularly, to an eye movement in front of the binocular camera.
  • the present invention relates to a technology for detecting a region of a display panel on which the eye is looking through the camera module and automatically adjusting convergence based on the extracted region.
  • the object is photographed with a slight horizontal difference like the human eye. It is called time difference.
  • the 3D image is captured by the human eye and the 3D image is reproduced in the brain, if the image does not match according to the left and right camera intervals and the size of the parallax of the left and right images toward the object, the eye becomes tired and headaches occur. Cause problems such as causing.
  • the two images can be perfectly matched, but there is no parallax between the two images, so the stereoscopic feeling cannot be felt.
  • the left and right images do not overlap each other in inverse proportion to the viewing distance, and the parallax increases.
  • the parallax between two images taken with a binocular camera has a characteristic that the parallax increases from a distance to a near distance.
  • the left and right images are similar to each other, but because the objects in the distance and the objects in the short distance are mixed, a difference occurs in the matching point depending on the state of the background and the subjects.
  • the user has no choice but to adjust the convergence by directly manipulating the UI or touching the panel each time in order to adjust the convergence of stereoscopic 3D.
  • a technique for automatically adjusting convergence on a display panel using eye tracking is presented.
  • the convergence is automatically adjusted and the 3D stereoscopic images are automatically adjusted just by looking at the area for the convergence without the need for a separate operation such as manipulating the UI or touching the panel. It is intended to present a technique that can be created or reproduced.
  • an automatic convergence control apparatus using eye-tracking may include a sensing camera module and a sensing camera module configured to detect eye movement looking at a display panel of a device for generating or playing a stereoscopic 3D image. It includes a convergence control unit for automatically controlling the convergence according to the movement of the eye.
  • the apparatus may further include a gaze extractor configured to extract an area on the display panel that the eye gazes according to the movement of the eye sensed by the sensing camera module.
  • the convergence adjustment unit controls the convergence based on the gaze region extracted by the gaze region extraction unit.
  • the apparatus may further include a calibration unit configured to perform calibration according to the movement of the eye detected by the sensing camera module.
  • the apparatus may further include a stereoscopic image generator.
  • the two camera modules may be camera modules supporting different maximum resolutions.
  • an automatic convergence control method using eye-tracking is characterized in that a three-dimensional sensor camera module detects eye movements of a human eye and eyes are monitored according to eye movements detected at a detection stage.
  • the apparatus may include a gaze region extraction step of extracting a gaze region on the display panel and a convergence adjustment step of controlling convergence based on the extracted region in the gaze region extraction step.
  • the convergence adjustment step may control the convergence based on the gaze region extracted in the gaze region extraction step.
  • the sensing step may include performing a calibration according to the movement of the eye detected by the sensing camera module.
  • Eye-tracking can be used to provide a technology that allows the user to automatically adjust the convergence on the display panel.
  • the convergence can be automatically adjusted just by looking at the area to adjust the convergence without any action, eliminating the hassle of adjusting the convergence and optimizing stereoscopically. I can recognize it.
  • FIG. 1 is a diagram illustrating an example of adjusting convergence in a conventional stereoscopic 3D imaging apparatus.
  • FIG. 2 is a diagram illustrating an apparatus for automatically adjusting convergence using eye-tracking according to an embodiment.
  • FIG. 3 is a block diagram of an apparatus for automatically adjusting convergence using eye-tracking according to an embodiment.
  • FIG. 4 is a diagram illustrating an image recognized by the right and left eyes of a stereoscopic image.
  • FIG. 5 is a diagram illustrating a display result of left and right eye images on a display panel.
  • FIG. 6 is a diagram illustrating an image after convergence is automatically adjusted according to an embodiment.
  • FIG. 7 is a diagram illustrating a calibration for accurately extracting a gaze area according to eye-tracking.
  • FIG. 8 is a flowchart illustrating a method for automatically adjusting convergence using eye-tracking according to an embodiment.
  • FIG. 1 is a diagram illustrating an example of adjusting convergence in a conventional stereoscopic 3D imaging apparatus.
  • the user in order to match the convergence of the stereoscopic 3D images, the user sets an area to be converged through the user interface or a specific region on the display panel of the apparatus. The convergence was adjusted by touching.
  • the gaze of the user since the gaze of the user is not fixed to an object or a specific area while the stereoscopic 3D image is being played back, it changes from time to time, so each time the user has to adjust the screen UI or touch the display panel to adjust the convergence. There was pain and discomfort.
  • the apparatus 100 for automatically adjusting convergence using eye-tracking may be a mobile device such as a binocular camera or a smartphone as a device for generating or playing a stereoscopic 3D image.
  • the convergence automatic adjustment device 100 is not limited thereto and includes all devices capable of generating or playing stereoscopic 3D images.
  • FIG. 2 illustrates a smartphone in which a video call camera module 110 is built in the front, and two camera modules 120 are built in the rear to capture an image corresponding to the left and right eye images.
  • the automatic convergence adjusting apparatus 100 using eye tracking includes a sensing camera module 110 and a convergence adjusting unit 150.
  • the sensing camera module 110 detects eye movement looking at the display panel of the device in which a stereoscopic 3D image is generated or reproduced.
  • Smartphones or mobile phones can play a role as a front camera for a video call, and in the case of a general binocular camera can be equipped with a sensing camera module in the front separately.
  • FIG. 4 is a diagram illustrating an image recognized by the right and left eyes of a stereoscopic image. As shown in FIG. 4, the images seen through both eyes are different, and through this different information, the distance difference to the object is recognized, thereby making the stereoscopic sense. At this time, convergence control should be performed according to which object is viewed as the center to make the stereoscopic recognition more effective. If the point of view of the user is not the point of convergence, it may cause eye fatigue or headache. Therefore, it is a very useful technique to immediately detect the movement of the eye and automatically adjust the convergence centered on the point where the eye looks.
  • the object is photographed with a slight horizontal difference like the human eye. It is called time difference.
  • the 3D image is captured by the human eye and the 3D image is reproduced in the brain, if the image does not match according to the left and right camera intervals and the size of the parallax of the left and right images toward the object, the eye becomes tired and headaches occur. Cause problems such as causing.
  • the parallax between two images taken with a binocular camera has a characteristic that the parallax increases from a distance to a near distance.
  • the left and right images are similar to each other, but because the objects in the distance and the objects in the short distance are mixed, a difference occurs in the matching point depending on the state of the background and the subjects.
  • FIG. 5 is a diagram illustrating a display result of left and right eye images on a display panel.
  • FIG. 5 shows the results of the case where the convergence is not matched and when the object A is centered, the center of the object B is adjusted.
  • FIG. 6 is a diagram illustrating an image after convergence is automatically adjusted according to an embodiment.
  • the left side of FIG. 6 is a case where the gaze area extraction unit 140 extracts the object A into the gaze area according to eye motion information detected through the front camera (corresponding to the detection camera module 110).
  • 150 shows that the convergence is adjusted by horizontally moving an image corresponding to the left and right eyes around the object A.
  • FIG. 6 illustrates a case in which the gaze extraction unit 140 extracts the object B as a gaze area according to eye motion information detected through the front camera (corresponding to the detection camera module 110).
  • the adjusting unit 150 adjusts the convergence by horizontally moving the image corresponding to the left and right eyes around the object B.
  • the automatic convergence adjusting device 100 may further include a gaze extraction unit 140.
  • the gaze extraction unit 140 extracts an area on the display panel that the eye is looking at according to the movement of the eye detected by the sensing camera module 110.
  • all conventionally known methods may be used to extract a spot that the pupil gazes by using the image of the eye photographed by the sensing camera.
  • the convergence adjuster 150 controls the convergence based on the gaze region extracted by the gaze region extractor 140.
  • the convergence automatic adjustment device 100 may further include a calibration unit 130.
  • the calibration unit 130 performs calibration according to the movement of the eyes detected by the sensing camera module. In order to more accurately extract the gaze area according to the eye movement detected by the detection camera module 110, that is, a specific position on the display panel of the device 100 that the eye is gazing, the gaze area extraction unit 140 is calibrated. This may be necessary.
  • FIG. 7 illustrates a calibration for accurately extracting a gaze area according to eye-tracking.
  • the calibration unit 130 displays a calibration to perform calibration. Cursors are output in order from the bottom right of the image to the bottom left, top left, and top right. However, the order of outputting the cursor and the point of outputting the cursor may be arbitrarily determined, but are not limited thereto.
  • the sensing camera module 110 detects (shoots) the movement of the eye tracking the point where the cursor is output.
  • the calibration unit 130 sets coordinates for each eye position by converting the position of the eye detected (photographed) by the sensing camera module 110 into coordinates.
  • the gaze area extractor 140 detects the eye movement and detects the eye position looking at a predetermined position on the display panel where the image is reproduced, and the calibrating unit 130 sets the calibrator 130. According to the coordinates, the eye gaze on the display panel can be accurately extracted.
  • the automatic convergence control device 100 may further include a stereoscopic image generation unit 160.
  • the stereoscopic image generator 160 receives images corresponding to the left and right eyes from the two camera modules 120, and applies the result of the convergence control process by the convergence control unit to the received left and right eyes images. Create an image.
  • the two camera modules 120 may be camera modules that support the same maximum resolution or support different maximum resolutions. That is, the two camera modules 120 may be the same camera module supporting the same resolution, but in this case, a high-resolution camera module is mainly used, which causes a high cost of manufacturing the binocular camera. Therefore, when manufacturing a binocular camera, the cost of using a camera module that supports different maximum resolution, that is, one using a relatively low cost low resolution camera module, and one using a relatively high resolution camera module Can reduce the cost.
  • the first camera module may support a relatively high resolution of 8M
  • the second camera module may be a camera module that supports a relatively low resolution of 3M.
  • the image captured by the first camera module may have a wider angle of view than the image photographed by the second camera module, thereby capturing a wider range.
  • the present invention is not limited thereto, and the two images may have the same angle of view or have an arbitrary angle of view by adjusting or designing an optical system.
  • the resolution of the output image includes the same or different output.
  • the resolutions of the output images can be matched with each other to output images of the same resolution.
  • the image may be output by photographing by making the size of the object substantially the same within the maximum resolution supported by each camera module.
  • the stereoscopic image generator 160 may generate an image cutting unit (not shown) to generate a stereoscopic 3D image. And a scaling unit (not shown).
  • the image cutting unit corresponds to left and right eye images, and two images respectively photographed from two camera modules 120 supporting different resolutions are input.
  • the image cutting unit (not shown) according to an exemplary embodiment cuts an image captured from at least a high resolution camera module among two input images according to an angle of view of an input image captured from a low resolution camera module.
  • the scaling unit may output the same to the convergence control unit 150 by matching the resolutions of two images whose angles of view are adjusted by the image cutting unit (not shown).
  • the output resolutions of the high resolution camera module and the low resolution camera module are the same, and the respective images are captured and the captured images are input. That is, two cameras with different angles of view, that is, the 8M high resolution camera module and the 3M low resolution camera module, capture the target object to generate a stereoscopic 3D image by using the same output resolution, and each of the recorded images (Not shown).
  • the target objects of the image input from the high-resolution camera module having a wide angle of view are larger than the same target objects of the image captured from the low resolution camera module. Becomes small.
  • the image cutting unit (not shown) first crops a part of an image input from a high resolution camera module having a wide angle of view, that is, a portion where the angle of view coincides with an image input from a low resolution camera module.
  • the convergence adjusting unit 150 generates a stereoscopic 3D image by adjusting the convergence of both images having the same angle of view.
  • the scaling unit (not shown) scales a portion of the image input from the high resolution camera module cut according to the angle of view of the image input from the low resolution camera module so that the size of the image is relatively large. Match the resolution of both images to match the size of the image.
  • the size of the target object to generate a three-dimensional 3D image is roughly matched by two cameras of the 8M high resolution camera module and the 3M low resolution camera module from a high resolution camera module having a wide angle of view
  • the size of the captured image is larger than the size of the image captured from the low resolution camera module.
  • an image cutting unit crops a portion of an image captured by a high resolution camera module that matches an angle of view of an image captured by the low resolution camera module.
  • the scaling unit (not shown) first determines whether to scale the cropped image of the high resolution camera module. Because each image photographed through the high resolution camera module and the low resolution camera module is photographed so as to roughly match the size of the target object to generate a stereoscopic 3D image, the size of the cut image is input from the low resolution camera module. Will be the same as the video.
  • the image of the cut-off high resolution camera module and the image of the low resolution camera module have the same size, and the objects do not need to be scaled.
  • the scaling unit (not shown) performs scaling to match the resolution of both images.
  • the convergence control unit 150 controls convergence control of two images whose angle of view and resolution are matched according to an input indication value.
  • the stereoscopic image generation unit 160 outputs an image corresponding to the result of the convergence control process.
  • the automatic convergence adjustment device 100 may further include a stereoscopic image playback unit 170.
  • the stereoscopic image reproducing unit 170 reproduces the stereoscopic 3D image generated in advance, and if the convergence is automatically controlled by the convergence adjusting unit while the stereoscopic 3D image is reproduced, the stereoscopic 3D image is reproduced to match the processing result. Adjust the output.
  • step S100 is a flowchart illustrating a method for automatically adjusting convergence using eye-tracking according to an embodiment.
  • the sensing camera module detects the movement of a human eye (step S100).
  • the detecting step (S100) may include performing a calibration according to the movement of the eye detected by the sensing camera module. That is, calibration is performed to more accurately extract the gaze area according to the eye movement detected by the detection camera module 110, that is, a specific position on the display panel of the device 100 that the eye is gazing at the gaze area extractor 140. Calibration may be necessary.
  • the convergence automatic adjustment device 100 may further include a calibration unit 130. The calibration unit 130 performs calibration according to the movement of the eyes detected by the sensing camera module.
  • FIG. 7 illustrates a calibration for accurately extracting a gaze area according to eye-tracking.
  • the calibration unit 130 displays a calibration to perform calibration. Cursors are output in order from the bottom right of the image to the bottom left, top left, and top right. However, the order of outputting the cursor and the point of outputting the cursor may be arbitrarily determined, but are not limited thereto.
  • the sensing camera module 110 detects (shoots) the movement of the eye tracking the point where the cursor is output.
  • the calibration unit 130 sets coordinates for each eye position by converting the position of the eye detected (photographed) by the sensing camera module 110 into coordinates.
  • step S100 the image being generated by the stereoscopic image generator 160 or reproduced by the stereoscopic image reproducing unit 170 is output.
  • the stereoscopic image generation unit 160 receives images corresponding to the left and right eyes from the two camera modules 120 and outputs the input images to the display.
  • the two camera modules 120 may be the same camera module that supports the same resolution, but in this case, both of them use the same high resolution camera module, which leads to a high cost when producing a binocular camera. Therefore, when manufacturing a binocular camera to solve this problem, it is possible to use a low-resolution camera module of a relatively low cost of any one of the two camera modules.
  • a first camera module of two camera modules may support a relatively high resolution of 8M
  • the second camera module may be a camera module supporting a resolution of 3M, which is a relatively low cost.
  • the image captured by the first camera module may have a wider angle of view than the image photographed by the second camera module, thereby capturing a wider range.
  • the resolution of the output image includes the same or different output. That is, although the maximum resolution of the camera module that supports relatively high resolution and the camera module that supports low resolution differs from each other, the resolutions of the output images can be matched with each other to output images of the same resolution.
  • the image when capturing, the image may be output by photographing by making the object size approximately the same within the range of the maximum resolution supported by each camera module.
  • the image cutting unit (not shown) of the stereoscopic image generator 160 corresponds to the left and right eye images, and receives two images respectively captured by two camera modules 120 supporting different resolutions.
  • the image cutting unit (not shown) cuts an image photographed from at least a high resolution camera module among two input images according to an angle of view of an input image photographed from a low resolution camera module.
  • the scaling unit (not shown) of the stereoscopic image generating unit 160 outputs by matching the resolution of the two images with the angle of view at the image cutting unit (not shown).
  • the output resolutions of the high resolution camera module and the low resolution camera module are the same, and the respective images are captured and the captured images are input. That is, two cameras with different angles of view, that is, the 8M high resolution camera module and the 3M low resolution camera module, capture the target object to generate a stereoscopic 3D image by using the same output resolution, and each of the recorded images (Not shown).
  • the target objects of the image input from the high-resolution camera module having a wide angle of view are larger than the same target objects of the image captured from the low resolution camera module. Becomes small.
  • the image cutting unit (not shown) first crops a part of an image input from a high resolution camera module having a wide angle of view, that is, a portion where the angle of view coincides with an image input from a low resolution camera module.
  • the scaling unit (not shown) scales a portion of the image input from the high resolution camera module cut according to the angle of view of the image input from the low resolution camera module so that the size of the image is relatively large. Match the resolutions of both images to match the size of the image and output them to the display.
  • the size of the target object to generate a three-dimensional 3D image is roughly matched by two cameras of the 8M high resolution camera module and the 3M low resolution camera module from a high resolution camera module having a wide angle of view
  • the size of the captured image is larger than the size of the image captured from the low resolution camera module.
  • an image cutting unit crops a portion of an image captured by a high resolution camera module that matches an angle of view of an image captured by the low resolution camera module.
  • the scaling unit (not shown) first determines whether to scale the cropped image of the high resolution camera module. Because each image photographed through the high resolution camera module and the low resolution camera module is photographed so as to roughly match the size of the target object to generate a stereoscopic 3D image, the size of the cut image is input from the low resolution camera module. Will be the same as the video.
  • the image of the cut-off high resolution camera module and the image of the low resolution camera module have the same size, and the objects do not need to be scaled.
  • the scaling unit (not shown) performs scaling to match the resolution of both images.
  • the stereoscopic image reproducing unit 170 outputs and reproduces the stereoscopic 3D image previously generated on the display.
  • the sensing step detects the movement of the eye looking at the display panel of the device 100 in which the stereoscopic 3D image is being generated or reproduced by the sensing camera module 110 to capture a captured image in the gaze extraction unit. Send it.
  • step S100 the gaze area on the display panel on which the eye is looking is extracted (step S200).
  • the gaze extraction unit 140 analyzes an image sensed and transmitted by the sensing camera module 110 and extracts an area on the display panel that the eye gazes as the eye moves.
  • the detection camera module 110 detects the eye movement and detects the eye position looking at a predetermined position on the display panel where the image is reproduced.
  • the unit 140 may accurately extract an area of the eye on the display panel according to the coordinates set by the calibration unit 130.
  • step S300 the convergence is adjusted based on the region extracted in the gaze region extraction step (step S200) (step S300).
  • the convergence adjustment step may adjust the convergence by horizontally or vertically moving the image corresponding to the left and right eyes based on the gaze region extracted in the gaze region extraction step.
  • the convergence is adjusted by horizontally or vertically moving both images scaled and output by the scaling unit (not shown).
  • the gaze area extraction unit 140 moves the object A to the gaze area according to eye motion information detected through the front camera (corresponding to the sensing camera module 110).
  • the convergence adjusting unit 150 adjusts the convergence by horizontally or vertically moving the image corresponding to the left and right eyes around the object A.
  • FIG. 6 illustrates a case in which the gaze extraction unit 140 extracts the object B as a gaze area according to eye motion information detected through the front camera (corresponding to the detection camera module 110).
  • the adjusting unit 150 shows that the convergence is adjusted by horizontally or vertically moving the image corresponding to the left and right eyes with respect to the object B.
  • step S300 the convergence outputs the stereoscopic 3D image adjusted in the adjusting step (step S300) (step S400).
  • the stereoscopic image generating unit 160 or the stereoscopic image reproducing unit 170 generates or reproduces the final stereoscopic 3D image in which the convergence is adjusted.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

Disclosed are an apparatus and method which extract a region on a display panel on which the eyes are fixed through a camera module that is mounted in front of a binocular camera and senses movement of the eyes, when a stereoscopic 3D video is generated or reproduced using the binocular camera; and a convergence is automatically controlled on the basis of the extracted region. When users generate or reproduce a stereoscopic 3D video, a convergence to a region for aligning a convergence can be automatically controlled without a separate operation, and with just visual inspection, thereby removing inconveniences when controlling a convergence, and enabling optimal recognition of a three-dimensional structure.

Description

아이 트래킹을 이용한 컨버전스 자동 조절 장치 및 그 방법Convergence automatic control device using eye tracking and method

양안 카메라를 이용하여 입체 3D 영상을 생성하거나 재생할 때, 눈의 움직임을 감지하여(Eye-tracking) 컨버전스를 자동으로 조절하는 장치 및 방법에 관한 것으로, 보다 상세하게는 양안 카메라의 전방에 눈의 움직임을 감지하는 카메라 모듈이 장착되어 그 카메라 모듈을 통해 눈이 주시하고 있는 디스플레이 패널 상의 영역을 추출하고 그 추출된 영역을 기준으로 컨버전스를 자동으로 조절하는 기술에 관한 것이다.The present invention relates to an apparatus and method for automatically adjusting convergence by detecting eye movement when generating or playing a stereoscopic 3D image using a binocular camera, and more particularly, to an eye movement in front of the binocular camera. The present invention relates to a technology for detecting a region of a display panel on which the eye is looking through the camera module and automatically adjusting convergence based on the extracted region.

양안 입체 영상에서는 카메라 시스템을 구성하는 좌, 우 두 대의 양 카메라모듈이 동일한 대상물을 촬영하고 있어도, 사람의 눈과 같이 그 대상물은 약간의 수평적 차이를 가지고 촬영되는데 이때 발생하는 좌우 영상의 차이를 시차라 한다. 입체영상으로 촬영한 것을 사람의 눈으로 감지하여 두뇌에서 입체감을 재현할 때, 좌, 우 카메라 간격과 물체를 향한 좌,우 영상의 시차 크기에 따라 영상이 매칭되지 않는 경우 눈이 피로해지고 두통을 일으키는 등의 문제를 발생하게 된다.In the binocular stereoscopic image, although the two left and right camera modules of the camera system are photographing the same object, the object is photographed with a slight horizontal difference like the human eye. It is called time difference. When the 3D image is captured by the human eye and the 3D image is reproduced in the brain, if the image does not match according to the left and right camera intervals and the size of the parallax of the left and right images toward the object, the eye becomes tired and headaches occur. Cause problems such as causing.

만약, 한쪽 카메라로 두 장을 촬영하면 두 영상을 완전히 일치시킬 수 있으나 두 장의 이미지 간에 시차가 없으므로 입체감을 느낄 수 없게 된다. 그러나, 일정하게 이격되어 있는 양안 카메라로 임의의 지점을 촬영하는 경우에는 좌우 영상은 주시거리에 반비례하게 서로 겹쳐지지 않고 시차가 커지게 된다. 즉, 양안 카메라로 촬영한 두 영상 사이의 시차는 원거리에서 근거리로 갈수록 시차가 커지게 되는 특성을 갖는 것이다. 좌우 영상은 서로 닮은 영상이지만 원거리에 있는 물체와 근거리에 있는 물체들이 혼재한 형태이기 때문에 배경과 피사체들이 놓인 상태에 따라 일치점에 차이가 발생하게 된다.If two cameras are taken by one camera, the two images can be perfectly matched, but there is no parallax between the two images, so the stereoscopic feeling cannot be felt. However, when photographing an arbitrary point with a binocular camera that is regularly spaced apart, the left and right images do not overlap each other in inverse proportion to the viewing distance, and the parallax increases. In other words, the parallax between two images taken with a binocular camera has a characteristic that the parallax increases from a distance to a near distance. The left and right images are similar to each other, but because the objects in the distance and the objects in the short distance are mixed, a difference occurs in the matching point depending on the state of the background and the subjects.

따라서, 어느 하나의 기준이 되는 대상 물체나 주시영역(depth = 0인 지점)을 중심으로 양 영상을 좌우 또는 상하로 이동하여 주시점을 일치시켜 컨버전스를 조절하여 입체 3D 영상을 생성하게 된다. 그런데, 기존에는 이와 같이 컨버전스를 조절하기 위해서 입체 3D 영상이 재생되고 있는 디스플레이 패널 상의 특정 물체나 영역을 터치하거나 수동으로 UI를 조작하여야 했다. 즉, 사용자는 입체 3D의 컨버전스를 조절하기 위해서 매번 직접 UI를 조작하거나 패널을 터치하는 방식으로 컨버전스를 조절할 수 밖에 없어 매우 번거롭고 불편하였다.Accordingly, the stereoscopic 3D image is generated by adjusting the convergence by matching the gaze points by moving both images left and right or up and down about a target object or gaze area (a point where depth = 0) as a reference. However, in the past, in order to adjust the convergence, it was necessary to touch a specific object or an area on the display panel on which a 3D 3D image is being reproduced or manually manipulate the UI. In other words, the user has no choice but to adjust the convergence by directly manipulating the UI or touching the panel each time in order to adjust the convergence of stereoscopic 3D.

아이 트래킹(Eye-tracking)을 이용하여 디스플레이 패널 상에서 컨버전스를 자동으로 조절할 수 있는 기술이 제시된다. 즉, 사용자들이 입체 3D 영상을 생성하거나 재생할 때 UI를 조작하거나 패널을 터치하는 것과 같이 별도의 동작을 할 필요없이 컨버전스를 맞추기 위한 영역을 눈으로 보는 것만으로도 컨버전스가 자동으로 조절되어 3D 입체 영상이 생성되거나 재생될 수 있는 기술을 제시하고자 한다.A technique for automatically adjusting convergence on a display panel using eye tracking is presented. In other words, when users create or play stereoscopic 3D images, the convergence is automatically adjusted and the 3D stereoscopic images are automatically adjusted just by looking at the area for the convergence without the need for a separate operation such as manipulating the UI or touching the panel. It is intended to present a technique that can be created or reproduced.

일 양상에 따른 아이 트래킹(Eye-tracking)을 이용한 컨버전스 자동 제어 장치는, 입체 3D 영상이 생성되거나 재생되는 장치의 디스플레이 패널을 주시하는 눈의 움직임을 감지하는 감지 카메라 모듈과 감지 카메라 모듈로부터 감지된 눈의 움직임에 따라 컨버전스를 자동으로 제어처리하는 컨버전스조절부를 포함한다.According to an aspect, an automatic convergence control apparatus using eye-tracking may include a sensing camera module and a sensing camera module configured to detect eye movement looking at a display panel of a device for generating or playing a stereoscopic 3D image. It includes a convergence control unit for automatically controlling the convergence according to the movement of the eye.

또한, 추가적 양상에 따르면, 감지 카메라 모듈에서 감지된 눈의 움직임에 따라 눈이 주시하고 있는 디스플레이 패널 상의 영역을 추출하는 주시영역추출부를 더 포함할 수 있다.According to a further aspect, the apparatus may further include a gaze extractor configured to extract an area on the display panel that the eye gazes according to the movement of the eye sensed by the sensing camera module.

또한, 컨버전스 조절부는, 주시영역추출부에서 추출된 주시 영역을 기준으로 컨버전스를 제어 처리한다.In addition, the convergence adjustment unit controls the convergence based on the gaze region extracted by the gaze region extraction unit.

또한, 추가적 양상에 따르면, 감지 카메라 모듈에서 감지된 눈의 움직임에 따라 캘리브레이션(calibration)을 수행하는 캘리브레이션부를 더 포함할 수 있다.According to a further aspect, the apparatus may further include a calibration unit configured to perform calibration according to the movement of the eye detected by the sensing camera module.

또한, 추가적 양상에 따르면, 두 대의 카메라 모듈로부터 좌안 및 우안에 대응되는 영상을 입력받고, 그 입력받은 좌안 및 우안 영상으로 컨버전스 조절부에 의해 컨버전스 제어 처리된 결과를 적용하여 입체 3D 영상을 생성하는 입체영상생성부를 더 포함할 수 있다.In addition, according to an additional aspect, and receives the image corresponding to the left and right eyes from the two camera modules, to generate the stereoscopic 3D image by applying the result of the convergence control processing by the convergence control unit to the received left and right eyes image The apparatus may further include a stereoscopic image generator.

또한, 다른 양상에 따르면, 미리 생성되어 있는 입체 3D 영상을 재생하고, 그 입체 3D 영상이 재생되는 동안 컨버전스 조절부에 의해 컨버전스가 자동 제어 처리되면 그 처리 결과에 맞도록 재생되는 입체 3D 영상을 조절하는 입체영상재생부를 더 포함할 수 있다.In addition, according to another aspect, the reproduction of the stereoscopic 3D image generated in advance, and if the convergence is automatically controlled by the convergence control unit while the stereoscopic 3D image is reproduced, the stereoscopic 3D image is adjusted to match the processing result It may further include a stereoscopic image playback unit.

또한, 추가적인 양상에 따르면, 두 대의 카메라 모듈은, 서로 다른 최대 해상도를 지원하는 카메라 모듈일 수 있다.In addition, according to an additional aspect, the two camera modules may be camera modules supporting different maximum resolutions.

다른 양상에 따른 아이 트래킹(Eye-tracking)을 이용한 컨버전스 자동 제어 방법은, 입체 감지 카메라 모듈이 사람의 눈의 움직임을 감지하는 감지단계와 감지단계에서 감지된 눈의 움직임에 따라 눈이 주시하고 있는 디스플레이 패널 상의 주시영역을 추출하는 주시 영역 추출단계 및 주시 영역 추출단계에서 추출된 영역을 기준으로 컨버전스를 제어 처리하는 컨버전스 조절단계를 포함할 수 있다.According to another aspect of the present invention, an automatic convergence control method using eye-tracking is characterized in that a three-dimensional sensor camera module detects eye movements of a human eye and eyes are monitored according to eye movements detected at a detection stage. The apparatus may include a gaze region extraction step of extracting a gaze region on the display panel and a convergence adjustment step of controlling convergence based on the extracted region in the gaze region extraction step.

또한, 컨버전스 조절단계는, 주시 영역 추출단계에서 추출된 주시 영역을 기준으로 컨버전스를 제어 처리할 수 있다.The convergence adjustment step may control the convergence based on the gaze region extracted in the gaze region extraction step.

또한, 감지단계는, 감지 카메라 모듈에서 감지된 눈의 움직임에 따라 캘리브레이션(calibration)을 수행하는 단계를 포함할 수 있다.In addition, the sensing step may include performing a calibration according to the movement of the eye detected by the sensing camera module.

아이 트래킹(Eye-tracking)을 이용하여 사용자가 디스플레이 패널상에서 컨버전스를 자동으로 조절할 수 있는 기술을 제공할 수 있다. 즉, 사용자들이 입체 3D 영상을 생성하거나 재생할 때 컨버전스를 맞추기 위한 영역을 별도의 동작 없이 눈으로 보는 것만으로도 컨버전스가 자동으로 조절될 수 있도록 하여 컨버전스를 조절할 때의 번거로움을 없애고 입체를 최적으로 인식할 수 있다.Eye-tracking can be used to provide a technology that allows the user to automatically adjust the convergence on the display panel. In other words, when users create or play stereoscopic 3D images, the convergence can be automatically adjusted just by looking at the area to adjust the convergence without any action, eliminating the hassle of adjusting the convergence and optimizing stereoscopically. I can recognize it.

도 1은 종래의 입체 3D 영상 장치에서 컨버전스를 조절하는 예를 나타낸 도면이다.1 is a diagram illustrating an example of adjusting convergence in a conventional stereoscopic 3D imaging apparatus.

도 2는 일실시예에 따른 아이 트래킹(Eye-tracking)을 이용한 컨버전스 자동 조절 장치를 나타낸 도면이다.2 is a diagram illustrating an apparatus for automatically adjusting convergence using eye-tracking according to an embodiment.

도 3는 일 실시예에 따라 아이 트래킹(Eye-tracking)을 이용한 컨버전스 자동 조절 장치의 블럭도이다.3 is a block diagram of an apparatus for automatically adjusting convergence using eye-tracking according to an embodiment.

도 4는 입체에 대해 오른쪽과 왼쪽 눈이 인식하는 영상을 나타낸 도면이다.4 is a diagram illustrating an image recognized by the right and left eyes of a stereoscopic image.

도 5는 디스플레이 패널 상에 좌안, 우안 영상의 디스플레이 결과를 나타낸 도면이다.5 is a diagram illustrating a display result of left and right eye images on a display panel.

도 6는 일실시예에 따라 컨버전스가 자동으로 조절된 후의 영상을 나타낸 도면이다.6 is a diagram illustrating an image after convergence is automatically adjusted according to an embodiment.

도 7는 아이 트래킹(Eye-tracking)에 따른 주시영역을 정확히 추출하기 위한 캘리브레이션을 수행하는 것을 나타낸 도면이다..7 is a diagram illustrating a calibration for accurately extracting a gaze area according to eye-tracking.

도 8은 일 실시예에 따른 아이 트래킹(Eye-tracking)을 이용한 컨버전스 자동 조절 방법의 흐름도이다.8 is a flowchart illustrating a method for automatically adjusting convergence using eye-tracking according to an embodiment.

기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Specific details of other embodiments are included in the detailed description and the drawings. Advantages and features of the present invention and methods for achieving them will be apparent with reference to the embodiments described below in detail with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but can be implemented in various different forms, and only the embodiments make the disclosure of the present invention complete, and the general knowledge in the art to which the present invention belongs. It is provided to fully inform the person having the scope of the invention, which is defined only by the scope of the claims. Like reference numerals refer to like elements throughout.

이하, 실시예들에 의해 아이 트래킹(Eye-tracking)을 이용한 컨버전스 자동 조절 장치 및 그 방법을 설명하기 위하여 도면들을 참고하여 상세히 설명하도록 한다.Hereinafter, an apparatus for automatically adjusting convergence using eye-tracking and a method thereof according to embodiments will be described in detail with reference to the accompanying drawings.

도 1은 종래의 입체 3D 영상 장치에서 컨버전스를 조절하는 예를 나타낸 도면이다. 도 1에 도시된 바와 같이, 종래에는 입체 3D 영상을 생성하거나 재생하는 장치에서 그 입체 3D 영상의 컨버전스를 맞추기 위해서는 사용자가 User Interface 를 통해 컨버전스를 맞출 영역을 설정해 주거나 그 장치의 디스플레이 패널 상의 특정 영역을 터치하는 것에 의해 컨버전스를 조절하였다. 그러나, 입체 3D 영상이 재생되는 동안에 사용자들의 시선은 한 물체나 특정 영역에 고정되는 것이 아니라 수시로 변경되기 때문에 이때마다 사용자들은 매번 화면 UI를 조정하거나 디스플레이 패널을 터치하여 컨버전스를 조절해야 했기 때문에 많은 번거로움과 불편함이 있었다.1 is a diagram illustrating an example of adjusting convergence in a conventional stereoscopic 3D imaging apparatus. As shown in FIG. 1, in the conventional apparatus for generating or playing stereoscopic 3D images, in order to match the convergence of the stereoscopic 3D images, the user sets an area to be converged through the user interface or a specific region on the display panel of the apparatus. The convergence was adjusted by touching. However, since the gaze of the user is not fixed to an object or a specific area while the stereoscopic 3D image is being played back, it changes from time to time, so each time the user has to adjust the screen UI or touch the display panel to adjust the convergence. There was pain and discomfort.

도 2는 일실시예에 따른 아이 트래킹(Eye-tracking)을 이용한 컨버전스 자동 조절 장치를 나타낸 도면이다. 도 2에 도시된 바와 같이, 일 실시예에 따른 Eye-tracking을 이용한 컨버전스 자동 조절 장치(100)는 입체 3D 영상을 생성하거나 재생하는 장치로서 양안 카메라나, 스마트폰 등의 모바일 장치를 예로 들 수 있다. 다만, 그 컨버전스 자동 조절 장치(100)는 이에 한정되지 아니하고 입체 3D 영상을 생성하거나 재생할 수 있는 모든 장치를 포함한다. 2 is a diagram illustrating an apparatus for automatically adjusting convergence using eye-tracking according to an embodiment. As shown in FIG. 2, the apparatus 100 for automatically adjusting convergence using eye-tracking according to an embodiment may be a mobile device such as a binocular camera or a smartphone as a device for generating or playing a stereoscopic 3D image. have. However, the convergence automatic adjustment device 100 is not limited thereto and includes all devices capable of generating or playing stereoscopic 3D images.

도 2는 전방에 화상 통화용 카메라 모듈(110)이 내장되어 있는 스마트폰을 나타내었으며, 후방에는 좌안 및 우안 영상에 대응되는 영상을 촬영할 수 있는 두 대의 카메라 모듈(120)이 내장되어 있다.2 illustrates a smartphone in which a video call camera module 110 is built in the front, and two camera modules 120 are built in the rear to capture an image corresponding to the left and right eye images.

도 3는 일 실시예에 따라 아이 트래킹(Eye-tracking)을 이용한 컨버전스 자동 조절 장치의 블럭도이다. 일 실시예에 따라 아이 트래킹(Eye-tracking)을 이용한 컨버전스 자동 조절 장치(100)는 감지 카메라 모듈(110)과 컨버전스 조절부(150)를 포함한다. 3 is a block diagram of an apparatus for automatically adjusting convergence using eye-tracking according to an embodiment. According to an embodiment, the automatic convergence adjusting apparatus 100 using eye tracking includes a sensing camera module 110 and a convergence adjusting unit 150.

감지 카메라 모듈(110)은 입체 3D 영상이 생성되거나 재생되는 장치의 디스플레이 패널을 주시하는 눈의 움직임을 감지한다. 스마트폰이나 모바일폰은 화상 통화를 위한 전방 카메라가 그 역할을 수행할 수 있으며, 일반 양안식 카메라의 경우에는 별도로 전방에 감지 카메라 모듈을 내장할 수 있다.The sensing camera module 110 detects eye movement looking at the display panel of the device in which a stereoscopic 3D image is generated or reproduced. Smartphones or mobile phones can play a role as a front camera for a video call, and in the case of a general binocular camera can be equipped with a sensing camera module in the front separately.

컨버전스 조절부(150)는 위의 감지 카메라 모듈(110)로부터 감지된 눈의 움직임에 따라 컨버전스를 자동으로 제어 처리한다. 컨버전스를 조절한다는 것은 좌안 및 우안 영상 중 어느 하나의 기준이 되는 대상 물체나 주시영역(depth = 0인 지점)을 중심으로 양 영상을 좌우 또는 상하로 이동시켜 주시점을 일치시키는 것을 말한다.The convergence adjuster 150 automatically controls the convergence according to the movement of the eye detected from the sensing camera module 110. To adjust the convergence means to match the gaze points by moving both images left and right or up and down about a target object or gaze area (a point where depth = 0) as one of the left and right eye images.

도 4는 입체에 대해 오른쪽과 왼쪽 눈이 인식하는 영상을 나타낸 도면이다. 도 4에 나타낸 바와 같이, 양쪽 눈을 통해 보이는 영상이 각각 다르고, 이 다른 정보를 통해 물체까지의 거리 차이를 인식하게 되어 입체를 느끼게 된다. 이때, 어떤 물체를 중심으로 보느냐에 따라 컨버전스 제어(Convergence control)가 이루어져야 입체 인식을 더욱 효과적으로 할 수 있다. 만약, 사용자가 보는 지점이 컨버전스가 되어 있는 지점이 아닌 경우에는 눈의 피로나 두통을 유발할 수 있다. 따라서, 눈의 움직임을 즉각적으로 감지하여 눈이 주시하는 지점을 중심으로 컨버전스를 자동으로 조절하는 것은 매우 유용한 기술이라 할 수 있다.4 is a diagram illustrating an image recognized by the right and left eyes of a stereoscopic image. As shown in FIG. 4, the images seen through both eyes are different, and through this different information, the distance difference to the object is recognized, thereby making the stereoscopic sense. At this time, convergence control should be performed according to which object is viewed as the center to make the stereoscopic recognition more effective. If the point of view of the user is not the point of convergence, it may cause eye fatigue or headache. Therefore, it is a very useful technique to immediately detect the movement of the eye and automatically adjust the convergence centered on the point where the eye looks.

양안 입체 영상에서는 카메라 시스템을 구성하는 좌, 우 두 대의 양 카메라모듈이 동일한 대상물을 촬영하고 있어도, 사람의 눈과 같이 그 대상물은 약간의 수평적 차이를 가지고 촬영되는데 이때 발생하는 좌우 영상의 차이를 시차라 한다. 입체영상으로 촬영한 것을 사람의 눈으로 감지하여 두뇌에서 입체감을 재현할 때, 좌, 우 카메라 간격과 물체를 향한 좌,우 영상의 시차 크기에 따라 영상이 매칭되지 않는 경우 눈이 피로해지고 두통을 일으키는 등의 문제를 발생하게 된다. In the binocular stereoscopic image, although the two left and right camera modules of the camera system are photographing the same object, the object is photographed with a slight horizontal difference like the human eye. It is called time difference. When the 3D image is captured by the human eye and the 3D image is reproduced in the brain, if the image does not match according to the left and right camera intervals and the size of the parallax of the left and right images toward the object, the eye becomes tired and headaches occur. Cause problems such as causing.

양안 카메라로 촬영한 두 영상 사이의 시차는 원거리에서 근거리로 갈수록 시차가 커지게 되는 특성을 갖는 것이다. 좌우 영상은 서로 닮은 영상이지만 원거리에 있는 물체와 근거리에 있는 물체들이 혼재한 형태이기 때문에 배경과 피사체들이 놓인 상태에 따라 일치점에 차이가 발생하게 된다. 따라서, 어느 하나의 기준이 되는 대상 물체나 주시영역(depth = 0인 지점)을 중심으로 양 영상을 좌우 또는 상하로 이동하여 주시점을 일치시켜 컨버전스를 조절하여 입체 3D 영상을 생성하게 된다.The parallax between two images taken with a binocular camera has a characteristic that the parallax increases from a distance to a near distance. The left and right images are similar to each other, but because the objects in the distance and the objects in the short distance are mixed, a difference occurs in the matching point depending on the state of the background and the subjects. Accordingly, the stereoscopic 3D image is generated by adjusting the convergence by matching the gaze points by moving both images left and right or up and down about a target object or gaze area (a point where depth = 0) as a reference.

도 5는 디스플레이 패널 상에 좌안, 우안 영상의 디스플레이 결과를 나타낸 도면이다. 도 5는 이와 같이 컨버전스가 맞지 않는 경우와 물체 A를 중심으로 맞춘 경우, 물체 B를 중심으로 맞춘 경우의 결과를 나타낸 것이다.5 is a diagram illustrating a display result of left and right eye images on a display panel. FIG. 5 shows the results of the case where the convergence is not matched and when the object A is centered, the center of the object B is adjusted.

도 6는 일실시예에 따라 컨버전스가 자동으로 조절된 후의 영상을 나타낸 도면이다. 도 6의 좌측은 전방 카메라(감지 카메라 모듈(110)에 대응됨)를 통해 감지된 눈의 움직임 정보에 따라 주시 영역 추출부(140)가 물체 A를 주시영역으로 추출한 경우로서, 컨버전스 조절부(150)는 물체 A를 중심으로 좌안 및 우안에 대응되는 영상을 수평이동하여 컨버전스를 조절하는 것을 나타낸 것이다. 한편, 도 6의 우측 도면은 전방 카메라(감지 카메라 모듈(110)에 대응됨)를 통해 감지된 눈의 움직임 정보에 따라 주시 영역 추출부(140)가 물체 B를 주시 영역으로 추출한 경우로서, 컨버전스 조절부(150)는 물체 B를 중심으로 좌안 및 우안에 대응되는 영상을 수평이동하여 컨버전스를 조절한 것을 나타낸 것이다.6 is a diagram illustrating an image after convergence is automatically adjusted according to an embodiment. The left side of FIG. 6 is a case where the gaze area extraction unit 140 extracts the object A into the gaze area according to eye motion information detected through the front camera (corresponding to the detection camera module 110). 150 shows that the convergence is adjusted by horizontally moving an image corresponding to the left and right eyes around the object A. FIG. 6 illustrates a case in which the gaze extraction unit 140 extracts the object B as a gaze area according to eye motion information detected through the front camera (corresponding to the detection camera module 110). The adjusting unit 150 adjusts the convergence by horizontally moving the image corresponding to the left and right eyes around the object B. FIG.

한편, 도 3을 참조하여 추가적인 실시예를 보면, 컨버전스 자동 조절 장치(100)는 주시영역추출부(140)를 더 포함할 수 있다. 주시영역추출부(140)는 감지 카메라 모듈(110)에서 감지된 눈의 움직임에 따라 눈이 주시하고 있는 디스플레이 패널 상의 영역을 추출한다. 이때, 감지카메라에서 촬영된 눈의 이미지를 이용하여 눈동자가 주시하고 있는 지점을 추출하기 위해 기존에 통상적으로 알려진 모든 방법이 이용될 수 있다.Meanwhile, referring to FIG. 3, the automatic convergence adjusting device 100 may further include a gaze extraction unit 140. The gaze extraction unit 140 extracts an area on the display panel that the eye is looking at according to the movement of the eye detected by the sensing camera module 110. In this case, all conventionally known methods may be used to extract a spot that the pupil gazes by using the image of the eye photographed by the sensing camera.

그리고, 컨버전스 조절부(150)는 주시영역추출부(140)에서 추출된 주시 영역을 기준으로 컨버전스를 제어처리한다.In addition, the convergence adjuster 150 controls the convergence based on the gaze region extracted by the gaze region extractor 140.

또한, 컨버전스 자동 조절 장치(100)는 캘리브레이션부(130)를 더 포함할 수 있다. 캘리브레이션부(130)는 감지 카메라 모듈에서 감지된 눈의 움직임에 따라 캘리브레이션(calibration)을 수행한다. 감지 카메라 모듈(110)에서 감지한 눈의 움직임에 따른 주시 영역, 즉 눈이 주시하고 있는 장치(100) 디스플레이 패널 상의 특정 위치를 주시 영역 추출부(140)에서 보다 정확히 추출하기 위해서 캘리브레이션(calibration)이 필요할 수 있다. In addition, the convergence automatic adjustment device 100 may further include a calibration unit 130. The calibration unit 130 performs calibration according to the movement of the eyes detected by the sensing camera module. In order to more accurately extract the gaze area according to the eye movement detected by the detection camera module 110, that is, a specific position on the display panel of the device 100 that the eye is gazing, the gaze area extraction unit 140 is calibrated. This may be necessary.

예를 들어, 도 7은 아이 트래킹(Eye-tracking)에 따른 주시영역을 정확히 추출하기 위한 캘리브레이션을 수행하는 것을 나타낸 도면으로서, 도 7을 참조하면, 캘리브레이션을 수행하기 위해 캘리브레이션부(130)는 디스플레이 상의 우측 하단에서부터 좌측 하단, 좌측 상단, 우측 상단에 순차적으로 커서를 출력한다. 단, 커서를 출력하는 순서와 출력하는 지점은 임의로 정할 수 있으며, 이에 한정되지 않는다. 그러면, 감지 카메라 모듈(110)은 커서가 출력된 지점을 추적하는 눈의 움직임을 감지(촬영)한다. 캘리브레이션부(130)는 감지 카메라 모듈(110)에서 감지(촬영)된 눈의 위치를 좌표로 변환하여 눈의 위치별로 좌표를 설정한다.For example, FIG. 7 illustrates a calibration for accurately extracting a gaze area according to eye-tracking. Referring to FIG. 7, the calibration unit 130 displays a calibration to perform calibration. Cursors are output in order from the bottom right of the image to the bottom left, top left, and top right. However, the order of outputting the cursor and the point of outputting the cursor may be arbitrarily determined, but are not limited thereto. Then, the sensing camera module 110 detects (shoots) the movement of the eye tracking the point where the cursor is output. The calibration unit 130 sets coordinates for each eye position by converting the position of the eye detected (photographed) by the sensing camera module 110 into coordinates.

따라서, 주시 영역 추출부(140)는 감지 카메라 모듈(110)이 눈의 움직임을 감지하여 영상이 재생되는 디스플레이 패널 상의 소정의 위치를 주시하는 눈의 위치를 감지하면 캘리브레이션부(130)에서 설정해 놓은 좌표에 따라 디스플레이 패널 상의 눈이 주시하고 있는 영역을 정확하게 추출할 수 있다.Therefore, the gaze area extractor 140 detects the eye movement and detects the eye position looking at a predetermined position on the display panel where the image is reproduced, and the calibrating unit 130 sets the calibrator 130. According to the coordinates, the eye gaze on the display panel can be accurately extracted.

또한, 추가적인 실시예에 따른 컨버전스 자동 조절 장치(100)는 입체영상생성부(160)를 더 포함할 수 있다. 입체영상생성부(160)는 두 대의 카메라 모듈(120)로부터 좌안 및 우안에 대응되는 영상을 입력받고, 그 입력받은 좌안 및 우안 영상으로 컨버전스 조절부에 의해 컨버전스 제어 처리된 결과를 적용하여 입체 3D 영상을 생성한다.In addition, the automatic convergence control device 100 according to an additional embodiment may further include a stereoscopic image generation unit 160. The stereoscopic image generator 160 receives images corresponding to the left and right eyes from the two camera modules 120, and applies the result of the convergence control process by the convergence control unit to the received left and right eyes images. Create an image.

이때, 두 대의 카메라 모듈(120)은, 서로 동일한 최대 해상도를 지원하거나 서로 다른 최대 해상도를 지원하는 카메라 모듈일 수 있다. 즉, 두 대의 카메라 모듈(120)은 서로 동일한 해상도를 지원하는 동일한 카메라 모듈일 수 있지만, 이러할 경우 주로 고해상도의 카메라 모듈을 사용하게 되어 양안 카메라 제작시 높은 원가 비용이 들어가는 문제가 있다. 따라서, 양안 카메라를 제작할 때, 서로 다른 최대 해상도를 지원하는 카메라 모듈, 즉 어느 하나는 상대적으로 비용이 저렴한 저해상도 카메라 모듈을 사용하고, 어느 하나는 상대적으로 고해상도를 지원하는 카메라 모듈을 사용함으로써 원가 비용을 절감할 수 있다.In this case, the two camera modules 120 may be camera modules that support the same maximum resolution or support different maximum resolutions. That is, the two camera modules 120 may be the same camera module supporting the same resolution, but in this case, a high-resolution camera module is mainly used, which causes a high cost of manufacturing the binocular camera. Therefore, when manufacturing a binocular camera, the cost of using a camera module that supports different maximum resolution, that is, one using a relatively low cost low resolution camera module, and one using a relatively high resolution camera module Can reduce the cost.

예를 들어, 두 카메라 모듈 중 제1 카메라 모듈은 상대적으로 고해상도인 8M의 해상도를 지원하고, 제2 카메라 모듈은 상대적으로 저해상도인 3M의 해상도를 지원하는 카메라 모듈일 수 있다. 일 실시예에 있어서, 제1 카메라 모듈로부터 촬영된 영상은 제2 카메라 모듈로 촬영된 영상에 비해 보다 넓은 화각을 가져 더 넓은 범위를 촬영할 수 있다. 그러나 본 발명은 이에 한정되지 않으며, 광학계의 조절이나 설계에 의해 두 영상이 동일한 화각을 가지거나 임의의 화각을 가지도록 할 수 있다. 한편, 두 대의 카메라 모듈이 서로 다른 해상도를 지원하더라도 출력되는 영상의 해상도는 서로 동일하게 하거나 다르게 출력되는 경우도 포함한다.For example, of the two camera modules, the first camera module may support a relatively high resolution of 8M, and the second camera module may be a camera module that supports a relatively low resolution of 3M. In an embodiment, the image captured by the first camera module may have a wider angle of view than the image photographed by the second camera module, thereby capturing a wider range. However, the present invention is not limited thereto, and the two images may have the same angle of view or have an arbitrary angle of view by adjusting or designing an optical system. On the other hand, even if two camera modules support different resolutions, the resolution of the output image includes the same or different output.

즉, 상대적으로 고해상도를 지원하는 카메라 모듈과, 저해상도를 지원하는 카메라 모듈에서 각각 최대로 지원할 수 있는 해상도는 서로 상이하지만 각각 출력되는 영상의 해상도는 서로 일치되도록 하여 동일한 해상도의 영상을 출력할 수 있고, 반면에 촬영시 각 카메라 모듈이 지원하는 최대 해상도의 범위내에서 대상물체의 크기를 대략적으로 동일하게 하여 촬영하여 그 영상을 출력할 수 있다. That is, although the maximum resolution of the camera module that supports relatively high resolution and the camera module that supports low resolution differs from each other, the resolutions of the output images can be matched with each other to output images of the same resolution. On the other hand, when capturing, the image may be output by photographing by making the size of the object substantially the same within the maximum resolution supported by each camera module.

이렇게 서로 다른 해상도를 지원하는 두 대의 카메라 모듈(120)로부터 좌안 및 우안 영상에 대응되는 영상이 입력되는 경우, 입체 3D 영상을 생성하기 위해, 입체영상생성부(160)는 영상절단부(미도시)와 스케일링부(미도시)를 포함할 수 있다.When an image corresponding to the left and right eye images is input from two camera modules 120 supporting different resolutions, the stereoscopic image generator 160 may generate an image cutting unit (not shown) to generate a stereoscopic 3D image. And a scaling unit (not shown).

영상절단부(미도시)는 좌안 및 우안 영상에 대응되며, 서로 상이한 해상도를 지원하는 두 대의 카메라 모듈(120)로부터 각각 촬영된 두 개의 영상이 입력된다. 일 실시예에 따른 영상절단부(미도시)는 입력된 두 개의 영상 중 적어도 고해상도 카메라 모듈로부터 촬영된 영상을 저해상도 카메라 모듈로부터 촬영된 입력 영상의 화각에 맞추어 잘라낸다. The image cutting unit (not shown) corresponds to left and right eye images, and two images respectively photographed from two camera modules 120 supporting different resolutions are input. The image cutting unit (not shown) according to an exemplary embodiment cuts an image captured from at least a high resolution camera module among two input images according to an angle of view of an input image captured from a low resolution camera module.

스케일링부(미도시)는 영상절단부(미도시)에서 화각이 맞추어진 두 개의 영상의 해상도를 상호간에 일치시켜 컨버전스 조절부(150)로 출력할 수 있다.The scaling unit (not shown) may output the same to the convergence control unit 150 by matching the resolutions of two images whose angles of view are adjusted by the image cutting unit (not shown).

일 실시예에 따르면 고해상도 카메라 모듈과 저해상도 카메라 모듈의 출력 해상도를 동일하게 하여 영상을 각각 촬영하여 그 촬영된 영상이 입력된다. 즉, 서로 다른 화각을 갖는 두 대의 카메라, 즉 8M 고해상도 카메라 모듈과 3M 저해상도 카메라 모듈이 영상의 출력 해상도를 동일하게 하여 입체 3D 영상을 생성하고자 하는 대상 물체를 촬영하고 그 촬영된 각 영상들이 영상절단부(미도시)로 입력된다. 이때, 각 카메라 모듈(120)로부터 촬영되어 입력된 영상의 해상도가 동일하기 때문에 화각이 넓은 고해상도 카메라 모듈로부터 입력된 영상의 대상 물체들은 저해상도 카메라 모듈로부터 촬영된 영상의 동일한 대상 물체들보다 그 사이즈가 작게 된다.  According to one embodiment, the output resolutions of the high resolution camera module and the low resolution camera module are the same, and the respective images are captured and the captured images are input. That is, two cameras with different angles of view, that is, the 8M high resolution camera module and the 3M low resolution camera module, capture the target object to generate a stereoscopic 3D image by using the same output resolution, and each of the recorded images (Not shown). At this time, since the resolution of the image captured and input from each camera module 120 is the same, the target objects of the image input from the high-resolution camera module having a wide angle of view are larger than the same target objects of the image captured from the low resolution camera module. Becomes small.

이 경우, 영상절단부(미도시)는 먼저 화각이 넓은 고해상도 카메라 모듈로부터 입력된 영상의 일부 즉, 저해상도 카메라 모듈로부터 입력된 영상과 화각이 일치하는 부분을 절단(cropping)한다. 그리고, 컨버전스 조절부(150)는 화각이 일치된 양 영상의 컨버전스를 조절하여 입체 3D 영상을 생성하게 된다.In this case, the image cutting unit (not shown) first crops a part of an image input from a high resolution camera module having a wide angle of view, that is, a portion where the angle of view coincides with an image input from a low resolution camera module. The convergence adjusting unit 150 generates a stereoscopic 3D image by adjusting the convergence of both images having the same angle of view.

그리고, 스케일링부(미도시)가 저해상도 카메라 모듈로부터 입력된 영상의 화각에 맞추어 절단된 고해상도 카메라 모듈로부터 입력된 영상의 일부분을 스케일링(scaling)하여 상대적으로 영상의 사이즈가 크게 된 저해상도 카메라 모듈(120)의 영상의 사이즈와 일치되도록 양 영상의 해상도를 일치시킨다.The scaling unit (not shown) scales a portion of the image input from the high resolution camera module cut according to the angle of view of the image input from the low resolution camera module so that the size of the image is relatively large. Match the resolution of both images to match the size of the image.

컨버전스 조절부(150)는 이렇게 화각과 해상도가 일치된 양 영상의 컨버전스를 주시영역추출부(140)에서 추출된 주시 영역을 기준으로 조절한다. 즉, 컨버전스 조절부(150)는 좌안과 우안 영상을 주시영역 추출부(140)에서 추출된 영역(depth = 0)인 지점을 기준으로 수평이동하거나 수직이동하여 일치시켜 컨버전스를 조절하게 된다.The convergence control unit 150 adjusts the convergence of both images in which the angle of view and the resolution match, based on the gaze region extracted by the gaze extraction unit 140. That is, the convergence control unit 150 adjusts the convergence by matching the left and right eye images by moving horizontally or vertically based on the point of the area (depth = 0) extracted from the gaze extraction unit 140.

한편, 다른 실시예에 따르면, 8M 고해상도 카메라 모듈과 3M 저해상도 카메라 모듈의 두 대의 카메라를 통해 입체 3D 영상을 생성하고자 하는 대상 물체의 사이즈가 대략적으로 일치되도록 촬영하는 경우에는 화각이 넓은 고해상도 카메라 모듈로부터 촬영된 영상의 사이즈가 저해상도 카메라 모듈로부터 촬영된 영상의 사이즈보다 크게 된다.On the other hand, according to another embodiment, when shooting so that the size of the target object to generate a three-dimensional 3D image is roughly matched by two cameras of the 8M high resolution camera module and the 3M low resolution camera module from a high resolution camera module having a wide angle of view The size of the captured image is larger than the size of the image captured from the low resolution camera module.

따라서, 입체 3D 영상을 생성하기 위해서 먼저, 영상절단부(미도시)는 저해상도 카메라 모듈로부터 촬영되어 입력된 영상의 화각과 일치되는 고해상도 카메라 모듈로부터 촬영된 영상의 일부분을 절단(cropping)한다.Therefore, in order to generate a stereoscopic 3D image, first, an image cutting unit (not shown) crops a portion of an image captured by a high resolution camera module that matches an angle of view of an image captured by the low resolution camera module.

그러면, 스케일링부(미도시)는 먼저, 고해상도 카메라 모듈의 절단된 영상의 스케일링 여부를 판단한다. 왜냐하면, 고해상도 카메라 모듈과 저해상도 카메라 모듈을 통해 촬영된 각 영상들은 입체 3D 영상을 생성하고자 하는 대상 물체들의 사이즈가 대략적으로 일치되도록 촬영되었기 때문에 위에서 절단된 영상의 사이즈는 대략 저해상도 카메라 모듈로부터 촬영되어 입력된 영상과 동일하게 된다. Then, the scaling unit (not shown) first determines whether to scale the cropped image of the high resolution camera module. Because each image photographed through the high resolution camera module and the low resolution camera module is photographed so as to roughly match the size of the target object to generate a stereoscopic 3D image, the size of the cut image is input from the low resolution camera module. Will be the same as the video.

따라서, 절단된 고해상도 카메라 모듈의 영상과 저해상도 카메라 모듈의 영상의 사이즈가 동일하고 대상물체들의 사이즈가 대략 동일하기 때문에 스케일링할 필요가 없게 된다.Therefore, the image of the cut-off high resolution camera module and the image of the low resolution camera module have the same size, and the objects do not need to be scaled.

그러나, 대상 물체들의 사이즈를 대략적으로 일치하여 촬영하더라도 촬영된 영상의 대상 물체들의 크기에는 약간의 차이가 발생할 수 있다. 이 경우에는 스케일링부(미도시)는 양 영상의 해상도를 일치시키기 위해 스케일링을 수행하게 된다.However, even when the sizes of the target objects are photographed with approximately the same size, some differences may occur in the sizes of the target objects in the photographed image. In this case, the scaling unit (not shown) performs scaling to match the resolution of both images.

컨버전스 조절부(150)는 화각과 해상도가 맞추어진 두 개의 영상을 입력 지시값에 따라 컨버전스(convergence) 제어 처리한다. 입체영상생성부(160)는 컨버전스 제어 처리된 결과에 맞는 영상을 출력한다. The convergence control unit 150 controls convergence control of two images whose angle of view and resolution are matched according to an input indication value. The stereoscopic image generation unit 160 outputs an image corresponding to the result of the convergence control process.

또한, 추가적인 실시예에 따르면, 컨버전스 자동 조절 장치(100)는 입체영상재생부(170)를 더 포함할 수 있다. 입체영상재생부(170)는 미리 생성되어 있는 입체 3D 영상을 재생하고, 그 입체 3D 영상이 재생되는 동안 컨버전스 조절부에 의해 컨버전스가 자동 제어 처리되면 그 처리 결과에 맞도록 재생되는 입체 3D 영상을 조절하여 출력한다.In addition, according to an additional embodiment, the automatic convergence adjustment device 100 may further include a stereoscopic image playback unit 170. The stereoscopic image reproducing unit 170 reproduces the stereoscopic 3D image generated in advance, and if the convergence is automatically controlled by the convergence adjusting unit while the stereoscopic 3D image is reproduced, the stereoscopic 3D image is reproduced to match the processing result. Adjust the output.

도 8은 일 실시예에 따른 아이 트래킹(Eye-tracking)을 이용한 컨버전스 자동 조절 방법의 흐름도이다. 도 8에 도시된 일 실시예에 따른 아이 트래킹(Eye-tracking)을 이용한 컨버전스 자동 제어 방법은, 먼저, 감지 카메라 모듈이 사람의 눈의 움직임을 감지한다(단계 S100).8 is a flowchart illustrating a method for automatically adjusting convergence using eye-tracking according to an embodiment. In the method of automatically controlling convergence using eye tracking according to the exemplary embodiment shown in FIG. 8, first, the sensing camera module detects the movement of a human eye (step S100).

좀 더 구체적으로, 감지단계(단계 S100)는 감지 카메라 모듈에서 감지된 눈의 움직임에 따라 캘리브레이션(calibration)을 수행하는 단계를 포함할 수 있다. 즉, 감지 카메라 모듈(110)에서 감지한 눈의 움직임에 따른 주시 영역, 즉, 눈이 주시하고 있는 장치(100) 디스플레이 패널 상의 특정 위치를 주시 영역 추출부(140)에서 보다 정확히 추출하기 위해서 캘리브레이션(calibration)이 필요할 수 있다. 이를 위해서, 컨버전스 자동 조절 장치(100)는 캘리브레이션부(130)를 더 포함할 수 있다. 캘리브레이션부(130)는 감지 카메라 모듈에서 감지된 눈의 움직임에 따라 캘리브레이션(calibration)을 수행한다. More specifically, the detecting step (S100) may include performing a calibration according to the movement of the eye detected by the sensing camera module. That is, calibration is performed to more accurately extract the gaze area according to the eye movement detected by the detection camera module 110, that is, a specific position on the display panel of the device 100 that the eye is gazing at the gaze area extractor 140. Calibration may be necessary. To this end, the convergence automatic adjustment device 100 may further include a calibration unit 130. The calibration unit 130 performs calibration according to the movement of the eyes detected by the sensing camera module.

예를 들어, 도 7은 아이 트래킹(Eye-tracking)에 따른 주시영역을 정확히 추출하기 위한 캘리브레이션을 수행하는 것을 나타낸 도면으로서, 도 7을 참조하면, 캘리브레이션을 수행하기 위해 캘리브레이션부(130)는 디스플레이 상의 우측 하단에서부터 좌측 하단, 좌측 상단, 우측 상단에 순차적으로 커서를 출력한다. 단, 커서를 출력하는 순서와 출력하는 지점은 임의로 정할 수 있으며, 이에 한정되지 않는다. 그러면, 감지 카메라 모듈(110)은 커서가 출력된 지점을 추적하는 눈의 움직임을 감지(촬영)한다. 캘리브레이션부(130)는 감지 카메라 모듈(110)에서 감지(촬영)된 눈의 위치를 좌표로 변환하여 눈의 위치별로 좌표를 설정한다.For example, FIG. 7 illustrates a calibration for accurately extracting a gaze area according to eye-tracking. Referring to FIG. 7, the calibration unit 130 displays a calibration to perform calibration. Cursors are output in order from the bottom right of the image to the bottom left, top left, and top right. However, the order of outputting the cursor and the point of outputting the cursor may be arbitrarily determined, but are not limited thereto. Then, the sensing camera module 110 detects (shoots) the movement of the eye tracking the point where the cursor is output. The calibration unit 130 sets coordinates for each eye position by converting the position of the eye detected (photographed) by the sensing camera module 110 into coordinates.

그 다음, 감지단계(단계 S100)는 입체영상생성부(160)에서 생성중이거나 입체영상재생부(170)에 재생되는 영상이 출력된다. Next, in the sensing step (step S100), the image being generated by the stereoscopic image generator 160 or reproduced by the stereoscopic image reproducing unit 170 is output.

즉, 입체영상생성부(160)는 두 대의 카메라 모듈(120)로부터 좌안 및 우안에 대응되는 영상을 입력받아 그 입력된 영상을 디스플레이에 출력한다.That is, the stereoscopic image generation unit 160 receives images corresponding to the left and right eyes from the two camera modules 120 and outputs the input images to the display.

이때, 두 대의 카메라 모듈(120)은 서로 동일한 해상도를 지원하는 동일한 카메라 모듈일 수 있지만, 이러할 경우 주로 두 대 모두 동일한 고해상도의 카메라 모듈을 사용하게 되어 양안 카메라 제작시 높은 원가 비용이 들어가게 된다. 따라서, 이러한 문제를 해결하기 위해 양안 카메라를 제작할 때, 두 대의 카메라 모듈 중 어느 하나를 상대적으로 비용이 저렴한 저해상도 카메라 모듈을 사용할 수 있다.In this case, the two camera modules 120 may be the same camera module that supports the same resolution, but in this case, both of them use the same high resolution camera module, which leads to a high cost when producing a binocular camera. Therefore, when manufacturing a binocular camera to solve this problem, it is possible to use a low-resolution camera module of a relatively low cost of any one of the two camera modules.

예를 들어, 두 카메라 모듈 중 제1 카메라 모듈은 상대적으로 고해상도인 8M의 해상도를 지원하고, 제2 카메라 모듈은 상대적으로 비용이 저렴한 저해상도인 3M의 해상도를 지원하는 카메라 모듈일 수 있다. 일 실시예에 있어서, 제1 카메라 모듈로부터 촬영된 영상은 제2 카메라 모듈로 촬영된 영상에 비해 보다 넓은 화각을 가져 더 넓은 범위를 촬영할 수 있다. For example, a first camera module of two camera modules may support a relatively high resolution of 8M, and the second camera module may be a camera module supporting a resolution of 3M, which is a relatively low cost. In an embodiment, the image captured by the first camera module may have a wider angle of view than the image photographed by the second camera module, thereby capturing a wider range.

한편, 두 대의 카메라 모듈이 서로 다른 해상도를 지원하더라도 출력되는 영상의 해상도는 서로 동일하게 하거나 다르게 출력되는 경우도 포함한다. 즉, 상대적으로 고해상도를 지원하는 카메라 모듈과, 저해상도를 지원하는 카메라 모듈에서 각각 최대로 지원할 수 있는 해상도는 서로 상이하지만 각각 출력되는 영상의 해상도는 서로 일치되도록 하여 동일한 해상도의 영상을 출력할 수 있고, 반면에 촬영시 각 카메라 모듈이 지원하는 최대 해상도의 범위 내에서 대상물체의 크기를 대략적으로 동일하게 하여 촬영하여 그 영상을 출력할 수 있다. On the other hand, even if two camera modules support different resolutions, the resolution of the output image includes the same or different output. That is, although the maximum resolution of the camera module that supports relatively high resolution and the camera module that supports low resolution differs from each other, the resolutions of the output images can be matched with each other to output images of the same resolution. On the other hand, when capturing, the image may be output by photographing by making the object size approximately the same within the range of the maximum resolution supported by each camera module.

즉, 입체영상생성부(160)의 영상절단부(미도시)는 좌안 및 우안 영상에 대응되며, 서로 상이한 해상도를 지원하는 두 대의 카메라 모듈(120)로부터 각각 촬영된 두 개의 영상이 입력받는다. 그리고, 영상절단부(미도시)는 입력된 두 개의 영상 중 적어도 고해상도 카메라 모듈로부터 촬영된 영상을 저해상도 카메라 모듈로부터 촬영된 입력 영상의 화각에 맞추어 잘라낸다. 또한, 입체영상생성부(160) 중 스케일링부(미도시)는 영상절단부(미도시)에서 화각이 맞추어진 두 개의 영상의 해상도를 상호간에 일치시켜 출력한다.That is, the image cutting unit (not shown) of the stereoscopic image generator 160 corresponds to the left and right eye images, and receives two images respectively captured by two camera modules 120 supporting different resolutions. In addition, the image cutting unit (not shown) cuts an image photographed from at least a high resolution camera module among two input images according to an angle of view of an input image photographed from a low resolution camera module. In addition, the scaling unit (not shown) of the stereoscopic image generating unit 160 outputs by matching the resolution of the two images with the angle of view at the image cutting unit (not shown).

일 실시예에 따르면 고해상도 카메라 모듈과 저해상도 카메라 모듈의 출력 해상도를 동일하게 하여 영상을 각각 촬영하여 그 촬영된 영상이 입력된다. 즉, 서로 다른 화각을 갖는 두 대의 카메라, 즉 8M 고해상도 카메라 모듈과 3M 저해상도 카메라 모듈이 영상의 출력 해상도를 동일하게 하여 입체 3D 영상을 생성하고자 하는 대상 물체를 촬영하고 그 촬영된 각 영상들이 영상절단부(미도시)로 입력된다. 이때, 각 카메라 모듈(120)로부터 촬영되어 입력된 영상의 해상도가 동일하기 때문에 화각이 넓은 고해상도 카메라 모듈로부터 입력된 영상의 대상 물체들은 저해상도 카메라 모듈로부터 촬영된 영상의 동일한 대상 물체들보다 그 사이즈가 작게 된다. According to one embodiment, the output resolutions of the high resolution camera module and the low resolution camera module are the same, and the respective images are captured and the captured images are input. That is, two cameras with different angles of view, that is, the 8M high resolution camera module and the 3M low resolution camera module, capture the target object to generate a stereoscopic 3D image by using the same output resolution, and each of the recorded images (Not shown). At this time, since the resolution of the image captured and input from each camera module 120 is the same, the target objects of the image input from the high-resolution camera module having a wide angle of view are larger than the same target objects of the image captured from the low resolution camera module. Becomes small.

이 경우, 영상절단부(미도시)는 먼저 화각이 넓은 고해상도 카메라 모듈로부터 입력된 영상의 일부 즉, 저해상도 카메라 모듈로부터 입력된 영상과 화각이 일치하는 부분을 절단(cropping)한다. In this case, the image cutting unit (not shown) first crops a part of an image input from a high resolution camera module having a wide angle of view, that is, a portion where the angle of view coincides with an image input from a low resolution camera module.

그리고, 스케일링부(미도시)가 저해상도 카메라 모듈로부터 입력된 영상의 화각에 맞추어 절단된 고해상도 카메라 모듈로부터 입력된 영상의 일부분을 스케일링(scaling)하여 상대적으로 영상의 사이즈가 크게 된 저해상도 카메라 모듈(120)의 영상의 사이즈와 일치되도록 양 영상의 해상도를 일치시켜 디스플레이에 출력한다.The scaling unit (not shown) scales a portion of the image input from the high resolution camera module cut according to the angle of view of the image input from the low resolution camera module so that the size of the image is relatively large. Match the resolutions of both images to match the size of the image and output them to the display.

한편, 다른 실시예에 따르면, 8M 고해상도 카메라 모듈과 3M 저해상도 카메라 모듈의 두 대의 카메라를 통해 입체 3D 영상을 생성하고자 하는 대상 물체의 사이즈가 대략적으로 일치되도록 촬영하는 경우에는 화각이 넓은 고해상도 카메라 모듈로부터 촬영된 영상의 사이즈가 저해상도 카메라 모듈로부터 촬영된 영상의 사이즈보다 크게 된다.On the other hand, according to another embodiment, when shooting so that the size of the target object to generate a three-dimensional 3D image is roughly matched by two cameras of the 8M high resolution camera module and the 3M low resolution camera module from a high resolution camera module having a wide angle of view The size of the captured image is larger than the size of the image captured from the low resolution camera module.

따라서, 입체 3D 영상을 생성하기 위해서 먼저, 영상절단부(미도시)는 저해상도 카메라 모듈로부터 촬영되어 입력된 영상의 화각과 일치되는 고해상도 카메라 모듈로부터 촬영된 영상의 일부분을 절단(cropping)한다.Therefore, in order to generate a stereoscopic 3D image, first, an image cutting unit (not shown) crops a portion of an image captured by a high resolution camera module that matches an angle of view of an image captured by the low resolution camera module.

그러면, 스케일링부(미도시)는 먼저, 고해상도 카메라 모듈의 절단된 영상의 스케일링 여부를 판단한다. 왜냐하면, 고해상도 카메라 모듈과 저해상도 카메라 모듈을 통해 촬영된 각 영상들은 입체 3D 영상을 생성하고자 하는 대상 물체들의 사이즈가 대략적으로 일치되도록 촬영되었기 때문에 위에서 절단된 영상의 사이즈는 대략 저해상도 카메라 모듈로부터 촬영되어 입력된 영상과 동일하게 된다. Then, the scaling unit (not shown) first determines whether to scale the cropped image of the high resolution camera module. Because each image photographed through the high resolution camera module and the low resolution camera module is photographed so as to roughly match the size of the target object to generate a stereoscopic 3D image, the size of the cut image is input from the low resolution camera module. Will be the same as the video.

따라서, 절단된 고해상도 카메라 모듈의 영상과 저해상도 카메라 모듈의 영상의 사이즈가 동일하고 대상물체들의 사이즈가 대략 동일하기 때문에 스케일링할 필요가 없게 된다.Therefore, the image of the cut-off high resolution camera module and the image of the low resolution camera module have the same size, and the objects do not need to be scaled.

그러나, 대상 물체들의 사이즈를 대략적으로 일치하여 촬영하더라도 촬영된 영상의 대상 물체들의 크기에는 약간의 차이가 발생할 수 있다. 이 경우에는 스케일링부(미도시)는 양 영상의 해상도를 일치시키기 위해 스케일링을 수행하게 된다.However, even when the sizes of the target objects are photographed with approximately the same size, some differences may occur in the sizes of the target objects in the photographed image. In this case, the scaling unit (not shown) performs scaling to match the resolution of both images.

또는, 입체영상재생부(170)가 미리 생성되어 있는 입체 3D 영상을 디스플레이에 출력하여 재생한다.Alternatively, the stereoscopic image reproducing unit 170 outputs and reproduces the stereoscopic 3D image previously generated on the display.

그 다음, 감지단계(단계 S100)는 감지 카메라 모듈(110)에 의해 입체 3D 영상이 생성되거나 재생되고 있는 장치(100)의 디스플레이 패널을 주시하는 눈의 움직임을 감지하여 주시영역추출부에 촬영 이미지를 전송한다.Next, the sensing step (step S100) detects the movement of the eye looking at the display panel of the device 100 in which the stereoscopic 3D image is being generated or reproduced by the sensing camera module 110 to capture a captured image in the gaze extraction unit. Send it.

그 다음, 감지단계(단계 S100)에서 감지된 눈의 움직임에 따라 눈이 주시하고 있는 디스플레이 패널 상의 주시영역을 추출한다(단계 S200).Then, according to the movement of the eye detected in the detection step (step S100), the gaze area on the display panel on which the eye is looking is extracted (step S200).

주시 영역 추출부(140)는 감지 카메라 모듈(110)에서 감지되어 전송받은 이미지를 분석하여 눈의 움직임에 따라 눈이 주시하고 있는 디스플레이 패널 상의 영역을 추출한다. 한편, 감지단계(단계 S100)에서 캘리브레이션이 수행된 경우, 감지 카메라 모듈(110)이 눈의 움직임을 감지하여 영상이 재생되는 디스플레이 패널 상의 소정의 위치를 주시하는 눈의 위치를 감지하면 주시 영역 추출부(140)는 캘리브레이션부(130)에서 설정해 놓은 좌표에 따라 디스플레이 패널 상의 눈이 주시하고 있는 영역을 정확하게 추출할 수 있다.The gaze extraction unit 140 analyzes an image sensed and transmitted by the sensing camera module 110 and extracts an area on the display panel that the eye gazes as the eye moves. On the other hand, when the calibration is performed in the detection step (step S100), the detection camera module 110 detects the eye movement and detects the eye position looking at a predetermined position on the display panel where the image is reproduced. The unit 140 may accurately extract an area of the eye on the display panel according to the coordinates set by the calibration unit 130.

그 다음, 주시 영역 추출단계(단계 S200)에서 추출된 영역을 기준으로 컨버전스를 조절한다(단계 S300). Then, the convergence is adjusted based on the region extracted in the gaze region extraction step (step S200) (step S300).

즉, 컨버전스 조절단계(단계 S300)는 주시 영역 추출단계에서 추출된 주시 영역을 기준으로 좌안 및 우안에 대응되는 영상을 수평이동하거나 수직이동하여 컨버전스를 조절할 수 있다.That is, the convergence adjustment step (step S300) may adjust the convergence by horizontally or vertically moving the image corresponding to the left and right eyes based on the gaze region extracted in the gaze region extraction step.

이때, 만약 두대의 카메라 모듈이 서로 다른 해상도를 지원하는 경우에는 스케일링부(미도시)에서 스케일링되어 출력된 양 영상을 수평 이동하거나 수직이동하여 컨버전스를 조절한다.In this case, if the two camera modules support different resolutions, the convergence is adjusted by horizontally or vertically moving both images scaled and output by the scaling unit (not shown).

도 6에 도시된 바와 같이, 도 6의 좌측은 전방 카메라(감지 카메라 모듈(110)에 대응됨)를 통해 감지된 눈의 움직임 정보에 따라 주시 영역 추출부(140)가 물체 A를 주시영역으로 추출한 경우로서, 컨버전스 조절부(150)는 물체 A를 중심으로 좌안 및 우안에 대응되는 영상을 수평이동 또는 수직이동하여 컨버전스를 조절하는 것을 나타낸 것이다. 한편, 도 6의 우측 도면은 전방 카메라(감지 카메라 모듈(110)에 대응됨)를 통해 감지된 눈의 움직임 정보에 따라 주시 영역 추출부(140)가 물체 B를 주시 영역으로 추출한 경우로서, 컨버전스 조절부(150)는 물체 B를 중심으로 좌안 및 우안에 대응되는 영상을 수평이동하거나 수직이동하여 컨버전스를 조절한 것을 나타낸 것이다.As shown in FIG. 6, on the left side of FIG. 6, the gaze area extraction unit 140 moves the object A to the gaze area according to eye motion information detected through the front camera (corresponding to the sensing camera module 110). In this case, the convergence adjusting unit 150 adjusts the convergence by horizontally or vertically moving the image corresponding to the left and right eyes around the object A. FIG. 6 illustrates a case in which the gaze extraction unit 140 extracts the object B as a gaze area according to eye motion information detected through the front camera (corresponding to the detection camera module 110). The adjusting unit 150 shows that the convergence is adjusted by horizontally or vertically moving the image corresponding to the left and right eyes with respect to the object B. FIG.

마지막으로, 컨버전스가 조절단계(단계 S300)에서 조절된 입체 3D 영상을 출력한다(단계 S400).Finally, the convergence outputs the stereoscopic 3D image adjusted in the adjusting step (step S300) (step S400).

즉, 컨버전스 조절 단계(단계 S300)에서 컨버전스가 조절되면 입체영상생성부(160) 또는 입체영상재생부(170)이 컨버전스가 조절된 최종 입체 3D 영상을 생성하거나 재생한다.That is, when the convergence is adjusted in the convergence adjustment step (step S300), the stereoscopic image generating unit 160 or the stereoscopic image reproducing unit 170 generates or reproduces the final stereoscopic 3D image in which the convergence is adjusted.

본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구의 범위에 의하여 나타내어지며, 특허청구의 범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Those skilled in the art will appreciate that the present invention can be embodied in other specific forms without changing the technical spirit or essential features of the present invention. Therefore, it should be understood that the embodiments described above are exemplary in all respects and not restrictive. The scope of the present invention is indicated by the scope of the following claims rather than the detailed description, and all changes or modifications derived from the meaning and scope of the claims and the equivalent concept are included in the scope of the present invention. Should be interpreted.

Claims (10)

입체 3D 영상이 생성되거나 재생되는 장치의 디스플레이 패널을 주시하는 눈의 움직임을 감지하는 감지 카메라 모듈과;A sensing camera module for detecting a movement of an eye looking at a display panel of a device in which a stereoscopic 3D image is generated or reproduced; 상기 감지 카메라 모듈로부터 감지된 눈의 움직임에 따라 컨버전스를 자동으로 제어처리하는 컨버전스조절부;를 포함하는 아이 트래킹(Eye-tracking)을 이용한 컨버전스 자동 제어 장치.A convergence automatic control apparatus using eye-tracking, including; a convergence control unit for automatically controlling the convergence according to the movement of the eyes detected by the detection camera module. 제1항에 있어서,The method of claim 1, 상기 감지 카메라 모듈에서 감지된 눈의 움직임에 따라 눈이 주시하고 있는 디스플레이 패널 상의 영역을 추출하는 주시영역추출부;를 더 포함하는 아이 트래킹(Eye-tracking)을 이용한 컨버전스 자동 제어 장치.And an eye region extracting unit configured to extract an area on the display panel that the eye observes according to the movement of the eye detected by the sensing camera module. 제2항에 있어서, 상기 컨버전스 조절부는, The method of claim 2, wherein the convergence control unit, 상기 주시영역추출부에서 추출된 주시 영역을 기준으로 컨버전스를 제어처리하는 아이 트래킹(Eye-tracking)을 이용한 컨버전스 자동 제어 장치.An automatic convergence control apparatus using eye-tracking to control the convergence based on the gaze region extracted by the gaze region extraction unit. 제1항 내지 제3항 중 어느 한 항에 있어서, The method according to any one of claims 1 to 3, 상기 감지 카메라 모듈에서 감지된 눈의 움직임에 따라 캘리브레이션(calibration)을 수행하는 캘리브레이션부;를 더 포함하는 아이 트래킹(Eye-tracking)을 이용한 컨버전스 자동 제어 장치.And a calibration unit configured to perform calibration according to the movement of the eye detected by the detection camera module. The automatic convergence control apparatus using eye tracking. 제1항 내지 제3항 중 어느 한 항에 있어서, The method according to any one of claims 1 to 3, 두 대의 카메라 모듈로부터 좌안 및 우안에 대응되는 영상을 입력받고, 그 입력받은 좌안 및 우안 영상으로 상기 컨버전스 조절부에 의해 컨버전스 제어 처리된 결과를 적용하여 입체 3D 영상을 생성하는 입체영상생성부;를 더 포함하는 아이 트래킹(Eye-tracking)을 이용한 컨버전스 자동 제어 장치.A stereoscopic image generation unit that receives images corresponding to left and right eyes from two camera modules and generates stereoscopic 3D images by applying a result of convergence control processing by the convergence control unit to the received left and right eye images; Convergence automatic control device using eye tracking (eye-tracking) further included. 제1항 내지 제3항 중 어느 한 항에 있어서, The method according to any one of claims 1 to 3, 미리 생성되어 있는 입체 3D 영상을 재생하고, 그 입체 3D 영상이 재생되는 동안 상기 컨버전스 조절부에 의해 컨버전스가 자동 제어 처리되면 그 처리 결과에 맞도록 상기 재생되는 입체 3D 영상을 조절하는 입체영상재생부;를 더 포함하는 아이 트래킹(Eye-tracking)을 이용한 컨버전스 자동 제어 장치.A stereoscopic image reproducing unit for reproducing a stereoscopic 3D image generated in advance, and adjusting the reproduced stereoscopic 3D image according to the processing result when the convergence is automatically controlled by the convergence adjusting unit while the stereoscopic 3D image is reproduced. Convergence automatic control device using eye-tracking (Eye-tracking) further comprising. 제5항에 있어서, 상기 두 대의 카메라 모듈은,The method of claim 5, wherein the two camera modules, 서로 다른 최대 해상도를 지원하는 카메라 모듈인 것을 특징으로 하는 아이 트래킹(Eye-tracking)을 이용한 컨버전스 자동 제어 장치.Convergence automatic control device using eye-tracking, characterized in that the camera module supporting different maximum resolution. 입체 3D 영상을 생성 또는 재생하는 장치에서 컨버전스를 제어하는 방법에 있어서, In the method for controlling the convergence in the device for generating or playing stereoscopic 3D image, 감지 카메라 모듈이 사람의 눈의 움직임을 감지하는 감지단계와;A sensing step of sensing, by the sensing camera module, a movement of a human eye; 상기 감지단계에서 감지된 눈의 움직임에 따라 눈이 주시하고 있는 디스플레이 패널 상의 주시영역을 추출하는 주시 영역 추출단계; 및A gaze region extraction step of extracting gaze regions on the display panel that the eyes are gazing in accordance with the movement of the eyes detected in the sensing step; And 상기 주시 영역 추출단계에서 추출된 영역을 기준으로 컨버전스를 제어 처리하는 컨버전스 조절단계;를 포함하는 아이 트래킹(Eye-tracking)을 이용한 컨버전스 자동 제어 방법.A convergence automatic control method using eye-tracking comprising a; convergence control step of controlling the convergence based on the region extracted in the gaze region extraction step. 제8항에 있어서, 상기 컨버전스 조절단계는,The method of claim 8, wherein the convergence adjustment step, 상기 주시 영역 추출단계에서 추출된 주시 영역을 기준으로 컨버전스를 제어 처리하는 것을 특징으로 하는 아이 트래킹(Eye-tracking)을 이용한 컨버전스 자동 제어 방법.The convergence automatic control method using eye-tracking, characterized in that for controlling the convergence on the basis of the gaze region extracted in the gaze region extraction step. 제8항 또는 제9항에 있어서, 상기 감지단계는,The method of claim 8 or 9, wherein the detecting step, 상기 감지 카메라 모듈에서 감지된 눈의 움직임에 따라 캘리브레이션(calibration)을 수행하는 단계를 포함하는 아이 트래킹(Eye-tracking)을 이용한 컨버전스 자동 제어 방법.A method for automatically controlling convergence using eye-tracking, comprising performing calibration according to eye movement detected by the sensing camera module.
PCT/KR2011/006805 2011-05-31 2011-09-15 Automatic convergence control apparatus using eye-tracking and method for same Ceased WO2012165718A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2011-0052501 2011-05-31
KR1020110052501A KR101165764B1 (en) 2011-05-31 2011-05-31 Apparatus and method for automatically controlling convergence using eye-tracking

Publications (1)

Publication Number Publication Date
WO2012165718A1 true WO2012165718A1 (en) 2012-12-06

Family

ID=46716847

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2011/006805 Ceased WO2012165718A1 (en) 2011-05-31 2011-09-15 Automatic convergence control apparatus using eye-tracking and method for same

Country Status (2)

Country Link
KR (1) KR101165764B1 (en)
WO (1) WO2012165718A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102093198B1 (en) * 2013-02-21 2020-03-25 삼성전자주식회사 Method and apparatus for user interface using gaze interaction
US10477154B2 (en) * 2013-03-07 2019-11-12 Cognex Corporation System and method for aligning two work pieces with a vision system in the presence of occlusion
US10032273B2 (en) * 2013-03-15 2018-07-24 Cognex Corporation Machine vision system calibration using inaccurate calibration targets
KR102333267B1 (en) 2014-12-10 2021-12-01 삼성전자주식회사 Apparatus and method for predicting eye position

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100726933B1 (en) * 2006-02-15 2007-06-14 주식회사 이시티 Image Signal Processing Method for Automatic Vergence Control of Fixed Binocular Camera
KR100820639B1 (en) * 2006-07-25 2008-04-10 한국과학기술연구원 Eye-based 3D interaction system and method and 3D eye tracking system and method
KR100906784B1 (en) * 2007-11-15 2009-07-09 (주)레드로버 Plug-in module for 3D video production program and 3D video production method
KR20110025020A (en) * 2009-09-03 2011-03-09 한국전자통신연구원 3D image display device and method in 3D image system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100726933B1 (en) * 2006-02-15 2007-06-14 주식회사 이시티 Image Signal Processing Method for Automatic Vergence Control of Fixed Binocular Camera
KR100820639B1 (en) * 2006-07-25 2008-04-10 한국과학기술연구원 Eye-based 3D interaction system and method and 3D eye tracking system and method
KR100906784B1 (en) * 2007-11-15 2009-07-09 (주)레드로버 Plug-in module for 3D video production program and 3D video production method
KR20110025020A (en) * 2009-09-03 2011-03-09 한국전자통신연구원 3D image display device and method in 3D image system

Also Published As

Publication number Publication date
KR101165764B1 (en) 2012-07-18

Similar Documents

Publication Publication Date Title
WO2013129792A1 (en) Method and portable terminal for correcting gaze direction of user in image
CN102954836B (en) Ambient light sensor, user applying device and display device
WO2015120673A1 (en) Method, system and photographing equipment for controlling focusing in photographing by means of eyeball tracking technology
WO2016099052A1 (en) Three-dimensional guidance device for informing visually handicapped person of obstacle, guidance system for providing surrounding information using same, and method therefor
JP2012142922A (en) Imaging device, display device, computer program, and stereoscopic image display system
WO2016200102A1 (en) Method and device for changing focal point of camera
WO2013100239A1 (en) Method for processing images in a stereo vision system and apparatus for same
WO2019158808A3 (en) Imaging system and method for producing stereoscopic images using more than two cameras and gaze direction
WO2013039347A9 (en) Image processing apparatus and image processing method thereof
WO2019139404A1 (en) Electronic device and method for processing image of same
WO2015034130A1 (en) Telepresence device
WO2017196026A2 (en) Method for setting photographed image of ptz camera and apparatus therefor
WO2012165718A1 (en) Automatic convergence control apparatus using eye-tracking and method for same
WO2017142223A1 (en) Remote image transmission system, display apparatus, and guide displaying method thereof
EP3132305A1 (en) Glasses-free 3d display mobile device, setting method of the same, and using method of the same
WO2014088125A1 (en) Image photographing device and method for same
WO2012046964A2 (en) Stereoscopic image display device for displaying a stereoscopic image by tracing a focused position
WO2015194749A1 (en) Glasses-free 3d display mobile device, setting method of the same, and using method of the same
WO2020095639A1 (en) Information processing device, information processing method and program
US11706378B2 (en) Electronic device and method of controlling electronic device
WO2016047824A1 (en) Image information projection device and projection device control method
TW201138458A (en) Adjusting system and method for displaying screen, and billboard including the same
WO2012165717A1 (en) Apparatus for generating stereo 3d image using asymmetric, two-camera module and method for same
EP3402410A1 (en) Detection system
WO2015009112A9 (en) Method and apparatus for displaying images in portable terminal

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11866450

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11866450

Country of ref document: EP

Kind code of ref document: A1