[go: up one dir, main page]

KR20130106525A - Device for processing image and method thereof - Google Patents

Device for processing image and method thereof Download PDF

Info

Publication number
KR20130106525A
KR20130106525A KR1020120028132A KR20120028132A KR20130106525A KR 20130106525 A KR20130106525 A KR 20130106525A KR 1020120028132 A KR1020120028132 A KR 1020120028132A KR 20120028132 A KR20120028132 A KR 20120028132A KR 20130106525 A KR20130106525 A KR 20130106525A
Authority
KR
South Korea
Prior art keywords
image
dimensional
light
function
field information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
KR1020120028132A
Other languages
Korean (ko)
Inventor
이창혁
Original Assignee
엘지이노텍 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지이노텍 주식회사 filed Critical 엘지이노텍 주식회사
Priority to KR1020120028132A priority Critical patent/KR20130106525A/en
Publication of KR20130106525A publication Critical patent/KR20130106525A/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/261Image signal generators with monoscopic-to-stereoscopic image conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/158Switching image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)

Abstract

본 발명의 실시 예에 따른 영상 처리 방법은, 복수의 2차원 이미지에 대한 위치 정보 들의 조합으로 이루어진 4차원 광 필드 정보를 획득하는 단계; 상기 획득한 4차원 광 필드 정보를 1차 변환하여, 4차원 위상 공간 함수로 변환하는 단계; 및 상기 4차원 위상 공간 함수를 2차 변환하여, 상기 2차원 이미지를 재구성하는 단계를 포함한다.An image processing method according to an embodiment of the present invention may include obtaining four-dimensional light field information including a combination of positional information about a plurality of two-dimensional images; Firstly converting the obtained 4D optical field information into a 4D phase space function; And reconstructing the two-dimensional image by quadratic transforming the four-dimensional phase space function.

Description

영상 처리 장치 및 이의 영상 처리 방법{Device for processing image and method thereof}Image processing apparatus and image processing method thereof

본 발명은 영상 처리 장치에 관한 것으로, 특히 4차원 광 필드에서 획득한 영상 정보를 이용하여 깊이 정보를 포함하는 3차원 이미지를 획득할 수 있는 영상 처리 장치 및 이의 영상 처리 방법에 관한 것이다.The present invention relates to an image processing apparatus, and more particularly, to an image processing apparatus capable of acquiring a 3D image including depth information by using image information obtained from a 4D optical field, and an image processing method thereof.

카메라, 비디오 카메라, 현미경, 망원경 및 그외 여러 가지를 포함하는 것과 같은 촬상 어플리케이션은 일반적으로 수집되는 광량이 극히 제한적이었다. 이에 따라 대부분의 촬상 장치는 장치에 들어오는 광 분포에 대한 대부분의 정보를 기록하지 않기 때문이다. 예를 들면, 디지털 스틸 카메라 및 비디오 카메라와 같은 종래의 카메라는 월드(world)로부터 들어오는 광 분포에 대한 대부분의 정보를 기록하지 않는다. 이들 장치에서, 수집된 광은 자주, 상이한 심도(촬상 장치로부터의 거리)에서 포커싱하거나, 렌즈 수차를 교정하거나, 또는 화면 각을 조작 처리하는 것과 같은 여러 가지 어플리케이션을 위해 조작 처리를 할 수밖에 없다.Imaging applications such as cameras, video cameras, microscopes, telescopes and many others have typically had extremely limited amounts of light collected. This is because most imaging devices do not record most of the information about the light distribution entering the device. For example, conventional cameras such as digital still cameras and video cameras do not record most of the information about the light distribution coming from the world. In these devices, the collected light often has to be manipulated for various applications such as focusing at different depths (distance from the imaging device), correcting lens aberrations, or manipulating the screen angle.

이 중, 정지-촬상 어플리케이션의 경우에, 특정 장면을 캡쳐하는 전형적인 촬상 장치는 일반적으로 장면 내의 피사체 또는 물체에 초점을 맞추는데, 장면의 다른 부분들은 초점이 벗어나는 문제점이 있다. Among these, in the case of still-imaging applications, a typical imaging device for capturing a particular scene generally focuses on the subject or object in the scene, while other parts of the scene have the problem of out of focus.

비디오-촬상 어플리케이션의 경우에, 이와 유사한 문제들이 많이 나타나는데, 비디오 어플리케이션에서 사용된 이미지 집합은 초점이 맞게 장면을 캡쳐하지 못하는 문제점이 있다.In the case of video-imaging applications, many similar problems appear, but the problem is that the set of images used in the video application cannot capture the scene in focus.

많은 촬상 어플리케이션은 광을 수집하는데 사용된 장치(렌즈)로 인한 수차의 문제가 있었다. 그러한 수차는, 예를 들어 구면 수차, 색 수차, 왜곡, 광 필드의 굴곡, 경사 비점수차 및 코마(coma)를 포함할 수 있다. 수차의 교정은 전형적으로, 촬상 장치에 부피, 경비 및 무게를 추가하는 경향이 있을 때, 교정 광학계의 사용을 필요로 했다. 그러나 추가 광학계를 포함하는 것은 촬상 장치의 소형화 및 제조 비용 면에서 바람직하지 않게 한다. Many imaging applications have suffered from aberrations due to the device (lens) used to collect light. Such aberrations may include, for example, spherical aberration, chromatic aberration, distortion, bending of the light field, oblique astigmatism, and coma. Correction of aberrations typically required the use of correction optics when tending to add volume, expense and weight to the imaging device. However, including additional optical systems is undesirable in terms of miniaturization and manufacturing cost of the imaging device.

이러한 문제점을 해결하기 위하여, 이미 촬영된 영상을 소프트웨어적으로 재포커싱(refocusing)함으로써 기기의 단점 및 제약을 보완하는 방법이 미국특허등록 제 7,936,392에 제안되었다. In order to solve this problem, a method of compensating for the disadvantages and limitations of the device by refocusing the already taken image by software has been proposed in US Patent No. 7,936,392.

그러나 상기 선행특허에 개시된 방법은, 두 번의 푸리에 변환(Fourier Transform)이 사용되고 이 연산식에는 적분이 4번 적용되어 연산 속도가 감소될 수 있다. 예컨대, 이 방법에 의하여 한 장의 영상을 획득하는 데에는 3 내지 4초가 소요될 수 있어 실시간 영상을 처리하는 데에는 문제점이 있다.However, in the method disclosed in the above patent, two Fourier transforms are used, and an integral is applied four times to this equation, so that the calculation speed can be reduced. For example, it may take 3 to 4 seconds to acquire a single image by this method, and there is a problem in processing a real-time image.

본 발명에 따른 실시 예에서는, 4차원 광 필드에서 획득한 2차원 위치 정보의 조합을 위그너 함수로 변환하고, 이후 이를 라돈 변환함으로써, 감소된 연산량으로 깊이 정보를 포함하는 3차원 이미지를 획득할 수 있도록 한 영상 처리 장치 및 이의 영상 처리 방법을 제공하도록 한다.According to an embodiment of the present invention, by converting the combination of the two-dimensional position information obtained in the four-dimensional light field to the Wigner function, and then radon transform it to obtain a three-dimensional image including the depth information with a reduced amount of calculation An image processing apparatus and an image processing method thereof may be provided.

제안되는 실시 예에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 제안되는 실시 예가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It is to be understood that the technical objectives to be achieved by the embodiments are not limited to the technical matters mentioned above and that other technical subjects not mentioned are apparent to those skilled in the art to which the embodiments proposed from the following description belong, It can be understood.

본 발명의 실시 예에 따른 영상 처리 방법은, 복수의 2차원 이미지에 대한 위치 정보 들의 조합으로 이루어진 4차원 광 필드 정보를 획득하는 단계; 상기 획득한 4차원 광 필드 정보를 1차 변환하여, 4차원 위상 공간 함수로 변환하는 단계; 및 상기 4차원 위상 공간 함수를 2차 변환하여, 상기 2차원 이미지를 재구성하는 단계를 포함한다.An image processing method according to an embodiment of the present invention may include obtaining four-dimensional light field information including a combination of positional information about a plurality of two-dimensional images; Firstly converting the obtained 4D optical field information into a 4D phase space function; And reconstructing the two-dimensional image by quadratic transforming the four-dimensional phase space function.

또한, 상기 4차원 광 필드 정보를 획득하는 단계는, 포토 센서 어레이를 사용하여 초점 평면 상의 상이한 위치들로 전달되는 장면으로부터의 광을 검출하는 단계를 포함한다.In addition, obtaining the four-dimensional light field information includes detecting light from a scene that is delivered to different locations on a focal plane using a photo sensor array.

또한, 상기 2차원 이미지를 재구성하는 단계는, 상기 검출된 광을 재구성하여 상기 2차원 이미지의 적어도 일부분이 상이한 초점 평면에서 구성되는 이미지를 형성하는 단계를 포함한다.Reconstructing the two-dimensional image also includes reconstructing the detected light to form an image in which at least a portion of the two-dimensional image is constructed at different focal planes.

또한, 상기 4차원 위상 공간 함수로 변환하는 단계는, 상기 검출된 광으로부터 구성되는 4차원 광 필드 정보를 위그너 분포 함수로 변환하는 단계를 포함한다.The converting into the 4D phase space function may include converting 4D light field information configured from the detected light into a Wigner distribution function.

또한, 상기 4차원 광 필드 정보는 L(u,v,x,y)로 표현되고, 상기 위그너 분포 함수는 WDF(s,t,x,y)로 표현되며, 상기 s 및 t 파라미터는 다음과 같은 수학식에 의해 산출된다.In addition, the four-dimensional light field information is represented by L (u, v, x, y), the Wigner distribution function is represented by WDF (s, t, x, y), the s and t parameters are It is calculated by the following equation.

s = s`tan-1((u-x)/D), t= t`tan-1((v-y)/D)s = s`tan-1 ((u-x) / D), t = t`tan-1 ((v-y) / D)

여기에서, D는 포토센서 어레이와 마이크로렌즈 어레이 사이의 거리 값 또는 2차원 (x,y)면에서 (u,v)면까지의 거리임.Here, D is the distance value between the photosensor array and the microlens array or the distance from the two-dimensional (x, y) plane to the (u, v) plane.

S`와 t`는 1을 포함하는 임의의 상수로 4차원 광 필드 정보를 매칭시키기 위한 정보임. S` and t` are information for matching the 4D optical field information with any constant including 1.

또한, 상기 위그너 분포 함수 WDF(s,t,x,y)는 다음과 같은 수학식에 의해 산출된다.In addition, the Wigner distribution function WDF (s, t, x, y) is calculated by the following equation.

Figure pat00001
Figure pat00001

여기에서, k는 광원의 파수 벡터이고,

Figure pat00002
는 임의의 면에서의 2차원 이미지 분포를 의미하는 함수임.Where k is the wave vector of the light source,
Figure pat00002
Is a function of two-dimensional image distribution on any plane.

또한, 상기 2차원 이미지를 재구성하는 단계는, 상기 2차 변환을 수행하는 단계와, 상기 수행된 2차 변환에 의해 상기 검출된 광에 대응하는 2차원 이미지 또는 깊이 정보를 포함하는 3차원 이미지를 생성하는 단계를 포함한다.The reconstructing the two-dimensional image may include performing the quadratic transformation and performing a three-dimensional image including depth information or two-dimensional image corresponding to the detected light by the second transformation. Generating.

또한, 상기 2차 변환을 수행하는 단계는, 상기 변환된 위그너 분포 함수를 라돈 변환하는 단계를 포함한다.In addition, performing the quadratic transformation includes radon transforming the transformed Wigner distribution function.

또한, 상기 라돈 변환을 위한 스케일 팩터를 정의하는 단계를 더 포함한다.The method may further include defining a scale factor for the radon transform.

또한, 상기 스케일 팩터는 메인 렌즈의 초점 거리 및 광의 파장을 통해 결정되며, 상기 라돈 변환의 회전 각은 상기 생성되는 3차원 이미지의 깊이 방향을 결정한다.In addition, the scale factor is determined through the focal length of the main lens and the wavelength of the light, and the rotation angle of the radon transform determines the depth direction of the generated 3D image.

한편, 본 발명의 실시 예에 따른 영상 처리 장치는, 장면으로부터 이미지를 생성하는 영상 처리 장치에 있어서, 메인 렌즈; 광선들의 세트를 캡쳐하는 포토센서 어레이; 상기 메인 렌즈와 포토 센서 어레이 사이의 마이크로 렌즈 어레이; 및 상기 포토센서 어레이에 의해 캡쳐된 상기 광선들의 세트를 이용하여 복수의 2차원 이미지에 대한 위치 정보 들의 조합으로 이루어진 4차원 광 필드 정보를 획득하고, 상기 획득한 4차원 광 필드 정보를 토대로 상기 2차원 이미지를 재구성하는 데이터 처리부를 포함한다.On the other hand, the image processing apparatus according to an embodiment of the present invention, the image processing apparatus for generating an image from the scene, the main lens; A photosensor array for capturing a set of rays; A micro lens array between the main lens and the photo sensor array; And acquiring four-dimensional light field information consisting of a combination of positional information about a plurality of two-dimensional images using the set of light rays captured by the photosensor array, and based on the acquired four-dimensional light field information. And a data processor for reconstructing the dimensional image.

또한, 상기 데이터 처리부는, 상기 복수의 2차원 이미지에 대한 위치 정보 들의 조합으로 이루어진 4차원 광 필드 정보를 획득하는 영상 획득부와, 상기 획득한 4차원 광 필드 정보를 4차원 위상 공간 함수를 의미하는 위그너 분포 함수로 변환하는 위그너 함수부와, 상기 변환된 위그너 분포 함수를 라돈 변환하여 상기 2차원 이미지를 재구성하는 라돈 변환부를 포함한다.In addition, the data processor is an image acquisition unit for acquiring four-dimensional light field information consisting of a combination of position information for the plurality of two-dimensional images, and the acquired four-dimensional light field information means a four-dimensional phase space function And a Wigner function unit for converting the Wigner distribution function, and a Radon transform unit for reconstructing the 2D image by radon transforming the converted Wigner distribution function.

또한, 상기 영상 획득부는 상기 포토 센서 어레이를 사용하여 초점 평면상의 상이한 위치들로 전달되는 장면으로부터의 광을 검출한다.The image acquisition unit also detects light from the scene that is delivered to different locations on the focal plane using the photo sensor array.

또한, 상기 라돈 변환부는, 상기 검출된 광을 재구성하여 상기 2차원 이미지의 적어도 일부분이 상이한 초점 평면에서 구성되는 이미지를 생성한다.The radon converter may reconstruct the detected light to generate an image in which at least a portion of the two-dimensional image is configured in a different focal plane.

또한, 상기 4차원 광 필드 정보는 L(u,v,x,y)로 표현되고, 상기 위그너 분포 함수는 WDF(s,t,x,y)로 표현되며, 상기 s 및 t 파라미터는 다음과 같은 수학식에 의해 산출된다.In addition, the four-dimensional light field information is represented by L (u, v, x, y), the Wigner distribution function is represented by WDF (s, t, x, y), the s and t parameters are It is calculated by the following equation.

s = s`tan-1((u-x)/D), t= t`tan-1((v-y)/D)s = s`tan-1 ((u-x) / D), t = t`tan-1 ((v-y) / D)

여기에서, D는 포토센서 어레이와 마이크로렌즈 어레이 사이의 거리 값 또는 2차원 (x,y)면에서 (u,v)면까지의 거리임.Here, D is the distance value between the photosensor array and the microlens array or the distance from the two-dimensional (x, y) plane to the (u, v) plane.

S`와 t`는 1을 포함하는 임의의 상수로 4차원 광 필드 정보를 매칭시키기 위한 정보임.S` and t` are information for matching the 4D optical field information with any constant including 1.

또한, 상기 위그너 함수부는 다음과 같은 수학식에 의해 상기 위그너 분포 함수 WDF(s,t,x,y)를 산출한다.In addition, the Wigner function unit calculates the Wigner distribution function WDF (s, t, x, y) by the following equation.

Figure pat00003
Figure pat00003

여기에서, k는 광원의 파수 벡터이고,

Figure pat00004
는 임의의 면에서의 2차원 이미지 분포를 의미하는 함수임.Where k is the wave vector of the light source,
Figure pat00004
Is a function of two-dimensional image distribution on any plane.

또한, 상기 라돈 변환부는 상기 위그너 분포 함수를 라돈 변환하여, 상기 검출된 광에 대응하는 2차원 이미지 또는 깊이 정보를 포함하는 3차원 이미지를 생성한다.The radon transform unit may generate a 3D image including the 2D image or the depth information corresponding to the detected light by radon transforming the Wigner distribution function.

또한, 상기 라돈 변환부는 기 정의된 스케일 팩터를 토대로 라돈 변환을 수행하며, 상기 스케일 팩터는 메인 렌즈의 초점 거리 및 광의 파장을 통해 결정되며, 상기 라돈 변환의 회전 각은 상기 생성되는 3차원 이미지의 깊이 방향을 결정한다.In addition, the radon transform unit performs a radon transform based on a predefined scale factor, the scale factor is determined based on the focal length and the wavelength of light of the main lens, the rotation angle of the radon transform of the generated three-dimensional image Determine the depth direction.

본 발명에 따른 실시 예에 의하면, 4차원 광 필드에서 획득한 2차원 이미지 정보의 조합을 이용하여 깊이 정보를 포함하는 3차원 이미지 또는 2차원 이미지를 실시간으로 획득할 수 있다.According to an embodiment of the present invention, a three-dimensional image or a two-dimensional image including depth information may be obtained in real time using a combination of two-dimensional image information acquired in a four-dimensional light field.

또한, 본 발명에 따른 실시 예에 의하면, 위그너 함수 변환 및 라돈 변환을 이용하여 깊이 정보를 포함하는 3차원 이미지를 획득함으로써, 적분 연산 횟수를 줄여 연산의 속도를 증가시킬 수 있으며, 이에 따라 실시간으로 이미지 처리를 수행할 수 있는 효과가 있다.In addition, according to an embodiment of the present invention, by obtaining a three-dimensional image including the depth information by using the Wigner function transform and the Radon transform, it is possible to increase the speed of the operation by reducing the number of integral operations, accordingly This has the effect of performing image processing.

도 1은 본 발명의 실시 예에 따른 영상 처리 장치(100)를 도시한 것이다.
도 2는 수집된 데이터에 관한 L(u,v,s,t) 공간 내의 광선으로의 센서 픽셀 위치의 매핑에 대한 방법을 나타낸다.
도 3은 본 발명의 실시 예에 따른 데이터 처리부의 구성을 나타낸 도면이다.
도 4는 본 발명의 일 실시 예에 따른 영상 처리 방법을 단계별로 설명하기 위한 흐름도이다.
1 illustrates an image processing apparatus 100 according to an embodiment of the present invention.
2 illustrates a method for mapping sensor pixel positions to light rays in L (u, v, s, t) space with respect to the collected data.
3 is a diagram illustrating a configuration of a data processor according to an exemplary embodiment of the present invention.
4 is a flowchart illustrating a step-by-step method for processing an image according to an exemplary embodiment.

이하의 내용은 단지 본 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만 본 발명의 원리를 구현하고 본 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시 예들은 원칙적으로, 본 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시 예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다.The following merely illustrates the principles of the invention. Thus, those skilled in the art will be able to devise various apparatuses which, although not explicitly described or shown herein, embody the principles of the invention and are included in the concept and scope of the invention. Furthermore, all of the conditional terms and embodiments listed herein are, in principle, only intended for the purpose of enabling understanding of the concepts of the present invention, and are not to be construed as limited to such specifically recited embodiments and conditions do.

또한, 본 발명의 원리, 관점 및 실시 예들뿐만 아니라 특정 실시 예를 열거하는 모든 상세한 설명은 이러한 사항의 구조적 및 기능적 균등물을 포함하도록 의도되는 것으로 이해되어야 한다. 또한 이러한 균등물들은 현재 공지된 균등물 뿐만 아니라 장래에 개발될 균등물 즉 구조와 무관하게 동일한 기능을 수행하도록 발명된 모든 소자를 포함하는 것으로 이해되어야 한다.It is also to be understood that the detailed description, as well as the principles, aspects and embodiments of the invention, as well as specific embodiments thereof, are intended to cover structural and functional equivalents thereof. It is also to be understood that such equivalents include all elements contemplated to perform the same function irrespective of the currently known equivalents as well as the equivalents to be developed in the future, i.e., the structure.

도 2는 본 발명의 실시 예에 따른 영상 처리 장치를 나타낸 도면이다.2 is a diagram illustrating an image processing apparatus according to an exemplary embodiment of the present invention.

도 2를 참조하면, 영상 처리 장치(100)는 물체의 상을 맺기 위한 메인 렌즈(110), 메인 렌즈(110)를 통과한 광선들을 광선들의 방향에 기초하여 분리하여 포토 센서 어레이(130)로 향하게 하는 마이크로렌즈 어레이(120) 및 포토센서 어레이(130)를 갖고 있는 광 필드 데이터 캡처부(140) 및 캡처된 광 필드 데이터를 처리하는 데이터 처리부(150)를 포함한다. Referring to FIG. 2, the image processing apparatus 100 splits the light beams passing through the main lens 110 and the main lens 110 to form an image of an object based on the direction of the light beams to the photo sensor array 130. A light field data capture unit 140 having a microlens array 120 and a photosensor array 130 to be directed; and a data processor 150 for processing the captured light field data.

이 경우에, 마이크로렌즈 어레이(120) 및 포토센서 어레이(130)는 이미지 센서(160)로 구현될 수 있다. 이와 같은 영상 처리 장치를 이용하여 리포커싱된 영상이나 여러 각도에서 보이는 영상을 획득(즉, 영상의 뷰 조정)할 수 있다.In this case, the microlens array 120 and the photosensor array 130 may be implemented as the image sensor 160. Such an image processing apparatus may be used to acquire a refocused image or an image viewed from various angles (that is, to adjust the view of the image).

이미지화된 장면 내의 피사체(105) 상의 단일점으로부터의 광선들은 마이크로렌즈 [0017] 어레이(120)의 초점 평면 상의 단일 수렴점으로 도달될 수 있다. Rays from a single point on the subject 105 in the imaged scene may be reached at a single convergence point on the focal plane of the microlens array 120.

이 수렴점에서의 마이크로렌즈(122)는 이들 광선들을 광의 방향에 기초하여 분리시켜, 마이크로 렌즈 아레의 포토센서 상에 메인 렌즈(110)의 구경의 포커싱된 이미지를 생성한다.The microlens 122 at this convergence point separates these rays based on the direction of the light, producing a focused image of the aperture of the main lens 110 on the photosensor of the micro lens arena.

포토센서 어레이(130)는 그 위에 입사되는 광을 검출하고, 여러 가지 성분의 하나 이상을 사용하여 처리되는 출력을 생성한다. 출력 광 데이터는 예를 들어, 피사체(105, 106, 및 107)을 포함하는 장면의 이미지를 생성할 때 데이터를 제공하는 각 포토센서에 대한 위치정보와 함께 데이터를 사용하는 데이터 처리부(150)로 보내진다.The photosensor array 130 detects light incident thereon and produces an output that is processed using one or more of the various components. The output optical data may be, for example, sent to the data processor 150 using the data together with the position information of each photosensor providing the data when generating an image of a scene including the subjects 105, 106, and 107. Is sent.

데이터 처리부(150)는, 예를 들어, 공통 부품(예를 들어, 한 칩) 또는 상이한 부품에 선택적으로 구현된 컴퓨터 또는 기타 처리 회로로 구현될 수 있다. 데이터 처리부(150)의 일부는 광 필드 데이터 캡처부(140) 내에 구현되고, 다른 부분은 외부 컴퓨터에 구현될 수 있다. The data processor 150 may be implemented with, for example, a computer or other processing circuit selectively implemented in a common component (eg, one chip) or a different component. A part of the data processor 150 may be implemented in the light field data capture unit 140, and the other part may be implemented in an external computer.

데이터 처리부(150)는 이미지 데이터를 처리하고 피사체(105, 106 및 107)를 포함하는 장면의 이미지를 계산하도록 구현된다.The data processor 150 is implemented to process image data and to calculate an image of a scene including the subjects 105, 106, and 107.

데이터 처리부(150)는 광이 마이크로렌즈 어레이에 도달한 공지된 방향(각 포토센서의 공지된 위치를 사용하여 계산됨)과 함께 검출된 광 또는 검출된 광의 특성을 사용하여 리포커싱(refocusing)이 교정될 수 있는 이미지를 형성할 때 데이터를 선택적으로 리포커싱 및/또는 교정한다.The data processing unit 150 uses the detected light or the characteristic of the detected light together with the known direction in which the light reaches the microlens array (calculated using the known position of each photosensor) to achieve refocusing. Selectively refocus and / or correct data when forming an image that can be corrected.

영상 처리 장치(100)는 어플리케이션에 따라 다르게 여러 가지 방식으로 구현된다. 예를 들어, 마이크로렌즈(120)는 예로서 몇 개의 구별 가능한 마이크로렌즈로 도시되지만, 어레이는 일반적으로 다수의(예를 들어, 수천 또는 수백만) 마이크로렌즈로 구현된다. The image processing apparatus 100 may be implemented in various ways depending on the application. For example, the microlens 120 is shown by way of several distinguishable microlenses by way of example, but the array is typically implemented with multiple (eg, thousands or millions) microlenses.

메인 렌즈(110)를 통과한 광선들을 광선들의 방향에 기초하여 분리하는 한 마이크로렌즈 어레이(120) 이외에 광 부호화 마스크 등 다른 형태로 구성될 수 있다. 본 기술분야의 통상의 지식을 가진 자는 현재 이용 가능하거나 장래에 개발되는 여러 가지 렌즈 및/또는 마이크로 렌즈 어레이를 이용하여 메인 렌즈(110) 및 마이크로렌즈 어레이(120)가 구현될 수 있음을 알 수 있을 것이다.In addition to the microlens array 120, the optical rays may pass through the main lens 110 and may be configured in other forms, such as an optical coding mask. Those skilled in the art will appreciate that the main lens 110 and microlens array 120 can be implemented using various lenses and / or microlens arrays that are currently available or developed in the future. There will be.

포토센서 어레이(130)는 일반적으로, 마이크로렌즈 어레이(120) 내의 각각의 마이크로렌즈마다 몇 개의 포토센서를 갖는다. 포토센서 어레이(130)의 각 픽셀의 크기 즉, 피치(pitch)는 마이크로렌즈 어레이(122)보다 상대적으로 미세하다. 또한, 마이크로렌즈 어레이(120)내의 마이크로렌즈 및 포토센서 어레이(130) 내의 포토센서는 일반적으로 각각의 마이크로렌즈를 통해 포토센서 어레이로 나아가는 광이 인접한 마이크로렌즈를 통해 나아간광과 겹치지 않도록 위치 설정될 수 있다.The photosensor array 130 generally has several photosensors for each microlens in the microlens array 120. The size of each pixel of the photosensor array 130, that is, the pitch, is relatively finer than that of the microlens array 122. In addition, the microlenses in the microlens array 120 and the photosensors in the photosensor array 130 are generally positioned such that the light that goes through the respective microlenses to the photosensor array does not overlap with the light that passes through the adjacent microlenses. Can be.

메인 렌즈(110)는 메인 렌즈(110)와 예시적인 촬상 피사체(105) 사이에 예시된 바와 같은 원하는 심도 'd'에서 관심 있는 피사체 상에 포커싱하기 위해 광축을 따라 수평방향으로 이동되는 것과 같은 성능을 가진다. The main lens 110 has a performance such as being moved horizontally along the optical axis to focus on the subject of interest at the desired depth 'd' as illustrated between the main lens 110 and the exemplary imaging subject 105. Has

따라서, 획득된 광 필드 데이터 기반으로 각 관심 위치에 리포커싱을 할 수 있다.Therefore, it is possible to refocus at each location of interest based on the obtained light field data.

예로서, 피사체(105)의 단일점으로부터의 광선들은 이러한 설명을 위해 도시된다. 이들 광선들은 마이크로렌즈어레이(120)의 초점 평면상의 마이크로렌즈(122)에서 단일 수렴점으로 도달할 수 있다. By way of example, light rays from a single point of the subject 105 are shown for this description. These rays may reach a single convergence point in the microlens 122 on the focal plane of the microlens array 120.

마이크로렌즈(122)는 이들 광선들의 방향에 기초하여 분리해서, 마이크로렌즈 아래의 픽셀 어레이 내의 픽셀 세트 상에서 메인 렌즈(110)의 구경의 포커싱된 이미지 및 광 필드 데이터를 생성한다.The microlens 122 separates based on the direction of these rays to produce a focused image and light field data of the aperture of the main lens 110 on a set of pixels in the pixel array below the microlens.

영상 처리 장치(100) 내부의 2-평면 광 필드 "L"을 고려하면, 광 필드 데이터 L(u,v,s,t)는 (u,v)에서 메인 렌즈(110)와 교차하고, (s,t)에서 마이크로렌즈 어레이(120)의 평면과 교차하는 광선을 따라 이동하는 광을 나타낸다. 예를 들어, 각 마이크로 렌즈 (s,t)에서, 메인 렌즈(110)의 각 서브-어퍼쳐(sub-aperture)의 위치(u,v)를 통과하는 인텐서티 값들을 나타낸다. Considering the two-plane light field "L" inside the image processing apparatus 100, the light field data L (u, v, s, t) intersects the main lens 110 at (u, v), and s, t) represents light traveling along a ray intersecting the plane of the microlens array 120. For example, in each micro lens (s, t), the intensity values passing through the position (u, v) of each sub-aperture of the main lens (110).

여기에서, 서브-어퍼쳐는 메인 렌즈(110)의 방향 분해능의 개수를 의미한다. 예를 들어, 서브-어퍼쳐의 개수가 196개인 경우, 각 마이크로렌즈 어레이(120)는 196개의 픽셀로 구성될 수 있다.Here, the sub-aperture means the number of directional resolutions of the main lens 110. For example, when the number of sub-apertures is 196, each microlens array 120 may include 196 pixels.

포토센서 어레이(130)내의 각각의 포토센서는 메인 렌즈(110) 및 마이크로렌즈 어레이(120)를 통해 포토센서로 향한 광선 세트를 나타내는 값을 제공하도록 구현될 수 있다. 즉, 각각의 포토센서는 포토센서상에 입사된 광에 응답하여 출력을 생성하고, 마이크로렌즈 어레이(120)에 대한 각 포토센서의 위치는 입사광에 대한 방향 정보를 제공하기 위해 이용된다.Each photosensor in photosensor array 130 may be implemented to provide a value indicative of a set of rays directed to photosensors through main lens 110 and microlens array 120. That is, each photosensor produces an output in response to light incident on the photosensors, and the position of each photosensor relative to the microlens array 120 is used to provide direction information for the incident light.

데이터 처리부(150)는 광 필드 데이터 즉, L(u,v,s,t)를 이용하여 깊이 정보를 포함하는 3차원 영상을 생성할 수 있다. 이때, 데이터 처리부(150)는 마이크로렌즈에 대한 각 포토센서의 위치를 이용하여 각 포토센서 상의 광의 방향을 결정할 수 있다. The data processor 150 may generate a 3D image including depth information using light field data, that is, L (u, v, s, t). In this case, the data processor 150 may determine the direction of light on each photosensor using the position of each photosensor with respect to the microlens.

또한, 데이터 처리부(150)는 검출된 광이 퍼져 나오는 장면 내의 피사체의 시야 심도를 결정하고, 시야 심도 및 검출된 광의 방향을 사용해서, 초점 평면과는 상이한 초점 평면상에서 포커싱되는 합성 영상을 계산할 수 있다.In addition, the data processor 150 may determine a depth of field of a subject in a scene in which the detected light is spread, and calculate a synthesized image focused on a focal plane different from the focal plane by using the depth of field and the direction of the detected light. have.

이하에서는, 본 발명의 영상 처리 장치로서, 데이터 처리부(150)에서 수행되는 이미지 처리 방법에 대하여 보다 구체적으로 설명하기로 한다.Hereinafter, as an image processing apparatus of the present invention, an image processing method performed by the data processing unit 150 will be described in more detail.

도 2는 4차원 광 공간 L(u,v, x,y)에서의 광선에 대한 센서 픽셀 위치의 매핑에 대한 방법을 나타낸다. 2 shows a method for the mapping of sensor pixel positions to light rays in a four-dimensional optical space L (u, v, x, y).

도 2에 도시되고 여기에서 설명된 방법은, 예를 들어 도 1에 적용 가능하고, 포토센서 어레이(130) 내의 각 포토 센서는 센서 픽셀에 대응할 수 있다. The method shown in FIG. 2 and described herein, for example, is applicable to FIG. 1, and each photosensor in photosensor array 130 may correspond to a sensor pixel.

하부 우측의 이미지(1170)는 포토센서어레이(130)로부터 판독된 미가공 데이터의 다운 샘플링을 나타내고, 상기 이미지(1170)의 원형 이미지 중 일부(1150)는, 좌측 동그라미 쳐진 하나의 마이크로렌즈 아래에 생기는 원형 이미지(1150)가 될 수 있다. The lower right image 1170 represents downsampling of the raw data read from the photosensor array 130, and some of the circular images 1150 of the image 1170 appear below a single microlens circled to the left. It may be a circular image 1150.

하부 좌측의 이미지(1180)는 동그라미 쳐진 마이크로렌즈 이미지(1150) 주위의 미가공 데이터의 일부분을 확대한 것으로서, 마이크로렌즈 이미지(1150) 내에 동그라미 쳐진 하나의 포토센서 값(1140)이 있다. The lower left image 1180 is an enlargement of a portion of the raw data around the circled microlens image 1150, with one photosensor value 1140 circled within the microlens image 1150.

이 원형 이미지(1150)가 렌즈 구경의 이미지이기 때문에, 디스크 내의 선택된 픽셀의 위치는 메인 렌즈 상의 도시된 광선(110)의 시작 위치의 (u,v) 좌표를 제공할 수 있다.Since this circular image 1150 is an image of a lens aperture, the position of the selected pixel in the disk can provide (u, v) coordinates of the starting position of the depicted ray 110 on the main lens.

센서 이미지(1170) 내의 마이크로렌즈 이미지(1150)의 위치는 광선(110)의 (x,y) 좌표를 제공할 수 있다.The location of the microlens image 1150 within the sensor image 1170 may provide (x, y) coordinates of the ray 110.

도 1과 관련하여, 포토센서 어레이 내의 각각의 포토센서는 이렇게 메인 렌즈(110) 및 마이크로렌즈 어레이(120)를 통해 포토센서로 향한 광선세트를 나타내는 값을 제공하도록 구현될 수 있다. With reference to FIG. 1, each photosensor in the photosensor array can thus be implemented to provide a value representing a set of rays directed through the main lens 110 and microlens array 120 to the photosensor.

즉, 각각의 포토센서는 포토센서 상에 입사된 광에 응답하여 출력을 생성하고, 마이크로렌즈 어레이(120)에 대한 각 포토센서의 위치는 입사 광에 대한 방향 정보를 제공하기 위해 사용될 수 있다.That is, each photosensor generates an output in response to light incident on the photosensors, and the position of each photosensor relative to the microlens array 120 may be used to provide direction information for the incident light.

한편, 마이크로렌즈 어레이(120)의 분해능은 특정 어플리케이션의 최종 이미지를 위한 원하는 분해능에 맞도록 선택될 수 있다. 포토센서 어레이(130)의 분해능은 각 마이크로렌즈가 어플리케이션의 원하는 방향 분해능, 또는 구현될 수 있는 포토센서의 가장 정교한 분해능에 맞추기 위해 필요한 만큼 많은 포토센서를 커버하도록 선택될 수 있다.
On the other hand, the resolution of the microlens array 120 may be selected to suit the desired resolution for the final image of the particular application. The resolution of the photosensor array 130 may be selected so that each microlens covers as many photosensors as necessary to match the desired orientation resolution of the application, or the most sophisticated resolution of the photosensors that can be implemented.

도 3은 본 발명의 일 실시예에 따른 데이터 처리부(150)의 구성을 나타낸 도면이다.3 is a diagram illustrating a configuration of a data processor 150 according to an embodiment of the present invention.

도 3을 참조하면 본 발명의 실시 예에 따른 데이터 처리부(150)는 전달되는 장면(scene)으로부터의 광을 동시에 검출하는 영상 획득부(151)와, 검출된 광으로 구성되는 4차원 광 필드의 인자를 위그너 함수로 변환하는 위그너 함수부(153)와, 상기 위그너 함수부(153)를 통해 변환된 위그너 함수를 라돈 변환하는 라돈 변환부(155)를 포함할 수 있다.Referring to FIG. 3, the data processor 150 according to an exemplary embodiment of the present invention may include an image acquisition unit 151 for simultaneously detecting light from a scene to be delivered, and a four-dimensional light field including the detected light. The Wigner function unit 153 converts an argument into a Wigner function, and a Radon transform unit 155 for radon transforming the Wigner function converted through the Wigner function 153.

영상 획득부(151)는 4차원 광 공간 L(u,v,x,y) 에서의 광선에 대한 센서 픽셀 위치에 관한 이미지 정보를 획득할 수 있다. The image acquisition unit 151 may acquire image information regarding the sensor pixel position with respect to the light ray in the 4D optical space L (u, v, x, y).

위그너 함수부(153) 및 라돈 변환부(155)에서 수행되는 동작은 본 발명의 실시 예에 따른 출력 이미지 생성 동작과 대응될 수 있다. Operations performed by the Wigner function unit 153 and the radon transform unit 155 may correspond to an output image generation operation according to an embodiment of the present invention.

위그너 함수부(153) 및 라돈 변환부(155)는 출력 이미지를 생성하는데 있어서, 검출된 광을 이용하여 이미지의 적어도 일부분이 상이한 초점 평면에서 포커싱되는 이미지를 형성하는 일련의 동작을 수행할 수 있다. In generating an output image, the Wigner function 153 and the radon transform unit 155 may perform a series of operations using the detected light to form an image in which at least a portion of the image is focused at different focal planes. have.

구체적으로 위그너 함수부(153)는 광으로 구성되는 4차원 광 필드의 인자를 위그너 함수로 변환할 수 있다. In detail, the Wigner function 153 may convert a factor of a four-dimensional light field composed of light into a Wigner function.

예컨대, 4차원 광 필드의 포토센서 픽셀 위치에 관한 이미지 정보가 상술한 바와 같이, L(u, v, x, y) 인 경우, 상기 위그너 함수부(153)는 상기 4차원 광 필드 값을 이용하여 위그너 함수(WDF(s,t,x,y))를 생성한다.For example, when the image information regarding the photosensor pixel position of the four-dimensional light field is L (u, v, x, y), the Wigner function 153 may determine the four-dimensional light field value. Create a Wigner function (WDF (s, t, x, y)).

상기 2차원 이미지들의 위치 정보에 대한 조합으로 이루어진 4차원 광 필드 정보를 위그너 분포 함수로 변환하는 것은 빛의 회절 현상이 개구면의 면적과 파장과의 비율의 일정 이상 되었을 때, 프레넬 회절하는 특성을 이용하는 것으로, 복수의 2차원 위치 정보들을 4차원 위상 공간 위그너 분포 함수로 변환할 수 있다.Converting four-dimensional light field information, which is a combination of the position information of the two-dimensional images, into a Wigner distribution function, is performed when Fresnel diffraction occurs when the light diffraction phenomenon is greater than or equal to a ratio of the area of the aperture and the wavelength. By using the characteristic, a plurality of two-dimensional position information can be converted into a four-dimensional phase space Wigner distribution function.

즉, (u, v)와 (x, y)의 위치 공간 정보를 L(u, v, x, y)의 각도와 위상 공간 변수로 바꾸고, 이를 위그너 분포 함수로 표현할 수 있다.That is, the positional space information of (u, v) and (x, y) may be changed into an angle and a phase space variable of L (u, v, x, y) and expressed as a Wigner distribution function.

상기와 같이, 위그너 함수에 입력되는 파라미터는 s, t, x, y를 포함하며, 여기에서 상기 s 및 t는 아래 수학식 1에서와 같이 산출될 수 있다.As described above, the parameter input to the Wigner function includes s, t, x, and y, where s and t may be calculated as in Equation 1 below.

Figure pat00005
Figure pat00005

여기에서, D는 포토센서 어레이와 마이크로렌즈 어레이 사이의 거리 값을 사용할 수 있으나, 2차원 (x,y)면에서 (u,v)면까지의 거리를 의미할 수 있다.Here, D may use a distance value between the photosensor array and the microlens array, but may mean a distance from the two-dimensional (x, y) plane to the (u, v) plane.

또한, s`와 t`는 일반적으로 1을 사용하나, 이 이외에도 임의의 상수를 사용할 수 있으며, 이는 4차원 광 필드 정보를 매칭시키는 역할을 한다.In addition, s` and t` generally use 1, but any other constant may be used, which serves to match 4D optical field information.

즉, s, t 는 위치 좌표(x,y) 값의 각도를 나타낼 수 있다. That is, s and t may represent angles of position coordinates (x, y) values.

이때, 상기 위그너 함수부(153)는 아래의 수학식 2를 이용하여 상기 4차원 광 필드 값을 토대로 위그너 함수값(WDF(s,t,x,y))을 산출한다.At this time, the Wigner function unit 153 calculates a Wigner function value WDF (s, t, x, y) based on the four-dimensional light field value using Equation 2 below.

Figure pat00006
Figure pat00006

여기에서, 상기 식2에 기재된 k는 광원의 파수벡터를 의미한다. Here, k described in Equation 2 means the wavenumber vector of the light source.

또한, 상기 식 2에 기재된

Figure pat00007
는 임의의 면에서의 2차원 이미지 분포를 의미하는 함수이다. In addition, it is described in Formula 2
Figure pat00007
Is a function of the two-dimensional image distribution in any plane.

이때, 임의의 거리 'd'에서의 이미지 분포 값 P_d(x)는 아래의 수학식 3과 같이 위그너 분포 함수의 좌표 회전 함수로 정의할 수 있다.In this case, the image distribution value P_d (x) at an arbitrary distance 'd' may be defined as a coordinate rotation function of the Wigner distribution function as shown in Equation 3 below.

Figure pat00008
Figure pat00008

수학식 3은 일정 거리 'd'에서의 2차원 이미지 분포 함수와 회전 변환 각도

Figure pat00009
와 2차원 이미지 면의 x`으로 나타낼 수 있음을 보여준다.Equation 3 is a two-dimensional image distribution function and rotation conversion angle at a constant distance 'd'
Figure pat00009
And x 'of the two-dimensional image plane.

이때 스케일 벡터 s와 회전 변환 각도

Figure pat00010
와의 관계는 아래 수학식 4와 같이 정의될 수 있다.Where the scale vector s and the rotation transformation angle
Figure pat00010
The relationship with may be defined as in Equation 4 below.

Figure pat00011
Figure pat00011

즉, 위그너 함수값은 4차원 광 필드의 위치좌표의 2차원 평면에 대한 분포 값일 수 있다. That is, the Wigner function value may be a distribution value of the two-dimensional plane of the position coordinate of the four-dimensional light field.

라돈 변환부(155)는 위그너 함수를 라돈 변환하여 출력 이미지를 생성할 수 있다. The radon converter 155 may generate an output image by radon transforming the Wigner function.

라돈 변환부(155)는 위그너 함수를 통하여 산출된 분포 값 함수를 라디안 선을 따라 적분함으로써 실제 영상에 대한 출력 이미지를 생성할 수 있다. The radon converter 155 may generate an output image of the actual image by integrating the distribution value function calculated through the Wigner function along the radian line.

본 명세서에서는 4차원 광 필드에서의 위그너 함수값을 라디안 연산하여야 하므로 2차원 함수의 2번 적분이 요구된다. 라돈 변환은 아래의 수학식5에 의해 산출될 수 있다.In this specification, since the Wigner function is to be calculated in radians in a 4D optical field, integration of the 2D function is required twice. The radon transform may be calculated by Equation 5 below.

Figure pat00012
Figure pat00012

이에 따라, 위그너 분포 함수를 라돈 변환하여 2차원 이미지를 재구성할 수 있으며, 깊이 정보를 포함하는 3차원 이미지를 구성할 수 있다. 이때, 이러한 것이 가능한 이유는 위상 공간상에서 표현된 위그너 분포 함수의 라돈 변환이 프렉셔널 푸리에 변환(Fractional Fourier Transform)과 일대일 관계를 가진다는 광학적 특성을 이용하는 것이고, 이때 적절한 스케일 팩터를 정의해주는 것으로 간단하게 라돈 변환을 통해 이미지 재구성이 가능하다.Accordingly, the 2D image may be reconstructed by radon transforming the Wigner distribution function, and a 3D image including depth information may be configured. The reason for this is to use the optical property that the Radon transform of the Wigner distribution function expressed in phase space has a one-to-one relationship with the Fractional Fourier Transform, which simply defines the appropriate scale factor. Radon transform allows image reconstruction.

이때, 상기 정의되는 스케일 팩터는 메인 렌즈의 초점 거리와 광의 파장을 통해 결정할 수 있으며, 이때 라돈 변환의 회전 각이 깊이 방향을 결정하게 된다.In this case, the defined scale factor may be determined based on the focal length of the main lens and the wavelength of light, and the rotation angle of the radon transform determines the depth direction.

다시 말해서, 위그너 분포 함수를 각도에 대하여 회전창 적분인 라돈 변환을 하게 되면, 일정 위치의 이미지 분포를 얻게 되는데, 이때 적절한 스케일 상수를 곱해줌으로써 일정한 위치에 있는 평면 이미지를 획득할 수 있다.In other words, when the Wigner distribution function is transformed into a Radon transform that is a rotational window integral with respect to an angle, an image distribution of a certain position is obtained, and a plane image at a constant position can be obtained by multiplying an appropriate scale constant.

상술한 바와 같이, 본 발명의 영상 처리 장치에서는 4차원 이미지 정보를 4번 적분하였던 종래 방법과 대비하여 3번의 적분만 수행하면 되므로 연산량이 감소될 수 있다.As described above, in the image processing apparatus of the present invention, since only three integrations are required as compared with the conventional method of integrating four-dimensional image information four times, the amount of computation can be reduced.

즉, 상기와 같은 본 발명의 실시 예에 따르면, 2차원 이미지 정보의 조합을 이용하여 깊이 정보를 포함하는 3차원 이미지 또는 2차원 이미지를 실시간으로 획득할 수 있다.That is, according to the embodiment of the present invention as described above, it is possible to obtain a three-dimensional image or two-dimensional image including depth information in real time by using a combination of two-dimensional image information.

또한, 본 발명에 따른 실시 예에 의하면, 위그너 함수 변환 및 라돈 변환을 이용하여 깊이 정보를 포함하는 3차원 이미지를 획득함으로써, 적분 연산 횟수를 줄여 연산의 속도를 증가시킬 수 있으며, 이에 따라 실시간으로 이미지 처리를 수행할 수 있다.In addition, according to an embodiment of the present invention, by obtaining a three-dimensional image including the depth information by using the Wigner function transform and the Radon transform, it is possible to increase the speed of the operation by reducing the number of integral operations, accordingly Image processing can be performed.

도 4는 본 발명의 일 실시 예에 따른 영상 처리 방법을 단계별로 설명하는 도면이다.4 is a diagram illustrating step by step an image processing method according to an exemplary embodiment.

단계(S11)에서, 포토센서 어레이(photosensor array)를 사용하여 초점 평면 상의 상이한 위치들로 전달되는 장면(scene)으로부터의 센서 픽셀 위치에 관한 이미지 정보를 검출하여 이미지 정보를 획득한다. In step S11, image information is obtained by detecting image information about the sensor pixel position from a scene delivered to different positions on the focal plane using a photosensor array.

단계(S12)에서, 센서 픽셀 위치에 관한 이미지 정보가 4차원 광 필드에서의 픽셀의 위치에 관한 정보인 경우에는 위그너 함수 값에 적용한다.In step S12, when the image information about the sensor pixel position is the information about the position of the pixel in the four-dimensional light field, it is applied to the Wigner function value.

단계(S13)에서, 위그너 함수 값을 라돈 변환함으로써 출력 이미지를 생성한다.In step S13, an output image is generated by radon transforming the Wigner function value.

이때, 상기 라돈 변환 시 정의되는 스케일 팩터를 이용하여, 임의의 깊이 정보를 포함하는 3차원 영상을 생성할 수 있다.In this case, a 3D image including arbitrary depth information may be generated using the scale factor defined during the radon transformation.

이상, 본 발명의 일 실시예에 따른 영상 처리 방법 등에 대해 설명하였다. 본 발명의 영상 처리 방법은, 컴퓨터에 의해 판독가능한 기록 매체에 전자적 기록 코드로 저장되어 제공될 수 있다In the above, the image processing method and the like according to an embodiment of the present invention have been described. The image processing method of the present invention may be provided stored as an electronic recording code in a computer-readable recording medium.

또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형 실시 가능한 것은 물론이고, 이러한 변형 실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안 될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention.

100: 영상 처리 장치
110: 메인 렌즈
120: 마이크로렌즈 어레이
130: 포토센서 어레이
140: 광 필드 데이터 캡쳐부
150: 데이터 처리부
151: 영상 획득부
153: 위그너 함수부
155: 라돈 변환부
100: image processing device
110: main lens
120: microlens array
130: photo sensor array
140: light field data capture unit
150: data processing unit
151: image acquisition unit
153: Wigner function
155: radon converter

Claims (18)

복수의 2차원 이미지에 대한 위치 정보들의 조합으로 이루어진 4차원 광 필드 정보를 획득하는 단계;
상기 획득한 4차원 광 필드 정보를 1차 변환하여, 4차원 위상 공간 함수로 변환하는 단계; 및
상기 4차원 위상 공간 함수를 2차 변환하여, 상기 2차원 이미지를 재구성하는 단계를 포함하는 영상 처리 방법.
Acquiring four-dimensional light field information consisting of a combination of positional information about a plurality of two-dimensional images;
Firstly converting the obtained 4D optical field information into a 4D phase space function; And
Reconstructing the two-dimensional image by performing quadratic transformation of the four-dimensional phase space function.
제 1항에 있어서,
상기 4차원 광 필드 정보를 획득하는 단계는,
포토 센서 어레이를 사용하여 초점 평면상의 상이한 위치들로 전달되는 장면으로부터의 광을 검출하는 단계를 포함하는 영상 처리 방법.
The method of claim 1,
Acquiring the four-dimensional light field information,
Detecting light from the scene being delivered to different locations on the focal plane using a photo sensor array.
제 2항에 있어서,
상기 2차원 이미지를 재구성하는 단계는,
상기 검출된 광을 재구성하여 상기 2차원 이미지의 적어도 일부분이 상이한 초점 평면에서 구성되는 이미지를 형성하는 단계를 포함하는 영상 처리 방법.
The method of claim 2,
Reconstructing the two-dimensional image,
Reconstructing the detected light to form an image in which at least a portion of the two-dimensional image is constructed in different focal planes.
제 3항에 있어서,
상기 4차원 위상 공간 함수로 변환하는 단계는,
상기 검출된 광으로부터 구성되는 4차원 광 필드 정보를 위그너 분포 함수로 변환하는 단계를 포함하는 영상 처리 방법.
The method of claim 3, wherein
Converting to the four-dimensional phase space function,
And converting four-dimensional light field information configured from the detected light into a Wigner distribution function.
제 3항에 있어서,
상기 4차원 광 필드 정보는 L(u,v,x,y)로 표현되고,
상기 위그너 분포 함수는 WDF(s,t,x,y)로 표현되며,
상기 s 및 t 파라미터는 다음과 같은 수학식에 의해 산출되는 영상 처리 방법.
s = s`tan-1((u-x)/D), t= t`tan-1((v-y)/D)
여기에서, D는 포토센서 어레이와 마이크로렌즈 어레이 사이의 거리 값 또는 2차원 (x,y)면에서 (u,v)면까지의 거리임.
s`와 t`는 1을 포함하는 임의의 상수로 4차원 광 필드 정보를 매칭시키기 위한 정보임.
The method of claim 3, wherein
The four-dimensional light field information is represented by L (u, v, x, y),
The Wigner distribution function is expressed as WDF (s, t, x, y),
The s and t parameters are calculated by the following equation.
s = s`tan-1 ((ux) / D), t = t`tan-1 ((vy) / D)
Here, D is the distance value between the photosensor array and the microlens array or the distance from the two-dimensional (x, y) plane to the (u, v) plane.
s` and t` are information for matching the 4D optical field information with any constant including 1.
제 3항에 있어서,
상기 위그너 분포 함수 WDF(s,t,x,y)는 다음과 같은 수학식에 의해 산출되는 영상 처리 방법.
Figure pat00013

여기에서, k는 광원의 파수 벡터이고,
Figure pat00014
는 임의의 면에서의 2차원 이미지 분포를 의미하는 함수임.
The method of claim 3, wherein
The Wigner distribution function WDF (s, t, x, y) is calculated by the following equation.
Figure pat00013

Where k is the wave vector of the light source,
Figure pat00014
Is a function of two-dimensional image distribution on any plane.
제 4항에 있어서,
상기 2차원 이미지를 재구성하는 단계는,
상기 2차 변환을 수행하는 단계와,
상기 수행된 2차 변환에 의해 상기 검출된 광에 대응하는 2차원 이미지 또는 깊이 정보를 포함하는 3차원 이미지를 생성하는 단계를 포함하는 영상 처리 방법.
5. The method of claim 4,
Reconstructing the two-dimensional image,
Performing the quadratic transformation;
And generating a 3D image including the 2D image or the depth information corresponding to the detected light by the performed second transformation.
제 7항에 있어서,
상기 2차 변환을 수행하는 단계는,
상기 변환된 위그너 분포 함수를 라돈 변환하는 단계를 포함하는 영상 처리 방법.
8. The method of claim 7,
Performing the quadratic transformation,
And radon transforming the converted Wigner distribution function.
제 8항에 있어서,
상기 라돈 변환을 위한 스케일 팩터를 정의하는 단계를 더 포함하는 영상 처리 방법.
The method of claim 8,
And defining a scale factor for the radon transform.
제 9항에 있어서,
상기 스케일 팩터는 메인 렌즈의 초점 거리 및 광의 파장을 통해 결정되며,
상기 라돈 변환의 회전 각은 상기 생성되는 3차원 이미지의 깊이 방향을 결정하는 영상 처리 방법.
The method of claim 9,
The scale factor is determined by the focal length of the main lens and the wavelength of light,
And a rotation angle of the radon transform determines a depth direction of the generated 3D image.
장면으로부터 이미지를 생성하는 영상 처리 장치에 있어서,
메인 렌즈;
광선들의 세트를 캡쳐하는 포토센서 어레이;
상기 메인 렌즈와 포토 센서 어레이 사이의 마이크로 렌즈 어레이; 및
상기 포토센서 어레이에 의해 캡쳐된 상기 광선들의 세트를 이용하여 복수의 2차원 이미지에 대한 위치 정보들의 조합으로 이루어진 4차원 광 필드 정보를 획득하고, 상기 획득한 4차원 광 필드 정보를 토대로 상기 2차원 이미지를 재구성하는 데이터 처리부를 포함하는 영상 처리 장치.
An image processing apparatus for generating an image from a scene,
Main lens;
A photosensor array for capturing a set of rays;
A micro lens array between the main lens and the photo sensor array; And
Acquire four-dimensional light field information consisting of a combination of positional information about a plurality of two-dimensional images using the set of light rays captured by the photosensor array, and based on the acquired four-dimensional light field information. An image processing apparatus comprising a data processing unit for reconstructing an image.
제 11항에 있어서,
상기 데이터 처리부는,
상기 복수의 2차원 이미지에 대한 위치 정보들의 조합으로 이루어진 4차원 광 필드 정보를 획득하는 영상 획득부와,
상기 획득한 4차원 광 필드 정보를 4차원 위상 공간 함수를 의미하는 위그너 분포 함수로 변환하는 위그너 함수부와,
상기 변환된 위그너 분포 함수를 라돈 변환하여 상기 2차원 이미지를 재구성하는 라돈 변환부를 포함하는 영상 처리 장치.
12. The method of claim 11,
Wherein the data processing unit comprises:
An image acquisition unit for acquiring four-dimensional optical field information including a combination of positional information about the plurality of two-dimensional images;
A Wigner function unit for converting the obtained 4D optical field information into a Wigner distribution function meaning a 4D phase space function;
And a radon transform unit configured to reconstruct the 2D image by radon transforming the converted Wigner distribution function.
제 12항에 있어서,
상기 영상 획득부는 상기 포토 센서 어레이를 사용하여 초점 평면 상의 상이한 위치들로 전달되는 장면으로부터의 광을 검출하는 영상 처리 장치.
13. The method of claim 12,
And the image acquisition unit detects light from a scene transmitted to different positions on a focal plane using the photo sensor array.
제 13항에 있어서,
상기 라돈 변환부는,
상기 검출된 광을 재구성하여 상기 2차원 이미지의 적어도 일부분이 상이한 초점 평면에서 구성되는 이미지를 생성하는 영상 처리 장치.
The method of claim 13,
The radon conversion unit,
And reconstruct the detected light to generate an image in which at least a portion of the two-dimensional image is constructed in different focal planes.
제 12항에 있어서,
상기 4차원 광 필드 정보는 L(u,v,x,y)로 표현되고,
상기 위그너 분포 함수는 WDF(s,t,x,y)로 표현되며,
상기 s 및 t 파라미터는 다음과 같은 수학식에 의해 산출되는 영상 처리 장치.
s = s`tan-1((u-x)/D), t= t`tan-1((v-y)/D)
여기에서, D는 포토센서 어레이와 마이크로렌즈 어레이 사이의 거리 값 또는 2차원 (x,y)면에서 (u,v)면까지의 거리임.
S`와 t`는 1을 포함하는 임의의 상수로 4차원 광 필드 정보를 매칭시키기 위한 정보임.
13. The method of claim 12,
The four-dimensional light field information is represented by L (u, v, x, y),
The Wigner distribution function is expressed as WDF (s, t, x, y),
The s and t parameters are calculated by the following equation.
s = s`tan-1 ((ux) / D), t = t`tan-1 ((vy) / D)
Here, D is the distance value between the photosensor array and the microlens array or the distance from the two-dimensional (x, y) plane to the (u, v) plane.
S` and t` are information for matching the 4D optical field information with any constant including 1.
제 15항에 있어서,
상기 위그너 함수부는 다음과 같은 수학식에 의해 상기 위그너 분포 함수 WDF(s,t,x,y)를 산출하는 영상 처리 장치.
Figure pat00015

여기에서, k는 광원의 파수 벡터이고,
Figure pat00016
는 임의의 면에서의 2차원 이미지 분포를 의미하는 함수임.
16. The method of claim 15,
The Wigner function unit calculates the Wigner distribution function WDF (s, t, x, y) by the following equation.
Figure pat00015

Where k is the wave vector of the light source,
Figure pat00016
Is a function of two-dimensional image distribution on any plane.
제 14항에 있어서,
상기 라돈 변환부는 상기 위그너 분포 함수를 라돈 변환하여, 상기 검출된 광에 대응하는 2차원 이미지 또는 깊이 정보를 포함하는 3차원 이미지를 생성하는 영상 처리 장치.
The method of claim 14,
And the radon conversion unit generates a 3D image including a 2D image or depth information corresponding to the detected light by radon transforming the Wigner distribution function.
제 17항에 있어서,
상기 라돈 변환부는 기 정의된 스케일 팩터를 토대로 라돈 변환을 수행하며,
상기 스케일 팩터는 메인 렌즈의 초점 거리 및 광의 파장을 통해 결정되며,
상기 라돈 변환의 회전 각은 상기 생성되는 3차원 이미지의 깊이 방향을 결정하는 영상 처리 장치.
18. The method of claim 17,
The radon converter performs a radon transform based on a predefined scale factor,
The scale factor is determined by the focal length of the main lens and the wavelength of light,
And a rotation angle of the radon transform determines a depth direction of the generated 3D image.
KR1020120028132A 2012-03-20 2012-03-20 Device for processing image and method thereof Withdrawn KR20130106525A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120028132A KR20130106525A (en) 2012-03-20 2012-03-20 Device for processing image and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120028132A KR20130106525A (en) 2012-03-20 2012-03-20 Device for processing image and method thereof

Publications (1)

Publication Number Publication Date
KR20130106525A true KR20130106525A (en) 2013-09-30

Family

ID=49454360

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120028132A Withdrawn KR20130106525A (en) 2012-03-20 2012-03-20 Device for processing image and method thereof

Country Status (1)

Country Link
KR (1) KR20130106525A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115190257A (en) * 2022-05-30 2022-10-14 元潼(北京)技术有限公司 CIS systems for meta-imaging
CN115885311A (en) * 2020-05-12 2023-03-31 Pxe 计算成像有限公司 System and method for digital optical aberration correction and spectral imaging

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115885311A (en) * 2020-05-12 2023-03-31 Pxe 计算成像有限公司 System and method for digital optical aberration correction and spectral imaging
CN115190257A (en) * 2022-05-30 2022-10-14 元潼(北京)技术有限公司 CIS systems for meta-imaging

Similar Documents

Publication Publication Date Title
US8929677B2 (en) Image processing apparatus and method for synthesizing a high-resolution image and a refocused image
JP5988790B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP6168794B2 (en) Information processing method and apparatus, program.
JP6091176B2 (en) Image processing method, image processing program, image processing apparatus, and imaging apparatus
KR101233013B1 (en) Image photographing device, distance computing method for the device, and focused image acquiring method
JP5681954B2 (en) Imaging apparatus and imaging system
JP5618943B2 (en) Image processing method, imaging apparatus, image processing apparatus, and image processing program
US20100091133A1 (en) Image processing apparatus and method
JP2014011526A (en) Image processing apparatus, imaging apparatus, and image processing method
US9473700B2 (en) Camera systems and methods for gigapixel computational imaging
JP5677366B2 (en) Imaging device
JP2017208641A (en) Imaging device using compressed sensing, imaging method, and imaging program
US20130250167A1 (en) Image capturing apparatus, image processing method, and storage medium
JP2011182237A (en) Compound-eye imaging device, and image processing method in the same
JP2014010783A (en) Image processing apparatus, image processing method, and program
CN102494771A (en) Diffractive optical imaging system and imaging spectrometer comprising same
US20160255294A1 (en) Image capturing apparatus and image processing apparatus
CN106663312B (en) Systems and methods for improving computational imaging
US10965861B2 (en) Image processing device, image processing method, and program
Ueno et al. Compound-Eye Camera Module as Small as 8.5$\times $8.5$\times $6.0 mm for 26 k-Resolution Depth Map and 2-Mpix 2D Imaging
KR20130106525A (en) Device for processing image and method thereof
JP2017050662A (en) Image processing system, imaging apparatus, and image processing program
CN202420674U (en) Diffractive optical imaging system and imaging spectrometer comprising same
US11012605B2 (en) Image processing device, image processing method, and program for generating a focused image
JP2016066995A (en) Image deviation amount calculation device, imaging device and image deviation amount calculation method

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20120320

PG1501 Laying open of application
PC1203 Withdrawal of no request for examination
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid