KR20130106525A - Device for processing image and method thereof - Google Patents
Device for processing image and method thereof Download PDFInfo
- Publication number
- KR20130106525A KR20130106525A KR1020120028132A KR20120028132A KR20130106525A KR 20130106525 A KR20130106525 A KR 20130106525A KR 1020120028132 A KR1020120028132 A KR 1020120028132A KR 20120028132 A KR20120028132 A KR 20120028132A KR 20130106525 A KR20130106525 A KR 20130106525A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- dimensional
- light
- function
- field information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/261—Image signal generators with monoscopic-to-stereoscopic image conversion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/158—Switching image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Processing (AREA)
Abstract
본 발명의 실시 예에 따른 영상 처리 방법은, 복수의 2차원 이미지에 대한 위치 정보 들의 조합으로 이루어진 4차원 광 필드 정보를 획득하는 단계; 상기 획득한 4차원 광 필드 정보를 1차 변환하여, 4차원 위상 공간 함수로 변환하는 단계; 및 상기 4차원 위상 공간 함수를 2차 변환하여, 상기 2차원 이미지를 재구성하는 단계를 포함한다.An image processing method according to an embodiment of the present invention may include obtaining four-dimensional light field information including a combination of positional information about a plurality of two-dimensional images; Firstly converting the obtained 4D optical field information into a 4D phase space function; And reconstructing the two-dimensional image by quadratic transforming the four-dimensional phase space function.
Description
본 발명은 영상 처리 장치에 관한 것으로, 특히 4차원 광 필드에서 획득한 영상 정보를 이용하여 깊이 정보를 포함하는 3차원 이미지를 획득할 수 있는 영상 처리 장치 및 이의 영상 처리 방법에 관한 것이다.The present invention relates to an image processing apparatus, and more particularly, to an image processing apparatus capable of acquiring a 3D image including depth information by using image information obtained from a 4D optical field, and an image processing method thereof.
카메라, 비디오 카메라, 현미경, 망원경 및 그외 여러 가지를 포함하는 것과 같은 촬상 어플리케이션은 일반적으로 수집되는 광량이 극히 제한적이었다. 이에 따라 대부분의 촬상 장치는 장치에 들어오는 광 분포에 대한 대부분의 정보를 기록하지 않기 때문이다. 예를 들면, 디지털 스틸 카메라 및 비디오 카메라와 같은 종래의 카메라는 월드(world)로부터 들어오는 광 분포에 대한 대부분의 정보를 기록하지 않는다. 이들 장치에서, 수집된 광은 자주, 상이한 심도(촬상 장치로부터의 거리)에서 포커싱하거나, 렌즈 수차를 교정하거나, 또는 화면 각을 조작 처리하는 것과 같은 여러 가지 어플리케이션을 위해 조작 처리를 할 수밖에 없다.Imaging applications such as cameras, video cameras, microscopes, telescopes and many others have typically had extremely limited amounts of light collected. This is because most imaging devices do not record most of the information about the light distribution entering the device. For example, conventional cameras such as digital still cameras and video cameras do not record most of the information about the light distribution coming from the world. In these devices, the collected light often has to be manipulated for various applications such as focusing at different depths (distance from the imaging device), correcting lens aberrations, or manipulating the screen angle.
이 중, 정지-촬상 어플리케이션의 경우에, 특정 장면을 캡쳐하는 전형적인 촬상 장치는 일반적으로 장면 내의 피사체 또는 물체에 초점을 맞추는데, 장면의 다른 부분들은 초점이 벗어나는 문제점이 있다. Among these, in the case of still-imaging applications, a typical imaging device for capturing a particular scene generally focuses on the subject or object in the scene, while other parts of the scene have the problem of out of focus.
비디오-촬상 어플리케이션의 경우에, 이와 유사한 문제들이 많이 나타나는데, 비디오 어플리케이션에서 사용된 이미지 집합은 초점이 맞게 장면을 캡쳐하지 못하는 문제점이 있다.In the case of video-imaging applications, many similar problems appear, but the problem is that the set of images used in the video application cannot capture the scene in focus.
많은 촬상 어플리케이션은 광을 수집하는데 사용된 장치(렌즈)로 인한 수차의 문제가 있었다. 그러한 수차는, 예를 들어 구면 수차, 색 수차, 왜곡, 광 필드의 굴곡, 경사 비점수차 및 코마(coma)를 포함할 수 있다. 수차의 교정은 전형적으로, 촬상 장치에 부피, 경비 및 무게를 추가하는 경향이 있을 때, 교정 광학계의 사용을 필요로 했다. 그러나 추가 광학계를 포함하는 것은 촬상 장치의 소형화 및 제조 비용 면에서 바람직하지 않게 한다. Many imaging applications have suffered from aberrations due to the device (lens) used to collect light. Such aberrations may include, for example, spherical aberration, chromatic aberration, distortion, bending of the light field, oblique astigmatism, and coma. Correction of aberrations typically required the use of correction optics when tending to add volume, expense and weight to the imaging device. However, including additional optical systems is undesirable in terms of miniaturization and manufacturing cost of the imaging device.
이러한 문제점을 해결하기 위하여, 이미 촬영된 영상을 소프트웨어적으로 재포커싱(refocusing)함으로써 기기의 단점 및 제약을 보완하는 방법이 미국특허등록 제 7,936,392에 제안되었다. In order to solve this problem, a method of compensating for the disadvantages and limitations of the device by refocusing the already taken image by software has been proposed in US Patent No. 7,936,392.
그러나 상기 선행특허에 개시된 방법은, 두 번의 푸리에 변환(Fourier Transform)이 사용되고 이 연산식에는 적분이 4번 적용되어 연산 속도가 감소될 수 있다. 예컨대, 이 방법에 의하여 한 장의 영상을 획득하는 데에는 3 내지 4초가 소요될 수 있어 실시간 영상을 처리하는 데에는 문제점이 있다.However, in the method disclosed in the above patent, two Fourier transforms are used, and an integral is applied four times to this equation, so that the calculation speed can be reduced. For example, it may take 3 to 4 seconds to acquire a single image by this method, and there is a problem in processing a real-time image.
본 발명에 따른 실시 예에서는, 4차원 광 필드에서 획득한 2차원 위치 정보의 조합을 위그너 함수로 변환하고, 이후 이를 라돈 변환함으로써, 감소된 연산량으로 깊이 정보를 포함하는 3차원 이미지를 획득할 수 있도록 한 영상 처리 장치 및 이의 영상 처리 방법을 제공하도록 한다.According to an embodiment of the present invention, by converting the combination of the two-dimensional position information obtained in the four-dimensional light field to the Wigner function, and then radon transform it to obtain a three-dimensional image including the depth information with a reduced amount of calculation An image processing apparatus and an image processing method thereof may be provided.
제안되는 실시 예에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 제안되는 실시 예가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It is to be understood that the technical objectives to be achieved by the embodiments are not limited to the technical matters mentioned above and that other technical subjects not mentioned are apparent to those skilled in the art to which the embodiments proposed from the following description belong, It can be understood.
본 발명의 실시 예에 따른 영상 처리 방법은, 복수의 2차원 이미지에 대한 위치 정보 들의 조합으로 이루어진 4차원 광 필드 정보를 획득하는 단계; 상기 획득한 4차원 광 필드 정보를 1차 변환하여, 4차원 위상 공간 함수로 변환하는 단계; 및 상기 4차원 위상 공간 함수를 2차 변환하여, 상기 2차원 이미지를 재구성하는 단계를 포함한다.An image processing method according to an embodiment of the present invention may include obtaining four-dimensional light field information including a combination of positional information about a plurality of two-dimensional images; Firstly converting the obtained 4D optical field information into a 4D phase space function; And reconstructing the two-dimensional image by quadratic transforming the four-dimensional phase space function.
또한, 상기 4차원 광 필드 정보를 획득하는 단계는, 포토 센서 어레이를 사용하여 초점 평면 상의 상이한 위치들로 전달되는 장면으로부터의 광을 검출하는 단계를 포함한다.In addition, obtaining the four-dimensional light field information includes detecting light from a scene that is delivered to different locations on a focal plane using a photo sensor array.
또한, 상기 2차원 이미지를 재구성하는 단계는, 상기 검출된 광을 재구성하여 상기 2차원 이미지의 적어도 일부분이 상이한 초점 평면에서 구성되는 이미지를 형성하는 단계를 포함한다.Reconstructing the two-dimensional image also includes reconstructing the detected light to form an image in which at least a portion of the two-dimensional image is constructed at different focal planes.
또한, 상기 4차원 위상 공간 함수로 변환하는 단계는, 상기 검출된 광으로부터 구성되는 4차원 광 필드 정보를 위그너 분포 함수로 변환하는 단계를 포함한다.The converting into the 4D phase space function may include converting 4D light field information configured from the detected light into a Wigner distribution function.
또한, 상기 4차원 광 필드 정보는 L(u,v,x,y)로 표현되고, 상기 위그너 분포 함수는 WDF(s,t,x,y)로 표현되며, 상기 s 및 t 파라미터는 다음과 같은 수학식에 의해 산출된다.In addition, the four-dimensional light field information is represented by L (u, v, x, y), the Wigner distribution function is represented by WDF (s, t, x, y), the s and t parameters are It is calculated by the following equation.
s = s`tan-1((u-x)/D), t= t`tan-1((v-y)/D)s = s`tan-1 ((u-x) / D), t = t`tan-1 ((v-y) / D)
여기에서, D는 포토센서 어레이와 마이크로렌즈 어레이 사이의 거리 값 또는 2차원 (x,y)면에서 (u,v)면까지의 거리임.Here, D is the distance value between the photosensor array and the microlens array or the distance from the two-dimensional (x, y) plane to the (u, v) plane.
S`와 t`는 1을 포함하는 임의의 상수로 4차원 광 필드 정보를 매칭시키기 위한 정보임. S` and t` are information for matching the 4D optical field information with any constant including 1.
또한, 상기 위그너 분포 함수 WDF(s,t,x,y)는 다음과 같은 수학식에 의해 산출된다.In addition, the Wigner distribution function WDF (s, t, x, y) is calculated by the following equation.
여기에서, k는 광원의 파수 벡터이고, 는 임의의 면에서의 2차원 이미지 분포를 의미하는 함수임.Where k is the wave vector of the light source, Is a function of two-dimensional image distribution on any plane.
또한, 상기 2차원 이미지를 재구성하는 단계는, 상기 2차 변환을 수행하는 단계와, 상기 수행된 2차 변환에 의해 상기 검출된 광에 대응하는 2차원 이미지 또는 깊이 정보를 포함하는 3차원 이미지를 생성하는 단계를 포함한다.The reconstructing the two-dimensional image may include performing the quadratic transformation and performing a three-dimensional image including depth information or two-dimensional image corresponding to the detected light by the second transformation. Generating.
또한, 상기 2차 변환을 수행하는 단계는, 상기 변환된 위그너 분포 함수를 라돈 변환하는 단계를 포함한다.In addition, performing the quadratic transformation includes radon transforming the transformed Wigner distribution function.
또한, 상기 라돈 변환을 위한 스케일 팩터를 정의하는 단계를 더 포함한다.The method may further include defining a scale factor for the radon transform.
또한, 상기 스케일 팩터는 메인 렌즈의 초점 거리 및 광의 파장을 통해 결정되며, 상기 라돈 변환의 회전 각은 상기 생성되는 3차원 이미지의 깊이 방향을 결정한다.In addition, the scale factor is determined through the focal length of the main lens and the wavelength of the light, and the rotation angle of the radon transform determines the depth direction of the generated 3D image.
한편, 본 발명의 실시 예에 따른 영상 처리 장치는, 장면으로부터 이미지를 생성하는 영상 처리 장치에 있어서, 메인 렌즈; 광선들의 세트를 캡쳐하는 포토센서 어레이; 상기 메인 렌즈와 포토 센서 어레이 사이의 마이크로 렌즈 어레이; 및 상기 포토센서 어레이에 의해 캡쳐된 상기 광선들의 세트를 이용하여 복수의 2차원 이미지에 대한 위치 정보 들의 조합으로 이루어진 4차원 광 필드 정보를 획득하고, 상기 획득한 4차원 광 필드 정보를 토대로 상기 2차원 이미지를 재구성하는 데이터 처리부를 포함한다.On the other hand, the image processing apparatus according to an embodiment of the present invention, the image processing apparatus for generating an image from the scene, the main lens; A photosensor array for capturing a set of rays; A micro lens array between the main lens and the photo sensor array; And acquiring four-dimensional light field information consisting of a combination of positional information about a plurality of two-dimensional images using the set of light rays captured by the photosensor array, and based on the acquired four-dimensional light field information. And a data processor for reconstructing the dimensional image.
또한, 상기 데이터 처리부는, 상기 복수의 2차원 이미지에 대한 위치 정보 들의 조합으로 이루어진 4차원 광 필드 정보를 획득하는 영상 획득부와, 상기 획득한 4차원 광 필드 정보를 4차원 위상 공간 함수를 의미하는 위그너 분포 함수로 변환하는 위그너 함수부와, 상기 변환된 위그너 분포 함수를 라돈 변환하여 상기 2차원 이미지를 재구성하는 라돈 변환부를 포함한다.In addition, the data processor is an image acquisition unit for acquiring four-dimensional light field information consisting of a combination of position information for the plurality of two-dimensional images, and the acquired four-dimensional light field information means a four-dimensional phase space function And a Wigner function unit for converting the Wigner distribution function, and a Radon transform unit for reconstructing the 2D image by radon transforming the converted Wigner distribution function.
또한, 상기 영상 획득부는 상기 포토 센서 어레이를 사용하여 초점 평면상의 상이한 위치들로 전달되는 장면으로부터의 광을 검출한다.The image acquisition unit also detects light from the scene that is delivered to different locations on the focal plane using the photo sensor array.
또한, 상기 라돈 변환부는, 상기 검출된 광을 재구성하여 상기 2차원 이미지의 적어도 일부분이 상이한 초점 평면에서 구성되는 이미지를 생성한다.The radon converter may reconstruct the detected light to generate an image in which at least a portion of the two-dimensional image is configured in a different focal plane.
또한, 상기 4차원 광 필드 정보는 L(u,v,x,y)로 표현되고, 상기 위그너 분포 함수는 WDF(s,t,x,y)로 표현되며, 상기 s 및 t 파라미터는 다음과 같은 수학식에 의해 산출된다.In addition, the four-dimensional light field information is represented by L (u, v, x, y), the Wigner distribution function is represented by WDF (s, t, x, y), the s and t parameters are It is calculated by the following equation.
s = s`tan-1((u-x)/D), t= t`tan-1((v-y)/D)s = s`tan-1 ((u-x) / D), t = t`tan-1 ((v-y) / D)
여기에서, D는 포토센서 어레이와 마이크로렌즈 어레이 사이의 거리 값 또는 2차원 (x,y)면에서 (u,v)면까지의 거리임.Here, D is the distance value between the photosensor array and the microlens array or the distance from the two-dimensional (x, y) plane to the (u, v) plane.
S`와 t`는 1을 포함하는 임의의 상수로 4차원 광 필드 정보를 매칭시키기 위한 정보임.S` and t` are information for matching the 4D optical field information with any constant including 1.
또한, 상기 위그너 함수부는 다음과 같은 수학식에 의해 상기 위그너 분포 함수 WDF(s,t,x,y)를 산출한다.In addition, the Wigner function unit calculates the Wigner distribution function WDF (s, t, x, y) by the following equation.
여기에서, k는 광원의 파수 벡터이고, 는 임의의 면에서의 2차원 이미지 분포를 의미하는 함수임.Where k is the wave vector of the light source, Is a function of two-dimensional image distribution on any plane.
또한, 상기 라돈 변환부는 상기 위그너 분포 함수를 라돈 변환하여, 상기 검출된 광에 대응하는 2차원 이미지 또는 깊이 정보를 포함하는 3차원 이미지를 생성한다.The radon transform unit may generate a 3D image including the 2D image or the depth information corresponding to the detected light by radon transforming the Wigner distribution function.
또한, 상기 라돈 변환부는 기 정의된 스케일 팩터를 토대로 라돈 변환을 수행하며, 상기 스케일 팩터는 메인 렌즈의 초점 거리 및 광의 파장을 통해 결정되며, 상기 라돈 변환의 회전 각은 상기 생성되는 3차원 이미지의 깊이 방향을 결정한다.In addition, the radon transform unit performs a radon transform based on a predefined scale factor, the scale factor is determined based on the focal length and the wavelength of light of the main lens, the rotation angle of the radon transform of the generated three-dimensional image Determine the depth direction.
본 발명에 따른 실시 예에 의하면, 4차원 광 필드에서 획득한 2차원 이미지 정보의 조합을 이용하여 깊이 정보를 포함하는 3차원 이미지 또는 2차원 이미지를 실시간으로 획득할 수 있다.According to an embodiment of the present invention, a three-dimensional image or a two-dimensional image including depth information may be obtained in real time using a combination of two-dimensional image information acquired in a four-dimensional light field.
또한, 본 발명에 따른 실시 예에 의하면, 위그너 함수 변환 및 라돈 변환을 이용하여 깊이 정보를 포함하는 3차원 이미지를 획득함으로써, 적분 연산 횟수를 줄여 연산의 속도를 증가시킬 수 있으며, 이에 따라 실시간으로 이미지 처리를 수행할 수 있는 효과가 있다.In addition, according to an embodiment of the present invention, by obtaining a three-dimensional image including the depth information by using the Wigner function transform and the Radon transform, it is possible to increase the speed of the operation by reducing the number of integral operations, accordingly This has the effect of performing image processing.
도 1은 본 발명의 실시 예에 따른 영상 처리 장치(100)를 도시한 것이다.
도 2는 수집된 데이터에 관한 L(u,v,s,t) 공간 내의 광선으로의 센서 픽셀 위치의 매핑에 대한 방법을 나타낸다.
도 3은 본 발명의 실시 예에 따른 데이터 처리부의 구성을 나타낸 도면이다.
도 4는 본 발명의 일 실시 예에 따른 영상 처리 방법을 단계별로 설명하기 위한 흐름도이다.1 illustrates an image processing apparatus 100 according to an embodiment of the present invention.
2 illustrates a method for mapping sensor pixel positions to light rays in L (u, v, s, t) space with respect to the collected data.
3 is a diagram illustrating a configuration of a data processor according to an exemplary embodiment of the present invention.
4 is a flowchart illustrating a step-by-step method for processing an image according to an exemplary embodiment.
이하의 내용은 단지 본 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만 본 발명의 원리를 구현하고 본 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시 예들은 원칙적으로, 본 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시 예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다.The following merely illustrates the principles of the invention. Thus, those skilled in the art will be able to devise various apparatuses which, although not explicitly described or shown herein, embody the principles of the invention and are included in the concept and scope of the invention. Furthermore, all of the conditional terms and embodiments listed herein are, in principle, only intended for the purpose of enabling understanding of the concepts of the present invention, and are not to be construed as limited to such specifically recited embodiments and conditions do.
또한, 본 발명의 원리, 관점 및 실시 예들뿐만 아니라 특정 실시 예를 열거하는 모든 상세한 설명은 이러한 사항의 구조적 및 기능적 균등물을 포함하도록 의도되는 것으로 이해되어야 한다. 또한 이러한 균등물들은 현재 공지된 균등물 뿐만 아니라 장래에 개발될 균등물 즉 구조와 무관하게 동일한 기능을 수행하도록 발명된 모든 소자를 포함하는 것으로 이해되어야 한다.It is also to be understood that the detailed description, as well as the principles, aspects and embodiments of the invention, as well as specific embodiments thereof, are intended to cover structural and functional equivalents thereof. It is also to be understood that such equivalents include all elements contemplated to perform the same function irrespective of the currently known equivalents as well as the equivalents to be developed in the future, i.e., the structure.
도 2는 본 발명의 실시 예에 따른 영상 처리 장치를 나타낸 도면이다.2 is a diagram illustrating an image processing apparatus according to an exemplary embodiment of the present invention.
도 2를 참조하면, 영상 처리 장치(100)는 물체의 상을 맺기 위한 메인 렌즈(110), 메인 렌즈(110)를 통과한 광선들을 광선들의 방향에 기초하여 분리하여 포토 센서 어레이(130)로 향하게 하는 마이크로렌즈 어레이(120) 및 포토센서 어레이(130)를 갖고 있는 광 필드 데이터 캡처부(140) 및 캡처된 광 필드 데이터를 처리하는 데이터 처리부(150)를 포함한다. Referring to FIG. 2, the image processing apparatus 100 splits the light beams passing through the
이 경우에, 마이크로렌즈 어레이(120) 및 포토센서 어레이(130)는 이미지 센서(160)로 구현될 수 있다. 이와 같은 영상 처리 장치를 이용하여 리포커싱된 영상이나 여러 각도에서 보이는 영상을 획득(즉, 영상의 뷰 조정)할 수 있다.In this case, the
이미지화된 장면 내의 피사체(105) 상의 단일점으로부터의 광선들은 마이크로렌즈 [0017] 어레이(120)의 초점 평면 상의 단일 수렴점으로 도달될 수 있다. Rays from a single point on the subject 105 in the imaged scene may be reached at a single convergence point on the focal plane of the
이 수렴점에서의 마이크로렌즈(122)는 이들 광선들을 광의 방향에 기초하여 분리시켜, 마이크로 렌즈 아레의 포토센서 상에 메인 렌즈(110)의 구경의 포커싱된 이미지를 생성한다.The microlens 122 at this convergence point separates these rays based on the direction of the light, producing a focused image of the aperture of the
포토센서 어레이(130)는 그 위에 입사되는 광을 검출하고, 여러 가지 성분의 하나 이상을 사용하여 처리되는 출력을 생성한다. 출력 광 데이터는 예를 들어, 피사체(105, 106, 및 107)을 포함하는 장면의 이미지를 생성할 때 데이터를 제공하는 각 포토센서에 대한 위치정보와 함께 데이터를 사용하는 데이터 처리부(150)로 보내진다.The photosensor array 130 detects light incident thereon and produces an output that is processed using one or more of the various components. The output optical data may be, for example, sent to the
데이터 처리부(150)는, 예를 들어, 공통 부품(예를 들어, 한 칩) 또는 상이한 부품에 선택적으로 구현된 컴퓨터 또는 기타 처리 회로로 구현될 수 있다. 데이터 처리부(150)의 일부는 광 필드 데이터 캡처부(140) 내에 구현되고, 다른 부분은 외부 컴퓨터에 구현될 수 있다. The
데이터 처리부(150)는 이미지 데이터를 처리하고 피사체(105, 106 및 107)를 포함하는 장면의 이미지를 계산하도록 구현된다.The
데이터 처리부(150)는 광이 마이크로렌즈 어레이에 도달한 공지된 방향(각 포토센서의 공지된 위치를 사용하여 계산됨)과 함께 검출된 광 또는 검출된 광의 특성을 사용하여 리포커싱(refocusing)이 교정될 수 있는 이미지를 형성할 때 데이터를 선택적으로 리포커싱 및/또는 교정한다.The
영상 처리 장치(100)는 어플리케이션에 따라 다르게 여러 가지 방식으로 구현된다. 예를 들어, 마이크로렌즈(120)는 예로서 몇 개의 구별 가능한 마이크로렌즈로 도시되지만, 어레이는 일반적으로 다수의(예를 들어, 수천 또는 수백만) 마이크로렌즈로 구현된다. The image processing apparatus 100 may be implemented in various ways depending on the application. For example, the
메인 렌즈(110)를 통과한 광선들을 광선들의 방향에 기초하여 분리하는 한 마이크로렌즈 어레이(120) 이외에 광 부호화 마스크 등 다른 형태로 구성될 수 있다. 본 기술분야의 통상의 지식을 가진 자는 현재 이용 가능하거나 장래에 개발되는 여러 가지 렌즈 및/또는 마이크로 렌즈 어레이를 이용하여 메인 렌즈(110) 및 마이크로렌즈 어레이(120)가 구현될 수 있음을 알 수 있을 것이다.In addition to the
포토센서 어레이(130)는 일반적으로, 마이크로렌즈 어레이(120) 내의 각각의 마이크로렌즈마다 몇 개의 포토센서를 갖는다. 포토센서 어레이(130)의 각 픽셀의 크기 즉, 피치(pitch)는 마이크로렌즈 어레이(122)보다 상대적으로 미세하다. 또한, 마이크로렌즈 어레이(120)내의 마이크로렌즈 및 포토센서 어레이(130) 내의 포토센서는 일반적으로 각각의 마이크로렌즈를 통해 포토센서 어레이로 나아가는 광이 인접한 마이크로렌즈를 통해 나아간광과 겹치지 않도록 위치 설정될 수 있다.The photosensor array 130 generally has several photosensors for each microlens in the
메인 렌즈(110)는 메인 렌즈(110)와 예시적인 촬상 피사체(105) 사이에 예시된 바와 같은 원하는 심도 'd'에서 관심 있는 피사체 상에 포커싱하기 위해 광축을 따라 수평방향으로 이동되는 것과 같은 성능을 가진다. The
따라서, 획득된 광 필드 데이터 기반으로 각 관심 위치에 리포커싱을 할 수 있다.Therefore, it is possible to refocus at each location of interest based on the obtained light field data.
예로서, 피사체(105)의 단일점으로부터의 광선들은 이러한 설명을 위해 도시된다. 이들 광선들은 마이크로렌즈어레이(120)의 초점 평면상의 마이크로렌즈(122)에서 단일 수렴점으로 도달할 수 있다. By way of example, light rays from a single point of the subject 105 are shown for this description. These rays may reach a single convergence point in the microlens 122 on the focal plane of the
마이크로렌즈(122)는 이들 광선들의 방향에 기초하여 분리해서, 마이크로렌즈 아래의 픽셀 어레이 내의 픽셀 세트 상에서 메인 렌즈(110)의 구경의 포커싱된 이미지 및 광 필드 데이터를 생성한다.The microlens 122 separates based on the direction of these rays to produce a focused image and light field data of the aperture of the
영상 처리 장치(100) 내부의 2-평면 광 필드 "L"을 고려하면, 광 필드 데이터 L(u,v,s,t)는 (u,v)에서 메인 렌즈(110)와 교차하고, (s,t)에서 마이크로렌즈 어레이(120)의 평면과 교차하는 광선을 따라 이동하는 광을 나타낸다. 예를 들어, 각 마이크로 렌즈 (s,t)에서, 메인 렌즈(110)의 각 서브-어퍼쳐(sub-aperture)의 위치(u,v)를 통과하는 인텐서티 값들을 나타낸다. Considering the two-plane light field "L" inside the image processing apparatus 100, the light field data L (u, v, s, t) intersects the
여기에서, 서브-어퍼쳐는 메인 렌즈(110)의 방향 분해능의 개수를 의미한다. 예를 들어, 서브-어퍼쳐의 개수가 196개인 경우, 각 마이크로렌즈 어레이(120)는 196개의 픽셀로 구성될 수 있다.Here, the sub-aperture means the number of directional resolutions of the
포토센서 어레이(130)내의 각각의 포토센서는 메인 렌즈(110) 및 마이크로렌즈 어레이(120)를 통해 포토센서로 향한 광선 세트를 나타내는 값을 제공하도록 구현될 수 있다. 즉, 각각의 포토센서는 포토센서상에 입사된 광에 응답하여 출력을 생성하고, 마이크로렌즈 어레이(120)에 대한 각 포토센서의 위치는 입사광에 대한 방향 정보를 제공하기 위해 이용된다.Each photosensor in photosensor array 130 may be implemented to provide a value indicative of a set of rays directed to photosensors through
데이터 처리부(150)는 광 필드 데이터 즉, L(u,v,s,t)를 이용하여 깊이 정보를 포함하는 3차원 영상을 생성할 수 있다. 이때, 데이터 처리부(150)는 마이크로렌즈에 대한 각 포토센서의 위치를 이용하여 각 포토센서 상의 광의 방향을 결정할 수 있다. The
또한, 데이터 처리부(150)는 검출된 광이 퍼져 나오는 장면 내의 피사체의 시야 심도를 결정하고, 시야 심도 및 검출된 광의 방향을 사용해서, 초점 평면과는 상이한 초점 평면상에서 포커싱되는 합성 영상을 계산할 수 있다.In addition, the
이하에서는, 본 발명의 영상 처리 장치로서, 데이터 처리부(150)에서 수행되는 이미지 처리 방법에 대하여 보다 구체적으로 설명하기로 한다.Hereinafter, as an image processing apparatus of the present invention, an image processing method performed by the
도 2는 4차원 광 공간 L(u,v, x,y)에서의 광선에 대한 센서 픽셀 위치의 매핑에 대한 방법을 나타낸다. 2 shows a method for the mapping of sensor pixel positions to light rays in a four-dimensional optical space L (u, v, x, y).
도 2에 도시되고 여기에서 설명된 방법은, 예를 들어 도 1에 적용 가능하고, 포토센서 어레이(130) 내의 각 포토 센서는 센서 픽셀에 대응할 수 있다. The method shown in FIG. 2 and described herein, for example, is applicable to FIG. 1, and each photosensor in photosensor array 130 may correspond to a sensor pixel.
하부 우측의 이미지(1170)는 포토센서어레이(130)로부터 판독된 미가공 데이터의 다운 샘플링을 나타내고, 상기 이미지(1170)의 원형 이미지 중 일부(1150)는, 좌측 동그라미 쳐진 하나의 마이크로렌즈 아래에 생기는 원형 이미지(1150)가 될 수 있다. The lower
하부 좌측의 이미지(1180)는 동그라미 쳐진 마이크로렌즈 이미지(1150) 주위의 미가공 데이터의 일부분을 확대한 것으로서, 마이크로렌즈 이미지(1150) 내에 동그라미 쳐진 하나의 포토센서 값(1140)이 있다. The lower
이 원형 이미지(1150)가 렌즈 구경의 이미지이기 때문에, 디스크 내의 선택된 픽셀의 위치는 메인 렌즈 상의 도시된 광선(110)의 시작 위치의 (u,v) 좌표를 제공할 수 있다.Since this
센서 이미지(1170) 내의 마이크로렌즈 이미지(1150)의 위치는 광선(110)의 (x,y) 좌표를 제공할 수 있다.The location of the
도 1과 관련하여, 포토센서 어레이 내의 각각의 포토센서는 이렇게 메인 렌즈(110) 및 마이크로렌즈 어레이(120)를 통해 포토센서로 향한 광선세트를 나타내는 값을 제공하도록 구현될 수 있다. With reference to FIG. 1, each photosensor in the photosensor array can thus be implemented to provide a value representing a set of rays directed through the
즉, 각각의 포토센서는 포토센서 상에 입사된 광에 응답하여 출력을 생성하고, 마이크로렌즈 어레이(120)에 대한 각 포토센서의 위치는 입사 광에 대한 방향 정보를 제공하기 위해 사용될 수 있다.That is, each photosensor generates an output in response to light incident on the photosensors, and the position of each photosensor relative to the
한편, 마이크로렌즈 어레이(120)의 분해능은 특정 어플리케이션의 최종 이미지를 위한 원하는 분해능에 맞도록 선택될 수 있다. 포토센서 어레이(130)의 분해능은 각 마이크로렌즈가 어플리케이션의 원하는 방향 분해능, 또는 구현될 수 있는 포토센서의 가장 정교한 분해능에 맞추기 위해 필요한 만큼 많은 포토센서를 커버하도록 선택될 수 있다.
On the other hand, the resolution of the
도 3은 본 발명의 일 실시예에 따른 데이터 처리부(150)의 구성을 나타낸 도면이다.3 is a diagram illustrating a configuration of a
도 3을 참조하면 본 발명의 실시 예에 따른 데이터 처리부(150)는 전달되는 장면(scene)으로부터의 광을 동시에 검출하는 영상 획득부(151)와, 검출된 광으로 구성되는 4차원 광 필드의 인자를 위그너 함수로 변환하는 위그너 함수부(153)와, 상기 위그너 함수부(153)를 통해 변환된 위그너 함수를 라돈 변환하는 라돈 변환부(155)를 포함할 수 있다.Referring to FIG. 3, the
영상 획득부(151)는 4차원 광 공간 L(u,v,x,y) 에서의 광선에 대한 센서 픽셀 위치에 관한 이미지 정보를 획득할 수 있다. The
위그너 함수부(153) 및 라돈 변환부(155)에서 수행되는 동작은 본 발명의 실시 예에 따른 출력 이미지 생성 동작과 대응될 수 있다. Operations performed by the
위그너 함수부(153) 및 라돈 변환부(155)는 출력 이미지를 생성하는데 있어서, 검출된 광을 이용하여 이미지의 적어도 일부분이 상이한 초점 평면에서 포커싱되는 이미지를 형성하는 일련의 동작을 수행할 수 있다. In generating an output image, the
구체적으로 위그너 함수부(153)는 광으로 구성되는 4차원 광 필드의 인자를 위그너 함수로 변환할 수 있다. In detail, the
예컨대, 4차원 광 필드의 포토센서 픽셀 위치에 관한 이미지 정보가 상술한 바와 같이, L(u, v, x, y) 인 경우, 상기 위그너 함수부(153)는 상기 4차원 광 필드 값을 이용하여 위그너 함수(WDF(s,t,x,y))를 생성한다.For example, when the image information regarding the photosensor pixel position of the four-dimensional light field is L (u, v, x, y), the
상기 2차원 이미지들의 위치 정보에 대한 조합으로 이루어진 4차원 광 필드 정보를 위그너 분포 함수로 변환하는 것은 빛의 회절 현상이 개구면의 면적과 파장과의 비율의 일정 이상 되었을 때, 프레넬 회절하는 특성을 이용하는 것으로, 복수의 2차원 위치 정보들을 4차원 위상 공간 위그너 분포 함수로 변환할 수 있다.Converting four-dimensional light field information, which is a combination of the position information of the two-dimensional images, into a Wigner distribution function, is performed when Fresnel diffraction occurs when the light diffraction phenomenon is greater than or equal to a ratio of the area of the aperture and the wavelength. By using the characteristic, a plurality of two-dimensional position information can be converted into a four-dimensional phase space Wigner distribution function.
즉, (u, v)와 (x, y)의 위치 공간 정보를 L(u, v, x, y)의 각도와 위상 공간 변수로 바꾸고, 이를 위그너 분포 함수로 표현할 수 있다.That is, the positional space information of (u, v) and (x, y) may be changed into an angle and a phase space variable of L (u, v, x, y) and expressed as a Wigner distribution function.
상기와 같이, 위그너 함수에 입력되는 파라미터는 s, t, x, y를 포함하며, 여기에서 상기 s 및 t는 아래 수학식 1에서와 같이 산출될 수 있다.As described above, the parameter input to the Wigner function includes s, t, x, and y, where s and t may be calculated as in Equation 1 below.
여기에서, D는 포토센서 어레이와 마이크로렌즈 어레이 사이의 거리 값을 사용할 수 있으나, 2차원 (x,y)면에서 (u,v)면까지의 거리를 의미할 수 있다.Here, D may use a distance value between the photosensor array and the microlens array, but may mean a distance from the two-dimensional (x, y) plane to the (u, v) plane.
또한, s`와 t`는 일반적으로 1을 사용하나, 이 이외에도 임의의 상수를 사용할 수 있으며, 이는 4차원 광 필드 정보를 매칭시키는 역할을 한다.In addition, s` and t` generally use 1, but any other constant may be used, which serves to match 4D optical field information.
즉, s, t 는 위치 좌표(x,y) 값의 각도를 나타낼 수 있다. That is, s and t may represent angles of position coordinates (x, y) values.
이때, 상기 위그너 함수부(153)는 아래의 수학식 2를 이용하여 상기 4차원 광 필드 값을 토대로 위그너 함수값(WDF(s,t,x,y))을 산출한다.At this time, the
여기에서, 상기 식2에 기재된 k는 광원의 파수벡터를 의미한다. Here, k described in Equation 2 means the wavenumber vector of the light source.
또한, 상기 식 2에 기재된 는 임의의 면에서의 2차원 이미지 분포를 의미하는 함수이다. In addition, it is described in Formula 2 Is a function of the two-dimensional image distribution in any plane.
이때, 임의의 거리 'd'에서의 이미지 분포 값 P_d(x)는 아래의 수학식 3과 같이 위그너 분포 함수의 좌표 회전 함수로 정의할 수 있다.In this case, the image distribution value P_d (x) at an arbitrary distance 'd' may be defined as a coordinate rotation function of the Wigner distribution function as shown in Equation 3 below.
수학식 3은 일정 거리 'd'에서의 2차원 이미지 분포 함수와 회전 변환 각도 와 2차원 이미지 면의 x`으로 나타낼 수 있음을 보여준다.Equation 3 is a two-dimensional image distribution function and rotation conversion angle at a constant distance 'd' And x 'of the two-dimensional image plane.
이때 스케일 벡터 s와 회전 변환 각도 와의 관계는 아래 수학식 4와 같이 정의될 수 있다.Where the scale vector s and the rotation transformation angle The relationship with may be defined as in Equation 4 below.
즉, 위그너 함수값은 4차원 광 필드의 위치좌표의 2차원 평면에 대한 분포 값일 수 있다. That is, the Wigner function value may be a distribution value of the two-dimensional plane of the position coordinate of the four-dimensional light field.
라돈 변환부(155)는 위그너 함수를 라돈 변환하여 출력 이미지를 생성할 수 있다. The
라돈 변환부(155)는 위그너 함수를 통하여 산출된 분포 값 함수를 라디안 선을 따라 적분함으로써 실제 영상에 대한 출력 이미지를 생성할 수 있다. The
본 명세서에서는 4차원 광 필드에서의 위그너 함수값을 라디안 연산하여야 하므로 2차원 함수의 2번 적분이 요구된다. 라돈 변환은 아래의 수학식5에 의해 산출될 수 있다.In this specification, since the Wigner function is to be calculated in radians in a 4D optical field, integration of the 2D function is required twice. The radon transform may be calculated by Equation 5 below.
이에 따라, 위그너 분포 함수를 라돈 변환하여 2차원 이미지를 재구성할 수 있으며, 깊이 정보를 포함하는 3차원 이미지를 구성할 수 있다. 이때, 이러한 것이 가능한 이유는 위상 공간상에서 표현된 위그너 분포 함수의 라돈 변환이 프렉셔널 푸리에 변환(Fractional Fourier Transform)과 일대일 관계를 가진다는 광학적 특성을 이용하는 것이고, 이때 적절한 스케일 팩터를 정의해주는 것으로 간단하게 라돈 변환을 통해 이미지 재구성이 가능하다.Accordingly, the 2D image may be reconstructed by radon transforming the Wigner distribution function, and a 3D image including depth information may be configured. The reason for this is to use the optical property that the Radon transform of the Wigner distribution function expressed in phase space has a one-to-one relationship with the Fractional Fourier Transform, which simply defines the appropriate scale factor. Radon transform allows image reconstruction.
이때, 상기 정의되는 스케일 팩터는 메인 렌즈의 초점 거리와 광의 파장을 통해 결정할 수 있으며, 이때 라돈 변환의 회전 각이 깊이 방향을 결정하게 된다.In this case, the defined scale factor may be determined based on the focal length of the main lens and the wavelength of light, and the rotation angle of the radon transform determines the depth direction.
다시 말해서, 위그너 분포 함수를 각도에 대하여 회전창 적분인 라돈 변환을 하게 되면, 일정 위치의 이미지 분포를 얻게 되는데, 이때 적절한 스케일 상수를 곱해줌으로써 일정한 위치에 있는 평면 이미지를 획득할 수 있다.In other words, when the Wigner distribution function is transformed into a Radon transform that is a rotational window integral with respect to an angle, an image distribution of a certain position is obtained, and a plane image at a constant position can be obtained by multiplying an appropriate scale constant.
상술한 바와 같이, 본 발명의 영상 처리 장치에서는 4차원 이미지 정보를 4번 적분하였던 종래 방법과 대비하여 3번의 적분만 수행하면 되므로 연산량이 감소될 수 있다.As described above, in the image processing apparatus of the present invention, since only three integrations are required as compared with the conventional method of integrating four-dimensional image information four times, the amount of computation can be reduced.
즉, 상기와 같은 본 발명의 실시 예에 따르면, 2차원 이미지 정보의 조합을 이용하여 깊이 정보를 포함하는 3차원 이미지 또는 2차원 이미지를 실시간으로 획득할 수 있다.That is, according to the embodiment of the present invention as described above, it is possible to obtain a three-dimensional image or two-dimensional image including depth information in real time by using a combination of two-dimensional image information.
또한, 본 발명에 따른 실시 예에 의하면, 위그너 함수 변환 및 라돈 변환을 이용하여 깊이 정보를 포함하는 3차원 이미지를 획득함으로써, 적분 연산 횟수를 줄여 연산의 속도를 증가시킬 수 있으며, 이에 따라 실시간으로 이미지 처리를 수행할 수 있다.In addition, according to an embodiment of the present invention, by obtaining a three-dimensional image including the depth information by using the Wigner function transform and the Radon transform, it is possible to increase the speed of the operation by reducing the number of integral operations, accordingly Image processing can be performed.
도 4는 본 발명의 일 실시 예에 따른 영상 처리 방법을 단계별로 설명하는 도면이다.4 is a diagram illustrating step by step an image processing method according to an exemplary embodiment.
단계(S11)에서, 포토센서 어레이(photosensor array)를 사용하여 초점 평면 상의 상이한 위치들로 전달되는 장면(scene)으로부터의 센서 픽셀 위치에 관한 이미지 정보를 검출하여 이미지 정보를 획득한다. In step S11, image information is obtained by detecting image information about the sensor pixel position from a scene delivered to different positions on the focal plane using a photosensor array.
단계(S12)에서, 센서 픽셀 위치에 관한 이미지 정보가 4차원 광 필드에서의 픽셀의 위치에 관한 정보인 경우에는 위그너 함수 값에 적용한다.In step S12, when the image information about the sensor pixel position is the information about the position of the pixel in the four-dimensional light field, it is applied to the Wigner function value.
단계(S13)에서, 위그너 함수 값을 라돈 변환함으로써 출력 이미지를 생성한다.In step S13, an output image is generated by radon transforming the Wigner function value.
이때, 상기 라돈 변환 시 정의되는 스케일 팩터를 이용하여, 임의의 깊이 정보를 포함하는 3차원 영상을 생성할 수 있다.In this case, a 3D image including arbitrary depth information may be generated using the scale factor defined during the radon transformation.
이상, 본 발명의 일 실시예에 따른 영상 처리 방법 등에 대해 설명하였다. 본 발명의 영상 처리 방법은, 컴퓨터에 의해 판독가능한 기록 매체에 전자적 기록 코드로 저장되어 제공될 수 있다In the above, the image processing method and the like according to an embodiment of the present invention have been described. The image processing method of the present invention may be provided stored as an electronic recording code in a computer-readable recording medium.
또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형 실시 가능한 것은 물론이고, 이러한 변형 실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안 될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention.
100: 영상 처리 장치
110: 메인 렌즈
120: 마이크로렌즈 어레이
130: 포토센서 어레이
140: 광 필드 데이터 캡쳐부
150: 데이터 처리부
151: 영상 획득부
153: 위그너 함수부
155: 라돈 변환부100: image processing device
110: main lens
120: microlens array
130: photo sensor array
140: light field data capture unit
150: data processing unit
151: image acquisition unit
153: Wigner function
155: radon converter
Claims (18)
상기 획득한 4차원 광 필드 정보를 1차 변환하여, 4차원 위상 공간 함수로 변환하는 단계; 및
상기 4차원 위상 공간 함수를 2차 변환하여, 상기 2차원 이미지를 재구성하는 단계를 포함하는 영상 처리 방법.Acquiring four-dimensional light field information consisting of a combination of positional information about a plurality of two-dimensional images;
Firstly converting the obtained 4D optical field information into a 4D phase space function; And
Reconstructing the two-dimensional image by performing quadratic transformation of the four-dimensional phase space function.
상기 4차원 광 필드 정보를 획득하는 단계는,
포토 센서 어레이를 사용하여 초점 평면상의 상이한 위치들로 전달되는 장면으로부터의 광을 검출하는 단계를 포함하는 영상 처리 방법.The method of claim 1,
Acquiring the four-dimensional light field information,
Detecting light from the scene being delivered to different locations on the focal plane using a photo sensor array.
상기 2차원 이미지를 재구성하는 단계는,
상기 검출된 광을 재구성하여 상기 2차원 이미지의 적어도 일부분이 상이한 초점 평면에서 구성되는 이미지를 형성하는 단계를 포함하는 영상 처리 방법.The method of claim 2,
Reconstructing the two-dimensional image,
Reconstructing the detected light to form an image in which at least a portion of the two-dimensional image is constructed in different focal planes.
상기 4차원 위상 공간 함수로 변환하는 단계는,
상기 검출된 광으로부터 구성되는 4차원 광 필드 정보를 위그너 분포 함수로 변환하는 단계를 포함하는 영상 처리 방법. The method of claim 3, wherein
Converting to the four-dimensional phase space function,
And converting four-dimensional light field information configured from the detected light into a Wigner distribution function.
상기 4차원 광 필드 정보는 L(u,v,x,y)로 표현되고,
상기 위그너 분포 함수는 WDF(s,t,x,y)로 표현되며,
상기 s 및 t 파라미터는 다음과 같은 수학식에 의해 산출되는 영상 처리 방법.
s = s`tan-1((u-x)/D), t= t`tan-1((v-y)/D)
여기에서, D는 포토센서 어레이와 마이크로렌즈 어레이 사이의 거리 값 또는 2차원 (x,y)면에서 (u,v)면까지의 거리임.
s`와 t`는 1을 포함하는 임의의 상수로 4차원 광 필드 정보를 매칭시키기 위한 정보임.The method of claim 3, wherein
The four-dimensional light field information is represented by L (u, v, x, y),
The Wigner distribution function is expressed as WDF (s, t, x, y),
The s and t parameters are calculated by the following equation.
s = s`tan-1 ((ux) / D), t = t`tan-1 ((vy) / D)
Here, D is the distance value between the photosensor array and the microlens array or the distance from the two-dimensional (x, y) plane to the (u, v) plane.
s` and t` are information for matching the 4D optical field information with any constant including 1.
상기 위그너 분포 함수 WDF(s,t,x,y)는 다음과 같은 수학식에 의해 산출되는 영상 처리 방법.
여기에서, k는 광원의 파수 벡터이고, 는 임의의 면에서의 2차원 이미지 분포를 의미하는 함수임.The method of claim 3, wherein
The Wigner distribution function WDF (s, t, x, y) is calculated by the following equation.
Where k is the wave vector of the light source, Is a function of two-dimensional image distribution on any plane.
상기 2차원 이미지를 재구성하는 단계는,
상기 2차 변환을 수행하는 단계와,
상기 수행된 2차 변환에 의해 상기 검출된 광에 대응하는 2차원 이미지 또는 깊이 정보를 포함하는 3차원 이미지를 생성하는 단계를 포함하는 영상 처리 방법.5. The method of claim 4,
Reconstructing the two-dimensional image,
Performing the quadratic transformation;
And generating a 3D image including the 2D image or the depth information corresponding to the detected light by the performed second transformation.
상기 2차 변환을 수행하는 단계는,
상기 변환된 위그너 분포 함수를 라돈 변환하는 단계를 포함하는 영상 처리 방법.8. The method of claim 7,
Performing the quadratic transformation,
And radon transforming the converted Wigner distribution function.
상기 라돈 변환을 위한 스케일 팩터를 정의하는 단계를 더 포함하는 영상 처리 방법.The method of claim 8,
And defining a scale factor for the radon transform.
상기 스케일 팩터는 메인 렌즈의 초점 거리 및 광의 파장을 통해 결정되며,
상기 라돈 변환의 회전 각은 상기 생성되는 3차원 이미지의 깊이 방향을 결정하는 영상 처리 방법.The method of claim 9,
The scale factor is determined by the focal length of the main lens and the wavelength of light,
And a rotation angle of the radon transform determines a depth direction of the generated 3D image.
메인 렌즈;
광선들의 세트를 캡쳐하는 포토센서 어레이;
상기 메인 렌즈와 포토 센서 어레이 사이의 마이크로 렌즈 어레이; 및
상기 포토센서 어레이에 의해 캡쳐된 상기 광선들의 세트를 이용하여 복수의 2차원 이미지에 대한 위치 정보들의 조합으로 이루어진 4차원 광 필드 정보를 획득하고, 상기 획득한 4차원 광 필드 정보를 토대로 상기 2차원 이미지를 재구성하는 데이터 처리부를 포함하는 영상 처리 장치.An image processing apparatus for generating an image from a scene,
Main lens;
A photosensor array for capturing a set of rays;
A micro lens array between the main lens and the photo sensor array; And
Acquire four-dimensional light field information consisting of a combination of positional information about a plurality of two-dimensional images using the set of light rays captured by the photosensor array, and based on the acquired four-dimensional light field information. An image processing apparatus comprising a data processing unit for reconstructing an image.
상기 데이터 처리부는,
상기 복수의 2차원 이미지에 대한 위치 정보들의 조합으로 이루어진 4차원 광 필드 정보를 획득하는 영상 획득부와,
상기 획득한 4차원 광 필드 정보를 4차원 위상 공간 함수를 의미하는 위그너 분포 함수로 변환하는 위그너 함수부와,
상기 변환된 위그너 분포 함수를 라돈 변환하여 상기 2차원 이미지를 재구성하는 라돈 변환부를 포함하는 영상 처리 장치.12. The method of claim 11,
Wherein the data processing unit comprises:
An image acquisition unit for acquiring four-dimensional optical field information including a combination of positional information about the plurality of two-dimensional images;
A Wigner function unit for converting the obtained 4D optical field information into a Wigner distribution function meaning a 4D phase space function;
And a radon transform unit configured to reconstruct the 2D image by radon transforming the converted Wigner distribution function.
상기 영상 획득부는 상기 포토 센서 어레이를 사용하여 초점 평면 상의 상이한 위치들로 전달되는 장면으로부터의 광을 검출하는 영상 처리 장치.13. The method of claim 12,
And the image acquisition unit detects light from a scene transmitted to different positions on a focal plane using the photo sensor array.
상기 라돈 변환부는,
상기 검출된 광을 재구성하여 상기 2차원 이미지의 적어도 일부분이 상이한 초점 평면에서 구성되는 이미지를 생성하는 영상 처리 장치.The method of claim 13,
The radon conversion unit,
And reconstruct the detected light to generate an image in which at least a portion of the two-dimensional image is constructed in different focal planes.
상기 4차원 광 필드 정보는 L(u,v,x,y)로 표현되고,
상기 위그너 분포 함수는 WDF(s,t,x,y)로 표현되며,
상기 s 및 t 파라미터는 다음과 같은 수학식에 의해 산출되는 영상 처리 장치.
s = s`tan-1((u-x)/D), t= t`tan-1((v-y)/D)
여기에서, D는 포토센서 어레이와 마이크로렌즈 어레이 사이의 거리 값 또는 2차원 (x,y)면에서 (u,v)면까지의 거리임.
S`와 t`는 1을 포함하는 임의의 상수로 4차원 광 필드 정보를 매칭시키기 위한 정보임.13. The method of claim 12,
The four-dimensional light field information is represented by L (u, v, x, y),
The Wigner distribution function is expressed as WDF (s, t, x, y),
The s and t parameters are calculated by the following equation.
s = s`tan-1 ((ux) / D), t = t`tan-1 ((vy) / D)
Here, D is the distance value between the photosensor array and the microlens array or the distance from the two-dimensional (x, y) plane to the (u, v) plane.
S` and t` are information for matching the 4D optical field information with any constant including 1.
상기 위그너 함수부는 다음과 같은 수학식에 의해 상기 위그너 분포 함수 WDF(s,t,x,y)를 산출하는 영상 처리 장치.
여기에서, k는 광원의 파수 벡터이고, 는 임의의 면에서의 2차원 이미지 분포를 의미하는 함수임.16. The method of claim 15,
The Wigner function unit calculates the Wigner distribution function WDF (s, t, x, y) by the following equation.
Where k is the wave vector of the light source, Is a function of two-dimensional image distribution on any plane.
상기 라돈 변환부는 상기 위그너 분포 함수를 라돈 변환하여, 상기 검출된 광에 대응하는 2차원 이미지 또는 깊이 정보를 포함하는 3차원 이미지를 생성하는 영상 처리 장치.The method of claim 14,
And the radon conversion unit generates a 3D image including a 2D image or depth information corresponding to the detected light by radon transforming the Wigner distribution function.
상기 라돈 변환부는 기 정의된 스케일 팩터를 토대로 라돈 변환을 수행하며,
상기 스케일 팩터는 메인 렌즈의 초점 거리 및 광의 파장을 통해 결정되며,
상기 라돈 변환의 회전 각은 상기 생성되는 3차원 이미지의 깊이 방향을 결정하는 영상 처리 장치.18. The method of claim 17,
The radon converter performs a radon transform based on a predefined scale factor,
The scale factor is determined by the focal length of the main lens and the wavelength of light,
And a rotation angle of the radon transform determines a depth direction of the generated 3D image.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020120028132A KR20130106525A (en) | 2012-03-20 | 2012-03-20 | Device for processing image and method thereof |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020120028132A KR20130106525A (en) | 2012-03-20 | 2012-03-20 | Device for processing image and method thereof |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| KR20130106525A true KR20130106525A (en) | 2013-09-30 |
Family
ID=49454360
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020120028132A Withdrawn KR20130106525A (en) | 2012-03-20 | 2012-03-20 | Device for processing image and method thereof |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR20130106525A (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN115190257A (en) * | 2022-05-30 | 2022-10-14 | 元潼(北京)技术有限公司 | CIS systems for meta-imaging |
| CN115885311A (en) * | 2020-05-12 | 2023-03-31 | Pxe 计算成像有限公司 | System and method for digital optical aberration correction and spectral imaging |
-
2012
- 2012-03-20 KR KR1020120028132A patent/KR20130106525A/en not_active Withdrawn
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN115885311A (en) * | 2020-05-12 | 2023-03-31 | Pxe 计算成像有限公司 | System and method for digital optical aberration correction and spectral imaging |
| CN115190257A (en) * | 2022-05-30 | 2022-10-14 | 元潼(北京)技术有限公司 | CIS systems for meta-imaging |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US8929677B2 (en) | Image processing apparatus and method for synthesizing a high-resolution image and a refocused image | |
| JP5988790B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and image processing program | |
| JP6168794B2 (en) | Information processing method and apparatus, program. | |
| JP6091176B2 (en) | Image processing method, image processing program, image processing apparatus, and imaging apparatus | |
| KR101233013B1 (en) | Image photographing device, distance computing method for the device, and focused image acquiring method | |
| JP5681954B2 (en) | Imaging apparatus and imaging system | |
| JP5618943B2 (en) | Image processing method, imaging apparatus, image processing apparatus, and image processing program | |
| US20100091133A1 (en) | Image processing apparatus and method | |
| JP2014011526A (en) | Image processing apparatus, imaging apparatus, and image processing method | |
| US9473700B2 (en) | Camera systems and methods for gigapixel computational imaging | |
| JP5677366B2 (en) | Imaging device | |
| JP2017208641A (en) | Imaging device using compressed sensing, imaging method, and imaging program | |
| US20130250167A1 (en) | Image capturing apparatus, image processing method, and storage medium | |
| JP2011182237A (en) | Compound-eye imaging device, and image processing method in the same | |
| JP2014010783A (en) | Image processing apparatus, image processing method, and program | |
| CN102494771A (en) | Diffractive optical imaging system and imaging spectrometer comprising same | |
| US20160255294A1 (en) | Image capturing apparatus and image processing apparatus | |
| CN106663312B (en) | Systems and methods for improving computational imaging | |
| US10965861B2 (en) | Image processing device, image processing method, and program | |
| Ueno et al. | Compound-Eye Camera Module as Small as 8.5$\times $8.5$\times $6.0 mm for 26 k-Resolution Depth Map and 2-Mpix 2D Imaging | |
| KR20130106525A (en) | Device for processing image and method thereof | |
| JP2017050662A (en) | Image processing system, imaging apparatus, and image processing program | |
| CN202420674U (en) | Diffractive optical imaging system and imaging spectrometer comprising same | |
| US11012605B2 (en) | Image processing device, image processing method, and program for generating a focused image | |
| JP2016066995A (en) | Image deviation amount calculation device, imaging device and image deviation amount calculation method |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20120320 |
|
| PG1501 | Laying open of application | ||
| PC1203 | Withdrawal of no request for examination | ||
| WITN | Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid |