[go: up one dir, main page]

KR20090072109A - How to calibrate the brightness of video taken for video call - Google Patents

How to calibrate the brightness of video taken for video call Download PDF

Info

Publication number
KR20090072109A
KR20090072109A KR1020070140109A KR20070140109A KR20090072109A KR 20090072109 A KR20090072109 A KR 20090072109A KR 1020070140109 A KR1020070140109 A KR 1020070140109A KR 20070140109 A KR20070140109 A KR 20070140109A KR 20090072109 A KR20090072109 A KR 20090072109A
Authority
KR
South Korea
Prior art keywords
luminance
values
value
luminance values
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
KR1020070140109A
Other languages
Korean (ko)
Other versions
KR100923643B1 (en
Inventor
이동훈
Original Assignee
(주)씨앤에스 테크놀로지
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)씨앤에스 테크놀로지 filed Critical (주)씨앤에스 테크놀로지
Priority to KR1020070140109A priority Critical patent/KR100923643B1/en
Publication of KR20090072109A publication Critical patent/KR20090072109A/en
Application granted granted Critical
Publication of KR100923643B1 publication Critical patent/KR100923643B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 영상 통화용 촬영 영상의 휘도 보정 방법에 관한 것으로서, 촬영 영상에서 사용자의 얼굴 영역을 검출하는 단계; 상기 촬영 영상 중 상기 얼굴 영역에 대응하는 부분의 휘도 값들을 수신하는 단계; 및 상기 휘도 값들, 미리 설정된 기준 휘도 값, 및 미리 설정된 보정 인자 값에 기초하여, 상기 촬영 영상 중 상기 얼굴 영역에 대응하는 부분의 휘도만 보정 하여, 보정 영상을 생성하는 단계를 포함한다. 상기 보정 영상 중 상기 얼굴 영역에 대응하는 부분의 선명도는, 상기 촬영 영상 중 상기 얼굴 영역에 대응하는 부분의 선명도에 비하여, 상기 사용자의 옷 색깔, 또는 촬영 시 주변으로부터 상기 사용자에게 조사되는 광의 양에 무관하게 증가 된다. 본 발명에 따른 영상 통화용 촬영 영상의 휘도 보정 방법은, 사용자의 옷 색깔이나, 촬영 시 주변으로부터 상기 사용자에게 조사되는 광의 양에 무관하게 선명한 얼굴 영상을 포함하는 자연스러운 보정 영상을, 사용자 또는 통화 상대방에게 제공할 수 있고, 얼굴 영역의 경계부분이 두드러지지 않는 자연스러운 보정 영상을 상기 사용자 또는 통화 상대방에게 제공할 수 있다.The present invention relates to a method for correcting luminance of a captured image for a video call, the method comprising: detecting a face region of a user in the captured image; Receiving luminance values of a portion of the captured image corresponding to the face region; And generating a corrected image by correcting only luminance of a portion of the captured image corresponding to the face region based on the luminance values, a preset reference luminance value, and a preset correction factor value. The sharpness of the portion of the corrected image corresponding to the face area is based on the color of the clothes of the user or the amount of light irradiated to the user from the surroundings when the image is taken, compared to the sharpness of the portion corresponding to the face area of the captured image. It is increased regardless. According to the present invention, a luminance correction method of a video call photographed video includes a natural correction image including a clear face image regardless of the color of the user's clothes or the amount of light irradiated to the user from the surroundings at the time of photographing. It may be provided to the user, and the natural correction image that does not stand out the boundary of the face area can be provided to the user or the other party.

Description

영상 통화용 촬영 영상의 휘도 보정 방법{Luminance correction method for photographing image for the use of the video calling}Luminance correction method for photographing image for the use of the video calling}

본 발명은 영상의 휘도 보정 방법에 관한 것으로서, 더욱 상세하게는, 영상 통화용 촬영 영상의 휘도 보정 방법에 관한 것이다.The present invention relates to a method for correcting brightness of an image, and more particularly, to a method for correcting brightness of a captured video for video call.

일반적으로, VoIP 폰(Voice over internet protocol phone), 또는 영상 통화 기능을 갖는 휴대용 전화기와 같은 영상 전화기가 IP(internet protocol) 망 또는 이동 통신망을 통하여, 또 다른 영상 전화기에 통신 접속할 때, 이들 두 영상 전화기들은 IP 망 또는 이동 통신망을 통해 사용자들의 음성 및 영상 데이터들을 상호 송수신한다. 따라서 사용자는 영상 전화기를 통하여 통화 상대방과 음성 및 영상 통화를 할 수 있다. 한편, 영상 통화의 주요 목적은 사용자가 자신의 얼굴과 통화 상대방의 얼굴을 확인할 수 있도록 하는 것이므로, 영상 전화기가 사용자의 얼굴을 선명하게 표시하는 것이 매우 중요하다. 하지만 촬영 장소의 밝기, 또는 사용자의 옷 색깔 등과 같은 다양한 환경적 요인에 따라, 촬영 장치에 의해 촬영된 사용자의 얼굴 부분의 영상이 왜곡될 수 있다. 즉, 촬영 장치에 의해 촬영된 영상에서 특정 부분의 휘도가 왜곡될 수 있다. 그 이유는, 카메라와 같은 촬영 장치의 자동 노 출(exposure) 동작이 주변 환경의 밝기에 매우 큰 영향을 받기 때문이다. 여기에서, 촬영 장치의 자동 노출 동작은, 촬영 장치가 촬영 영역의 전체 밝기를 자동으로 인식하고, 그 인식 결과에 따라, 조리개를 적절하게 작동시켜 노출의 정도를 자동으로 조절하는 동작이다. 예를 들어, 도 1a에 도시된 것과 같이, 사용자가 검은색 옷을 착용한 경우, 촬영 영역의 전체 휘도의 평균값이 검은색 옷의 영향으로 감소한다. 그 결과, 촬영 장치는 휘도의 평균값을 보상하기 위해, 노출의 정도를 증가시킨 상태에서 해당 영역을 촬영한다. 촬영된 영상에서, 검은색 옷에 해당하는 영상은 그 휘도가 증가하여 선명하게 보이지만, 검은색 옷에 비해 상대적으로 더 밝은 얼굴 부분은 그 휘도가 과도하게 증가하여, 도 1a와 같이, 지나치게 밝게 보이는 것을 알 수 있다. 반대로, 도 1b에 도시된 것과 같이, 사용자가 흰색 옷을 착용한 경우, 촬영 영역의 전체 휘도의 평균값이 흰색 옷의 영향으로 증가한다. 그 결과, 촬영 장치는 휘도 평균값을 보상하기 위해, 노출의 정도를 감소시킨 상태에서 해당 영역을 촬영한다. 촬영된 영상에서, 흰색 옷에 해당하는 영상은 그 휘도가 감소하여 선명하게 보이지만, 흰색 옷에 비해 상대적으로 더 어두운 얼굴 부분은 그 휘도가 과도하게 감소하여, 도 1b와 같이, 지나치게 어둡게 보이는 것을 알 수 있다. 한편, 촬영된 얼굴 영상이 지나치게 밝거나 또는 어둡게 보이는 현상은, 사용자의 옷 색깔뿐만 아니라, 사용자에게 조사되는 주변의 빛에 의해서도 발생할 수 있다. 예를 들어, 도 1a에서, 상측 광(예를 들어, 실내 조명 또는 태양 광), 또는 좌측 또는 우측 광(예를 들어, 실내 조명 또는 창문을 통해 입사되는 태양 광)의 조사 량이 감소하는 경우, 촬영 영역의 전체 휘도의 평균값이 검은색 옷뿐만 아니 라 주변의 빛의 영향으로 더욱 감소한다. 그 결과, 사용자의 실제의 얼굴에 비하여, 촬영된 영상의 얼굴 부분이 지나치게 밝게 보이는 현상은 더욱 심각하게 나타난다. 또한, 도 1b에서, 상측 광, 또는 좌측 또는 우측 광의 조사 량이 증가하는 경우, 촬영될 영상의 전체 휘도의 평균값이 흰색 옷뿐만 아니라 주변 빛의 영향에 의해 더욱 증가한다. 그 결과, 촬영된 영상의 얼굴 부분이 지나치게 어둡게 보이는 현상은 더욱 심각하게 나타난다.In general, when a video telephone such as a VoIP over internet protocol phone or a portable telephone having a video call function communicates with another video telephone through an internet protocol (IP) network or a mobile communication network, these two images are used. The telephones transmit and receive voice and video data of users to and from each other through an IP network or a mobile communication network. Therefore, the user can make a voice and video call with the call counterpart via the video telephone. On the other hand, since the main purpose of the video call is to allow the user to check his or her face and the face of the call counterpart, it is very important that the video phone displays the user's face clearly. However, according to various environmental factors such as the brightness of the shooting location or the color of the clothes of the user, the image of the face part of the user captured by the photographing device may be distorted. That is, the luminance of a specific portion may be distorted in the image photographed by the photographing apparatus. The reason is that the automatic exposure operation of a photographing device such as a camera is greatly affected by the brightness of the surrounding environment. Here, the automatic exposure operation of the photographing apparatus is an operation in which the photographing apparatus automatically recognizes the entire brightness of the photographing area, and automatically adjusts the degree of exposure by appropriately operating the aperture according to the recognition result. For example, as shown in FIG. 1A, when the user wears black clothes, the average value of the overall luminance of the photographing area decreases due to the influence of the black clothes. As a result, in order to compensate for the average value of the brightness, the photographing apparatus photographs the corresponding area in a state where the degree of exposure is increased. In the photographed image, the image corresponding to the black clothes is clearly visible due to the increased brightness, but the part of the face that is relatively brighter than the black clothes is excessively increased, so that the brightness is excessively bright, as shown in FIG. 1A. It can be seen that. On the contrary, as shown in FIG. 1B, when the user wears white clothes, the average value of the overall luminance of the photographing area increases under the influence of the white clothes. As a result, the photographing apparatus photographs the region in a state in which the degree of exposure is reduced in order to compensate for the luminance average value. In the photographed image, the image corresponding to the white clothing decreases its brightness and looks clear, but the darker face portion of the face that is relatively darker than the white clothing decreases the brightness excessively, and thus, the image corresponding to the white clothing looks too dark. Can be. On the other hand, the phenomenon in which the photographed face image appears too bright or too dark may be caused not only by the color of the clothes of the user, but also by the ambient light irradiated to the user. For example, in FIG. 1A, when the amount of irradiation of upper light (eg, room light or sunlight), or left or right light (eg, light incident through the room light or a window) decreases, The average value of the overall luminance of the shooting area is further reduced by the influence of ambient light as well as black clothes. As a result, the phenomenon in which the face portion of the captured image appears too bright as compared to the actual face of the user appears more seriously. In addition, in FIG. 1B, when the irradiation amount of the upper light or the left or right light is increased, the average value of the overall luminance of the image to be photographed is further increased by the influence of the ambient light as well as the white clothes. As a result, the phenomenon that the face part of the captured image appears too dark appears more seriously.

한편, 영상 통화시, 촬영된 영상의 얼굴 영역과, 얼굴을 제외한 나머지 영역의 밝기를 서로 다르게 조절하는 기술로서, 절전형 화상통신 단말기 및 그 운용방법이 한국공개특허공보 제2003-0094746호에 개시되어 있다. 하지만, 한국공개특허공보 제2003-0094746호에 개시된 기술에 따르면, 절전을 위해, 밝기 조절부가 촬영 영상 중 얼굴을 제외한 나머지 영역의 밝기를 얼굴 영역에 비하여 낮추거나, 또는 배경 전환부가 촬영 영상 중 얼굴을 제외한 나머지 영역을 미리 설정된 어두운 배경의 영상으로 대체시킨다. 따라서, 얼굴 영역의 영상은 물론, 얼굴을 제외한 나머지 영역의 영상까지도 수정되어야 하므로, 영상 데이터의 처리량 및 그 처리 시간이 증가한다. 또, 얼굴이 지나치게 어둡게 보이게 촬영된 경우는 물론, 지나치게 밝게 보이게 촬영된 경우에도, 밝기 조절부가 얼굴 영역의 영상의 밝기를, 얼굴을 제외한 나머지 영역의 영상에 비하여 상대적으로 더 밝게 조절하므로, 사용자에게 선명한 얼굴 영상을 제공하는 것이 어렵다. 또한, 얼굴을 제외한 나머지 영역의 영상의 밝기와, 얼굴 영역의 밝기 간의 급격한 차이로 인하여, 전체 영상이 부자연스러워 보여, 사용자에게 시각적인 부담을 준다.On the other hand, as a technology for differently adjusting the brightness of the face region and the rest of the region except the face during a video call, a power-saving video communication terminal and its operation method is disclosed in Korean Patent Laid-Open No. 2003-0094746 have. However, according to the technique disclosed in Korean Patent Laid-Open Publication No. 2003-0094746, in order to save power, the brightness control unit lowers the brightness of the remaining area except the face in the captured image as compared to the face area, or the background switching unit performs the face in the captured image. The remaining area except for is replaced with a preset dark background image. Therefore, not only the image of the face region but also the image of the remaining region except for the face must be corrected, thereby increasing the throughput of the image data and its processing time. In addition, even when the face is taken too dark as well as when the image is taken too bright, the brightness control adjusts the brightness of the image of the face area relatively brighter than the image of the rest area except the face, It is difficult to provide a clear face image. In addition, due to the sharp difference between the brightness of the image of the remaining areas except for the face and the brightness of the face area, the entire image looks unnatural, thereby causing a visual burden on the user.

따라서, 본 발명이 이루고자 하는 기술적 과제는, 촬영 영상 중, 얼굴 영역의 휘도를, 미리 설정된 기준 휘도 값, 상기 얼굴 영역의 휘도 값, 및 미리 설정된 보정 인자 값에 기초하여 보정함으로써, 사용자의 옷 색깔이나, 촬영 시 주변으로부터 상기 사용자에게 조사되는 광의 양에 무관하게 선명한 얼굴 영상을 포함하는 자연스러운 보정 영상을, 상기 사용자 또는 통화 상대방에게 제공할 수 있는 영상 통화용 촬영 영상의 휘도 보정 방법을 제공하는 데 있다.Accordingly, a technical problem to be solved by the present invention is to correct the luminance of a face region based on a preset reference luminance value, a luminance value of the face region, and a preset correction factor value in a captured image, thereby providing a color of a user's clothes. In another aspect, the present invention provides a method for correcting luminance of a captured image for a video call, which may provide the user or a call counterpart with a natural corrected image including a clear face image irrespective of the amount of light irradiated to the user from the surroundings. have.

상기한 기술적 과제를 달성하기 위한 본 발명의 일면에 따른 영상 통화용 촬영 영상의 휘도 보정 방법은, 촬영 영상에서 사용자의 얼굴 영역을 검출하는 단계; 상기 촬영 영상 중 상기 얼굴 영역에 대응하는 부분의 휘도 값들을 수신하는 단계; 및 상기 휘도 값들, 미리 설정된 기준 휘도 값, 및 미리 설정된 보정 인자 값에 기초하여, 상기 촬영 영상 중 상기 얼굴 영역에 대응하는 부분의 휘도만 보정 하여, 보정 영상을 생성하는 단계를 포함한다. 상기 보정 영상 중 상기 얼굴 영역에 대응하는 부분의 선명도는, 상기 촬영 영상 중 상기 얼굴 영역에 대응하는 부분의 선명도에 비하여, 상기 사용자의 옷 색깔, 또는 촬영 시 주변으로부터 상기 사용자에게 조사되는 광의 양에 무관하게 증가 된다.According to an aspect of the present invention, there is provided a luminance correction method of a captured image for a video call, comprising: detecting a face region of a user from the captured image; Receiving luminance values of a portion of the captured image corresponding to the face region; And generating a corrected image by correcting only luminance of a portion of the captured image corresponding to the face region based on the luminance values, a preset reference luminance value, and a preset correction factor value. The sharpness of the portion of the corrected image corresponding to the face area is based on the color of the clothes of the user or the amount of light irradiated to the user from the surroundings when the image is taken, compared to the sharpness of the portion corresponding to the face area of the captured image. It is increased regardless.

상기한 기술적 과제를 달성하기 위한 본 발명의 다른 일면에 따른 영상 통화용 촬영 영상의 휘도 보정 방법은, 촬영 영상에서 얼굴 영역과, 얼굴 영역의 외곽 을 둘러싸는 적어도 하나의 주변 영역을 검출하는 검출 단계; 상기 촬영 영상 중, 상기 얼굴 영역에 대응하는 부분의 제1 휘도 값들과, 상기 적어도 하나의 주변 영역에 대응하는 부분의 제2 휘도 값들을 수신하는 단계; 상기 제1 휘도 값들, 미리 설정된 기준 휘도 값, 및 미리 설정된 제1 보정 인자 값에 기초하여, 상기 촬영 영상 중 상기 얼굴 영역에 대응하는 부분의 휘도를 보정하는 단계; 및 상기 제2 휘도 값들, 상기 기준 휘도 값, 및 미리 설정된 제2 보정 인자 값에 기초하여, 상기 촬영 영상 중 상기 적어도 하나의 주변 영역에 대응하는 부분의 휘도를 보정하여, 보정 영상을 생성하는 단계를 포함한다. 상기 얼굴 영역과 상기 적어도 하나의 주변 영역은, 상기 촬영 영상 중 일부에 해당한다. 상기 보정 영상 중 상기 얼굴 영역에 대응하는 부분의 선명도는, 상기 촬영 영상 중 상기 얼굴 영역에 대응하는 부분의 선명도에 비하여, 상기 사용자의 옷 색깔, 또는 촬영 시 주변으로부터 상기 사용자에게 조사되는 광의 양에 무관하게 증가 된다.According to another aspect of the present invention, there is provided a method of compensating luminance of a captured image for a video call, comprising: detecting a face region and at least one peripheral region surrounding an outside of the face region in the captured image; ; Receiving first luminance values of a portion of the captured image corresponding to the face region and second luminance values of the portion corresponding to the at least one peripheral region; Correcting luminance of a portion of the captured image corresponding to the face region based on the first luminance values, a preset reference luminance value, and a preset first correction factor value; And generating a corrected image by correcting the luminance of a portion of the captured image corresponding to the at least one peripheral region based on the second luminance values, the reference luminance value, and a preset second correction factor value. It includes. The face area and the at least one peripheral area correspond to a part of the captured image. The sharpness of the portion of the corrected image corresponding to the face area is based on the color of the clothes of the user or the amount of light irradiated to the user from the surroundings when the image is taken, compared to the sharpness of the portion corresponding to the face area of the captured image. It is increased regardless.

상술한 것과 같이, 본 발명에 따른 영상 통화용 촬영 영상의 휘도 보정 방법은, 촬영 영상 중, 얼굴 영역의 휘도를, 미리 설정된 기준 휘도 값, 상기 얼굴 영역의 휘도 값, 및 미리 설정된 보정 인자 값에 기초하여 보정 하므로, 사용자의 옷 색깔이나, 촬영 시 주변으로부터 상기 사용자에게 조사되는 광의 양에 무관하게 선명한 얼굴 영상을 포함하는 자연스러운 보정 영상을, 상기 사용자 또는 통화 상대방에게 제공할 수 있다. 또한, 본 발명에 따른 영상 통화용 촬영 영상의 휘도 보정 방법은 촬영 영상 중 얼굴 영역과, 얼굴 영역의 외곽을 둘러싸는 주변 영역의 휘도 가 단계적으로 변화하도록 보정 하므로, 얼굴 영역의 경계부분이 두드러지지 않는 자연스러운 보정 영상을 상기 사용자 또는 통화 상대방에게 제공할 수 있다.As described above, the brightness correction method of the captured video for video call according to the present invention, in the captured image, the brightness of the face area to the preset reference brightness value, the brightness value of the face area, and the preset correction factor value Since the correction is based on the user, a natural correction image including a clear face image may be provided to the user or the call counterpart regardless of the color of the clothes of the user or the amount of light irradiated to the user from the surroundings when the image is taken. In addition, the brightness correction method of the video call recording image according to the present invention is corrected so that the brightness of the face region and the peripheral region surrounding the outer edge of the face region in the captured image to be changed step by step, so that the boundary of the face region is not noticeable The natural correction image may be provided to the user or the call counterpart.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 설명하기로 한다. 그러나, 본 발명은 이하에서 개시되는 실시예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예는 본 발명의 개시가 완전하도록 하며 통상의 지식을 가진자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다.Hereinafter, with reference to the accompanying drawings will be described a preferred embodiment of the present invention. However, the present invention is not limited to the embodiments disclosed below, but can be implemented in various forms, and only the present embodiments are intended to complete the disclosure of the present invention and to those skilled in the art. It is provided for complete information.

도 2는 본 발명에 따른 영상 통화용 촬영 영상의 휘도 보정 방법이 적용된 영상 전화기의 개략적인 블록 구성도이다. 영상 전화기(100)는 카메라(101), 카메라 인터페이스(interface)(102), CPU(central processing unit)(103), 메모리(104), 영역 검출 추적부(105), 휘도 보정부(106), 마이크(107), 마이크 인터페이스(108), 미디어 프로세서(109), 통신부(110), 디스플레이 인터페이스(111), 디스플레이 장치(112), 오디오 인터페이스(113), 스피커(114), 서브 버스 브릿지(sub bus bridge)(115), URS(user register set)(116), 및 입력부(117)를 포함한다. 카메라 인터페이스(102), CPU(103), 메모리(104), 영역 검출 추적부(105), 휘도 보정부(106), 마이크 인터페이스(108), 미디어 프로세서(109), 통신부(110), 디스플레이 인터페이스(111), 오디오 인터페이스(113), 및 서브 버스 브릿지(115)는 메인 버스(main bus)(118)에 각각 연결된다. 또, 서브 버스 브릿지(115), URS(116), 및 입력부(117)는 서브 버스(119)에 각각 연결된다.2 is a schematic block diagram of a video telephone to which a brightness correction method of a captured video for a video call according to the present invention is applied. The video telephone 100 includes a camera 101, a camera interface 102, a central processing unit 103, a memory 104, an area detection tracking unit 105, a luminance correction unit 106, Microphone 107, microphone interface 108, media processor 109, communication unit 110, display interface 111, display device 112, audio interface 113, speaker 114, sub-bus bridge (sub bus bridge 115, a user register set (URS) 116, and an input unit 117. Camera interface 102, CPU 103, memory 104, area detection tracking unit 105, luminance correction unit 106, microphone interface 108, media processor 109, communication unit 110, display interface 111, the audio interface 113, and the sub bus bridge 115 are each connected to a main bus 118. In addition, the sub bus bridge 115, the URS 116, and the input unit 117 are connected to the sub bus 119, respectively.

카메라(101)는 사용자의 모습을 촬영하고, 그 촬영 영상을 나타내는 영상 데이터들(IDAT1∼IDATK)(K는 정수)을 출력한다. 카메라 인터페이스(102)는 CPU(103)의 제어에 따라 카메라(101)로부터 영상 데이터들(IDAT1∼IDATK)을 수신하여 메인 버스(118)에 출력한다. 여기에서, 영상 데이터들(IDAT1∼IDATK)은 촬영 영상(200, 도 8)을 이루는 화소(pixel)들의 휘도 값들(FY1∼FYM, PY1∼PYN, BY1∼BYQ)(M, N, Q는 정수)을 각각 포함한다. 휘도 값들(FY1∼FYM)은 촬영 영상(200) 중 얼굴 영역(FA)에 해당하는 부분의 휘도를 나타내고, 휘도 값들(PY1∼PYN)은 촬영 영상(200) 중 주변 영역들(PA1∼PAJ)(J는 정수)의 휘도를 나타낸다. 또, 휘도 값들(BY1∼BYQ)(미도시)은 촬영 영상(200) 중, 얼굴 영역(FA)과 주변 영역들(PA1∼PAJ)을 제외한 배경 영역(BA)의 휘도를 나타낸다.The camera 101 photographs the user's state and outputs image data IDAT1 to IDATK (K is an integer) representing the captured image. The camera interface 102 receives the image data IDAT1 to IDATK from the camera 101 under the control of the CPU 103 and outputs it to the main bus 118. Here, the image data IDAT1 to IDATK are luminance values FY1 to FYM, PY1 to PYN, BY1 to BYQ (M, N, and Q are integers) of pixels constituting the captured image 200 (FIG. 8). Each). The luminance values FY1 to FYM represent luminances of a portion corresponding to the face area FA of the captured image 200, and the luminance values PY1 to PYN represent peripheral regions PA1 to PAJ of the captured image 200. (J is an integer). In addition, the luminance values BY1 to BYQ (not shown) indicate the luminance of the background area BA in the captured image 200 except for the face area FA and the peripheral areas PA1 to PAJ.

CPU(103)는 메인 버스(118)에 실린 영상 데이터들(IDAT1∼IDATK)을 메모리(104)에 저장한다. CPU(103)는 카메라 인터페이스(102), 메모리(104), 영역 검출 추적부(105), 휘도 보정부(106), 마이크 인터페이스(108), 미디어 프로세서(109), 통신부(110), 디스플레이 인터페이스(111), 오디오 인터페이스(113), 및 서브 버스 브릿지(115)의 동작을 각각 제어한다. 또, CPU(103)는 카메라 인터페이스(102), 메모리(104), 영역 검출 추적부(105), 휘도 보정부(106), 마이크 인터페이스(108), 미디어 프로세서(109), 통신부(110), 디스플레이 인터페이스(111), 오디오 인터페이스(113), 및 서브 버스 브릿지(115) 각각의 메인 버스(118) 사용 요청에 따라, 우선 순위를 결정한다. CPU(103)는 우선 순위의 결정 결과에 따라, 카메라 인터페이스(102), 메모리(104), 영역 검출 추적부(105), 휘도 보정부(106), 마이크 인터 페이스(108), 미디어 프로세서(109), 통신부(110), 디스플레이 인터페이스(111), 오디오 인터페이스(113), 및 서브 버스 브릿지(115) 중 적어도 하나에, 메인 버스(118)의 사용권을 부여한다. 선택적으로, CPU(103)는, 영역 검출 추적부(105)의 동작에 대응하는 영역 검출 추적 프로그램과, 휘도 보정부(106)의 동작에 대응하는 휘도 보정 프로그램이 저장된 프로그램 메모리(미도시)를 포함할 수 있다. 이 경우, 영상 전화기(100)는 영역 검출 추적부(105) 및 휘도 보정부(106)를 포함하지 않는다.The CPU 103 stores the image data IDAT1 to IDATK on the main bus 118 in the memory 104. The CPU 103 includes a camera interface 102, a memory 104, an area detection tracking unit 105, a luminance correction unit 106, a microphone interface 108, a media processor 109, a communication unit 110, a display interface. 111 controls the operation of the audio interface 113 and the sub-bus bridge 115, respectively. In addition, the CPU 103 includes a camera interface 102, a memory 104, an area detection tracking unit 105, a luminance correction unit 106, a microphone interface 108, a media processor 109, a communication unit 110, Priority is determined according to a request for using the main bus 118 of the display interface 111, the audio interface 113, and the sub-bus bridge 115. The CPU 103 determines the camera interface 102, the memory 104, the area detection tracking unit 105, the luminance correction unit 106, the microphone interface 108, and the media processor 109 according to the result of the determination of the priority. ), At least one of the communication unit 110, the display interface 111, the audio interface 113, and the sub-bus bridge 115 is given a right to use the main bus 118. Optionally, the CPU 103 may include a program memory (not shown) in which an area detection tracking program corresponding to the operation of the area detection tracking unit 105 and a brightness correction program corresponding to the operation of the luminance correction unit 106 are stored. It may include. In this case, the video telephone 100 does not include the area detection tracking unit 105 and the brightness correction unit 106.

영역 검출 추적부(105)는 CPU(103)의 제어에 따라, 메인 버스(118)에 실린 영상 데이터들(IDAT1∼IDATK)을 수신하고, 영상 데이터들(IDAT1∼IDATK)에 기초하여, 촬영 영상(200)에서 얼굴 영역(FA)을 결정한다. 이 후, 영역 검출 추적부(105)는 얼굴 영역(FA)의 이동을 추적하고, 그 추적 결과에 따라, 얼굴 영역 정보(FAIF)를 메인 버스(118)에 출력한다. 또, 영역 검출 추적부(105)는 CPU(103)의 제어에 따라, 얼굴 영역(FA)의 외곽을 둘러싸는 적어도 하나의 주변 영역(PA1∼PAJ 중 적어도 하나)을 더 결정하고, 주변 영역(PA1∼PAJ 중 적어도 하나)의 이동을 추적할 수 있다. 이때, 영역 검출 추적부(105)는 얼굴 영역(FA)의 경계선으로부터 외곽 방향으로 설정된 화소(pixel) 수만큼의 영역을 주변 영역(PA1∼PAJ 중 적어도 하나)으로 결정할 수 있다. 이 경우, 영역 검출 추적부(105)는 주변 영역 정보(PAIF1∼PAIFJ 중 적어도 하나)를 메인 버스(118)에 출력한다. 한편, 영역 검출 추적부(105)가 복수의 주변 영역들(PA2∼PAJ)을 검출 및 추적한 경우, 복수의 주변 영역 정보들(PAIF2∼PAIFJ)을 메인 버스(118)에 출력한다. 여기에서, 영역 검출 추적 부(105)에 의한 영역 검출 및 추적 동작은 본 기술 분야에서 통상의 지식을 가진 자라면 잘 이해할 수 있으므로, 이에 대한 상세한 설명은 생략된다.The area detection tracking unit 105 receives the image data IDAT1 to IDATK loaded on the main bus 118 under the control of the CPU 103, and based on the image data IDAT1 to IDATK, captures a captured image. In operation 200, the facial area FA is determined. Thereafter, the area detection tracking unit 105 tracks the movement of the face area FA, and outputs the face area information FAIF to the main bus 118 according to the tracking result. Further, the area detection tracking unit 105 further determines at least one peripheral area (at least one of PA1 to PAJ) surrounding the outside of the face area FA under the control of the CPU 103, and determines the peripheral area ( The movement of at least one of PA1 to PAJ can be tracked. In this case, the area detection tracking unit 105 may determine, as the peripheral area (at least one of PA1 to PAJ), an area corresponding to the number of pixels set in the outer direction from the boundary line of the face area FA. In this case, the area detection tracking unit 105 outputs peripheral area information (at least one of PAIF1 to PAIFJ) to the main bus 118. On the other hand, when the area detection tracking unit 105 detects and tracks the plurality of peripheral areas PA2 to PAJ, the area detection tracking unit 105 outputs the plurality of peripheral area information PAIF2 to PAIFJ on the main bus 118. Here, since the area detection and tracking operation by the area detection tracking unit 105 can be well understood by those skilled in the art, a detailed description thereof will be omitted.

CPU(103)는 얼굴 영역 정보(FAIF)에 기초하여, 촬영 영상(200) 중 얼굴 영역(FA)에 대응하는 영상을 선택하고, 그 선택된 영상의 휘도 값들(FY1∼FYM)을 메모리(104)로부터 판독한다. 휘도 보정부(106)는 CPU(103)의 제어에 따라, 메모리(104)로부터 휘도 값들(FY1∼FYM)을 수신한다. 휘도 보정부(106)는 휘도 값들(FY1∼FYM)을 미리 설정된 기준 휘도 값(YR)에 각각 비교한다. 비교 결과 기준 휘도 값(YR)에 일치하는 적어도 하나의 휘도 값(예를 들어, FY1)이 존재할 때, 휘도 보정부(106)는 휘도 값(FY1)을 그대로 보정 휘도 값(FY1')으로서 출력한다. 그 결과, 메모리(104)에 저장된 휘도 값(FY1)이 그대로 유지된다.The CPU 103 selects an image corresponding to the face area FA from the captured image 200 based on the face area information FAIF, and stores the luminance values FY1 to FYM of the selected image in the memory 104. Read from The luminance corrector 106 receives luminance values FY1 to FYM from the memory 104 under the control of the CPU 103. The luminance corrector 106 compares the luminance values FY1 to FYM with the preset reference luminance value YR, respectively. When there is at least one luminance value (for example, FY1) that matches the reference luminance value YR as a result of the comparison, the luminance correction unit 106 outputs the luminance value FY1 as the corrected luminance value FY1 'as it is. do. As a result, the luminance value FY1 stored in the memory 104 is maintained as it is.

또, 휘도 보정부(106)는 상기 비교 결과, 기준 휘도 값(YR)에 일치하지 않는 휘도 값들(예를 들어, FY2∼FYM)과, 기준 휘도 값(YR) 간의 휘도 차 값들(FYD2∼FYDM)을 각각 계산한다. 이 후, 휘도 보정부(106)는 기준 휘도 값(YR)에 일치하지 않는 휘도 값들(FY2∼FYM), 휘도 차 값들(FYD2∼FYDM), 및 미리 설정된 보정 인자 값(α0)에 기초하여, 보정 휘도 값들(FY2'∼FYM')을 계산하여 메인 버스(118)에 출력한다. 그 결과, CPU(103)가 메모리(104)에 저장된 휘도 값들(FY2∼FYM)을 보정 휘도 값들(FY2'∼FYM')로 치환하여 저장한다. 이때, CPU(103)는 메모리(104)에 저장된 휘도 값들(FY2∼FYM)을 삭제한 후, 휘도 값들(FY2∼FYM)이 저장되었던 어드레스 영역에 보정 휘도 값들(FY2'∼FYM')을 저장할 수 있다.In addition, as a result of the comparison, the luminance correction unit 106 determines luminance difference values FYD2 to FYDM between luminance values (for example, FY2 to FYM) that do not match the reference luminance value YR, and the reference luminance value YR. Calculate each). Thereafter, the luminance correction unit 106 is based on luminance values FY2 to FYM that do not coincide with the reference luminance value YR, luminance difference values FYD2 to FYDM, and a preset correction factor value α0. The corrected luminance values FY2 'to FYM' are calculated and output to the main bus 118. As a result, the CPU 103 substitutes and stores the luminance values FY2 to FYM stored in the memory 104 with correction luminance values FY2 'to FYM'. At this time, the CPU 103 deletes the luminance values FY2 to FYM stored in the memory 104 and then stores the corrected luminance values FY2 'to FYM' in the address area where the luminance values FY2 to FYM are stored. Can be.

휘도 값들(FY2∼FYM)이 보정 휘도 값들(FY2'∼FYM')로 치환됨에 따라, 촬영 영상(200) 중 얼굴 영역(FA)에 대응하는 부분의 휘도가 보정되어, 보정 영상(예를 들어, 300b)(도 9b 참고)이 생성된다. 여기에서, 보정 휘도 값들(FY1'∼FYM')을 각각 계산하기 위한 수식은 서로 유사하므로, 설명의 간략화를 위해, 보정 휘도 값(FY1')을 계산하기 위한 수식을 중심으로 설명하기로 한다. 보정 휘도 값(FY1')을 계산하기 위한 수식은 다음과 같이 나타낼 수 있다.As the luminance values FY2 to FYM are replaced with the correction luminance values FY2 'to FYM', the luminance of the portion of the captured image 200 corresponding to the face area FA is corrected, thereby correcting the image (eg, , 300b) (see FIG. 9B). Here, since the equations for calculating the correction luminance values FY1 'to FYM' are similar to each other, for the sake of simplicity, the following description will focus on the equations for calculating the correction luminance values FY1 '. The equation for calculating the correction luminance value FY1 'can be expressed as follows.

Figure 112007094437671-PAT00001
Figure 112007094437671-PAT00001

상기 [수학식 1]에서, 예를 들어, FY1 대신 FY2를 대입하면, [수학식 1]은 보정 휘도 값(FY2')을 계산하기 위한 수식으로 바뀐다. 상기 [수학식 1]로부터, 얼굴 영역(FA)에 대한 보정 영상과 촬영 영상 간의 휘도 차이는, 얼굴 영역(FA)의 휘도 값들(FY1∼FYM)의 평균값과 기준 휘도 값(YR) 간의 관계에 따라 변화하는 것을 알 수 있다. 예를 들어, 휘도 값들(FY1∼FYM)의 평균값이 기준 휘도 값(YR)보다 클 때, 보정 영상 중 얼굴 영역에 대응하는 부분의 휘도가, 촬영 영상 중 얼굴 영역에 대응하는 부분의 휘도보다 더 낮다. 또, 휘도 값들(FY1∼FYM)의 평균값이 기준 휘도 값(YR)보다 작을 때, 보정 영상 중 얼굴 영역에 대응하는 부분의 휘도가, 촬영 영상 중 얼굴 영역에 대응하는 부분의 휘도보다 더 높다.In Equation 1, for example, when FY2 is substituted for FY1, Equation 1 is changed to an equation for calculating the correction luminance value FY2 '. From Equation 1, the luminance difference between the corrected image and the captured image of the face area FA is determined by the relationship between the average value of the luminance values FY1 to FYM of the face area FA and the reference luminance value YR. It can be seen that it changes accordingly. For example, when the average value of the luminance values FY1 to FYM is larger than the reference luminance value YR, the luminance of the portion of the corrected image corresponding to the face area is higher than the luminance of the portion of the captured image corresponding to the face area. low. In addition, when the average value of the luminance values FY1 to FYM is smaller than the reference luminance value YR, the luminance of the portion of the corrected image corresponding to the face area is higher than the luminance of the portion of the captured image corresponding to the face area.

한편, 영역 검출 추적부(105)가 주변 영역 정보들(PAIF1∼PAIFJ)을 메인 버스(118)에 출력할 때, CPU(103)는 주변 영역 정보들(PAIF1∼PAIFJ)에 기초하여, 촬영 영상(200) 중 주변 영역들(PA1∼PAJ)에 대응하는 영상들을 선택하고, 그 선택된 영상들의 휘도 값들(PY1∼PYN)을 메모리(104)로부터 판독한다. 휘도 보정부(106)는 CPU(103)의 제어에 따라, 메모리(104)로부터 휘도 값들(PY1∼PYN)을 수신한다. 휘도 보정부(106)는 휘도 값들(PY1∼PYN)을 기준 휘도 값(YR)에 각각 비교한다. 비교 결과 기준 휘도 값(YR)에 일치하는 적어도 하나의 휘도 값(예를 들어, PY1)이 존재할 때, 휘도 보정부(106)는 휘도 값(PY1)을 그대로 보정 휘도 값(PY1')으로서 출력한다. 그 결과, 메모리(104)에 저장된 휘도 값(PY1)이 그대로 유지된다.On the other hand, when the area detection tracking unit 105 outputs the peripheral area information PAIF1 to PAIFJ to the main bus 118, the CPU 103 uses the captured image based on the peripheral area information PAIF1 to PAIFJ. Among the 200, images corresponding to the peripheral areas PA1 to PAJ are selected, and luminance values PY1 to PYN of the selected images are read from the memory 104. The luminance corrector 106 receives luminance values PY1 to PYN from the memory 104 under the control of the CPU 103. The luminance corrector 106 compares the luminance values PY1 to PYN with the reference luminance value YR, respectively. When there is at least one luminance value (for example, PY1) that matches the reference luminance value YR as a result of the comparison, the luminance corrector 106 outputs the luminance value PY1 as the corrected luminance value PY1 'as it is. do. As a result, the luminance value PY1 stored in the memory 104 is maintained as it is.

또, 휘도 보정부(106)는 상기 비교 결과, 기준 휘도 값(YR)에 일치하지 않는 휘도 값들(예를 들어, PY2∼PYN)과, 기준 휘도 값(YR) 간의 휘도 차 값들(PYD2∼PYDN)을 각각 계산한다. 이 후, 휘도 보정부(106)는 기준 휘도 값(YR)에 일치하지 않는 휘도 값들(PY2∼PYN), 휘도 차 값들(PYD2∼PYDN), 및 미리 설정된 보정 인자 값들(α1∼αJ)에 기초하여, 보정 휘도 값들(PY2'∼PYN')을 각각 계산한다. 여기에서, 보정 휘도 값들(PY1'∼PYN')을 각각 계산하기 위한 수식은 서로 유사하다. 예를 들어, 촬영 영상(200) 중 주변 영역(PA1)에 대응하는 휘도 값들 중 하나가 PY2이고, 주변 영역(PA2)에 대응하는 휘도 값들 중 하나가 PY20이고, 주변 영역(PAJ)에 대응하는 휘도 값들 중 하나가 PYN인 것으로 가정할 때, 보정 휘도 값들(PY2', PY20', PYN')을 계산하기 위한 수식은 다음과 같이 나타낼 수 있다.In addition, as a result of the comparison, the luminance correction unit 106 determines luminance difference values PYD2 to PYDN between luminance values (for example, PY2 to PYN) that do not match the reference luminance value YR, and the reference luminance value YR. Calculate each). Thereafter, the luminance correction unit 106 is based on luminance values PY2 to PYN that do not coincide with the reference luminance value YR, luminance difference values PYD2 to PYDN, and preset correction factor values α1 to αJ. The correction luminance values PY2 'to PYN' are respectively calculated. Here, the equations for calculating the correction luminance values PY1 'to PYN' are similar to each other. For example, one of the luminance values corresponding to the peripheral area PA1 of the captured image 200 is PY2, one of the luminance values corresponding to the peripheral area PA2 is PY20, and corresponds to the peripheral area PAJ. Assuming that one of the luminance values is PYN, the equation for calculating the corrected luminance values PY2 ', PY20', and PYN 'can be expressed as follows.

Figure 112007094437671-PAT00002
Figure 112007094437671-PAT00002

상기 [수학식 2]로부터 알 수 있는 것과 같이, 보정 인자 값들(α1∼αJ)은 주변 영역들(PA1∼PAJ)에 각각 대응하는 보정 휘도 값을 계산하기 위해 사용된다. 예를 들어, 주변 영역(PA1)과 주변 영역(PA2)의 영상의 휘도 값들이 각각 20개라고 가정할 때, 주변 영역(PA1)에 대한 20개의 휘도 값들에 대한 휘도 보정 값들을 계산하기 위해, α1이 사용된다. 또, 주변 영역(PA2)의 20개의 휘도 값들에 대한 휘도 보정 값들을 계산하기 위해, α2가 사용된다.As can be seen from Equation 2, correction factor values α1 to αJ are used to calculate correction luminance values corresponding to the peripheral areas PA1 to PAJ, respectively. For example, assuming that luminance values of images of the peripheral area PA1 and the peripheral area PA2 are 20, respectively, to calculate luminance correction values for the 20 luminance values for the peripheral area PA1, α1 is used. Further, α2 is used to calculate luminance correction values for the 20 luminance values of the peripheral area PA2.

CPU(103)는 메모리(104)에 저장된 휘도 값들(PY2∼PYN)을 휘도 보정부(106)에 의해 계산된 보정 휘도 값들(PY2'∼PYN')로 각각 치환하여 저장한다. 메모리(104)에 저장된 휘도 값들(PY2∼PYN)이 보정 휘도 값들(PY2'∼PYN')로 각각 치환됨에 따라, 촬영 영상(200) 중 주변 영역들(PA1∼PAJ)에 대응하는 부분의 휘도가 각각 보정되어, 보정 영상(미도시)이 생성된다. 이때, 보정 영상의 휘도는 얼굴 영역(FA)으로부터 주변 영역(PAJ)까지, 점진적으로 감소하거나, 또는 점진적으로 증가한다. 예를 들어, 도 9a에 도시된 촬영 영상(200a)과 같이, 얼굴 영역이 지나치게 밝게 촬영된 경우, 보정 영상(300a)의 휘도는 얼굴 영역(FA)으로부터 주변 영역(PAJ)까지, 점진적으로 증가한다. 도 9b에 도시된 촬영 영상(200b)과 같이, 얼굴 영역이 지나치게 어둡게 촬영된 경우, 보정 영상(300b)의 휘도는 얼굴 영역(FA)으로부터 주변 영역(PAJ)까지, 점진적으로 감소한다.The CPU 103 replaces and stores the luminance values PY2 to PYN stored in the memory 104 with the corrected luminance values PY2 'to PYN' calculated by the luminance correction unit 106, respectively. As the luminance values PY2 to PYN stored in the memory 104 are replaced with the correction luminance values PY2 'to PYN', respectively, the luminance of the portion corresponding to the peripheral areas PA1 to PAJ in the captured image 200. Are respectively corrected to generate a corrected image (not shown). In this case, the luminance of the corrected image gradually decreases or gradually increases from the face area FA to the peripheral area PAJ. For example, as in the photographed image 200a illustrated in FIG. 9A, when the face region is photographed too brightly, the luminance of the corrected image 300a is gradually increased from the face region FA to the peripheral region PAJ. do. As shown in the photographed image 200b of FIG. 9B, when the face region is photographed too dark, the luminance of the corrected image 300b gradually decreases from the face region FA to the peripheral region PAJ.

한편, 기준 휘도 값(YR)과 보정 인자 값들(α0∼αJ)은 휘도 보정부(106)에 미리 설정될 수 있다. 보정 인자 값(α0)은 0≤X≤1에서, X를 만족하는 소수들 중 어느 하나, 또는 1로 설정될 수 있다. 보정 인자 값들(α1∼αJ) 각각은 0≤X≤1에 서, X를 만족하는 소수들 중 어느 하나로 설정될 수 있다. 보정 인자 값(α0)은 보정 인자 값들(α1∼αJ) 각각보다 더 크다. 또, 보정 인자 값들(α1∼αJ) 중에서는, 보정 인자 값(α1)이 최대값 이고, 보정 인자 값(αJ)이 최소값 이다. 즉, 보정 인자 값은, α1로부터 αJ까지, 점진적으로 감소한다.Meanwhile, the reference luminance value YR and the correction factor values α0 to αJ may be preset in the luminance corrector 106. The correction factor value α 0 may be set to any one of the prime numbers satisfying X, or 1, at 0 ≦ X ≦ 1. Each of the correction factor values α1 to αJ may be set to any one of the prime numbers satisfying X at 0 ≦ X ≦ 1. The correction factor value α 0 is larger than each of the correction factor values α 1 to α J. Further, among the correction factor values alpha 1 to alpha J, the correction factor value alpha 1 is the maximum value, and the correction factor value alpha J is the minimum value. That is, the correction factor value gradually decreases from α1 to αJ.

휘도 보정부(106)에 기준 휘도 값(YR)과 보정 인자 값들(α0∼αJ)을 설정하기 위해, 사용자는 입력부(117)를 조작하여, URS(116)에 설정 정보(SETF)를 등록 저장할 수 있다. 그 결과, CPU(103)가 서브 버스 브릿지(115)를 통하여, URS(116)로부터 설정 정보(SETF)를 수신하고, 설정 정보(SETF)에 기초하여, 휘도 보정부(106)에 기준 휘도 값(YR)과 보정 인자 값들(α0∼αJ)을 설정한다. 사용자는 입력부(117)를 조작하여, 기준 휘도 값(YR)과 보정 인자 값들(α0∼αJ)을 변경할 수 있다. 또한, 도 2에 상세히 도시되지 않았지만, 사용자는 입력부(117)를 조작하여, 자신의 영상 전화기(100)와, 통화 상대방의 영상 전화기(미도시) 간의 호 연결 또는 해제를 선택할 수 있다.In order to set the reference luminance value YR and the correction factor values α0 to αJ in the luminance correction unit 106, the user operates the input unit 117 to register and store the setting information SETF in the URS 116. Can be. As a result, the CPU 103 receives the setting information SETF from the URS 116 via the sub-bus bridge 115, and based on the setting information SETF, the reference luminance value is given to the luminance correcting unit 106. (YR) and correction factor values α0 to αJ are set. The user may manipulate the input unit 117 to change the reference luminance value YR and the correction factor values α0 to αJ. Also, although not shown in detail in FIG. 2, the user may operate the input unit 117 to select a call connection or disconnection between his video phone 100 and the video phone (not shown) of the call counterpart.

마이크(107)는 사용자의 음성을 오디오 데이터(AUD)로 변환하여 출력한다. 마이크 인터페이스(108)는 CPU(103)의 제어에 따라 마이크(107)로부터 수신되는 오디오 데이터(AUD)를 메인 버스(118)에 출력한다. 미디어 프로세서(109)는 CPU(103)의 제어에 따라, 메모리(104)로부터 수신되는 보정 영상을 나타내는 영상 데이터들(CDAT1∼CDATK)(K는 정수)과, 마이크 인터페이스(108)로부터 수신되는 오디오 데이터(AUD)를 각각 인코딩하고, 인코딩된 영상 데이터들(EDAT1∼EDATK)과 인코딩된 오디오 데이터(EAUD)를 출력한다. 여기에서, CDAT1∼CDATK는 단지, 촬영 영상을 나 타내는 영상 데이터들(IDAT1∼IDATK)과의 구분을 위해 사용된 것이다. 즉, 보정 영상을 나타내는 영상 데이터들(CDAT1∼CDATK) 중 일부(즉, 휘도 값이 보정되지 않은 영상 데이터들)는 실제로 영상 데이터들(IDAT1∼IDATK) 중 일부와 동일하다.The microphone 107 converts a user's voice into audio data AUD and outputs the audio. The microphone interface 108 outputs audio data AUD received from the microphone 107 to the main bus 118 under the control of the CPU 103. The media processor 109 controls the image data CDAT1 to CDATK (K is an integer) representing the corrected image received from the memory 104 and the audio received from the microphone interface 108 under the control of the CPU 103. The data AUD is encoded, and the encoded image data EDAT1 to EDATK and the encoded audio data EAUD are output. Here, the CDAT1 to CDATK are used only for distinguishing from the image data IDAT1 to IDATK representing the photographed image. That is, some of the image data CDAT1 to CDATK representing the corrected image (that is, image data whose luminance value is not corrected) are actually the same as some of the image data IDAT1 to IDATK.

통신부(110)는 CPU(103)의 제어에 따라, 인코딩된 영상 데이터들(EDAT1∼EDATK)과 인코딩된 오디오 데이터(EAUD)에 기초하여, 미리 설정된 통신 프로토콜(protocol)에 적합한 데이터 패킷(DPK)을 생성하고, 데이터 패킷(DPK)을 통화 상대방의 영상 전화기에 전송한다. 디스플레이 인터페이스(111)는 CPU(103)의 제어에 따라, 메모리(104)로부터 수신되는 영상 데이터들(CDAT1∼CDATK)을 디스플레이 장치(112)에 출력한다. 디스플레이 장치(112)는 영상 데이터들(CDAT1∼CDATK)에 기초하여, 보정 영상을 표시한다. 여기에서, 보정 영상 중 얼굴 영역에 대응하는 부분의 선명도는, 촬영 영상 중 얼굴 영역에 대응하는 부분의 선명도에 비하여, 사용자의 옷 색깔, 또는 촬영 시 주변으로부터 사용자에게 조사되는 광의 양에 무관하게 증가된다. 오디오 인터페이스(113)는 CPU(103)의 제어에 따라, 디코딩 오디오 데이터(DAUD)에 기초하여, 통화 상대방의 음성을 스피커(114)에 출력한다. 여기에서, 디코딩 오디오 데이터(DAUD)는, 통신부(110)에 의해 수신된 통화 상대방의 영상 전화기로부터의 인코딩 오디오 데이터(미도시)가 미디어 프로세서(109)에 의해 디코딩된 것이다. 서브 버스 브릿지(115)는 CPU(103)의 제어에 따라, 서브 버스(119)를 통하여 수신되는 URS(116)로부터의 설정 정보(SETF)를 메인 버스(118)에 출력한다. 또, 서브 버스 브릿지(115)는 CPU(103)의 제어에 따라, 서브 버스(119)를 통하여 수신되는 입력부(117) 또는 URS(116)로부터의 신호들(미도시)을 메인 버스(118)에 출력한다. 서브 버스 브릿지(115)는 CPU(103)의 제어에 따라, 메인 버스(118)를 통하여 수신되는 신호들(미도시)을 서브 버스(119)에 출력할 수 있다.The communication unit 110 controls a data packet DPK suitable for a preset communication protocol based on the encoded image data EDAT1 to EDATK and the encoded audio data EAUD under the control of the CPU 103. And a data packet (DPK) is transmitted to the video telephone of the called party. The display interface 111 outputs the image data CDAT1 to CDATK received from the memory 104 to the display device 112 under the control of the CPU 103. The display apparatus 112 displays the corrected image based on the image data CDAT1 to CDATK. Here, the sharpness of the portion of the corrected image corresponding to the face area is increased regardless of the color of the user's clothes or the amount of light irradiated to the user from the surroundings at the time of shooting, compared to the sharpness of the portion corresponding to the face area of the captured image. do. The audio interface 113 outputs the voice of the other party to the speaker 114 based on the decoded audio data DAUD under the control of the CPU 103. Here, the decoded audio data DAUD is obtained by decoding the encoded audio data (not shown) from the video telephone of the call counterpart received by the communication unit 110 by the media processor 109. The sub bus bridge 115 outputs the setting information SETF from the URS 116 received through the sub bus 119 to the main bus 118 under the control of the CPU 103. In addition, the sub-bus bridge 115 receives signals (not shown) from the input unit 117 or the URS 116 received through the sub-bus 119 under the control of the CPU 103. Output to. The sub bus bridge 115 may output signals (not shown) received through the main bus 118 to the sub bus 119 under the control of the CPU 103.

다음으로, 도 3 내지 도 7을 참고하여, 영상 전화기(100)의 상세한 동작 과정을 설명한다. 설명의 편의를 위해, 영상 전화기(100)의 오디오 데이터(AUD) 또는 디코딩 오디오 데이터(DAUD)와 관련된 부분들에 대한 설명은 생략하기로 한다.Next, a detailed operation process of the video telephone 100 will be described with reference to FIGS. 3 to 7. For convenience of description, descriptions of parts related to audio data AUD or decoded audio data DAUD of the video telephone 100 will be omitted.

도 3은 본 발명의 일 실시예에 따른 영상 통화용 촬영 영상의 휘도 보정 과정(1000)을 나타내는 흐름도이다. 먼저, 영상 전화기(100)는 카메라(101)로부터 촬영 영상에 대응하는 영상 데이터들(IDAT1∼IDATK)을 수신한다(단계 1100). 이때, CPU(103)는 영상 데이터들(IDAT1∼IDATK)을 메모리(104)에 저장할 수 있다. 한편, 영역 검출 추적부(105)는 메인 버스(118)에 실린 영상 데이터들(IDAT1∼IDATK)을 수신하고, 영상 데이터들(IDAT1∼IDATK)에 기초하여, 촬영 영상(200)에서 얼굴 영역(FA)을 검출한다(단계 1200). 이때, 영역 검출 추적부(105)는 얼굴 영역(FA)의 이동을 추적하여, 얼굴 영역 정보(FAIF)를 출력한다. CPU(103)는 얼굴 영역 정보(FAIF)에 기초하여, 촬영 영상(200) 중 얼굴 영역(FA)에 대응하는 영상을 선택하고, 그 선택된 영상의 휘도 값들(FY1∼FYM)을 메모리(104)로부터 판독한다. 그 결과, 휘도 보정부(106)가 CPU(103)의 제어에 따라, 메모리(104)로부터 휘도 값들(FY1∼FYM)을 수신한다(단계 1300). 이 후, 휘도 보정부(106)는 휘도 값들(FY1∼FYM), 미리 설정된 기준 휘도 값(YR), 및 보정 인자 값(α0)에 기초하여, 보정 휘도 값들(FY1'∼FYM')을 출력한다. CPU(103)는 메모리(104)에 저장된 휘도 값들(FY1∼FYM)을 보정 휘도 값들(FY1'∼FYM')로 각각 치환하여 저장한다. 그 결과, 얼굴 영역(FA)의 휘도 값이 보정된 보정 영상이 생성된다(단계 1400). 한편, CPU(103)는 보정 영상을 통화 상대방의 영상 전화기에 전송하기 위해, 메모리(104)로부터 보정 영상을 나타내는 영상 데이터들(CDAT1∼CDATK)을 판독한다. 미디어 프로세서(109)는 CPU(103)의 제어에 따라, 영상 데이터들(CDAT1∼CDATK)을 수신하여 인코딩한다(단계 1500). 이 후, 통신부(110)가 CPU(103)의 제어에 따라, 인코딩된 영상 데이터들(EDAT1∼EDATK)을 통화 상대방의 영상 전화기에 전송한다(단계 1600). 좀 더 상세하게는, 통신부(110)가 인코딩된 영상 데이터들(EDAT1∼EDATK)과 인코딩된 오디오 데이터(EAUD)에 기초하여 데이터 패킷(DPK)을 생성하고, 데이터 패킷(DPK)을 통화 상대방의 영상 전화기에 전송한다. 또, 디스플레이 인터페이스(111)는 CPU(103)의 제어에 따라, 영상 데이터들(CDAT1∼CDATK)을 디스플레이 장치(112)에 출력한다. 그 결과, 디스플레이 장치(112)가 영상 데이터들(CDAT1∼CDATK)에 기초하여, 얼굴 영역(FA)이 휘도가 보정된 보정 영상을 표시한다(단계 1700).3 is a flowchart illustrating a luminance correction process 1000 of a captured image for a video call according to an embodiment of the present invention. First, the video phone 100 receives image data IDAT1 to IDATK corresponding to the captured image from the camera 101 (step 1100). At this time, the CPU 103 may store the image data IDAT1 to IDATK in the memory 104. Meanwhile, the area detection tracking unit 105 receives the image data IDAT1 to IDATK loaded on the main bus 118, and based on the image data IDAT1 to IDATK, the area detection tracking unit 105 receives a face region ( FA) (step 1200). At this time, the area detection tracking unit 105 tracks the movement of the face area FA and outputs face area information FAIF. The CPU 103 selects an image corresponding to the face area FA from the captured image 200 based on the face area information FAIF, and stores the luminance values FY1 to FYM of the selected image in the memory 104. Read from As a result, the brightness correction unit 106 receives the brightness values FY1 to FYM from the memory 104 under the control of the CPU 103 (step 1300). Thereafter, the luminance correction unit 106 outputs correction luminance values FY1 'to FYM' based on the luminance values FY1 to FYM, the preset reference luminance value YR, and the correction factor value α0. do. The CPU 103 replaces and stores the luminance values FY1 to FYM stored in the memory 104 with correction luminance values FY1 'to FYM', respectively. As a result, a corrected image in which the luminance value of the face area FA is corrected is generated (step 1400). On the other hand, the CPU 103 reads the image data CDAT1 to CDATK representing the corrected image from the memory 104 in order to transmit the corrected image to the video telephone of the call counterpart. The media processor 109 receives and encodes the image data CDAT1 to CDATK under the control of the CPU 103 (step 1500). Thereafter, the communication unit 110 transmits the encoded image data EDAT1 to EDATK to the video telephone of the call counterpart under the control of the CPU 103 (step 1600). More specifically, the communication unit 110 generates a data packet DPK based on the encoded image data EDAT1 to EDATK and the encoded audio data EAUD, and converts the data packet DPK to the call counterpart. Send to video phone. In addition, the display interface 111 outputs the image data CDAT1 to CDATK to the display apparatus 112 under the control of the CPU 103. As a result, the display apparatus 112 displays the corrected image in which the face area FA is corrected in luminance based on the image data CDAT1 to CDATK (step 1700).

도 4를 참고하여, 보정 영상을 생성하는 단계 1400의 영상 전화기(100)의 동작 과정을 좀 더 상세히 설명하면 다음과 같다.Referring to FIG. 4, the operation of the video telephone 100 of step 1400 of generating the corrected image will be described in more detail as follows.

먼저, 휘도 보정부(106)는 휘도 값들(FY1∼FYM) 중 하나(예를 들어, FY1)를 기준 휘도 값(YR)에 비교하여(단계 1401), 해당 휘도 값(FY1)이 기준 휘도 값(YR)과 다른지의 여부를 판단한다(단계 1402). 단계 1402에서, 해당 휘도 값(FY1)이 기준 휘도 값(YR)과 다를 때, 휘도 보정부(106)는 해당 휘도 값(FY1)과 기준 휘도 값(YR) 간의 휘도 차 값(FYD1)을 계산한다(단계 1403). 이 후, 휘도 보정부(106)는 해당 휘도 값(FY1), 휘도 차 값(FYD1), 및 보정 인자 값(α0)을 [수학식 1]에 대입 하여, 보정 휘도 값(FY1')을 계산한다(단계 1404). CPU(103)는 메모리(104)에 저장된 휘도 값(FY1)을, 휘도 보정부(106)로부터 출력되는 보정 휘도 값(FY1')으로 치환하여 저장한다(단계 1405). 한편, 단계 1402에서, 해당 휘도 값(FY1)이 기준 휘도 값(YR)과 동일할 때, 휘도 보정부(106)는 해당 휘도 값(FY1)을 그대로 보정 휘도 값(FY1')으로서 출력한다. 그 결과, 메모리(104)에 저장된 휘도 값(FY1)이 그대로 유지된다(단계 1406). 여기에서, 단계 1405, 단계 1406의 순서대로 영상 전화기(100)의 동작을 설명하였지만, 단계 1405 및 단계 1406의 영상 전화기(100)의 동작들이 동시에 실행될 수 있다. 즉, 휘도 보정부(106)는 해당 휘도 값이 기준 휘도 값(YR)과 동일할 때, 해당 휘도 값을 그대로 보정 휘도 값으로서 출력하고, 해당 휘도 값이 기준 휘도 값(YR)과 다를 때, [수학식 1]을 이용하여 보정 휘도 값을 계산하여 출력한다. 휘도 보정부(106)는 해당 휘도 값을 그대로 보정 휘도 값으로서 출력하거나, 또는 보정 휘도 값을 계산하는 동작을, 휘도 값(FY1)부터 휘도 값(FYM)까지 반복하여 실행한다. 이 후, 휘도 보정부(106)가 보정 휘도 값들(FY1'∼FYM')을 출력하면, CPU(103)가 메모리(104)에 저장된 휘도 값들(FY1∼FYM)을 보정 휘도 값들(FY1'∼FYM')로 각각 치환하여 저장한다. 그 결과, 휘도 보정부(106)가 계산하지 않고 그대로 출력한 해당 휘도 값이 메모리(104)에 그대로 유지된다.First, the luminance correction unit 106 compares one of the luminance values FY1 to FYM (for example, FY1) with a reference luminance value YR (step 1401), so that the luminance value FY1 is a reference luminance value. It is determined whether it is different from YR (step 1402). In operation 1402, when the corresponding luminance value FY1 is different from the reference luminance value YR, the luminance corrector 106 calculates a luminance difference value FYD1 between the corresponding luminance value FY1 and the reference luminance value YR. (Step 1403). Thereafter, the luminance correction unit 106 substitutes the luminance value FY1, the luminance difference value FYD1, and the correction factor value α0 into [Equation 1] to calculate the correction luminance value FY1 '. (Step 1404). The CPU 103 substitutes and stores the luminance value FY1 stored in the memory 104 with the correction luminance value FY1 'outputted from the luminance correction unit 106 (step 1405). On the other hand, in step 1402, when the luminance value FY1 is equal to the reference luminance value YR, the luminance correction unit 106 outputs the luminance value FY1 as the correction luminance value FY1 'as it is. As a result, the luminance value FY1 stored in the memory 104 is maintained as it is (step 1406). Here, although the operation of the video telephone 100 has been described in the order of steps 1405 and 1406, the operations of the video telephone 100 of steps 1405 and 1406 can be executed simultaneously. That is, when the luminance value is equal to the reference luminance value YR, the luminance correction unit 106 outputs the luminance value as a correction luminance value as it is, and when the luminance value is different from the reference luminance value YR, The calculated luminance value is calculated and output using Equation 1. The brightness correction unit 106 repeatedly outputs the brightness value as the corrected brightness value or calculates the corrected brightness value from the brightness value FY1 to the brightness value FYM. Thereafter, when the luminance correcting unit 106 outputs the corrected luminance values FY1 'to FYM', the CPU 103 adjusts the luminance values FY1 to FYM stored in the memory 104 at the corrected luminance values FY1 'to FYM ') and save each. As a result, the luminance value output as it is without being calculated by the luminance correction unit 106 is maintained in the memory 104 as it is.

단계 1405 또는 단계 1406 이 후, 휘도 보정부(106)는 촬영 영상(200)(즉, 촬영 영상(200)의 얼굴 영역 부분)의 휘도 보정이 완료되었는지의 여부를 판단한다(단계 1407). 이때, 휘도 보정부(106)는 휘도 값들(FY1∼FYM)에 대한 보정 휘도 값들(FY1'∼FYM')을 모두 계산하였는지의 여부에 따라, 휘도 보정의 완료 여부를 판단할 수 있다. 단계 1407에서, 촬영 영상(200)의 휘도 보정이 완료되지 않은 경우, 영상 전화기(100)는 단계 1401 내지 단계 1407의 동작을 반복한다. 도 9a를 참고하면, 지나치게 밝게 촬영된 촬영 영상(200a)의 얼굴 부분의 휘도가 상술한 휘도 보정 과정(1000)에 의해 보정되어, 보정 영상(300a) 중 얼굴 부분의 휘도가 약간 감소하여, 얼굴 영역이 더욱 선명해진 것이 확인된다. 도 9b를 참고하면, 지나치게 어둡게 촬영된 촬영 영상(200a)의 얼굴 부분의 휘도가 상술한 휘도 보정 과정(1000)에 의해 보정되어, 보정 영상(300b) 중 얼굴 부분의 휘도가 약간 증가하여, 얼굴 영역이 더욱 선명해진 것이 확인된다.After step 1405 or 1406, the brightness compensator 106 determines whether brightness compensation of the captured image 200 (that is, the face region portion of the captured image 200) is completed (step 1407). In this case, the luminance corrector 106 may determine whether the luminance correction is completed according to whether or not the correction luminance values FY1 ′ to FYM ′ for the luminance values FY1 to FYM are all calculated. In operation 1407, when the luminance correction of the captured image 200 is not completed, the video telephone 100 repeats the operations of operations 1401 to 1407. Referring to FIG. 9A, the brightness of the face portion of the photographed image 200a photographed too brightly is corrected by the above-described brightness correction process 1000, so that the brightness of the face portion of the corrected image 300a is slightly reduced, thereby It is confirmed that the area becomes clearer. Referring to FIG. 9B, the luminance of the face portion of the photographed image 200a photographed too dark is corrected by the above-described luminance correction process 1000, so that the luminance of the face portion of the corrected image 300b is slightly increased, thereby It is confirmed that the area becomes clearer.

상술한 휘도 보정 과정(1000)은 촬영 영상(200)의 얼굴 영역(FA)의 휘도만을 보정할 때의 영상 전화기(100)의 동작 과정이다. 하지만 촬영 영상(200)에서 얼굴 영역(FA)의 휘도만 보정된 경우, 얼굴 영역(FA)의 영상과 배경 부분의 영상 간의 급격한 휘도 차이로 인하여, 보정 영상 중 얼굴 영역(FA)의 경계부분이 두드러지게 보이게 되어, 전체적으로 보정 영상이 부자연스러워 보일 수 있다. 따라서 보정 영상 중 얼굴 영역(FA)의 경계부분이 두드러지게 보이는 현상을 감소시키기 위해, 영상 전화기(100)는 촬영 영상(200)의 얼굴 영역(FA)뿐만 아니라, 얼굴 영역(FA)의 외곽을 둘러싸고 있는 주변 영역들(PA1∼PAJ)의 휘도를 더 보정할 수 있다. 이 경우, 보정 영상에서, 얼굴 영역(FA)으로부터 주변 영역(PAJ)까지, 휘도가 단계적으로 변화(gradation)하여, 얼굴 영역(FA)의 경계부분이 두드러지지 않는 자연스러운 보정 영상이 얻어진다. 이와 관련된 영상 전화기(100)의 동작 과정을 도 5 내지 도 7을 참고하여 설명하면 다음과 같다.The above-described brightness correction process 1000 is an operation process of the video phone 100 when only the brightness of the face area FA of the captured image 200 is corrected. However, when only the luminance of the face area FA is corrected in the captured image 200, due to the sudden difference in luminance between the image of the face area FA and the image of the background part, the boundary of the face area FA of the corrected image is changed. As it becomes noticeable, the correction image may look unnatural overall. Accordingly, in order to reduce the phenomenon in which the boundary of the face area FA is prominently displayed in the corrected image, the video phone 100 not only faces the face area FA of the captured image 200 but also the outside of the face area FA. Luminance of the surrounding peripheral areas PA1 to PAJ can be further corrected. In this case, in the corrected image, the brightness is gradually gradientd from the face area FA to the peripheral area PAJ, so that a natural corrected image is obtained in which the boundary of the face area FA is not prominent. The operation of the video phone 100 related to this will be described with reference to FIGS. 5 to 7 as follows.

도 5는 본 발명의 다른 실시예에 따른 영상 통화용 촬영 영상의 휘도 보정 과정(2000)을 나타내는 흐름도이다. 휘도 보정 과정(2000)은 몇 가지 차이점을 제외하고, 상술한 휘도 보정 과정(1000)과 유사하다. 따라서 본 실시예에서는 설명의 간략화를 위해, 휘도 보정 과정들(2000, 1000) 간의 차이점을 중심으로 설명하기로 한다. 휘도 보정 과정들(2000, 1000) 간의 차이점은, 단계 2200 내지 단계 2500의 영상 전화기(100)의 동작이, 단계 1200 내지 단계 1400의 영상 전화기(100)의 동작과 약간 다른 것이다.5 is a flowchart illustrating a luminance correction process 2000 of a captured image for a video call according to another exemplary embodiment of the present invention. The luminance correction process 2000 is similar to the luminance correction process 1000 described above, with a few differences. Therefore, in the present embodiment, for the sake of simplicity, the following description will focus on differences between the luminance correction processes 2000 and 1000. The difference between the luminance correction processes 2000 and 1000 is that the operation of the videophone 100 in steps 2200 to 2500 is slightly different from the operation of the videophone 100 in steps 1200 to 1400.

먼저, 단계 2200에서, 영역 검출 추적부(105)가 영상 데이터들(IDAT1∼IDATK)에 기초하여, 촬영 영상(200)에서 얼굴 영역(FA)뿐만 아니라 주변 영역들(PA1∼PAJ)을 더 검출하는 것이다. 설명의 편의상, 영역 검출 추적부(105)가 주변 영역(PA1)을 검출하는 경우를 예를 들어 설명하기로 한다. 이 경우, 검출 추적부(105)는 얼굴 영역 정보(FAIF) 및 주변 영역 정보(PAIF1)를 출력한다. 이때, 영역 검출 추적부(105)는 얼굴 영역(FA)의 경계선으로부터 외곽 방향으로 설정된 화소 수만큼의 영역을 주변 영역(PA1)으로 검출한다.First, in operation 2200, the area detection tracking unit 105 further detects not only the facial area FA but also the peripheral areas PA1 to PAJ in the captured image 200 based on the image data IDAT1 to IDATK. It is. For convenience of explanation, the case where the area detection tracking unit 105 detects the peripheral area PA1 will be described by way of example. In this case, the detection tracking unit 105 outputs the face area information FAIF and the peripheral area information PAIF1. In this case, the area detection tracking unit 105 detects, as the peripheral area PA1, an area corresponding to the number of pixels set in the outer direction from the boundary line of the face area FA.

CPU(103)는 얼굴 영역 정보(FAIF) 및 주변 영역 정보(PAIF1)에 기초하여, 촬영 영상(200) 중 얼굴 영역(FA) 및 주변 영역(PA1)에 대응하는 영상을 선택하고, 그 선택된 영상의 휘도 값들(FY1∼FYM)(즉, 제1 휘도 값들)과, 휘도 값들(예를 들어, PY1∼PY20)(즉, 제2 휘도 값들)을 메모리(104)로부터 판독한다. 여기에서, 휘도 값들(FY1∼FYM)은 얼굴 영역(FA)의 휘도를 나타내고, 휘도값들(PY1∼PY20)은 주변 영역(PA1)에 대한 휘도를 나타낸다.The CPU 103 selects an image corresponding to the face area FA and the surrounding area PA1 from the captured image 200 based on the face area information FAIF and the surrounding area information PAIF1, and selects the selected image. Luminance values FY1 to FYM (i.e., first luminance values) and luminance values (e.g., PY1 to PY20) (i.e., second luminance values) are read from the memory 104. Here, the luminance values FY1 to FYM represent the luminance of the face area FA, and the luminance values PY1 to PY20 represent the luminance of the peripheral area PA1.

단계 2300에서, 휘도 보정부(106)가 CPU(103)의 제어에 따라, 메모리(104)로부터 휘도 값들(FY1∼FYM, PY1∼PY20)을 수신한다. 이 후, 단계 2400에서, 휘도 보정부(106)는 휘도 값들(FY1∼FYM), 미리 설정된 기준 휘도 값(YR), 및 보정 인자 값(α0)에 기초하여, 보정 휘도 값들(FY1'∼FYM')을 출력한다. 또한, 단계 2400에서, CPU(103)는 메모리(104)에 저장된 휘도 값들(FY1∼FYM)을 보정 휘도 값들(FY1'∼FYM')로 각각 치환하여 저장한다. 그 결과, 얼굴 영역(FA)의 휘도 값이 보정된다. 그 후, 단계 2500에서, 휘도 보정부(106)가 휘도값들(PY1∼PY20)), 기준 휘도 값(YR), 및 보정 인자 값(α1)에 기초하여, 보정 휘도 값들(PY1'∼PY20')을 출력한다. 단계 2500에서, CPU(103)는 메모리(104)에 저장된 휘도 값들(PY1∼PY20)을 보정 휘도 값들(PY1'∼PY20')로 각각 치환하여 저장한다. 그 결과, 얼굴 영역(FA) 및 주변 영역(PA1)의 휘도 값이 보정된 보정 영상이 생성된다.In operation 2300, the luminance corrector 106 receives luminance values FY1 to FYM and PY1 to PY20 from the memory 104 under the control of the CPU 103. Thereafter, in step 2400, the luminance corrector 106 adjusts the luminance values FY1 ′ to FYM based on the luminance values FY1 to FYM, the preset reference luminance value YR, and the correction factor value α0. Output ') In operation 2400, the CPU 103 replaces and stores the luminance values FY1 to FYM stored in the memory 104 with the corrected luminance values FY1 ′ to FYM ′, respectively. As a result, the luminance value of the face area FA is corrected. Then, in step 2500, the luminance correction unit 106 adjusts the luminance values PY1 ′ to PY20 based on the luminance values PY1 to PY20, the reference luminance value YR, and the correction factor value α1. Output ') In step 2500, the CPU 103 replaces and stores the luminance values PY1 to PY20 stored in the memory 104 with the corrected luminance values PY1 ′ to PY20 ′, respectively. As a result, a corrected image in which the luminance values of the face area FA and the peripheral area PA1 are corrected is generated.

단계 2200에서, 영역 검출 추적부(105)가 얼굴 영역(FA) 및 주변 영역(PA1)을 검출하는 것이 일례로서 설명되었지만, 영역 검출 추적부(105)는 추가의 주변 영역들(예를 들어, PA2, PA3)을 더 검출할 수 있다. 이 경우, 영역 검출 추적부(105)는 주변 영역(PA1)의 경계선으로부터 외곽 방향으로 설정된 화소 수만큼의 영역을 주변 영역(PA2)으로 검출하고, 주변 영역(PA2)의 경계선으로부터 외곽 방향으로 설정된 화소 수만큼의 영역을 주변 영역(PA3)으로 검출한다. 주변 영역들(PA2, PA3)이 더 검출된 경우, 단계 2500에서, 휘도 보정부(106)가 휘도값들(예를 들어, PY1∼PY(N/3)), 기준 휘도 값(YR), 및 보정 인자 값(α1)에 기초하여, 보정 휘도 값들(PY1'∼PY(N/3)')을 출력한다. 또, 휘도 보정부(106)는 휘도값 들(PY(N/3 +1)∼PY(2N/3)), 기준 휘도 값(YR), 및 보정 인자 값(α2)에 기초하여, 보정 휘도값들(PY(N/3 +1)'∼PY(2N/3)')을 출력한다. 또한, 휘도 보정부(106)는 휘도값들(PY(2N/3 +1)∼PYN), 기준 휘도 값(YR), 및 보정 인자 값(α3)에 기초하여, 보정 휘도값들(PY(2N/3 +1)'∼PYN')을 출력한다.In step 2200, the area detection tracking unit 105 detects the face area FA and the peripheral area PA1 as an example. However, the area detection tracking unit 105 may further include additional peripheral areas (eg, PA2, PA3) can be further detected. In this case, the area detection tracking unit 105 detects, as the peripheral area PA2, an area corresponding to the number of pixels set in the outer direction from the boundary line of the peripheral area PA1, and is set in the outer direction from the boundary line of the peripheral area PA2. An area equal to the number of pixels is detected as the peripheral area PA3. If the peripheral areas PA2 and PA3 are further detected, in step 2500, the luminance corrector 106 determines the luminance values (eg, PY1 to PY (N / 3)), the reference luminance value YR, And correction luminance values PY1 'to PY (N / 3)' based on the correction factor value alpha1. In addition, the luminance correction unit 106 corrects the luminance based on the luminance values PY (N / 3 + 1) to PY (2N / 3), the reference luminance value YR, and the correction factor value α2. The values PY (N / 3 +1) 'to PY (2N / 3)' are output. In addition, the luminance correction unit 106 is based on the luminance values PY (2N / 3 + 1) to PYN, the reference luminance value YR, and the correction factor value α3, and the luminance correction values PY ( 2N / 3 +1) 'to PYN').

도 6은 도 5에 도시된 단계 2400의 상세한 흐름도이다. 단계 2400의 영상 전화기(100)의 동작은 도 4를 참고하여 상술한 단계 1400의 영상 전화기(100)의 동작과 유사하므로, 설명의 간략화를 위해, 단계 2400의 영상 전화기(100)의 동작 설명은 생략된다. 도 7은 도 5에 도시된 단계 2500의 상세한 흐름도이다. 단계 2500의 영상 전화기(100)의 동작은 한 가지 차이점을 제외하고 도 4를 참고하여 상술한 단계 1400의 영상 전화기(100)의 동작과 유사하다. 따라서 설명의 간략화를 위해, 상기 차이점을 제외한 단계 2500의 영상 전화기(100)의 동작 설명은 생략된다. 상기 차이점은 단계 2504에서, 영상 전화기(100)의 휘도 보정부(106)가 보정 휘도 값(예를 들어, PY1')을 계산하기 위해 [수학식 2]를 사용하는 것이다. 즉, 휘도 보정부(106)는 해당 휘도 값(예를 들어, PY1), 휘도 차 값(PYD1), 및 보정 인자 값(α1)을 [수학식 2]에 대입하여, 보정 휘도 값(PY1')을 계산한다.FIG. 6 is a detailed flowchart of step 2400 shown in FIG. 5. Since the operation of the video telephone 100 of step 2400 is similar to that of the video telephone 100 of step 1400 described above with reference to FIG. 4, for simplicity of explanation, the operation description of the video telephone 100 of step 2400 will be described. It is omitted. FIG. 7 is a detailed flowchart of step 2500 shown in FIG. 5. Operation of the video phone 100 of step 2500 is similar to that of the video phone 100 of step 1400 described above with reference to FIG. 4 except for one difference. Therefore, for the sake of simplicity, the description of the operation of the video telephone 100 of step 2500 except for the difference is omitted. The difference is that, in step 2504, the luminance corrector 106 of the video telephone 100 uses [Equation 2] to calculate the corrected luminance value (for example, PY1 '). That is, the luminance correction unit 106 substitutes the luminance value (for example, PY1), the luminance difference value PYD1, and the correction factor value α1 into [Equation 2], thereby correcting the luminance value PY1 '. Calculate

상기한 실시 예들은 본 발명을 설명하기 위한 것으로서 본 발명이 이들 실시 예에 국한되는 것은 아니며, 본 발명의 범위 내에서 다양한 실시예가 가능하다. 또한 설명되지는 않았으나, 균등한 수단도 또한 본 발명에 그대로 결합되는 것이라 할 것이다. 따라서 본 발명의 진정한 보호범위는 아래의 특허청구범위에 의하여 정해져야 할 것이다.The above embodiments are for explaining the present invention, and the present invention is not limited to these embodiments, and various embodiments are possible within the scope of the present invention. In addition, although not described, equivalent means will also be referred to as incorporated in the present invention. Therefore, the true scope of the present invention will be defined by the claims below.

도 1a 및 도 1b는 종래의 영상 통화용 촬영 영상을 나타내는 도면이다.1A and 1B are diagrams illustrating a conventional captured image for a video call.

도 2는 본 발명에 따른 영상 통화용 촬영 영상의 휘도 보정 방법이 적용된 영상 전화기의 개략적인 블록 구성도이다.2 is a schematic block diagram of a video telephone to which a brightness correction method of a captured video for a video call according to the present invention is applied.

도 3은 본 발명의 일 실시예에 따른 영상 통화용 촬영 영상의 휘도 보정 과정을 나타내는 흐름도이다.3 is a flowchart illustrating a luminance correction process of a captured image for a video call according to an embodiment of the present invention.

도 4는 도 3에 도시된 보정 영상의 생성 단계의 상세한 흐름도이다.4 is a detailed flowchart of a step of generating a corrected image illustrated in FIG. 3.

도 5는 본 발명의 다른 실시예에 따른 영상 통화용 촬영 영상의 휘도 보정 과정을 나타내는 흐름도이다.5 is a flowchart illustrating a luminance correction process of a captured image for a video call according to another embodiment of the present invention.

도 6은 도 5에 도시된 단계 2400의 상세한 흐름도이다.FIG. 6 is a detailed flowchart of step 2400 shown in FIG. 5.

도 7은 도 5에 도시된 단계 2500의 상세한 흐름도이다.FIG. 7 is a detailed flowchart of step 2500 shown in FIG. 5.

도 8은 도 3 및 도 5에 도시된 검출 단계를 설명하기 위한 촬영 영상을 나타내는 도면이다.FIG. 8 is a diagram illustrating a captured image for explaining a detection step illustrated in FIGS. 3 and 5.

도 9a 및 도 9b는 본 발명에 따른 영상 통화용 촬영 영상의 휘도 보정 방법에 의해 보정된 보정 영상들과 촬영 영상들을 나타내는 도면이다.9A and 9B are diagrams illustrating corrected images and captured images corrected by a brightness correction method of a captured image for a video call according to the present invention.

〈도면의 주요 부분에 대한 부호의 설명〉<Explanation of symbols for main parts of drawing>

100 : 영상 전화기 101 : 카메라100: video phone 101: camera

102 : 카메라 인터페이스 103 : CPU102: camera interface 103: CPU

104 : 메모리 105 : 영역 검출 추적부104: memory 105: area detection tracking unit

106 : 휘도 보정부 107 : 마이크106: luminance correction unit 107: microphone

108 : 마이크 인터페이스 109 : 미디어 프로세서108: microphone interface 109: media processor

110 : 통신부 111 : 디스플레이 인터페이스110: communication unit 111: display interface

112 : 디스플레이 장치 113 : 오디오 인터페이스112: display device 113: audio interface

114 : 스피커 115 : 서브 버스 브릿지114: Speaker 115: Subbus Bridge

116 : URS 117 : 입력부116: URS 117: input unit

118 : 메인 버스 119 : 서브 버스118: main bus 119: sub bus

Claims (18)

촬영 영상에서 사용자의 얼굴 영역을 검출하는 단계;Detecting a face area of the user from the captured image; 상기 촬영 영상 중 상기 얼굴 영역에 대응하는 부분의 휘도 값들을 수신하는 단계; 및Receiving luminance values of a portion of the captured image corresponding to the face region; And 상기 휘도 값들, 미리 설정된 기준 휘도 값, 및 미리 설정된 보정 인자 값에 기초하여, 상기 촬영 영상 중 상기 얼굴 영역에 대응하는 부분의 휘도만 보정 하여, 보정 영상을 생성하는 단계를 포함하고,Generating a corrected image by correcting only luminance of a portion of the captured image corresponding to the face region based on the luminance values, a preset reference luminance value, and a preset correction factor value; 상기 보정 영상 중 상기 얼굴 영역에 대응하는 부분의 선명도는, 상기 촬영 영상 중 상기 얼굴 영역에 대응하는 부분의 선명도에 비하여, 상기 사용자의 옷 색깔, 또는 촬영 시 주변으로부터 상기 사용자에게 조사되는 광의 양에 무관하게 증가 된 영상 통화용 촬영 영상의 휘도 보정 방법.The sharpness of the portion of the corrected image corresponding to the face area is based on the color of the clothes of the user or the amount of light irradiated to the user from the surroundings when the image is taken, compared to the sharpness of the portion corresponding to the face area of the captured image. How to calibrate the brightness of the recorded video regardless of increased video call. 제1항에 있어서,The method of claim 1, 상기 휘도 값들의 평균값이 상기 기준 휘도 값보다 클 때, 상기 보정 영상 중 상기 얼굴 영역에 대응하는 부분의 휘도가, 상기 촬영 영상 중 상기 얼굴 영역에 대응하는 부분의 휘도보다 더 낮고,When the average value of the luminance values is larger than the reference luminance value, the luminance of the portion of the corrected image corresponding to the face area is lower than the luminance of the portion of the captured image corresponding to the face area, 상기 휘도 값들의 평균값이 상기 기준 휘도 값보다 작을 때, 상기 보정 영상 중 상기 얼굴 영역에 대응하는 부분의 휘도가, 상기 촬영 영상 중 상기 얼굴 영역에 대응하는 부분의 휘도보다 더 높은 영상 통화용 촬영 영상의 휘도 보정 방법.When the average value of the luminance values is smaller than the reference luminance value, the luminance of the portion of the corrected image corresponding to the face area is higher than the luminance of the portion of the captured image corresponding to the face area. Brightness correction method. 제1항에 있어서,The method of claim 1, 상기 보정 영상을 나타내는 영상 데이터들을 인코딩하는 단계; 및Encoding image data representing the corrected image; And 인코딩된 영상 데이터들을 통화 상대방의 영상 전화기에 전송하는 단계를 더 포함하는 영상 통화용 촬영 영상의 휘도 보정 방법.And transmitting the encoded video data to a video telephone of a call counterpart. 제1항에 있어서,The method of claim 1, 상기 보정 영상을 상기 사용자의 영상 전화기에 표시하는 단계를 더 포함하는 영상 통화용 촬영 영상의 휘도 보정 방법.And displaying the corrected image on the video telephone of the user. 제1항에 있어서,The method of claim 1, 상기 촬영 영상, 또는 상기 보정 영상을 나타내는 영상 데이터들을 저장하는 단계를 더 포함하는 영상 통화용 촬영 영상의 휘도 보정 방법.And storing image data representing the captured image or the corrected image. 제1항에 있어서, 상기 얼굴 영역의 검출 단계는,The method of claim 1, wherein the detecting of the face area comprises: 상기 촬영 영상에서 상기 얼굴 영역을 결정하는 단계;Determining the face area in the captured image; 상기 얼굴 영역의 이동을 추적하는 단계; 및Tracking the movement of the face area; And 상기 추적 결과에 따라, 얼굴 영역 정보를 출력하는 단계를 포함하는 영상 통화용 촬영 영상의 휘도 보정 방법.And outputting face region information according to the tracking result. 제6항에 있어서, 상기 수신 단계는,The method of claim 6, wherein the receiving step, 상기 얼굴 영역 정보에 기초하여, 상기 촬영 영상 중 상기 얼굴 영역에 대응하는 영상을 선택하는 단계; 및Selecting an image corresponding to the face region from the photographed image based on the face region information; And 상기 선택된 영상의 상기 휘도 값들을 수신하는 단계를 포함하는 영상 통화용 촬영 영상의 휘도 보정 방법.And receiving the luminance values of the selected image. 제1항에 있어서,The method of claim 1, 상기 보정 인자 값은, 0≤X≤1에서, X를 만족하는 소수들 중 어느 하나, 또는 1인 영상 통화용 촬영 영상의 휘도 보정 방법.The value of the correction factor, at 0≤X≤1, any one of the decimal number that satisfies X, or 1, the brightness correction method of the video call image taken. 제1항에 있어서, 상기 보정 영상의 생성 단계는,The method of claim 1, wherein the generating of the corrected image comprises: 상기 휘도 값들을 상기 기준 휘도 값에 각각 비교하는 단계;Comparing the luminance values with the reference luminance values, respectively; 상기 비교 결과, 상기 휘도 값들 중, 상기 기준 휘도 값에 일치하는 적어도 하나의 휘도 값이 존재할 때, 상기 적어도 하나의 휘도 값을 그대로 유지하는 단계:Maintaining the at least one luminance value when there is at least one luminance value matching the reference luminance value among the luminance values as a result of the comparison: 상기 비교 결과, 상기 휘도 값들 중, 상기 기준 휘도 값에 일치하지 않는 휘도 값들과 상기 기준 휘도 값 간의 휘도 차 값들을 각각 계산하는 단계;As a result of the comparison, calculating luminance difference values between luminance values not matching the reference luminance value and the reference luminance value among the luminance values; 상기 기준 휘도 값에 일치하지 않는 휘도 값들, 상기 휘도 차 값들, 및 상기 보정 인자 값에 기초하여, 보정 휘도 값들을 계산하는 단계; 및Calculating correction luminance values based on luminance values that do not match the reference luminance value, the luminance difference values, and the correction factor value; And 상기 기준 휘도 값에 일치하지 않는 휘도 값들을 상기 보정 휘도 값들로 각 각 치환하는 단계를 포함하는 영상 통화용 촬영 영상의 휘도 보정 방법.And substituting luminance values that do not match the reference luminance values with the corrected luminance values, respectively. 촬영 영상에서 얼굴 영역과, 얼굴 영역의 외곽을 둘러싸는 적어도 하나의 주변 영역을 검출하는 검출 단계;Detecting a face region and at least one peripheral region surrounding the outside of the face region in the captured image; 상기 촬영 영상 중, 상기 얼굴 영역에 대응하는 부분의 제1 휘도 값들과, 상기 적어도 하나의 주변 영역에 대응하는 부분의 제2 휘도 값들을 수신하는 단계;Receiving first luminance values of a portion of the captured image corresponding to the face region and second luminance values of the portion corresponding to the at least one peripheral region; 상기 제1 휘도 값들, 미리 설정된 기준 휘도 값, 및 미리 설정된 제1 보정 인자 값에 기초하여, 상기 촬영 영상 중 상기 얼굴 영역에 대응하는 부분의 휘도를 보정하는 단계; 및Correcting luminance of a portion of the captured image corresponding to the face region based on the first luminance values, a preset reference luminance value, and a preset first correction factor value; And 상기 제2 휘도 값들, 상기 기준 휘도 값, 및 미리 설정된 제2 보정 인자 값에 기초하여, 상기 촬영 영상 중 상기 적어도 하나의 주변 영역에 대응하는 부분의 휘도를 보정하여, 보정 영상을 생성하는 단계를 포함하고,Generating a corrected image by correcting a luminance of a portion of the photographed image corresponding to the at least one peripheral region based on the second luminance values, the reference luminance value, and a preset second correction factor value; Including, 상기 얼굴 영역과 상기 적어도 하나의 주변 영역은, 상기 촬영 영상 중 일부에 해당하고,The face area and the at least one peripheral area correspond to a part of the captured image, 상기 보정 영상 중 상기 얼굴 영역에 대응하는 부분의 선명도는, 상기 촬영 영상 중 상기 얼굴 영역에 대응하는 부분의 선명도에 비하여, 상기 사용자의 옷 색깔, 또는 촬영 시 주변으로부터 상기 사용자에게 조사되는 광의 양에 무관하게 증가 된 영상 통화용 촬영 영상의 휘도 보정 방법.The sharpness of the portion of the corrected image corresponding to the face area is based on the color of the clothes of the user or the amount of light irradiated to the user from the surroundings when the image is taken, compared to the sharpness of the portion corresponding to the face area of the captured image. How to calibrate the brightness of the recorded video regardless of increased video call. 제10항에 있어서,The method of claim 10, 상기 제1 보정 인자 값은 상기 제2 보정 인자 값보다 큰 영상 통화용 촬영 영상의 휘도 보정 방법.And the first correction factor value is greater than the second correction factor value. 제10항에 있어서,The method of claim 10, 상기 검출 단계에서, 복수의 주변 영역들이 검출될 때, 상기 보정 영상의 생성 단계에서, 상기 촬영 영상 중 상기 복수의 주변 영역들에 대응하는 부분들의 휘도를 각각 보정하기 위해, 상기 복수의 주변 영역들에 각각 대응하게 미리 설정된 복수의 보정 인자 값들이 각각 사용되는 영상 통화용 촬영 영상의 휘도 보정 방법.In the detecting step, when a plurality of peripheral regions are detected, in the generating of the corrected image, in order to correct luminance of portions of the photographed image corresponding to the plurality of peripheral regions, respectively, the plurality of peripheral regions The luminance correction method of the video call recording image, each of which uses a plurality of preset correction factor values corresponding to. 제12항에 있어서,The method of claim 12, 상기 복수의 보정 인자 값들은 서로 다르고,The plurality of correction factor values are different from each other, 상기 복수의 주변 영역들 중, 상기 얼굴 영역에 가장 인접한 주변 영역에 대응하게 미리 설정된, 상기 복수의 보정 인자 값들 중 하나가 최대 보정 인자 값이고, 상기 얼굴 영역으로부터 가장 멀리 떨어진 주변 영역에 대응하게 미리 설정된, 상기 복수의 보정 인자 값들 중 다른 하나가 최소 보정 인자 값이고,Of the plurality of peripheral areas, one of the plurality of correction factor values, which are preset corresponding to the peripheral area closest to the face area, is a maximum correction factor value and corresponds in advance to the peripheral area farthest from the face area. Another one of the plurality of correction factor values that is set is a minimum correction factor value, 상기 보정 영상의 휘도는, 상기 얼굴 영역으로부터, 상기 얼굴 영역으로부터 가장 멀리 떨어진 주변 영역까지, 점진적으로 감소하거나, 또는 점진적으로 증가하는 영상 통화용 촬영 영상의 휘도 보정 방법.The luminance of the corrected image is gradually reduced or gradually increased from the face region to the peripheral region farthest away from the face region. 제10항에 있어서,The method of claim 10, 상기 제1 휘도 값들의 평균값이 상기 기준 휘도 값보다 클 때, 상기 보정 영상 중 상기 얼굴 영역에 대응하는 부분의 휘도가, 상기 촬영 영상 중 상기 얼굴 영역에 대응하는 부분의 휘도보다 더 낮고, 상기 제1 휘도 값들의 평균값이 상기 기준 휘도 값보다 작을 때, 상기 보정 영상 중 상기 얼굴 영역에 대응하는 부분의 휘도가, 상기 촬영 영상 중 상기 얼굴 영역에 대응하는 부분의 휘도보다 더 높고,When the average value of the first luminance values is greater than the reference luminance value, the luminance of the portion of the corrected image corresponding to the face area is lower than the luminance of the portion of the captured image corresponding to the face area, When the average value of one luminance value is smaller than the reference luminance value, the luminance of the portion of the corrected image corresponding to the face area is higher than the luminance of the portion of the captured image corresponding to the face area, 상기 보정 영상 중 상기 얼굴 영역에 대응하는 부분의 휘도는, 상기 보정 영상 중 상기 적어도 하나의 주변 영역에 대응하는 부분의 휘도보다 더 높거나, 또는 더 낮은 영상 통화용 촬영 영상의 휘도 보정 방법.The luminance of the portion of the corrected image corresponding to the face region is higher or lower than the luminance of the portion corresponding to the at least one peripheral region of the corrected image. 제10항에 있어서,The method of claim 10, 상기 보정 영상을 나타내는 영상 데이터들을 인코딩하는 단계; 및Encoding image data representing the corrected image; And 인코딩된 영상 데이터들을 통화 상대방의 영상 전화기에 전송하는 단계를 더 포함하는 영상 통화용 촬영 영상의 휘도 보정 방법.And transmitting the encoded video data to a video telephone of a call counterpart. 제10항에 있어서,The method of claim 10, 상기 보정 영상을 상기 사용자의 영상 전화기에 표시하는 단계를 더 포함하는 영상 통화용 촬영 영상의 휘도 보정 방법.And displaying the corrected image on the video telephone of the user. 제10항에 있어서,The method of claim 10, 상기 제1 보정 인자 값은, 0≤X≤1에서, X를 만족하는 소수들 중 어느 하나, 또는 1이고,The first correction factor value is any one of decimals satisfying X, or 1, at 0 ≦ X ≦ 1, 상기 제2 보정 인자 값은, 0≤X≤1에서, X를 만족하는 소수들 중 어느 하나인 영상 통화용 촬영 영상의 휘도 보정 방법.And the second correction factor value is any one of prime numbers satisfying X, where 0 ≦ X ≦ 1. 제10항에 있어서,The method of claim 10, 상기 촬영 영상 중 상기 얼굴 영역에 대응하는 부분의 휘도를 보정하는 단계는,Correcting the luminance of the portion of the captured image corresponding to the face area, 상기 제1 휘도 값들을 상기 기준 휘도 값에 각각 비교하는 제1 비교 단계;A first comparing step of comparing the first luminance values with the reference luminance values, respectively; 상기 제1 비교 결과, 상기 제1 휘도 값들 중, 상기 기준 휘도 값에 일치하는 적어도 하나의 제1 휘도 값이 존재할 때, 상기 적어도 하나의 제1 휘도 값을 그대로 유지하는 단계:Maintaining the at least one first luminance value when there is at least one first luminance value that matches the reference luminance value among the first luminance values as a result of the first comparison: 상기 제1 비교 결과, 상기 제1 휘도 값들 중, 상기 기준 휘도 값에 일치하지 않는 제1 휘도 값들과 상기 기준 휘도 값 간의 제1 휘도 차 값들을 각각 계산하는 단계;Calculating first luminance difference values between the first luminance values and the reference luminance values that do not coincide with the reference luminance values among the first luminance values as a result of the first comparison; 상기 기준 휘도 값에 일치하지 않는 제1 휘도 값들, 상기 제1 휘도 차 값들, 및 상기 제1 보정 인자 값에 기초하여, 제1 보정 휘도 값들을 계산하는 단계; 및Calculating first correction luminance values based on first luminance values, the first luminance difference values, and the first correction factor value that do not coincide with the reference luminance value; And 상기 기준 휘도 값에 일치하지 않는 제1 휘도 값들을 상기 제1 보정 휘도 값들로 치환하는 단계를 포함하고,Replacing first luminance values that do not match the reference luminance value with the first corrected luminance values, 상기 보정 영상의 생성 단계는, Generating the corrected image, 상기 제2 휘도 값들을 상기 기준 휘도 값에 각각 비교하는 제2 비교 단계;A second comparing step of comparing the second luminance values with the reference luminance value, respectively; 상기 제2 비교 결과, 상기 제2 휘도 값들 중, 상기 기준 휘도 값에 일치하는 적어도 하나의 제2 휘도 값이 존재할 때, 상기 적어도 하나의 제2 휘도 값을 그대로 유지하는 단계:Maintaining the at least one second luminance value when there is at least one second luminance value that matches the reference luminance value among the second luminance values as a result of the second comparison; 상기 제2 비교 결과, 상기 제2 휘도 값들 중, 상기 기준 휘도 값에 일치하지 않는 제2 휘도 값들과 상기 기준 휘도 값 간의 제2 휘도 차 값들을 각각 계산하는 단계;Calculating second luminance difference values between the reference luminance values and second luminance values that do not match the reference luminance values, among the second luminance values as a result of the second comparison; 상기 기준 휘도 값에 일치하지 않는 제2 휘도 값들, 상기 제2 휘도 차 값들, 및 상기 제2 보정 인자 값에 기초하여, 제2 보정 휘도 값들을 계산하는 단계; 및Calculating second correction luminance values based on second luminance values, the second luminance difference values, and the second correction factor value that do not coincide with the reference luminance value; And 상기 기준 휘도 값에 일치하지 않는 제2 휘도 값들을 상기 제2 보정 휘도 값들로 치환하는 단계를 포함하는 영상 통화용 촬영 영상의 휘도 보정 방법.And substituting second luminance values which do not coincide with the reference luminance values with the second correction luminance values.
KR1020070140109A 2007-12-28 2007-12-28 How to calibrate the brightness of video taken for video call Active KR100923643B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070140109A KR100923643B1 (en) 2007-12-28 2007-12-28 How to calibrate the brightness of video taken for video call

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070140109A KR100923643B1 (en) 2007-12-28 2007-12-28 How to calibrate the brightness of video taken for video call

Publications (2)

Publication Number Publication Date
KR20090072109A true KR20090072109A (en) 2009-07-02
KR100923643B1 KR100923643B1 (en) 2009-10-28

Family

ID=41329372

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070140109A Active KR100923643B1 (en) 2007-12-28 2007-12-28 How to calibrate the brightness of video taken for video call

Country Status (1)

Country Link
KR (1) KR100923643B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200410647A1 (en) * 2019-06-27 2020-12-31 Samsung Electronics Co., Ltd. Method and apparatus with blur estimation

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200069667A (en) 2018-12-07 2020-06-17 양경호 Imaging device for video call
KR20200105780A (en) 2020-08-31 2020-09-09 양경호 Imaging device for video call

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000196890A (en) 1998-12-28 2000-07-14 Fuji Photo Film Co Ltd Method and device for image processing and recording medium
KR100474761B1 (en) * 2002-06-07 2005-03-10 엘지전자 주식회사 Power saving mobile station of image communication and operating method for thereof
JP4460368B2 (en) 2004-06-17 2010-05-12 富士フイルム株式会社 Image correction apparatus and method, and image correction program
JP4895839B2 (en) * 2006-02-01 2012-03-14 富士フイルム株式会社 Image correction apparatus and method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200410647A1 (en) * 2019-06-27 2020-12-31 Samsung Electronics Co., Ltd. Method and apparatus with blur estimation
US11636577B2 (en) * 2019-06-27 2023-04-25 Samsung Electronics Co., Ltd. Method and apparatus with blur estimation

Also Published As

Publication number Publication date
KR100923643B1 (en) 2009-10-28

Similar Documents

Publication Publication Date Title
EP3609177B1 (en) Control method, control apparatus, imaging device, and electronic device
US9536479B2 (en) Image display device and method
CN108668093B (en) HDR image generation method and device
US20080231726A1 (en) Apparatus and method for image color correction in a portable device
CN111510698A (en) Image processing method, device, storage medium and mobile terminal
US20100128108A1 (en) Apparatus and method for acquiring wide dynamic range image in an image processing apparatus
JP2014168270A (en) Image selection and combination method and device
CA2806257C (en) Image processing apparatus, image processing method, and computer-readable recording medium
KR101438237B1 (en) A photographing method and a photographing apparatus in a mobile communication terminal equipped with a camera module
KR100923643B1 (en) How to calibrate the brightness of video taken for video call
US20080158258A1 (en) Method and System For Obtaining a Digitally Enhanced Image
KR20040100746A (en) Device and method for compensating photographing of back light in mobile telephone with camera
US20250363965A1 (en) Image processing method and electronic device
US20060159340A1 (en) Digital image photographing apparatus and method
JP2002300447A (en) Mobile terminal with camera
JP5038190B2 (en) Image capturing apparatus and setting method thereof
CN115527474A (en) Image display method, image display device, projection device, and storage medium
US20080068450A1 (en) Method and apparatus for displaying moving images using contrast tones in mobile communication terminal
EP4304188A1 (en) Photographing method and apparatus, medium and chip
CN114222072B (en) Image processing method, device, electronic equipment and storage medium
CN116962889A (en) Imaging apparatus, control method thereof, and computer-readable storage medium
CN115691418A (en) Luminance compensation method, luminance compensation device, and storage medium
JP2019153972A (en) Imaging apparatus, control method thereof, and program
KR100761246B1 (en) Image stabilization method and apparatus in a portable terminal
CN118678045A (en) Shooting quality detection method, device, equipment and storage medium

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20071228

PA0201 Request for examination
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20090219

Patent event code: PE09021S01D

PG1501 Laying open of application
E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20090805

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20091020

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20091020

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
FPAY Annual fee payment

Payment date: 20120928

Year of fee payment: 4

PR1001 Payment of annual fee

Payment date: 20120928

Start annual number: 4

End annual number: 4

FPAY Annual fee payment

Payment date: 20130926

Year of fee payment: 5

PR1001 Payment of annual fee

Payment date: 20130926

Start annual number: 5

End annual number: 5

FPAY Annual fee payment

Payment date: 20140929

Year of fee payment: 6

PR1001 Payment of annual fee

Payment date: 20140929

Start annual number: 6

End annual number: 6

FPAY Annual fee payment

Payment date: 20151001

Year of fee payment: 7

PR1001 Payment of annual fee

Payment date: 20151001

Start annual number: 7

End annual number: 7

FPAY Annual fee payment

Payment date: 20161007

Year of fee payment: 8

PR1001 Payment of annual fee

Payment date: 20161007

Start annual number: 8

End annual number: 8

FPAY Annual fee payment

Payment date: 20171012

Year of fee payment: 9

PR1001 Payment of annual fee

Payment date: 20171012

Start annual number: 9

End annual number: 9

FPAY Annual fee payment

Payment date: 20181001

Year of fee payment: 10

PR1001 Payment of annual fee

Payment date: 20181001

Start annual number: 10

End annual number: 10

FPAY Annual fee payment

Payment date: 20191001

Year of fee payment: 11

PR1001 Payment of annual fee

Payment date: 20191001

Start annual number: 11

End annual number: 11

PR1001 Payment of annual fee

Payment date: 20220901

Start annual number: 14

End annual number: 14

PR1001 Payment of annual fee

Payment date: 20241002

Start annual number: 16

End annual number: 16