KR20140065762A - System for providing character video and method thereof - Google Patents
System for providing character video and method thereof Download PDFInfo
- Publication number
- KR20140065762A KR20140065762A KR1020120132397A KR20120132397A KR20140065762A KR 20140065762 A KR20140065762 A KR 20140065762A KR 1020120132397 A KR1020120132397 A KR 1020120132397A KR 20120132397 A KR20120132397 A KR 20120132397A KR 20140065762 A KR20140065762 A KR 20140065762A
- Authority
- KR
- South Korea
- Prior art keywords
- user
- character
- face
- image
- facial feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Processing Or Creating Images (AREA)
Abstract
본 발명은 사용자 맞춤 캐릭터 영상물의 실시간 제공시스템 및 방법에 관한 것으로, 사용자의 얼굴을 영상의 캐릭터 얼굴에 실시간 합성하여 사용자 맞춤형의 캐릭터 영상물을 제공하는 기술에 관한 것이다.
이를 위해, 본 발명에 따른 사용자 맞춤 캐릭터 영상물의 실시간 제공시스템은 캐릭터 영상물 저장부, 사용자 얼굴 추출부, 스타일정보 입력부, 사용자 얼굴 생성부, 캐릭터 영상물 선택부, 합성 처리부, 및 디스플레이부를 포함한다. 상기 캐릭터 영상물 저장부는 캐릭터 영상물들을 저장한다. 상기 사용자 얼굴 추출부는 사용자 이미지로부터 사용자의 얼굴을 추출한다. 상기 스타일정보 입력부는 사용자로부터 상기 추출된 사용자의 얼굴에 적용할 스타일정보를 입력받는다. 상기 사용자 얼굴 생성부는 상기 스타일정보가 적용된 사용자의 얼굴 이미지를 생성한다. 상기 캐릭터 영상물 선택부는 사용자로부터 상기 생성된 사용자의 얼굴 이미지와 합성 대상이 되는 하나의 캐릭터 영상물을 선택받는다. 상기 합성 처리부는 상기 선택된 캐릭터 영상물의 캐릭터의 얼굴 영역에 상기 스타일정보가 적용된 사용자 얼굴 이미지를 합성하여 실시간으로 합성 영상을 생성한다. 상기 디스플레이부는 상기 생성된 합성 영상을 디스플레이한다.The present invention relates to a system and method for providing a user-customized character video in real time, and more particularly, to a technique for providing a user-customized character video by synthesizing a face of a user with a character face in real time.
To this end, the system for providing a real-time user-customized character image includes a character image storage unit, a user face extracting unit, a style information inputting unit, a user face creating unit, a character image selecting unit, a synthesizing processing unit, and a display unit. The character video object storage unit stores character video objects. The user face extracting unit extracts the face of the user from the user image. The style information input unit receives style information to be applied to the extracted user's face from the user. The user face generating unit generates a face image of a user to which the style information is applied. The character image selection unit selects one character image to be combined with the face image of the user generated from the user. The synthesis processing unit synthesizes the user's face image to which the style information is applied in the face region of the character image of the selected character image to generate a synthesized image in real time. The display unit displays the generated composite image.
Description
본 발명은 사용자 맞춤 캐릭터 영상물의 실시간 제공시스템 및 방법에 관한 것으로, 보다 상세하게는 사용자의 얼굴을 영상의 캐릭터 얼굴에 실시간 합성하여 사용자 맞춤형의 캐릭터 영상물을 제공함으로써 기존 영상이나 미디어를 통한 간접 체험식 감정이입보다 훨씬 생생한 현실감을 갖게 해줄 수 있는 기술에 관한 것이다.
The present invention relates to a system and a method for providing a user-customized character video in real time, and more particularly, to a system and a method for providing a user-customized character video in real time by synthesizing a user's face on a character face of an image, It is about technology that can make realism more vivid than empathy.
사용자는 영화나 애니메이션 등과 같은 영상을 시청하면서 동영상 속에 등장하는 주인공 또는 주인공의 친구와 동일하게 되고 싶은 욕망을 갖는 경우가 많지만, 이는 현실적으로 거의 불가능하다.In many cases, a user has a desire to become the same as a hero or a hero in a movie while watching a movie or an animation, but this is practically impossible.
이에 사용자들의 사진을 이용하여 여러 모양의 사진으로 제공하는 등 사용자들의 흥미를 유도할 수 있는 각종 체인점 혹은 자판기 서비스가 활발하게 제공되고 있으며, 최근에는 인터넷을 통해 자신의 사진을 등록하면, 등록된 사진을 특정 이미지에 합성 출력할 수 있도록 하는 등의 다양한 인터넷 주문형 서비스가 늘어나고 있다. 일예로, 한국등록특허 제1177106호 "디지털 이미지 합성방법"에서는 저장된 둘 이상의 연속동작 이미지 중에서 적어도 하나를 배경 이미지로 합성하여 촬영하고 있으며, 촬영한 이미지를 다양하게 꾸미고자 하는 사용자의 요구를 만족시킬 수 있도록 하고 있다.Accordingly, a variety of chain stores or vending machines that can attract users' interest, such as providing pictures of users in various shapes, are actively being provided. In recent years, when a user registers his or her own photograph through the Internet, Such as the ability to output a composite image to a specific image. For example, Korean Patent Registration No. 1177106, entitled " Digital Image Compositing Method ", combines at least one of two or more continuous operation images stored as a background image and photographs the image to satisfy a user's desire to decorate the captured image in various ways .
하지만, 일반적으로 애니메이션 주인공에 사용자 얼굴을 정합시켜 새로운 동영상을 생성할 경우 사용자가 수동으로 편집해야 한다. 즉, 기존의 동영상 편집 기술은 사용자가 정지영상을 동영상으로 변경하거나, 음성을 편집하고 동영상 압축 형태를 변환하는 방식으로 진행고 있다. 또한, 기존의 동영상 편집 기술은 동영상을 자르고 붙이는 기능과 여러 가지 효과를 주어 동영상을 꾸미는 단순한 기능을 제공하는 것으로, 동영상을 편집하는 모든 단계가 사용자의 수동 작업으로 이루어진다.However, if you create a new video by matching the user's face to the animated character in general, the user must manually edit it. That is, existing video editing technology is proceeding in such a manner that a user changes a still image into a moving image, edits a voice, and converts a compressed format of the moving image. In addition, the existing video editing technology provides a simple function of cutting and attaching a video and decorating a video by giving various effects, and every step of editing a video is performed by the user's manual work.
이와 같이, 종래의 동영상 편집 기술은 사용자가 수동으로 자신이 원하는 동영상을 위해 편집하는 기능만을 제공하기 때문에 전문적 지식 없이 동영상을 편집하기에는 어려움이 있다.As described above, since the conventional moving image editing technology provides only a function for the user to manually edit the desired moving image, it is difficult to edit the moving image without expert knowledge.
또한, 애니메이션 주인공의 영상을 변경할 경우 모두 수동으로 작업해야 하는데, 예를 들면 초당 30프레임으로 압축된 30분의 애니메이션인 경우, 54,000장의 영상을 수동으로 편집해야하는 문제점이 따른다.In addition, when changing the image of the main character of the animation, all of them must be manually operated. For example, in the case of 30 minutes of animation compressed at 30 frames per second, 54,000 images must be manually edited.
한편, 유아기의 어린이들은 다양한 매체 즉, 책이나 만화, 애니매이션, 연극 등을 통해 전래동화나 이솝우화, 위인전 등과 같은 아동용 이야기들을 접하게 된다. 최근에는 PC의 활발한 가정보급과 PC문화의 저변확대에 따라 유아기의 어린이들도 능숙하게 PC를 다루며, PC를 통해 어린이용 게임이나 커뮤니티 문화를 즐기고 있다.On the other hand, children in infancy are exposed to children's stories such as fairy tales, Aesop's fables, and wisdoms through various media, such as books, cartoons, animations, and plays. In recent years, with the active supply of PCs and the expansion of PC culture, children in early childhood are dealing with PCs professionally and enjoying games and community culture through PCs.
특히, 학습적인 면이나 오락적인 면에 있어서 아이들의 경우 지각 및 감성 발달이 진행 중이며, 교육 동영상을 보면서 따라하기도 하는데, 이를 적극적으로 활용하여 지각 및 감성 발달 향상에 기여할 수 있도록 할 필요가 있다. 즉, 기존 영상이나 미디어를 통한 간접 체험식 감정이입보다 훨씬 생생한 현실감을 갖게 해줌으로써, 스토리 주제나 교훈 등의 전달효과를 극대화 시킬 필요가 있다.
Especially, in the learning and entertainment aspect, the children are in the process of developing perception and emotional development, and they follow the educational videos and actively use them to contribute to the improvement of perception and emotional development. In other words, it is necessary to maximize the effects of story topic and lesson by giving more realistic feeling than the indirect experience emotion input through existing image or media.
본 발명은 학습적인 면이나 오락적인 면에 있어서 아이들의 경우 지각 및 감성 발달이 진행 중이며, 교육 동영상을 보면서 따라하기도 하는데, 이를 적극적으로 활용하여 지각 및 감성 발달 향상에 기여할 수 있도록 하는 것을 목적으로 한다.The present invention aims at enabling the children to perceive and develop their emotions and to contribute to the improvement of perception and emotional development by positively utilizing them in watching educational videos. .
또한, 본 발명은 기존 영상이나 미디어를 통한 간접 체험식 감정이입보다 훨씬 생생한 현실감을 갖게 해줄 수 있도록 하는 것을 목적으로 한다.It is another object of the present invention to provide a more realistic sense of reality than an indirect experience-type emotion input through existing images or media.
또, 본 발명은 사용자의 상상력과 재미를 가중화시켜 더욱 몰입하게 함으로써, 스토리 주제나 교훈 등의 학습전달 및 오락효과를 극대화 시킬 수 있도록 하는 것을 목적으로 한다.In addition, the present invention aims to maximize the effect of the transfer of learning and the entertainment effect such as the story topic and the lesson by making the imagination and the fun of the user become more intense and more intense.
또, 본 발명은 사용자가 자신이 평소 좋아하던 영상 속 주인공이 된 모습이나 주인공의 친구가 된 모습을 보면서 신기하고 뿌듯한 감정을 느낄 수 있도록 하는 것을 목적으로 한다.
In addition, the present invention aims at enabling a user to feel a strange and proud feeling by seeing a person who has become a main character in his or her favorite image or a friend of the main character.
이러한 목적을 달성하기 위하여 본 발명에 따른 사용자 맞춤 캐릭터 영상물의 실시간 제공시스템은 캐릭터 영상물 저장부, 사용자 얼굴 추출부, 스타일정보 입력부, 사용자 얼굴 생성부, 캐릭터 영상물 선택부, 합성 처리부, 및 디스플레이부를 포함한다. 상기 캐릭터 영상물 저장부는 캐릭터 영상물들을 저장한다. 상기 사용자 얼굴 추출부는 사용자 이미지로부터 사용자의 얼굴을 추출한다. 상기 스타일정보 입력부는 사용자로부터 상기 추출된 사용자의 얼굴에 적용할 스타일정보를 입력받는다. 상기 사용자 얼굴 생성부는 상기 스타일정보가 적용된 사용자의 얼굴 이미지를 생성한다. 상기 캐릭터 영상물 선택부는 사용자로부터 상기 생성된 사용자의 얼굴 이미지와 합성 대상이 되는 하나의 캐릭터 영상물을 선택받는다. 상기 합성 처리부는 상기 선택된 캐릭터 영상물의 캐릭터의 얼굴 영역에 상기 스타일정보가 적용된 사용자 얼굴 이미지를 합성하여 실시간으로 합성 영상을 생성한다. 상기 디스플레이부는 상기 생성된 합성 영상을 디스플레이한다.
To achieve these and other advantages and in accordance with the purpose of the present invention, as embodied and broadly described herein, there is provided a system for realizing a user-customized character video image including a character image storage unit, a user face extracting unit, a style information inputting unit, a user face creating unit, a character image selecting unit, do. The character video object storage unit stores character video objects. The user face extracting unit extracts the face of the user from the user image. The style information input unit receives style information to be applied to the extracted user's face from the user. The user face generating unit generates a face image of a user to which the style information is applied. The character image selection unit selects one character image to be combined with the face image of the user generated from the user. The synthesis processing unit synthesizes the user's face image to which the style information is applied in the face region of the character image of the selected character image to generate a synthesized image in real time. The display unit displays the generated composite image.
이상에서 설명한 바와 같이 본 발명에 의하면, 본 발명은 사용자(아이)의 얼굴을 뽀로로 등의 주요 캐릭터 얼굴에 실시간 합성하여 사용자 맞춤형의 캐릭터 영상물(애니메이션, 게임 등)을 제공할 수 있으므로, 즉 사용자에게 영상 속의 주인공이나 주인공의 친구로 자신이 등장하도록 하는 개인 맞춤 캐릭터 영상물을 제공할 수 있으므로, 기존 영상이나 미디어를 통한 간접 체험식 감정이입보다 훨씬 생생한 현실감을 갖게 해주는 효과가 있다. 그리고 이러한 현실감은 사용자의 상상력과 재미를 가중화시켜 더욱 몰입하게 함으로써, 스토리 주제나 교훈 등의 학습전달 및 오락효과를 극대화 시킬 수 있다.As described above, according to the present invention, the present invention can provide a user-customized character video object (animation, game, etc.) by synthesizing the face of a user (child) with a face of a main character such as Pororo in real time, It is possible to provide a personalized character video object for allowing the character to appear as a friend of the protagonist or the main character in the video, so that it has a more realistic feeling of reality than the indirect experience expression input through the existing video or media. And this sense of reality can maximize user 's imagination and fun, so as to immerse more and to convey the learning effect such as story topic and lesson.
또, 자신이 애니메이션에 등장하는 경험을 제공하여, 대리만족의 욕구와 '나만의 것'이라는 특별함의 욕구를 충족시켜 준다. 즉, 사용자는 자신이 평소 좋아하던 영상 속의 주인공이나 주인공의 친구가 된 모습을 보면서 신기하고 뿌듯한 감정을 느낄 수 있으며, 이러한 경험은 자신에 대한 자존감, 자신감을 느끼게 할 것이므로, 특별한 기억으로 아이들의 뇌리에 깊숙이 자리하게 될 수 있다. 또한, 가족에게도 이 유아 시기의 자녀의 모습을 간직하고 추억을 소장할 수 있다는 점 때문에, 본 발명은 다른 콘텐츠와 구분되는 차별성을 갖게 될 수 있다. In addition, it provides an experience of appearing in an animation, satisfying the desire of surrogate satisfaction and the special desire of "my own thing". In other words, the user can feel the excitement and proud feelings while watching the character of the hero or hero in her favorite video, and this experience will make her feel self-esteem and confidence. Therefore, As shown in FIG. In addition, the present invention can be differentiated from other contents because the family can hold the child of the infantile period and possess memories.
또한, 합성된 영상 안에서 사용자는 자신이 좋아하는 주인공이 되거나 주인공의 친구가 될 수 있으므로, 캐릭터 인지도 향상에 기여할 수 있다. Also, since the user can become a favorite character or a friend of the main character in the synthesized image, it can contribute to the improvement of the character recognition.
또, 자기가 주인공이 된 애니메이션이라는 특별함 때문에, 영상 불법 다운로드나 복제 제품이 무의미하게 된다. 이는 누구도 내 아이가 아닌 다른 아이가 주인공으로 등장하는 콘텐츠를 갖고 싶지는 않을 것이기 때문이다. 따라서 콘텐츠의 가치를 지킴과 동시에 콘텐츠 제작자들의 의욕 또한 고취시키게 된다.Also, due to the special nature of the animation that became the main character, illegal downloading of video and reproduction products become meaningless. This is because nobody would want to have content that appears as a main character other than my child. As a result, content creators are encouraged to maintain the value of content.
사진 상 사용자 얼굴 특징점을 추출하고, 이를 캐릭터 얼굴 특징점과 비교하여 일치도를 판단한 후, 상기 일치도가 80% 미만인 경우 아이 얼굴 특징점을 변형시켜 캐릭터 얼굴 특징점에 합성하므로, 가능한 아이의 얼굴 그대로를 이용하면서 캐릭터의 포즈와 표정이 어울리도록 합성하는 것이 가능하여 현실감과 몰입도가 높은 효과가 있다. 다시 말하면, 캐릭터의 포즈 및 영상의 스토리에 따라 캐릭터의 얼굴 표정이 다양하게 연출되는데, 전술한 바와 같은 합성 방식에 따르면 다양한 표정을 찍은 사진들 없이, 하나의 사진으로도 각 프레임 내 캐릭터의 얼굴 표정과 유사하게 아이의 얼굴 표정을 생성할 수 있어 자연스러운 합성 영상을 얻을 수 있는 것이다.
If the match degree is less than 80%, the eye facial feature points are transformed and synthesized to the character facial feature points. If the match degree is less than 80%, the user's facial feature points are extracted and compared with the character facial feature points. It is possible to synthesize the pose and the facial expression so that the realism and the immersion are high. In other words, according to the pose of the character and the story of the image, the facial expression of the character is variously produced. According to the above-described synthesis method, even if one photograph does not include photographs of various facial expressions, It is possible to generate a child's facial expression and obtain a natural composite image.
도 1은 본 발명의 일실시예에 따른 사용자 맞춤 캐릭터 영상물의 실시간 제공시스템의 개략적인 구성을 나타낸 도면이다.
도 2는 본 발명에 따른 사용자 맞춤형 캐릭터 영상물의 생성 과정을 나타낸 도면이다.
도 3은 본 발명에 따라 생성된 사용자 맞춤형 캐릭터 영상물의 예를 나타낸 도면이다.
도 4는 본 발명의 일실시예에 따른 사용자 맞춤 캐릭터 영상물의 실시간 제공방법의 개략적인 흐름을 나타낸 도면이다.1 is a diagram showing a schematic configuration of a real-time providing system for a user-customized character video according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating a process of generating a user-customized character image according to the present invention.
FIG. 3 is a diagram illustrating an example of a user-customized character image created according to the present invention.
FIG. 4 is a flowchart illustrating a method of providing a user-adapted character image in real time according to an exemplary embodiment of the present invention.
이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략하기로 한다. 또한 본 발명의 실시예들을 설명함에 있어 구체적인 수치는 실시예에 불과하며, 설명의 편의와 이해를 위하여 실제와는 달리 과장된 수치가 제시되었을 수 있다.
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. Further, in the description of the embodiments of the present invention, specific values are merely examples, and exaggerated values may be presented for convenience and understanding of the present invention.
<시스템에 대한 설명><Description of System>
도 1은 본 발명의 일실시예에 따른 사용자 맞춤 캐릭터 영상물의 실시간 제공시스템의 개략적인 구성을 나타낸 도면이고, 도 2는 사용자 맞춤 캐릭터 영상물의 실시간 합성 과정을 나타낸 도면이다.FIG. 1 is a diagram illustrating a schematic configuration of a system for real-time provision of a customized character video according to an exemplary embodiment of the present invention, and FIG. 2 is a diagram illustrating a real-time synthesis process of a customized character video.
도 1을 참조하면, 본 발명에 따른 사용자 맞춤 캐릭터 영상물의 실시간 제공시스템(100)은 캐릭터 영상물 저장부(110), 사용자 얼굴 추출부(120), 스타일정보 입력부(130), 사용자 얼굴 생성부(140), 캐릭터 영상물 선택부(150), 합성 처리부(160), 디스플레이부(170)를 포함하며, 상기 구성의 전체 또는 일부는 서버나 사용자 단말기로 구현된다. 또한, 각 구성요소들은 소프트웨어, 하드웨어 또는 소프트웨어와 하드웨어가 결합된 형태로 구성될 수 있으며, 서로 논리적, 물리적인 연결을 통해 데이터를 주고받을 수 있다. 또한, 경우에 따라서는 복수의 장치에 분산되어 네트워크 등을 통하여 데이터를 주고받도록 설정되는 것도 가능하다. 본 발명에 따른 실시간 합성을 위해서는 도 2의 (a)와 같이 해당 어플리케이션을 선택함으로써 수행될 수 있으며, 상기 방법은 하나의 예를 예시한 것으로, 이와 같은 구성 형태에 의하여 제한되는 것은 아니다.Referring to FIG. 1, a
캐릭터 영상물 저장부(110)는 뽀로로 등과 같이 아이들이 좋아하는 2D 또는 3D의 캐릭터 영상물들을 저장한다.The character video
사용자 얼굴 추출부(120)는 사용자 이미지로부터 사용자의 얼굴을 추출한다. 즉, 휴대폰, PDA, 스마트폰 등의 단말기를 이용하여 아이 얼굴을 촬영하거나, 또는 복잡한 배경이나 여러 사람들과 함께 찍힌 사진의 경우 해당 사진에서 아이 얼굴의 영역을 터치 등의 방식으로 선택하면, 사용자 얼굴 추출부(120)는 도 2의 (b)와 같이 아이 얼굴을 추출한다. The user face extracting
스타일정보 입력부(130)는 사용자로부터 상기 추출된 사용자의 얼굴에 적용할 스타일정보를 입력받는다. 여기서, 스타일정보는 아이 얼굴에 적용할 수 있는 헤어스타일이나 착용할 수 있는 모자와 액세서리, 볼터치 등의 꾸밀 수 있는 정보를 의미한다. The style
사용자 얼굴 생성부(140)는 상기 스타일정보가 적용된 사용자의 얼굴 이미지를 생성한다. 따라서 사용자는 도 2의 (c)와 같이 추출된 아이의 헤어스타일 및 색상을 변형시키거나 모자를 착용시킬 수 있다.The user's
캐릭터 영상물 선택부(150)는 사용자로부터 상기 생성된 사용자의 얼굴 이미지와 합성 대상이 되는 하나의 캐릭터 영상물 및 상기 선택된 캐릭터 영상물의 주인공 캐릭터 또는 친구 캐릭터를 선택받는다. 예를 들어, 도 2의 (d)와 같이 단말기에 디스플레이되는 다양한 캐릭터 영상물들 중에서 아이가 체험하고 싶어 하는 캐릭터 영상물과 이 영상물 내에서의 캐릭터를 선택 입력받는다.The character video
합성 처리부(160는 상기 선택된 캐릭터 영상물의 캐릭터의 얼굴 영역에 상기 헤어스타일 변경이나 모자 착용 등과 같은 스타일정보가 적용된 사용자 얼굴 이미지를 합성하여 실시간으로 2D 또는 3D의 합성 영상을 생성한다. The
디스플레이부(170)는 상기 생성된 합성 영상을 디스플레이한다. 다시 말해, 디스플레이부(170)는 사용자 단말기의 구성으로, 도 2의 (e)와 같이 디스플레이부(170)를 통해 아이가 주인공이 된 합성 영상을 디스플레이한다.The
전술한 바와 같이, 본 발명은 사용자(아이)의 얼굴을 뽀로로 등의 주요 캐릭터 얼굴에 실시간 합성하여 사용자 맞춤형의 캐릭터 영상물(애니메이션, 게임 등)을 제공할 수 있으므로, 즉 사용자에게 영상 속의 주인공이나 주인공의 친구로 자신이 등장하도록 하는 개인 맞춤 캐릭터 영상물을 제공할 수 있으므로, 기존 영상이나 미디어를 통한 간접 체험식 감정이입보다 훨씬 생생한 현실감을 갖게 해주는 효과가 있다. 그리고 이러한 현실감은 사용자의 상상력과 재미를 가중화시켜 더욱 몰입하게 함으로써, 스토리 주제나 교훈 등의 학습전달 및 오락효과를 극대화 시킬 수 있다.As described above, the present invention can provide a user-customized character video object (animation, game, etc.) by synthesizing the face of a user (child) with a face of a main character such as Pororo in real time, It is possible to provide a personalized character video image that allows a user to appear as a friend of the user, thereby providing a more realistic feeling of reality than an indirect experience type emotion input through a conventional image or media. And this sense of reality can maximize user 's imagination and fun, so as to immerse more and to convey the learning effect such as story topic and lesson.
또, 자신이 애니메이션에 등장하는 경험을 제공하여, 대리만족의 욕구와 '나만의 것'이라는 특별함의 욕구를 충족시켜 준다. 즉, 사용자는 자신이 평소 좋아하던 영상 속의 주인공이나 주인공의 친구가 된 모습을 보면서 신기하고 뿌듯한 감정을 느낄 수 있으며, 이러한 경험은 자신에 대한 자존감, 자신감을 느끼게 할 것이므로, 특별한 기억으로 아이들의 뇌리에 깊숙이 자리하게 될 수 있다. 또한, 가족에게도 이 유아 시기의 자녀의 모습을 간직하고 추억을 소장할 수 있다는 점 때문에, 본 발명은 다른 콘텐츠와 구분되는 차별성을 갖게 될 수 있다. In addition, it provides an experience of appearing in an animation, satisfying the desire of surrogate satisfaction and the special desire of "my own thing". In other words, the user can feel the excitement and proud feelings while watching the character of the hero or hero in her favorite video, and this experience will make her feel self-esteem and confidence. Therefore, As shown in FIG. In addition, the present invention can be differentiated from other contents because the family can hold the child of the infantile period and possess memories.
또한, 합성된 영상 안에서 사용자는 자신이 좋아하는 주인공이 되거나 주인공의 친구가 될 수 있으므로, 캐릭터 인지도 향상에 기여할 수 있다. Also, since the user can become a favorite character or a friend of the main character in the synthesized image, it can contribute to the improvement of the character recognition.
또, 자기가 주인공이 된 애니메이션이라는 특별함 때문에, 영상 불법 다운로드나 복제 제품이 무의미하게 된다. 이는 누구도 내 아이가 아닌 다른 아이가 주인공으로 등장하는 콘텐츠를 갖고 싶지는 않을 것이기 때문이다. 따라서 콘텐츠의 가치를 지킴과 동시에 콘텐츠 제작자들의 의욕 또한 고취시키게 된다. Also, due to the special nature of the animation that became the main character, illegal downloading of video and reproduction products become meaningless. This is because nobody would want to have content that appears as a main character other than my child. As a result, content creators are encouraged to maintain the value of content.
한편, 현실감과 몰입도 높은 합성 영상을 제공하기 위해서 본 발명에 따른 사용자 맞춤 캐릭터 영상물의 실시간 제공시스템(100)은 캐릭터의 얼굴 표정과 동일하도록 사용자의 얼굴 표정을 변형시키는 것이 바람직하다. 즉, 캐릭터의 정면 모습이나 측면 모습, 자는 모습, 웃는 모습, 우는 모습 등 캐릭터의 다양한 얼굴 표정과 일치하도록 아이의 얼굴 표정도 변해야 한다.Meanwhile, in order to provide a composite image with high realism and high immersion, it is preferable that the user-customized character video real-
이를 위해 합성 처리부(160)는 캐릭터 얼굴 추출모듈(161), 사용자 얼굴 추출모듈(162), 얼굴 특징점 비교모듈(163), 얼굴 특징점 변형모듈(164), 합성 영상 생성모듈(165)을 포함한다.The
캐릭터 얼굴 추출모듈(161)은 사용자가 선택한 캐릭터 영상물의 각 장면마다 해당 캐릭터의 얼굴에서 캐릭터 얼굴 특징점을 추출한다.The character
사용자 얼굴 추출모듈(162)은 사진 상의 사용자의 얼굴에서 사용자 얼굴 특징점을 추출한다. 여기서, 얼굴 특징점은 캐릭터 및 아이의 얼굴 윤곽선, 눈썹, 눈, 코, 입 등과 같이 얼굴에서 나타나는 인상이나 표정을 알 수 있는 요소를 의미하며, 이러한 특징점은 각 요소의 형태 및 위치를 포함한다.The user
얼굴 특징점 비교모듈(163)은 상기 추출된 캐릭터 얼굴 특징점과 사용자 얼굴 특징점을 비교하는데, 본 발명에서는 캐릭터 얼굴 특징점과 상기 사용자 얼굴 특징점의 일치도를 비교하고 있다.The facial feature
얼굴 특징점 변형모듈(164)은 상기 비교를 기초로 캐릭터 얼굴 특징점과 동일하도록 사용자 얼굴 특징점을 변형시킨다. 즉, 얼굴 특징점 변형모듈(164)은 일치도가 80% 이상인 경우 아이 얼굴 특징점을 캐릭터 얼굴 특징점에 합성하고, 일치도가 80% 미만인 경우 아이 얼굴 특징점의 형태 및 위치를 적절히 변형시킨다. The facial feature
예를 들어, 눈과 입, 또는 코의 형태 및 위치 변화, 그리고 이를 이용해 아이의 눈과 눈 사이의 간격 또는 눈과 입, 코의 비율로 다양한 표정을 표현할 수 있고, 합성의 신뢰도를 극대화할 수 있기 때문에 캐릭터와 아이의 얼굴 각각에서 눈과 입의 형태 및 위치를 추출하고, 이를 비교하는 것은 중요하다. 눈의 경우에는 캐릭터와 아이의 얼굴 각각에서 눈의 형태 및 위치를 추출하여 눈꺼풀의 개폐정도, 눈꼬리의 위치, 눈동자의 위치, 눈의 좌우길이와 상하길이의 비율 등 눈에 관련된 정보로 눈 관련 표정을 알 수 있고, 그 일치도가 80% 이상이면 아이의 눈을 그대로 캐릭터의 눈에 합성하면 된다. 만약 일치도가 80% 미만이면 캐릭터의 눈 관련 표정에 따라 아이의 눈꺼풀을 상하로 이동시키거나, 눈꼬리를 올리거나 내리든지 해서 아이 눈의 형태 및 위치를 변형시켜 캐릭터의 눈에 합성하면 된다. 입의 경우에도 마찬가지로, 캐릭터와 아이의 얼굴 각각에서 입의 형태 및 위치를 추출하여 입의 개폐정도, 윗입술과 아랫입술의 위치, 입꼬리의 위치 등 입에 관련된 정보로 입 관련 표정을 알 수 있고, 그 일치도가 80% 이상이면 아이의 입을 그대로 캐릭터의 입에 합성하면 된다. 일치도가 80% 미만이면 캐릭터의 입 관련 표정에 따라 아이의 윗입술과 아랫입술을 상하좌우로 이동시키거나, 입꼬리를 올리거나 내리든지 해서 아이 입의 형태 및 위치를 변형시켜 캐릭터의 입에 합성하면 된다.For example, changes in the shape and position of the eyes, mouth, or nose can be used to express a variety of facial expressions at the eye-to-eye or eye-to-eye ratio, or to maximize the reliability of the composition It is important to extract the shape and position of the eyes and mouth from each of the face of the character and the child, and to compare them. In the case of the eyes, the shape and position of the eye are extracted from each of the character and the face of the child, and the information related to the eye such as the degree of opening and closing of the eyelid, the position of the eye tail, the position of the pupil, If the match degree is 80% or more, the eye of the child can be synthesized on the eye of the character as it is. If the degree of agreement is less than 80%, the shape and position of the eye may be modified by moving the eye upward or downward according to the eyes of the character, or by raising or lowering the eye tail. Likewise, in the case of the mouth, the shape and position of the mouth are extracted from each of the face of the character and the child, and the mouth-related expression can be known by the information related to the mouth such as the degree of opening and closing of the mouth, the position of the upper lip and the lower lip, If the match is 80% or more, the child's mouth can be synthesized into the mouth of the character as it is. If the degree of agreement is less than 80%, the upper lip and lower lip of the child may be moved up and down and left and right according to the expression of the mouth of the character, or the shape and position of the mouth may be modified by combining the mouth of the character .
본 발명에서 일치도의 기준범위를 80%로 한정하는 이유는 기준범위를 70%, 80%, 90% 등 다양하게 하여 실험한 결과, 가능한 아이의 얼굴 형태 그대로를 합성할 수 있어 자연스러운 합성이 가능하도록 하는 동시에, 합성 영상 내에서의 합성 캐릭터의 포즈와 표정이 상반된 경우 그 어색함을 배제할 수 있는 최적의 범위이기 때문이다.In the present invention, the reason for limiting the reference range of the degree of agreement to 80% is as follows. As a result of experimenting with various reference ranges of 70%, 80%, 90%, etc., This is because it is an optimal range in which the awkwardness of the synthesized character is excluded when the pose of the synthesized character and the facial expression are opposite to each other.
합성 영상 생성모듈(165)은 상기 변형된 사용자 얼굴 특징점을 캐릭터 얼굴 특징점에 합성시켜 합성 영상을 생성한다. The composite
전술한 바와 같이, 사진 상 사용자(아이) 얼굴 특징점을 추출하고, 이를 캐릭터 얼굴 특징점과 비교하여 일치도를 판단한 후, 상기 일치도가 80% 미만인 경우 아이 얼굴 특징점을 변형시켜 캐릭터 얼굴 특징점에 합성하므로, 가능한 아이의 얼굴 그대로를 이용하면서 캐릭터의 포즈와 표정이 어울리도록 합성하는 것이 가능하여 현실감과 몰입도가 높은 효과가 있다. 다시 말하면, 캐릭터의 포즈 및 영상의 스토리에 따라 캐릭터의 얼굴 표정이 다양하게 연출되는데, 전술한 바와 같은 합성 방식에 따르면 다양한 표정을 찍은 사진들 없이, 하나의 사진으로도 각 프레임 내 캐릭터의 얼굴 표정과 유사하게 아이의 얼굴 표정을 생성할 수 있어 자연스러운 합성 영상을 얻을 수 있는 것이다.As described above, after extracting facial feature points of a user on a photograph and comparing the facial feature points with the character facial feature points to determine the degree of conformity, if the degree of match is less than 80%, the eye facial feature points are modified and synthesized to character facial feature points. It is possible to combine the pose of the character and the expression so that the face can be synthesized while using the face of the child, and the effect of realism and immersion is high. In other words, according to the pose of the character and the story of the image, the facial expression of the character is variously produced. According to the above-described synthesis method, even if one photograph shows no photographs of various facial expressions, It is possible to generate a child's facial expression and obtain a natural composite image.
한편, 본 발명에서는 캐릭터 영상물 저장부(110)에 저장된 캐릭터 영상물에서 사용자가 주인공이나 주인공의 친구가 되는 것을 넘어서 사용자의 선택에 의하여 이야기 전개가 바뀌는 것이 가능하도록 구현될 수도 있다.
Meanwhile, in the present invention, it is possible to change the story development according to the user's selection beyond the user's becoming a friend of the main character or the main character in the character video stored in the character video
<방법에 대한 설명><Description of Method>
본 발명의 사용자 맞춤 캐릭터 영상물의 실시간 제공방법에 대해서 도 4에 도시된 흐름도와 더불어 도 2 및 도 3에 나타난 예시도를 참조하여 설명하되, 편의상 순서를 붙여 설명한다.A method for real-time provision of a user-customized character image according to the present invention will be described with reference to an exemplary diagram shown in FIG. 2 and FIG. 3, together with a flowchart shown in FIG. 4, for convenience.
1. 캐릭터 영상물을 저장하는 단계<S410>1. Storing a character video object < S410 >
뽀로로 등과 같이 아이들이 좋아하는 2D 또는 3D의 캐릭터 영상물들을 저장한다.It stores 2D or 3D character video images that children like, such as Pororo.
2. 사용자 이미지로부터 사용자의 얼굴을 추출하는 단계<S420>2. Step of extracting the user's face from the user image < S420 >
사용자 이미지로부터 사용자의 얼굴을 추출한다. 즉, 휴대폰, PDA, 스마트폰 등의 단말기를 이용하여 아이 얼굴을 촬영하거나, 또는 복잡한 배경이나 여러 사람들과 함께 찍힌 사진의 경우 해당 사진에서 아이 얼굴의 영역을 터치 등의 방식으로 선택하면, 도 2의 (b)와 같이 아이 얼굴을 추출한다. The user's face is extracted from the user image. That is, when a child's face is photographed using a terminal such as a mobile phone, a PDA, or a smart phone, or a photo is taken with a complex background or a plurality of people, The face of the child is extracted as shown in (b) of FIG.
3. 사용자로부터 추출된 사용자의 얼굴에 적용할 스타일정보를 입력받는 단계<S430>3. receiving the style information to be applied to the user's face extracted from the user (S430)
사용자로부터 상기 단계 S420에서 추출된 사용자의 얼굴에 적용할 스타일정보를 입력받는다. 여기서, 스타일정보는 아이 얼굴에 적용할 수 있는 헤어스타일이나 착용할 수 있는 모자와 액세서리, 볼터치 등의 꾸밀 수 있는 정보를 의미한다. And receives style information to be applied to the face of the user extracted in step S420 from the user. Here, the style information refers to information that can be applied to a child's face, such as a hairstyle, a wearable hat and accessories, and a ball touch.
4. 스타일정보가 적용된 사용자의 얼굴 이미지를 생성하는 단계<S440>4. Step S440 of generating a face image of a user to which style information is applied
상기 단계 S430에서 스타일정보가 적용된 사용자의 얼굴 이미지를 생성한다. 따라서 사용자는 도 2의 (c)와 같이 추출된 아이의 헤어스타일 및 색상을 변형시키거나 모자를 착용시킬 수 있다.The face image of the user to which the style information is applied is generated in step S430. Accordingly, the user can change the hair style and color of the extracted child or wear the hat as shown in FIG. 2 (c).
5. 사용자의 얼굴 이미지와 합성 대상이 되는 캐릭터 영상물을 선택받는 단계<S450>5. Step S450 of selecting a character image to be combined with a user's face image
사용자로부터 상기 단계 S440에서 생성된 사용자의 얼굴 이미지와 합성 대상이 되는 하나의 캐릭터 영상물 및 상기 선택된 캐릭터 영상물의 주인공 캐릭터 또는 친구 캐릭터를 선택받는다. 예를 들어, 도 2의 (d)와 같이 다양한 캐릭터 영상물들 중에서 아이가 체험하고 싶어 하는 캐릭터 영상물과 이 영상물 내에서의 캐릭터를 선택 입력받는다.The user selects one of the character images and the main character or friend character of the selected character image, which is the face image of the user generated in step S440. For example, as shown in (d) of FIG. 2, a character video object desired to be experienced by a child and a character in the video object are selected and input from among various character video objects.
6. 실시간으로 합성 영상을 생성하는 단계<S460>6. Step of generating a composite image in real time (S460)
상기 단계 S450에서 선택된 캐릭터 영상물의 캐릭터의 얼굴 영역에 상기 헤어스타일 변경이나 모자 착용 등과 같은 스타일정보가 적용된 사용자 얼굴 이미지를 합성하여 실시간으로 2D 또는 3D의 합성 영상을 생성한다. In step S450, a face image of the character image of the selected character is synthesized with the user's face image to which style information such as the hair style change or the wearing of a hat is applied to generate a 2D or 3D composite image in real time.
7. 합성 영상을 디스플레이하는 단계<S470>7. Displaying the composite image (S470)
상기 단계 S460에서 생성된 합성 영상, 즉 도 2의 (e)와 같이 아이가 주인공이 된 합성 영상을 디스플레이한다.The composite image generated in step S460, that is, the composite image in which the child is the main character as shown in (e) of FIG.
전술한 바와 같이, 본 발명은 사용자(아이)의 얼굴을 뽀로로 등의 주요 캐릭터 얼굴에 실시간 합성하여 제공할 수 있으므로, 즉 사용자에게 자신이 캐릭터 주인공이나 주인공 친구가 되는 개인 맞춤 캐릭터 영상물(애니메이션, 게임 등)을 제공할 수 있으므로, 기존 영상이나 미디어를 통한 간접 체험식 감정이입보다 훨씬 생생한 현실감을 갖게 해주는 효과가 있다. As described above, according to the present invention, since the face of a user (child) can be synthesized in real time on the face of a main character such as Pororo, the user can be provided with a personalized character video object (animation, game Etc.), it is possible to have a more realistic feeling of reality than an indirect experience-type emotion input through existing images or media.
또, 사용자는 자신이 평소 좋아하던 영상 속에서 주인공이나 주인공의 친구가 된 모습을 보면서 신기하고 뿌듯한 감정을 느낄 수 있으며, 이러한 경험은 자신에 대한 자존감, 자신감을 느끼게 할 것이므로, 특별한 기억으로 아이들의 뇌리에 깊숙이 자리하게 될 수 있다. In addition, the user can feel the excitement and proud feelings while watching the character of the hero or protagonist in the video he usually liked, and since this experience will make him feel self-esteem and confidence, It can be deep in the brain.
한편, 본 발명에서는 상기 단계 S460에서 캐릭터의 얼굴 표정과 동일하도록 사용자의 얼굴 표정을 변형시켜 현실감과 몰입도 높은 합성 영상을 제공하고 있다. 즉, 캐릭터의 정면 모습이나 측면 모습, 자는 모습, 웃는 모습, 우는 모습 등 캐릭터의 다양한 얼굴 표정과 일치하도록 아이의 얼굴 표정도 변해야 한다.Meanwhile, in the present invention, the user's facial expression is modified so as to be the same as the facial expression of the character in step S460, thereby providing a composite image having high realism and immersion. That is, the expression of the face of the child should be changed to match the character's various facial expressions such as the front or side view of the character, the sleeping appearance, the smiling face, and the crying appearance.
이를 위해, 상기 단계 S460에서는 하기와 같은 합성 방식으로 이루어진다.For this, in step S460, the following synthesis method is employed.
먼저, 사용자가 선택한 캐릭터 영상물의 각 장면마다 해당 캐릭터의 얼굴에서 캐릭터 얼굴 특징점을 추출하고(S461), 사진 상의 사용자의 얼굴에서 사용자 얼굴 특징점을 추출한다(S462). 여기서, 얼굴 특징점은 캐릭터 및 아이의 얼굴 윤곽선, 눈썹, 눈, 코, 입 등과 같이 얼굴에서 나타나는 인상이나 표정을 알 수 있는 요소를 의미하며, 이러한 특징점은 각 요소의 형태 및 위치를 포함한다. 다음, 상기 단계 S461과 S462에서 추출된 캐릭터 얼굴 특징점과 사용자 얼굴 특징점을 비교하는데, 본 발명에서는 캐릭터 얼굴 특징점과 상기 사용자 얼굴 특징점의 일치도를 비교하고 있다(S463). 그리고 상기 단계 S463에서의 비교를 기초로 캐릭터 얼굴 특징점과 동일하도록 사용자 얼굴 특징점을 변형시킨다(S464). 즉, 이 단계에서는 일치도가 80% 이상인 경우 아이 얼굴 특징점을 캐릭터 얼굴 특징점에 합성하고, 일치도가 80% 미만인 경우 아이 얼굴 특징점의 형태 및 위치를 적절히 변형시킨다. First, a character facial feature point is extracted from the face of the character for each scene of the character video selected by the user (S461), and the user facial feature point is extracted from the face of the user on the photograph (S462). Here, the facial feature point refers to an element that can recognize the impression or facial expression appearing on the face such as a character and a child's face contour line, eyebrow, eye, nose, mouth, and such feature points include the shape and position of each element. Next, the character facial feature points extracted in the steps S461 and S462 are compared with the user facial feature points. In the present invention, the matching degrees of the character facial feature points and the user facial feature points are compared (S463). Then, based on the comparison in step S463, the user's facial feature point is modified to be the same as the character facial feature point (S464). That is, at this stage, the eye facial feature points are synthesized to the character facial feature points when the match degree is 80% or more, and the morphology and position of the eye facial feature points are appropriately modified when the match degree is less than 80%.
예를 들어, 눈과 입, 또는 코의 형태 및 위치 변화, 그리고 이를 이용해 아이의 눈과 눈 사이의 간격 또는 눈과 입, 코의 비율로 다양한 표정을 표현할 수 있고, 합성의 신뢰도를 극대화할 수 있기 때문에 캐릭터와 아이의 얼굴 각각에서 눈과 입의 형태 및 위치를 추출하고, 이를 비교하는 것은 중요하다. 눈의 경우에는 캐릭터와 아이의 얼굴 각각에서 눈의 형태 및 위치를 추출하여 눈꺼풀의 개폐정도, 눈꼬리의 위치, 눈동자의 위치, 눈의 좌우길이와 상하길이의 비율 등 눈에 관련된 정보로 눈 관련 표정을 알 수 있고, 그 일치도가 80% 이상이면 아이의 눈을 그대로 캐릭터의 눈에 합성하면 된다. 만약 일치도가 80% 미만이면 캐릭터의 눈 관련 표정에 따라 아이의 눈꺼풀을 상하로 이동시키거나, 눈꼬리를 올리거나 내리든지 해서 아이 눈의 형태 및 위치를 변형시켜 캐릭터의 눈에 합성하면 된다. 입의 경우에도 마찬가지로, 캐릭터와 아이의 얼굴 각각에서 입의 형태 및 위치를 추출하여 입의 개폐정도, 윗입술과 아랫입술의 위치, 입꼬리의 위치 등 입에 관련된 정보로 입 관련 표정을 알 수 있고, 그 일치도가 80% 이상이면 아이의 입을 그대로 캐릭터의 입에 합성하면 된다. 일치도가 80% 미만이면 캐릭터의 입 관련 표정에 따라 아이의 윗입술과 아랫입술을 상하좌우로 이동시키거나, 입꼬리를 올리거나 내리든지 해서 아이 입의 형태 및 위치를 변형시켜 캐릭터의 입에 합성하면 된다.For example, changes in the shape and position of the eyes, mouth, or nose can be used to express a variety of facial expressions at the eye-to-eye or eye-to-eye ratio, or to maximize the reliability of the composition It is important to extract the shape and position of the eyes and mouth from each of the face of the character and the child, and to compare them. In the case of the eyes, the shape and position of the eye are extracted from each of the character and the face of the child, and the information related to the eye such as the degree of opening and closing of the eyelid, the position of the eye tail, the position of the pupil, If the match degree is 80% or more, the eye of the child can be synthesized on the eye of the character as it is. If the degree of agreement is less than 80%, the shape and position of the eye may be modified by moving the eye upward or downward according to the eyes of the character, or by raising or lowering the eye tail. Likewise, in the case of the mouth, the shape and position of the mouth are extracted from each of the face of the character and the child, and the mouth-related expression can be known by the information related to the mouth such as the degree of opening and closing of the mouth, the position of the upper lip and the lower lip, If the match is 80% or more, the child's mouth can be synthesized into the mouth of the character as it is. If the degree of agreement is less than 80%, the upper lip and lower lip of the child may be moved up and down and left and right according to the expression of the mouth of the character, or the shape and position of the mouth may be modified by combining the mouth of the character .
본 발명에서 일치도의 기준범위를 80%로 한정하는 이유는 기준범위를 70%, 80%, 90% 등 다양하게 하여 실험한 결과, 가능한 아이의 얼굴 형태 그대로를 합성할 수 있어 자연스러운 합성이 가능하도록 하는 동시에, 합성 영상 내에서의 합성 캐릭터의 포즈와 표정이 상반된 경우 그 어색함을 배제할 수 있는 최적의 범위이기 때문이다.In the present invention, the reason for limiting the reference range of the degree of agreement to 80% is as follows. As a result of experimenting with various reference ranges of 70%, 80%, 90%, etc., This is because it is an optimal range in which the awkwardness of the synthesized character is excluded when the pose of the synthesized character and the facial expression are opposite to each other.
마지막으로, 상기 단계 S464에서 변형된 사용자 얼굴 특징점을 캐릭터 얼굴 특징점에 합성시켜 합성 영상을 생성한다(S465).Finally, in step S465, the synthesized image is synthesized by synthesizing the transformed user facial feature points with the character facial feature points (S465).
캐릭터의 포즈 및 영상의 스토리에 따라 캐릭터의 얼굴 표정이 다양하게 연출되는데, 전술한 바와 같은 합성 방식에 따르면 다양한 표정을 찍은 사진들 없이, 하나의 사진으로도 각 프레임 내 캐릭터의 얼굴 표정과 유사하게 아이의 얼굴 표정을 생성할 수 있어 자연스러운 합성 영상을 얻을 수 있으므로, 현실감과 몰입도가 높은 효과가 있다.
According to the synthesizing method described above, a character is posed and the story of an image is variously displayed according to the story of the character. According to the above-described synthesis method, It is possible to generate a facial expression of a child, and a natural synthetic image can be obtained, so that there is an effect of high realism and immersion.
본 발명에 따른 사용자 맞춤 캐릭터 영상물의 실시간 제공방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
The method of realizing a user-customized character video according to the present invention may be implemented in a form of a program command which can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
The foregoing description is merely illustrative of the technical idea of the present invention and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas falling within the scope of the same shall be construed as falling within the scope of the present invention.
100: 사용자 맞춤 캐릭터 영상물의 실시간 제공시스템100: Real-time delivery system of customized character video
Claims (9)
사용자 이미지로부터 사용자의 얼굴을 추출하는 사용자 얼굴 추출부;
사용자로부터 상기 추출된 사용자의 얼굴에 적용할 스타일정보를 입력받는 스타일정보 입력부;
상기 스타일정보가 적용된 사용자의 얼굴 이미지를 생성하는 사용자 얼굴 생성부;
사용자로부터 상기 생성된 사용자의 얼굴 이미지와 합성 대상이 되는 하나의 캐릭터 영상물을 선택받는 캐릭터 영상물 선택부;
상기 선택된 캐릭터 영상물의 캐릭터의 얼굴 영역에 상기 스타일정보가 적용된 사용자 얼굴 이미지를 합성하여 실시간으로 합성 영상을 생성하는 합성 처리부; 및
상기 생성된 합성 영상을 디스플레이하는 디스플레이부
를 포함하는 사용자 맞춤 캐릭터 영상물의 실시간 제공시스템. A character video object storage unit for storing character video objects;
A user face extracting unit for extracting a face of a user from a user image;
A style information input unit for inputting style information to be applied to the extracted user's face from a user;
A user face generating unit for generating a face image of a user to which the style information is applied;
A character video selection unit for selecting one character video to be combined with the face image of the user generated by the user;
A synthesis processing unit for synthesizing a user's face image to which the style information is applied in a face region of a character image of the selected character image to generate a synthesized image in real time; And
A display unit for displaying the generated composite image,
Wherein the system comprises:
상기 합성 처리부는,
상기 캐릭터의 얼굴 표정과 동일하도록 상기 사용자의 얼굴 표정을 변형시키는
사용자 맞춤 캐릭터 영상물의 실시간 제공시스템.The method according to claim 1,
The synthesis processing unit,
The user's facial expression is modified so as to be the same as the facial expression of the character
Real-time system of customized character video.
상기 합성 처리부는,
상기 캐릭터의 얼굴에서 캐릭터 얼굴 특징점을 추출하는 캐릭터 얼굴 추출모듈;
상기 사용자의 얼굴에서 사용자 얼굴 특징점을 추출하는 사용자 얼굴 추출모듈;
상기 캐릭터 얼굴 특징점과 상기 사용자 얼굴 특징점을 비교하는 얼굴 특징점 비교모듈;
상기 비교를 기초로 상기 캐릭터 얼굴 특징점과 동일하도록 상기 사용자 얼굴 특징점을 변형시키는 얼굴 특징점 변형모듈; 및
상기 변형된 사용자 얼굴 특징점을 상기 캐릭터 얼굴 특징점에 합성시켜 상기 합성 영상을 생성하는 합성 영상 생성모듈
을 포함하는 사용자 맞춤 캐릭터 영상물의 실시간 제공시스템.3. The method of claim 2,
The synthesis processing unit,
A character face extraction module for extracting character face feature points from the face of the character;
A user face extraction module for extracting user face feature points from the face of the user;
A facial feature point comparing module for comparing the character facial feature point with the user facial feature point;
A facial feature point transforming module for transforming the user facial feature point so as to be the same as the character facial feature point based on the comparison; And
A synthesized image generation module for synthesizing the modified user facial feature points with the character facial feature points to generate the synthesized image,
Wherein the system comprises:
상기 얼굴 특징점 비교모듈은,
상기 캐릭터 얼굴 특징점과 상기 사용자 얼굴 특징점의 일치도를 비교하며,
상기 얼굴 특징점 변형모듈은,
상기 일치도가 80% 미만인 경우 상기 사용자 얼굴 특징점의 형태 및 위치를 변형시키는
사용자 맞춤 캐릭터 영상물의 실시간 제공시스템.The method of claim 3,
The facial feature point comparison module comprises:
Comparing the matching degree of the character facial feature point and the user facial feature point,
The facial feature point transforming module comprises:
If the degree of match is less than 80%, the shape and position of the user facial feature point are modified
Real-time system of customized character video.
(b) 사용자 이미지로부터 사용자의 얼굴을 추출하는 단계;
(c) 사용자로부터 상기 추출된 사용자의 얼굴에 적용할 스타일정보를 입력받는 단계;
(d) 상기 스타일정보가 적용된 사용자의 얼굴 이미지를 생성하는 단계;
(e) 사용자로부터 상기 생성된 사용자의 얼굴 이미지와 합성 대상이 되는 하나의 캐릭터 영상물을 선택받는 단계;
(f) 상기 선택된 캐릭터 영상물의 캐릭터의 얼굴 영역에 상기 스타일정보가 적용된 사용자 얼굴 이미지를 합성하여 실시간으로 합성 영상을 생성하는 단계; 및
(g) 상기 생성된 합성 영상을 디스플레이하는 단계
를 포함하는 사용자 맞춤 캐릭터 영상물의 실시간 제공방법.(a) storing character video objects;
(b) extracting a user's face from the user image;
(c) receiving style information to be applied to the extracted user's face from a user;
(d) generating a face image of the user to which the style information is applied;
(e) receiving from the user a face image of the user and a character video object to be composited;
(f) generating a composite image in real time by synthesizing a user's face image to which the style information is applied in a face region of a character of the selected character image; And
(g) displaying the generated composite image
Wherein the method comprises the steps of:
상기 (f)단계에서는,
상기 캐릭터의 얼굴 표정과 동일하도록 상기 사용자의 얼굴 표정을 변형시키는
사용자 맞춤 캐릭터 영상물의 실시간 제공방법.6. The method of claim 5,
In the step (f)
The user's facial expression is modified so as to be the same as the facial expression of the character
A method of providing real time video of user customized character.
상기 (f)단계는,
(f1) 상기 캐릭터의 얼굴에서 캐릭터 얼굴 특징점을 추출하는 단계;
(f2) 상기 사용자의 얼굴에서 사용자 얼굴 특징점을 추출하는 단계;
(f3) 상기 캐릭터 얼굴 특징점과 상기 사용자 얼굴 특징점을 비교하는 단계;
(f4) 상기 비교를 기초로 상기 캐릭터 얼굴 특징점과 동일하도록 상기 사용자 얼굴 특징점을 변형시키는 단계; 및
(f5) 상기 변형된 사용자 얼굴 특징점을 상기 캐릭터 얼굴 특징점에 합성시켜 상기 합성 영상을 생성하는 단계
를 포함하는 사용자 맞춤 캐릭터 영상물의 실시간 제공방법. The method according to claim 6,
The step (f)
(f1) extracting a character facial feature point from the face of the character;
(f2) extracting user facial feature points from the face of the user;
(f3) comparing the character face feature point with the user face feature point;
(f4) transforming the user facial feature point to be the same as the character facial feature point based on the comparison; And
(f5) generating the synthesized image by synthesizing the modified user facial feature points with the character facial feature points
Wherein the method comprises the steps of:
상기 (f3)단계에서는,
상기 캐릭터 얼굴 특징점과 상기 사용자 얼굴 특징점의 일치도를 비교하며,
상기 (f4)단계에서는,
상기 일치도가 80% 미만인 경우 상기 사용자 얼굴 특징점의 형태 및 위치를 변형시키는
사용자 맞춤 캐릭터 영상물의 실시간 제공방법.8. The method of claim 7,
In the step (f3)
Comparing the matching degree of the character facial feature point and the user facial feature point,
In the step (f4)
If the degree of match is less than 80%, the shape and position of the user facial feature point are modified
A method of providing real time video of user customized character.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020120132397A KR20140065762A (en) | 2012-11-21 | 2012-11-21 | System for providing character video and method thereof |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020120132397A KR20140065762A (en) | 2012-11-21 | 2012-11-21 | System for providing character video and method thereof |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| KR20140065762A true KR20140065762A (en) | 2014-05-30 |
Family
ID=50892533
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020120132397A Withdrawn KR20140065762A (en) | 2012-11-21 | 2012-11-21 | System for providing character video and method thereof |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR20140065762A (en) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20160012362A (en) * | 2014-07-23 | 2016-02-03 | 서울특별시 | Security system and the control method thereof |
| KR20200025062A (en) * | 2018-08-29 | 2020-03-10 | 주식회사 케이티 | Apparatus, method and user device for prividing customized character |
| KR102399255B1 (en) * | 2021-12-22 | 2022-05-18 | 주식회사 위딧 | System and method for producing webtoon using artificial intelligence |
| KR20230080543A (en) * | 2021-11-30 | 2023-06-07 | (주) 키글 | System for creating face avatar |
| WO2024085513A1 (en) * | 2022-10-18 | 2024-04-25 | 삼성전자 주식회사 | Display device and method for operating same |
-
2012
- 2012-11-21 KR KR1020120132397A patent/KR20140065762A/en not_active Withdrawn
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20160012362A (en) * | 2014-07-23 | 2016-02-03 | 서울특별시 | Security system and the control method thereof |
| KR20200025062A (en) * | 2018-08-29 | 2020-03-10 | 주식회사 케이티 | Apparatus, method and user device for prividing customized character |
| KR20230080543A (en) * | 2021-11-30 | 2023-06-07 | (주) 키글 | System for creating face avatar |
| KR102399255B1 (en) * | 2021-12-22 | 2022-05-18 | 주식회사 위딧 | System and method for producing webtoon using artificial intelligence |
| WO2024085513A1 (en) * | 2022-10-18 | 2024-04-25 | 삼성전자 주식회사 | Display device and method for operating same |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN107154069B (en) | Data processing method and system based on virtual roles | |
| US20160134840A1 (en) | Avatar-Mediated Telepresence Systems with Enhanced Filtering | |
| US20110064388A1 (en) | User Customized Animated Video and Method For Making the Same | |
| Ryokai et al. | StoryFaces: pretend-play with ebooks to support social-emotional storytelling | |
| KR20140065762A (en) | System for providing character video and method thereof | |
| Wikayanto et al. | Aesthetic Morphology of Animation | |
| JP7714779B2 (en) | Data processing method, device, electronic device, and computer program | |
| McLean | All for Beauty: Makeup and Hairdressing in Hollywood's Studio Era | |
| Cleland | Image avatars: Self-other encounters in a mediated world | |
| KR102553432B1 (en) | System for creating face avatar | |
| Horno-López | The particular visual language of anime: Design, colour and selection of resources | |
| Wibowo et al. | Visual aesthetics of narrative animation of 3D computer graphics: From both realist and expressive points of view | |
| KR101243832B1 (en) | Avata media service method and device using a recognition of sensitivity | |
| Gu et al. | Case Study of Short Animation with Facial Capture Technology Using Mobile | |
| Doroski | Thoughts of spirits in madness: Virtual production animation and digital technologies for the expansion of independent storytelling | |
| Gan | The newly developed form of Ganime and its relation to selective animation for adults in Japan | |
| O’Meara | Anna Biller | |
| Franco Alonso | Differences between Japanese and Western anatomical animation techniques applied to videogames | |
| Sapuridis | RECLAIMING THE WIZARDING WORLD | |
| Cooper | The Art of Animation: How Animation is Creating a Better Film Industry | |
| KR20120076456A (en) | Avata media production method and device using a recognition of sensitivity | |
| Reinhuber et al. | Layered images: the desire to see more than the obvious | |
| Sapuridis | Reclaiming the Wizarding World: Self-Insert Fanvids, TikTok, and the Reimagining of Representation in Fandom | |
| Vega-Samamé et al. | Empowerment and Objectification in Peruvian K-Pop Dance Cover Girl Group on YouTube | |
| Hodgson | Making The Trouble with Love and Sex |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20121121 |
|
| PG1501 | Laying open of application | ||
| PC1203 | Withdrawal of no request for examination | ||
| WITN | Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid |