[go: up one dir, main page]

KR101744674B1 - Apparatus and method for contents creation using synchronization between virtual avatar and real avatar - Google Patents

Apparatus and method for contents creation using synchronization between virtual avatar and real avatar Download PDF

Info

Publication number
KR101744674B1
KR101744674B1 KR1020150037916A KR20150037916A KR101744674B1 KR 101744674 B1 KR101744674 B1 KR 101744674B1 KR 1020150037916 A KR1020150037916 A KR 1020150037916A KR 20150037916 A KR20150037916 A KR 20150037916A KR 101744674 B1 KR101744674 B1 KR 101744674B1
Authority
KR
South Korea
Prior art keywords
avatar
motion
unit
virtual avatar
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
KR1020150037916A
Other languages
Korean (ko)
Other versions
KR20160113384A (en
Inventor
최이권
최인헌
서정훈
박맑음
Original Assignee
모젼스랩(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 모젼스랩(주) filed Critical 모젼스랩(주)
Priority to KR1020150037916A priority Critical patent/KR101744674B1/en
Publication of KR20160113384A publication Critical patent/KR20160113384A/en
Application granted granted Critical
Publication of KR101744674B1 publication Critical patent/KR101744674B1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

본 발명은 가상 아바타(virtual avatar)와 모션을 동기화시키고, 이들의 구동을 동시에 하나의 콘텐츠로 생성하는 가상아바타와 실감아바타의 동기화를 이용한 콘텐츠 생성 장치 및 방법에 관한 것으로, 본 발명은 (A) 휴대용단말기가 서비스제공서버로부터 실행데이터를 제공받는 단계와; (B) 상기 휴대용단말기가 아바타유닛과의 통신을 활성화시키는 단계와; (C) 상기 휴대용단말기가 카메라부를 활성화시키고 모션스킨을 구동시켜 화면상에 가상아바타를 출력하는 단계와; (D) 상기 실행데이터에 포함된 모션데이터를 상기 아바타유닛으로 전송하여, 상기 아바타 유닛을 상기 모션데이터에 따라 구동시키는 단계; 그리고 (E)상기 모션데이터에 따라 상기 모션스킨 상의 가상아바타의 모션을 구동시키는 단계를 포함하여 수행된다. 이와 같은 본 발명에 의하면, 동기화된 가상아바타와 실감아바타를 포함하는 콘텐츠를 생성하고, 생성된 콘텐츠를 공유할 수 있도록 하여 동기화가 구현된 아바타의 활용성을 확대할 수 있는 효과가 있다.The present invention relates to an apparatus and method for generating a content using a virtual avatar and a real avatar synchronizing a virtual avatar and a motion synchronized with each other, The portable terminal receiving execution data from a service providing server; (B) activating communication with the avatar unit by the portable terminal; (C) activating the camera unit and driving the motion skin to output a virtual avatar on the screen; (D) transferring the motion data included in the execution data to the avatar unit, and driving the avatar unit according to the motion data; And (E) driving the motion of the virtual avatar on the motion skin according to the motion data. According to the present invention, contents including synchronized virtual avatars and real-life avatars can be generated, and the generated contents can be shared, thereby widening the usability of the avatar in which synchronization is implemented.

Description

가상아바타와 실감아바타의 동기화를 이용한 콘텐츠 생성 장치 및 방법 { APPARATUS AND METHOD FOR CONTENTS CREATION USING SYNCHRONIZATION BETWEEN VIRTUAL AVATAR AND REAL AVATAR }[0001] APPARATUS AND METHOD FOR CONTENTS CREATION USING SYNCHRONIZATION BETWEEN VIRTUAL AVATAR AND REAL AVATAR [0002]

본 발명은 실제 아바타 로봇을 휴대단말의 화면에 2차원 또는 3차원 이미지로 디스플레이되는 가상 아바타(virtual avatar)와 모션을 동기화시키고, 이들의 구동을 동시에 하나의 콘텐츠로 생성하는 가상아바타와 실감아바타의 동기화를 이용한 콘텐츠 생성 장치 및 방법에 관한 것으로, 문화체육관광부의 2012년 문화기술 연구개발지원사업 중 '상호작용 실감 한류 스타 캐릭터 아바타 기술 개발'과제(수행기간 : 2012.05.01~2015.03.31)를 수행함에 있어 산출된 결과물에 대한 발명이다.
The present invention relates to a virtual avatar that synchronizes an actual avatar robot with a virtual avatar displayed in a two-dimensional or three-dimensional image on a screen of a mobile terminal and generates motions of the virtual avatar and the real avatar (2012.05.01 ~ 2015.03.31) of the Ministry of Culture, Sports and Tourism's support for cultural technology research and development in 2012, It is an invention of the result produced in performing.

일반적으로 아바타는 분신 또는 화신 등을 뜻하는 넓은 의미의 용어로서, 예컨대 가상(virtual) 아바타와, 실감(reality) 아바타 등으로 구분될 수 있다.Generally, an avatar is a broad term used to refer to a false or incarnation, and may be classified into, for example, a virtual avatar and a reality avatar.

가상 아바타는 사이버 공간에서 사람의 역할을 대신하는 애니메이션 캐릭터 등으로 사용될 수 있다. 예컨대 스마트폰이나 태블릿 PC와 같은 휴대단말의 화면에 다양한 모션으로 움직이는 2차원 또는 3차원 이미지로 디스플레이될 수 있다.The virtual avatar can be used as an animation character in place of a human role in cyberspace. For example, a two-dimensional or three-dimensional image moving in various motions on a screen of a portable terminal such as a smart phone or a tablet PC.

실감 아바타는 원격의 리모컨 제어신호 또는 로봇 제어용 어플리케이션 프로그램 등에 의해 이동, 동작 등의 다양한 모션으로 움직이는 로봇 등으로서, 다수의 액츄에이터 모듈(actuator module)로 구성된 모듈러 로봇(modular robot) 등이 사용될 수 있다.A realistic avatar may be a robot moving in various motions such as a movement or an operation by a remote control signal for remote control or an application program for robot control or the like and may be a modular robot composed of a plurality of actuator modules.

최근 이러한 가상 아바타와 실감 아바타를 연동함으로써 사용자에게 흥미를 제공하고 게임에 응용하여 게이머들에게 즐거움을 주도록 하는 기술이 제공되고 있다. 예컨대, 현실세계의 사용자의 모습이 가상세계에서 아바타의 특징에 반영할 수 있도록 제어하는 기술이 제시되고 있다. 또한, 원격 존재 로봇으로부터 전송되는 로봇 상태 정보를 수신하여 표시하고 사용자 입력에 따라 원격 존재 로봇을 제어하도록 하는 장치가 제공되고 있다.In recent years, there has been provided a technique for providing an interest to a user by interacting with a virtual avatar and a realistic avatar, and allowing the gamer to enjoy the game by applying it to the game. For example, a technology for controlling the appearance of a user in the real world so as to reflect the feature of the avatar in the virtual world has been proposed. There is also provided an apparatus for receiving and displaying robot status information transmitted from a remote presence robot and controlling the remote presence robot according to user input.

하지만, 이러한 종래의 기술에서는 사용자의 동작을 센서를 통해 센싱하여 그에 대응하는 가상 아바타의 제어정보를 생성하고 이러한 제어정보에 따라 가상 아바타의 모션을 제어하도록 하므로 사용자의 동작을 센싱하기 위한 센서를 다수 개가 필요하다는 단점이 있으며, 이러한 센서정보를 일일이 분석하고 처리해야 하는 문제점이 있었다.However, in this conventional technique, the user's operation is sensed through the sensor, and control information of the corresponding virtual avatar is generated, and the motion of the virtual avatar is controlled according to the control information, so that a plurality of sensors Therefore, there is a problem in that such sensor information needs to be analyzed and processed individually.

그리고 최근에는 소셜네트워크 등의 발달로 인하여, 종래기술에서는 제공되지 않는, 모바일 단말기 상에서 이미지로 구현되는 가상아바타와 이와 연동되어 현실로 구동되는 실감아바타를 모두 포함하는 콘텐츠를 생성하여 다양하게 활용하고자 하는 필요성이 대두되고 있다.
In recent years, due to the development of social networks and the like, a content including both a virtual avatar implemented as an image on a mobile terminal and a realistic avatar linked to the virtual avatar in combination with the real avatar is provided, There is a growing need.

한국공개특허 제2010-0121420호Korea Patent Publication No. 2010-0121420 한국공개특허 제2011-0071220호Korea Patent Publication No. 2011-0071220

본 발명은 상기와 같은 종래의 문제점을 해결하기 위하여 안출된 것으로, 본 발명은 모바일 단말기 상에서 이미지로 구현되는 가상아바타와 이와 연동되어 현실로 구동되는 실감아바타의 동작을 동기화시켜 이들 간의 통일된 구동을 구현하기 위한 가상아바타와 실감아바타의 동기화를 이용한 콘텐츠 생성 장치 및 방법을 제공하고자 하는 것이다.SUMMARY OF THE INVENTION The present invention has been made in order to solve the above-mentioned problems, and it is an object of the present invention to provide a virtual avatar realized by an image on a mobile terminal and a real- And an apparatus and method for generating a content using synchronization of a real avatar and a virtual avatar for implementing the present invention.

또한, 본 발명은 구현된 아바타의 활용성을 확대하기 위하여, 동기화된 가상아바타와 실감아바타를 포함하는 콘텐츠를 생성하고, 생성된 콘텐츠를 공유할 수 있도록 하는 가상아바타와 실감아바타의 동기화를 이용한 콘텐츠 생성 장치 및 방법을 제공하고자 하는 것이다.
Further, in order to expand the utility of the implemented avatar, the present invention can also be applied to a content creation system that creates content including a synchronized virtual avatar and a realistic avatar, and uses a virtual avatar and a real- And to provide a method and apparatus for generating the same.

상기한 바와 같은 목적을 달성하기 위한 본 발명의 특징에 따르면, 본 발명은 (A) 휴대용단말기가 서비스제공서버로부터 실행데이터를 제공받는 단계와; (B) 상기 휴대용단말기가 아바타유닛과의 통신을 활성화시키는 단계와; (C) 상기 휴대용단말기가 카메라부를 활성화시키고 모션스킨을 구동시켜 화면상에 가상아바타를 출력하는 단계와; (D) 상기 실행데이터에 포함된 모션데이터를 상기 아바타유닛으로 전송하여, 상기 아바타 유닛을 상기 모션데이터에 따라 구동시키는 단계; 그리고 (E)상기 모션데이터에 따라 상기 모션스킨 상의 가상아바타의 모션을 구동시키는 단계를 포함하여 수행된다.According to an aspect of the present invention, there is provided a mobile terminal comprising: (A) a mobile terminal receiving execution data from a service providing server; (B) activating communication with the avatar unit by the portable terminal; (C) activating the camera unit and driving the motion skin to output a virtual avatar on the screen; (D) transferring the motion data included in the execution data to the avatar unit, and driving the avatar unit according to the motion data; And (E) driving the motion of the virtual avatar on the motion skin according to the motion data.

그리고 상기 실행데이터에 포함된 음원데이터를 출력하는 단계를 더 포함하여 수행될 수도 있다.And outputting the sound source data included in the execution data.

한편, 본 발명은 (a) 아바타유닛이 제어신호에 따라 구동하는 단계와; (b) 상기 아바타유닛의 구동 내역을 상기 아바타유닛의 구동 부위에 설치된 센서로부터 검출하는 단계와; (c) 상기 검출결과에 따라 모션정보를 생성하는 단계와; (d) 상기 휴대용단말기가 상기 아바타유닛으로부터 상기 모션정보를 수신하는 단계와; (e) 상기 휴대용단말기가 카메라부를 활성화시키고 모션스킨을 구동시켜 화면상에 가상아바타를 출력하는 단계; 그리고 (f) 상기 모션정보에 따라 상기 모션스킨 상의 가상아바타를 구동시키는 단계를 포함하여 수행되는 가상아바타와 실감아바타의 동기화를 이용한 콘텐츠 생성 방법을 포함한다.(A) the avatar unit is driven according to a control signal; (b) detecting a driving history of the avatar unit from a sensor installed at a driving site of the avatar unit; (c) generating motion information according to the detection result; (d) the portable terminal receiving the motion information from the avatar unit; (e) activating the camera unit and driving a motion skin to output a virtual avatar on the screen; And (f) driving a virtual avatar on the motion skin in accordance with the motion information. The method includes generating a content using synchronization between a virtual avatar and a realistic avatar.

이때, 상기 휴대용단말기가 사용자에 의해 지정된 음원을 출력하는 단계를 더 포함하여 수행될 수도 있다.In this case, the portable terminal may output the sound source designated by the user.

그리고 본 발명은 (G) 사용자로부터 동기화 조절명령을 입력받는 단계와; (H) 상기 동기화 조절명령이 모션동기화인 경우, 상기 동기화 조절명령에 따라 상기 가상아바타의 모션 구동 싱크를 조절하는 단계; 그리고 (I) 상기 동기화 조절명령이 음원동기화인 경우, 상기 동기화 조절명령에 따라 상기 음원출력 싱크를 조절하는 단계를 더 포함하여 수행될 수도 있다.(G) receiving a synchronization adjustment command from a user; (H) adjusting the motion driving sink of the virtual avatar according to the synchronization adjustment command when the synchronization adjustment command is motion synchronization; And (I) adjusting the sound source output sink according to the synchronization adjustment command when the synchronization adjustment command is sound source synchronization.

또한, 본 발명은 (J) 사용자로부터 촬영명령을 입력받는 단계와; (K) 상기 모션스킨이 포함된 영상을 촬영하여 컨텐츠 데이터를 생성하는 단계; 그리고 (L) 상기 컨텐츠 데이터를 저장하는 단계를 더 포함하여 수행되고: 상기 컨텐츠 데이터는 정지영상데이터 또는 동영상데이터일 수도 있다.(J) receiving a photographing command from a user; (K) capturing an image including the motion skin to generate content data; And (L) storing the content data. The content data may be still image data or moving image data.

그리고 상기 아바타유닛은, 다수의 작동모듈로 구성된 모듈러 로봇이고, 상기 다수의 작동모듈은 고유 아이디(ID), 초기상태, 이동폭, 이동축의 정보를 포함할 수도 있다.The avatar unit is a modular robot composed of a plurality of operation modules, and the plurality of operation modules may include information of a unique ID, an initial state, a movement width, and a movement axis.

또한, 상기 모션정보는, 상기 아바타유닛의 각 작동모듈의 동작에 따른 각속도 및 가속도 정보를 더 포함할 수도 있다.The motion information may further include angular velocity and acceleration information according to an operation of each operation module of the avatar unit.

그리고 상기 아바타유닛은, 상기 각 작동모듈에 대하여 기설정된 모션마다 인덱스를 할당하고 상기 아바타유닛에서 상기 휴대용단말기로 상기 인덱스를 전송하고; 상기 휴대용단말기는, 상기 인덱스에 대응되는 모션정보를 추출하고, 상기 가상 아바타에 상기 추출된 모션을 적용하여 상기 가상 아바타의 모션이 동작되도록 제어할 수도 있다.
Wherein the avatar unit allocates an index for each predetermined motion to each operation module and transmits the index to the portable terminal in the avatar unit; The portable terminal may extract motion information corresponding to the index and control the motion of the virtual avatar to operate by applying the extracted motion to the virtual avatar.

살핀 바와 같은 본 발명에 의한 가상아바타와 실감아바타의 동기화를 이용한 콘텐츠 생성 시스템 및 방법에서는 다음과 같은 효과를 기대할 수 있다.The following effects can be expected in the contents creation system and method using the synchronization between the virtual avatar and the real feeler avatar according to the present invention.

즉, 본 발명에서는 모바일 단말기 상에서 이미지로 구현되는 가상아바타와 이와 연동되어 현실로 구동되는 실감아바타의 동작을 동기화시켜 이들 간의 통일된 구동을 구현할 수 있는 장점이 있다.That is, according to the present invention, there is an advantage that synchronized operation of a virtual avatar realized with an image on a mobile terminal and a realistic avatar driven by a real robot can be realized.

그리고 본 발명은 동기화된 가상아바타와 실감아바타를 포함하는 콘텐츠를 생성하고, 생성된 콘텐츠를 공유할 수 있도록 하여 동기화가 구현된 아바타의 활용성을 확대할 수 있는 장점이 있다.
In addition, the present invention has an advantage that the contents including the synchronized virtual avatar and the real feeling avatar can be generated, and the generated content can be shared, thereby widening the usability of the avatar realized synchronization.

도 1은 본 발명에 의한 가상아바타와 실감아바타의 동기화를 이용한 콘텐츠 생성 시스템의 구성을 도시한 구성도.
도 2는 본 발명의 구체적인 실시예를 구성하는 휴대용단말기 및 아바타유닛의 구성을 도시한 블록도.
도 3은 본 발명의 구체적인 실시예를 구성하는 아바타유닛의 작동모듈 구성을 도시한 블록도.
도 4는 본 발명의 구체적인 실시예에 의한 가상아바타와 실감아바타의 동기화를 이용한 콘텐츠 생성 방법을 도시한 흐름도.
도 5는 본 발명의 구체적인 실시예에 의한 모션데이터의 일 예를 도시한 예시도.
도 6은 본 발명의 구체적인 실시예에 의한 촬영모드 실행 예를 도시한 예시도.
도 7은 본 발명의 구체적인 실시예에 의한 동기화 조절 모드의 일 예를 도시한 예시도.
Brief Description of the Drawings Fig. 1 is a configuration diagram showing a configuration of a content creation system using synchronization between a virtual avatar and a real feeling avatar according to the present invention; Fig.
2 is a block diagram showing a configuration of a portable terminal and an avatar unit constituting a specific embodiment of the present invention;
3 is a block diagram showing an operation module configuration of an avatar unit constituting a specific embodiment of the present invention.
FIG. 4 is a flowchart illustrating a content generation method using synchronization between a virtual avatar and a real feeling avatar according to a specific embodiment of the present invention. FIG.
FIG. 5 is an exemplary diagram showing an example of motion data according to a specific embodiment of the present invention. FIG.
FIG. 6 is an exemplary view showing an example of execution of a photographing mode according to a specific embodiment of the present invention; FIG.
FIG. 7 is an exemplary diagram illustrating an example of a synchronization adjustment mode according to a specific embodiment of the present invention; FIG.

이하에서는 첨부된 도면을 참조하여 본 발명의 구체적인 실시예에 의한 가상아바타와 실감아바타의 동기화를 이용한 콘텐츠 생성 시스템 및 방법을 살펴보기로 한다.Hereinafter, a system and method for generating a content using synchronization between a virtual avatar and a real sense avatar according to a specific embodiment of the present invention will be described with reference to the accompanying drawings.

설명에 앞서 먼저, 본 발명의 효과, 특징 및 이를 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예에서 명확해진다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. BRIEF DESCRIPTION OF THE DRAWINGS The above and other objects, features and advantages of the present invention will be more apparent from the following detailed description taken in conjunction with the accompanying drawings, in which: FIG. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the concept of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims.

본 발명의 실시 예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이며, 후술되는 용어들은 본 발명의 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS In the following description of the present invention, detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. , Which may vary depending on the intention or custom of the user, the operator, and the like. Therefore, the definition should be based on the contents throughout this specification.

첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들(실행 엔진)에 의해 수행될 수도 있으며, 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다.Each block of the accompanying block diagrams and combinations of steps of the flowcharts may be performed by computer program instructions (execution engines), which may be stored in a general-purpose computer, special purpose computer, or other processor of a programmable data processing apparatus The instructions that are executed through the processor of the computer or other programmable data processing equipment will generate means for performing the functions described in each block or flowchart of the block diagram.

이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다.These computer program instructions may also be stored in a computer usable or computer readable memory capable of directing a computer or other programmable data processing apparatus to implement the functionality in a particular manner so that the computer usable or computer readable memory It is also possible for the instructions stored in the block diagram to produce an article of manufacture containing instruction means for performing the functions described in each block or flowchart of the flowchart.

그리고, 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성하여 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명되는 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.Computer program instructions may also be loaded onto a computer or other programmable data processing equipment so that a series of operating steps may be performed on a computer or other programmable data processing equipment to create a computer- It is also possible that the instructions that perform the data processing equipment are capable of providing the steps for executing the functions described in each block of the block diagram and at each step of the flowchart.

또한, 각 블록 또는 각 단계는 특정된 논리적 기능들을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있으며, 몇 가지 대체 실시 예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능하다.Also, each block or step may represent a portion of a module, segment, or code that includes one or more executable instructions for executing the specified logical functions, and in some alternative embodiments, It is also possible for functions to occur out of order.

즉, 도시된 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하며, 또한 그 블록들 또는 단계들이 필요에 따라 해당하는 기능의 역순으로 수행되는 것도 가능하다.That is, it is also possible that the two blocks or steps shown are actually concurrently performed, and that the blocks or steps are performed in the reverse order of the function as required.

먼저, 본 발명의 구체적인 실시예에 의한 가상아바타와 실감아바타의 동기화를 이용한 콘텐츠 생성 시스템을 설명하기로 한다.First, a content generation system using synchronization between a virtual avatar and a real feeling avatar according to a specific embodiment of the present invention will be described.

도 1은 본 발명에 의한 가상아바타와 실감아바타의 동기화를 이용한 콘텐츠 생성 시스템의 구성을 도시한 구성도이고, 도 2는 본 발명의 구체적인 실시예를 구성하는 휴대용단말기 및 아바타유닛의 구성을 도시한 블록도이며, 도 3은 본 발명의 구체적인 실시예를 구성하는 아바타유닛의 작동모듈 구성을 도시한 블록도이다.FIG. 1 is a configuration diagram showing a configuration of a content generation system using synchronization between a virtual avatar and a real feeling avatar according to the present invention, FIG. 2 shows a configuration of a portable terminal and an avatar unit constituting a specific embodiment of the present invention 3 is a block diagram showing an operation module configuration of an avatar unit constituting a specific embodiment of the present invention.

본 발명의 구체적인 실시예에 의한 가상아바타와 실감아바타의 동기화를 이용한 콘텐츠 생성 시스템은, 도 1에 도시된 바와 같이, 서비스제공서버(100), 휴대용단말기(200), 아바타유닛(300) 및 소셜네트워크서버(400)을 포함하여 구성된다.1, a content generation system using synchronization between a virtual avatar and a real feeler avatar according to a specific embodiment of the present invention includes a service providing server 100, a portable terminal 200, an avatar unit 300, And a network server 400.

상기 서비스제공서버(100)는 본 발명의 구동을 위한 응용프로그램(이하 '앱'이라 한다) 및 실행데이터를 저장하여, 이들을 필요에 따라 상기 휴대용단말기(200)에 제공한다.The service providing server 100 stores an application program (hereinafter referred to as 'app') and execution data for driving the present invention and provides them to the portable terminal 200 as needed.

그리고 상기 휴대용단말기(200)는 상기 서비스제공서버(100)로부터 상기 앱 및 실행데이터를 수신받고, 후술할 아바타 유닛(300)과 통신하여, 상기 아바타유닛(300)을 구동함과 동시에, 디스플레이 장치를 통해 가상 아바타를 동기화시켜 출력할 뿐만 아니라, 이들을 촬영할 수 있도록 하는 것으로 상기 휴대용단말기(200)의 구성과 기능은 이후 다시 상세히 설명하기로 한다.The portable terminal 200 receives the app and execution data from the service providing server 100 and communicates with an avatar unit 300 to be described later to drive the avatar unit 300, So that the virtual avatar can be synchronized with the virtual avatar. The configuration and function of the portable terminal 200 will be described in detail later.

이때, 상기 휴대용단말기(200)는 스마트 폰 또는 태블릿 PC 등일 수 있다.At this time, the portable terminal 200 may be a smart phone, a tablet PC, or the like.

한편, 상기 아바타유닛(300)은 휴대단말기(200)와 무선통신이 가능한 실감 아바타로서, 예컨대 다수의 작동모듈(actuator module)에 의해 전기적 및 기계적으로 연결되어 구성된 게임용 로봇 또는 교육용 로봇 등일 수 있다.Meanwhile, the avatar unit 300 may be a game robot or an educational robot configured to be electrically and mechanically connected by a plurality of actuator modules, for example, as realistic avatars capable of wireless communication with the portable terminal 200.

상기 아바타유닛(300)의 구체적인 구성 및 기능 역시 이후 다시 상세히 설명하기로 한다.The specific configuration and function of the avatar unit 300 will be described in detail later.

그리고 상기 소셜네트워크서버(400)는 상기 휴대용단말기(20))를 통해 생성된 콘텐츠를 공유하기 위한 통상의 SNS 서버를 의미한다.And the social network server 400 refers to a normal SNS server for sharing contents generated through the portable terminal 20).

이하에서는 도 2 및 도 3을 참조하여 상기 휴대용단말기와 아바타유닛의 구체적인 구성 및 기능을 설명하기로 한다.Hereinafter, specific configurations and functions of the portable terminal and the avatar unit will be described with reference to FIGS. 2 and 3. FIG.

도 2에 도시된 바와 같이, 상기 휴대용단말기는 통신부(210), 출력부(220), 입력부(230), 저장부(240), 카메라부(250) 및 이들 구성을 제어하고 앱을 실행시키는 제어부(260)를 포함하여 구성된다.2, the portable terminal includes a communication unit 210, an output unit 220, an input unit 230, a storage unit 240, a camera unit 250, and a control unit (260).

상기 통신부(210)는 상기 아바타유닛(300)과 통신을 위한 것으로, 고주파(RF), 와이파이(WiFi), 블루투스(Bluetooth), 근거리 통신(NFC), 적외선(IR) 등의 각종 통신방식 중 하나를 이용하여 상기 아바타유닛(300)과 통신한다.The communication unit 210 is for communicating with the avatar unit 300 and includes one of various communication methods such as a radio frequency (RF), a WiFi, a Bluetooth, a short distance communication (NFC), and an infrared To communicate with the avatar unit (300).

그리고 상기 출력부(220)는 이미지출력을 위한 디스플레이부(222) 및 음원 력을 위한 음원출력부(224)를 포함하여 구성된다.The output unit 220 includes a display unit 222 for image output and a sound source output unit 224 for sound source power.

상기 디스플레이부(222)는 터치크린(touch screen)이 적용될 수 있고, 가상아바타 및 사용자로부터 입력되는 각종 데이터 및 정보를 표시할 수도 있다.A touch screen may be applied to the display unit 222, and various data and information input from the virtual avatar and the user may be displayed.

상기 입력부(230)는 키 버튼 또는 스크린 터치 등을 통해 사용자로부터 각종 정보 및 데이터를 받는 것으로, 이는 아바타유닛(300)과의 통신을 위한 설정, 가상 및 실감 아바타 사이의 동기화 조절신호 입력 그리고 가상 아바타의 모션에 따른 배경음악 설정 등에 대한 명령을 입력받을 수 있다.The input unit 230 receives various information and data from a user through a key button or a screen touch. The input unit 230 is used for setting communication with the avatar unit 300, inputting synchronization adjustment signals between the virtual and real avatars, And a background music setting according to the motion of the user.

한편, 상기 저장부(240)는 본원 발명 실행을 위한 앱과 다양한 정보 및 실행데이터를 저장할 수 있다. Meanwhile, the storage unit 240 may store various types of information and execution data for executing the present invention.

그리고 상기 카메라부(250)는 휴대용디바이스에 구비되는 카메라 모듈로, 가상 아바타가 출력된 모션스킨과 피사체를 동시에 촬영할 수 있도록 구성된다.The camera unit 250 is a camera module included in a portable device, and is configured to simultaneously capture a motion skin and a subject output from a virtual avatar.

또한, 상기 제어부(260)는 휴대단말기(200)의 전반적인 동작을 제어한다. 특히, 상기 통신부(210), 출력부(220), 입력부(230), 저장부(240) 및 카메라부(250)의 동작을 제어함으로써 상기 휴대단말기(200)와 상기 아바타유닛(300)간의 통신을 통해 상기 아바타유닛(300)을 구동한다.In addition, the controller 260 controls the overall operation of the portable terminal 200. In particular, by controlling the operations of the communication unit 210, the output unit 220, the input unit 230, the storage unit 240, and the camera unit 250, communication between the portable terminal 200 and the avatar unit 300 The avatar unit 300 is operated.

그리고 상기 제어부(260)는 상기 실행데이터를 통해 상기 디스플레이부(222)를 통해 출력되는 가상아바타의 모션을 제어하도록 한다. 이때, 상기 가상아바타는 모션스킨을 통해 구동되고, 상기 카메라부(250)를 활성화하여 상기 모션스킨과 함께 상기 아바타유닛(300)을 대상으로 촬영하여 콘테츠를 생성한다.The control unit 260 controls the motion of the virtual avatar output through the display unit 222 through the execution data. At this time, the virtual avatar is driven through a motion skin, activates the camera unit 250, and photographs the avatar unit 300 together with the motion skin to generate contents.

이와 같이 구성된 휴대단말기(200)에서는 가상 아바타를 디스플레이부(222)에 출력하고, 통신부(210)를 통해 아바타유닛(300)을 구동시키며, 상기 가상아바타와 아바타유닛(300)의 모션에 대한 동기화를 조절하여 정확한 싱크를 조절할 수 있다.In the mobile terminal 200 thus configured, the virtual avatar is output to the display unit 222, the avatar unit 300 is driven through the communication unit 210, and the virtual avatar is synchronized with the motion of the avatar unit 300 To adjust the exact sync.

또한, 상기 휴대용단말기(200)는 가상아바타가 출력된 상태에서 카메라부(250)를 활성화하여, 상기 가상아바타와 아바타유닛(300)이 동시에 포함된 영상을 촬영하여 콘텐츠를 생성할 수 있고, 생성된 콘텐츠를 소셜네트워크 서버(400)를 통해 널리 공유할 수 있다.In addition, the portable terminal 200 can activate the camera unit 250 in a state in which the virtual avatar is output, and can capture an image including the virtual avatar and the avatar unit 300 at the same time, The contents can be widely shared through the social network server 400.

이를 위하여 상기 아바타 유닛(300)은 통신모듈(310), 데이터베이스(320), 제어모듈(340) 및 작동모듈(330)을 포함하여 구성된다.The avatar unit 300 includes a communication module 310, a database 320, a control module 340, and an operation module 330.

상기 통신모듈(310)은 휴대단말기(200)와 고주파(RF), 와이파이(WiFi), 블루투스(Bluetooth), 근거리 통신(NFC), 적외선(IR) 등과 같은 소정의 통신방식 중 어느 하나 이상을 통해 통신을 수행한다.The communication module 310 is connected to the portable terminal 200 through any one or more of a predetermined communication method such as RF, WiFi, Bluetooth, NFC, infrared And performs communication.

그리고 상기 데이터베이스(320)는 제어모듈(340)의 동작제어에 필요한 응용프로그램과, 상기 휴대용단말기(200)로부터 수신된 모션데이터를 저장할 수 있다.The database 320 may store an application program required for controlling the operation of the control module 340 and motion data received from the portable terminal 200.

또한, 상기 제어모듈(340)은 상기 휴대용단말기(200)로부터 수신된 모션데이터에 따라 작동모듈(330)을 제어한다.Also, the control module 340 controls the operation module 330 according to the motion data received from the portable terminal 200.

그리고 상기 작동모듈(330)은 상기 아바타유닛(300)의 구동을 제어하는 부분으로, 도 3에 도시된 바와 같이, 인터페이스(331), 컨트롤러(333), 메모리(335), 모터(337)를 포함하여 구성되고, 추가적으로 본 발명의 다른 실시예의 경우, 가속도 센서(338) 및 각속도 센서(339)를 더 포함하여 구성될 수도 있다.The operation module 330 controls the operation of the avatar unit 300 and includes an interface 331, a controller 333, a memory 335, and a motor 337 as shown in FIG. And may further include an acceleration sensor 338 and an angular velocity sensor 339 in the case of another embodiment of the present invention.

상기 인터페이스(331)는 제어모듈(340)과 물리적 또는 신호적으로 연결 접속하기 위한 것이다. 즉, 제어모듈(340)로부터 모션 실행을 위한 명령이 전달되면, 이를 컨트롤러(33)로 전달하는 역할을 한다.The interface 331 is for physical or signal connection connection with the control module 340. That is, when a command for executing a motion is received from the control module 340, the command is transmitted to the controller 33.

그리고 상기 컨트롤러(333)는 상기 모션실행을 위한 명령에 따라 모터(337)를 구동시켜 상기 아바타유닛(300)을 실제로 구동하는 부분이다.The controller 333 drives the motor 337 according to a command for executing the motion to actually operate the avatar unit 300.

또한, 상기 메모리(335)는 컨트롤러(333)의 동작제어에 필요한 각종 데이터를 저장하는 부분이다.The memory 335 stores various data necessary for controlling the operation of the controller 333.

한편, 상기 가속도 센서(338)와 각속도 센서(339)는 본 발명의 다른 실시예의 경우 선택적으로 구비되는 구성요소로, 각각 가속도 및 각속도를 산출하는 역할을 수행한다.Meanwhile, the acceleration sensor 338 and the angular velocity sensor 339 are optional components in the case of the other embodiments of the present invention, and perform the role of calculating the acceleration and the angular velocity, respectively.

이하에서는 본 발명에 의한 가상아바타와 실감아바타의 동기화를 이용한 콘텐츠 생성 방법을 첨부된 도면을 참고하여 상세하게 설명한다.Hereinafter, a content generation method using synchronization between a virtual avatar and a real sense avatar according to the present invention will be described in detail with reference to the accompanying drawings.

도 4는 본 발명의 구체적인 실시예에 의한 가상아바타와 실감아바타의 동기화를 이용한 콘텐츠 생성 방법을 도시한 흐름도이고, 도 5는 본 발명의 구체적인 실시예에 의한 모션데이터의 일 예를 도시한 예시도이며, 도 6은 본 발명의 구체적인 실시예에 의한 촬영모드 실행 예를 도시한 예시도이고, 도 7은 본 발명의 구체적인 실시예에 의한 동기화 조절 모드의 일 예를 도시한 예시도이다.FIG. 4 is a flowchart illustrating a content generation method using synchronization between a virtual avatar and a real feeler avatar according to a specific embodiment of the present invention. FIG. 5 is an exemplary diagram illustrating an example of motion data according to a specific embodiment of the present invention FIG. 6 is an exemplary view illustrating an example of a photographing mode execution according to a specific embodiment of the present invention, and FIG. 7 is an exemplary view illustrating an example of a synchronization control mode according to a specific embodiment of the present invention.

먼저, 도 4에 도시된 바와 같이, 본 발명에 의한 가상아바타와 실감아바타의 동기화를 이용한 콘텐츠 생성 방법은 휴대용단말기(200)가 서비스제공서버(100)로부터 실행데이터를 수신받아 저장하는 것으로부터 시작된다(S110, S120).As shown in FIG. 4, the content generation method using the synchronization between the virtual avatar and the real feeling avatar according to the present invention starts from receiving the execution data from the service providing server 100 by the portable terminal 200 (S110, S120).

이때, 상기 실행데이터는 모션데이터와 음원데이터를 포함하여 구성될 수 있는데, 상기 모션데이터는 가상아바타 및 아바타유닛(실감아바타)의 구동 모션정보를 나타내는 데이터이고, 상기 음원 데이터는 상기 아바타들의 구동시 상기 휴대용단말기를 통해 출력될 음원을 말한다.Here, the execution data may include motion data and sound source data, and the motion data is data representing driving motion information of a virtual avatar and an avatar unit (real sense avatar) Refers to a sound source to be output through the portable terminal.

그리고, 도 5에 예시된 바와 같은 상기 모션데이터는, 각 작동모듈(330)에 대한(관절 단위) 구동 내용이 포함된 데이터로, 해당 데이터에 의해 모션스킨 상에 구현되는 가상아바타 역시 모션을 변화시킨다.The motion data as illustrated in FIG. 5 is data including driving contents (joint units) for each operation module 330, and the virtual avatar implemented on the motion skin by the corresponding data also changes the motion .

또한, 상기 서비스제공서버(100)에서는 다양한 종류의 실행데이터들을 제공하는데, 바람직하게는 특정 곡에 대한 안무를 재현하는 모션 단위로 구분되어 제공될 수 있다.In addition, the service providing server 100 provides various types of execution data, and may be provided in units of motion, which reproduces choreography for a specific piece of music.

한편, 상기 실행데이터를 제공받은 휴대용단말기(200)는 사용자로부터의 앱실행명령입력을 대기하고, 사용자가 앱실행명령을 입력한 경우(S120), 아바타유닛(300)과의 통신을 활성화 시킨다(S140, S150).Meanwhile, the portable terminal 200 receiving the execution data waits for an input of an application execution command from the user and activates communication with the avatar unit 300 when the user inputs an application execution command (S120) S140, S150).

다음으로, 상기 휴대용단말기(200)는 카메라부(250)를 활성화시키고, 활영화면 상에 모션스킨을 구동시킨다(S160, S170).Next, the portable terminal 200 activates the camera unit 250 and drives the motion skin on the slide screen (S160, S170).

이때, 상기 모션 스킨이란, 휴대용단말기(200)의 촬영 화면상에 출력되는 스킨으로, 상기 모션스킨에는 2D 또는 3D로 구현된 가상 아바타 이미지가 포함된다.Here, the motion skin is a skin that is output on the photographing screen of the portable terminal 200, and the motion skin includes a virtual avatar image implemented in 2D or 3D.

도 6에는 모션스킨이 구동되어 휴대용단말기(200)의 화면상에 가상아바타(VA)와 아바타유닛(300)이 함께 표시된 예가 도시되어 있다.6 shows an example in which a virtual avatar VA and an avatar unit 300 are displayed together on the screen of the mobile terminal 200 when the motion skin is driven.

그리고 상기 사용자의 구동명령 입력되면(S210), 상기 휴대용단말기(200)는 실행데이터 중 모션데이터를 아바타유닛(300)으로 송신한다(S220).When the driving command of the user is input (S210), the portable terminal 200 transmits motion data of the execution data to the avatar unit 300 (S220).

다음으로, 상기 모션데이터에 의해 가상아바타(VA)의 모션을 변화시켜 출력한다(S230).Next, the motion of the virtual avatar VA is changed by the motion data and output (S230).

이와 동시에, 상기 모션데이터를 수신(S222)한 아바타유닛(300)은 수신된 모션데이터를 저장하고, 상기 모션데이터에 따라 작동모듈(330)을 구동하여 아바타유닛(300)을 구동한다(S224, S226).At the same time, the avatar unit 300 receiving the motion data (S222) stores the received motion data, drives the operation module 330 according to the motion data, and drives the avatar unit 300 (S224, S226).

이때, 상기 모션데이터의 저장은 작동모듈(330) 구동의 안정성을 확보하기 위한 것으로, 선택적으로 수행될 수 있다.At this time, the storage of the motion data is performed to secure the stability of driving the operation module 330 and can be selectively performed.

이에 따라, 상기 가상아바타(VA)의 모션과 아바타유닛(300)의 모션은 일치된 모션으로 동작한다.Accordingly, the motion of the virtual avatar VA and the motion of the avatar unit 300 operate in a coincidental motion.

또한, 상기 휴대용단말기(200)는 상기 가상아바타(VA)의 구동과 함께, 음원데이터를 출력한다(S240).In addition, the portable terminal 200 outputs sound source data along with the driving of the virtual avatar (VA) (S240).

한편, 상기 휴대용단말기(200)는 사용자로부터 동기화 조절신호가 입력되면(S250), 동기화 조절모드를 실행한다(S250).Meanwhile, when the user inputs a synchronization adjustment signal (S250), the portable terminal 200 executes the synchronization adjustment mode (S250).

상기 동기화 조절모드는, 가상아바타의 모션, 아바타유닛의 모션 및 음원출력 간의 싱크를 조절하는 것으로, 크게 음원동기화와 모션동기화가 있다.The synchronization control mode adjusts the synchronization between the virtual avatar's motion, the avatar's unit's motion, and the sound output, and includes sound source synchronization and motion synchronization.

이때, 상기 동기화 조절모드에서 도 7에 도시된 바와 같이, 모션동기화의 경우, 가상아바타의 모션출력 싱크를 증(+)감(-)하여, 아바타유닛의 모션과 싱크를 일치화시킬 수 있다.At this time, as shown in FIG. 7, in the synchronization adjustment mode, in the case of motion synchronization, the motion output sync of the virtual avatar can be increased (-) to synchronize the motion of the avatar unit with the sink.

또한, 음원동기화의 경우, 음원출력 싱크를 증(+)감(-)하여, 가상아바타의 모션과 싱크를 일치화시킬 수 있다.In addition, in the case of sound source synchronization, the sound output synchronization can be increased (-) to make the virtual avatar motion synchronized with the motion.

이에 따라, 가상아바타의 모션, 아바타유닛의 모션 및 음원출력의 싱크를 일치화시킬 수 있다. This makes it possible to match the motion of the virtual avatar, the motion of the avatar unit, and the sink output of the sound source.

한편, 상기 모션스킨 구동 이후에, 사용자로부터 촬영명령이 입력되면(S310), 상기 휴대용단말기(200)는 촬영모드를 실행하여 콘텐츠를 생성한다(S320).If the user inputs a photographing command (S310) after the motion skin driving, the portable terminal 200 executes a photographing mode to generate a content (S320).

그리고 생성된 콘텐츠를 저장한다(S330).Then, the generated content is stored (S330).

이때, 상기 촬영모드는 정지영상촬영모드와 동영상촬영모드를 포함하고, 상기 촬영모드에 따라 생성되는 콘텐츠 역시 정지영상(사진) 또는 동영상일 수 있다.In this case, the shooting mode includes a still image shooting mode and a moving image shooting mode, and the content generated according to the shooting mode may also be a still image (photograph) or a moving image.

그리고 도시하지는 않았으나, 상기 저장된 콘텐츠는 사용자 가입에 따라 연동된 다양한 소셜 네트워크 서버(400)로 전송되어 개시될 수 있다.Although not shown, the stored contents can be transmitted to various social network servers 400 linked with the user subscription and started.

이상에서는 가상아바타(VA)와 아바타유닛(300)의 구동에 있어, 휴대용단말기(200)가 모션데이터를 수신받고, 이를 아바타유닛(300)으로 전송하여 아바타유닛(300)을 구동하는 방식을 설명하였다.The above describes a method of driving the virtual avatar VA and the avatar unit 300 so that the portable terminal 200 receives the motion data and transmits it to the avatar unit 300 to drive the avatar unit 300 Respectively.

그러나, 본 발명의 다른 실시예에 의하면, 상기 아바타유닛이 모션데이터를 저장하여 상기 모션데이터에 의해 구동되고, 상기 아바타유닛의 구동을 상기 가속센서(338) 및 각속도센서(339)가 측정하여 측정된 값으로부터 모션정보를 생성하고, 상기 모션정보를 상기 휴대용단말기로 전송하여 이에 따라 가상 아바타의 모션을 구동시키도록 하는 실시예도 가능하다.However, according to another embodiment of the present invention, the avatar unit stores motion data and is driven by the motion data, and the driving of the avatar unit is measured by the acceleration sensor 338 and the angular velocity sensor 339 It is possible to generate the motion information from the generated value and transmit the motion information to the portable terminal so as to drive the motion of the virtual avatar accordingly.

구체적으로, 상기 아바타유닛은 미리 설정된 프로그램 또는 외부장치로부터의 제어신호에 따라 모션을 수행할 수 있으며, 이러한 아바타유닛의 모션정보는 무선통신을 통해 휴대용단말기로 전송된다. Specifically, the avatar unit can perform a motion according to a preset program or a control signal from an external device, and the motion information of the avatar unit is transmitted to the portable terminal through wireless communication.

그리고 상기 휴대용단말기에서는 이와 같이 아바타유닛으로부터 수신된 모션정보에 따라 화면에 디스플레이되는 가상 아바타의 모션을 구현한다. The portable terminal implements the motion of the virtual avatar displayed on the screen according to the motion information received from the avatar unit.

이때, 상기 가상아바타의 모션은 아바타유닛의 모션과 서로 매칭된다. 예컨대, 아바타유닛이 오른쪽 팔을 들어올리는 모션을 수행한 경우 휴대용단말기의 화면에는 가상 아바타가 이와 동일하게 오른쪽 팔을 들어올리는 모션을 수행하게 된다. At this time, the motion of the virtual avatar is matched with the motion of the avatar unit. For example, when the avatar unit performs the motion of raising the right arm, the virtual avatar performs a motion in which the right arm is lifted in the same manner on the screen of the portable terminal.

이를 위해 본 발명의 다른 실시예에 의한 아바타유닛의 작동모듈은 가속센서와 각속도센서를 포함하여 구성된다. 이때 상기 모션정보는 각각의 작동모듈에 할당된 고유의 아이디(ID)와 종류(type) 등을 식별할 수 있는 식별정보를 포함할 수 있다. To this end, the operation module of the avatar unit according to another embodiment of the present invention includes an acceleration sensor and an angular velocity sensor. At this time, the motion information may include identification information that can identify a unique ID and a type assigned to each operation module.

또한, 상기 모션정보는 해당 작동모듈의 초기상태(initial state), 최소위치(minimum position), 최대위치(maximum position), 이동폭(move width), 최대회전수(max. rpm) 그리고 축정보(axis) 등에 대한 다양한 모션 데이터들을 포함할 수 있으며, 이러한 모션 데이터는 각 작동모듈의 움직임에 따라 업데이트 될 수 있다.The motion information may include at least one of an initial state, a minimum position, a maximum position, a move width, a maximum rotation (rpm), and an axis information axis, and the like, and such motion data can be updated according to the motion of each operation module.

한편, 상기 모션정보 중 고유 아이디(ID)는 각 작동모듈의 고유식별정보이면서 해당 작동모듈의 모션정보를 대표하는 인덱스(index)가 될 수 있다. Meanwhile, the unique ID of the motion information may be the unique identification information of each operation module and may be an index representing the motion information of the operation module.

다시 말하면, 작동모듈에 대하여 적어도 하나 이상의 모션에 소정의 인덱스(index)를 할당하고 아바타유닛이 인덱스에 대응하는 모션을 수행하는 경우, 아바타유닛은 휴대용단말기로 모션정보를 전송하는 것이 아니라 인덱스만 전송하고, 휴대용단말기는 인덱스에 대응하는 모션정보를 추출하여 해당 모션을 가상 아바타가 수행할 수 있도록 할 수 있다. In other words, when a predetermined index is assigned to at least one motion for the operation module and the avatar unit performs motion corresponding to the index, the avatar unit does not transmit motion information to the portable terminal but transmits only the index The portable terminal can extract the motion information corresponding to the index and allow the virtual avatar to perform the motion.

본 발명의 권리는 위에서 설명된 실시예에 한정되지 않고 청구범위에 기재된 바에 의해 정의되며, 본 발명의 분야에서 통상의 지식을 가진 자가 청구범위에 기재된 권리범위 내에서 다양한 변형과 개작을 할 수 있다는 것은 자명하다.
It is to be understood that the invention is not limited to the disclosed embodiment, but is capable of many modifications and variations within the scope of the appended claims. It is self-evident.

본 발명은 가상 아바타(virtual avatar)와 모션을 동기화시키고, 이들의 구동을 동시에 하나의 콘텐츠로 생성하는 가상아바타와 실감아바타의 동기화를 이용한 콘텐츠 생성 장치 및 방법에 관한 것으로, 본 발명에 의하면, 동기화된 가상아바타와 실감아바타를 포함하는 콘텐츠를 생성하고, 생성된 콘텐츠를 공유할 수 있도록 하여 동기화가 구현된 아바타의 활용성을 확대할 수 있는 효과가 있다.
The present invention relates to an apparatus and a method for generating a content using a virtual avatar and a real avatar synchronizing a virtual avatar and a motion synchronized with each other and simultaneously generating a single content with the virtual avatar synchronized with the virtual avatar. It is possible to generate contents including the virtual avatar and the real feeling avatar, and to share the generated contents, thereby extending the usability of the avatar in which the synchronization is implemented.

100 : 서비스제공서버 200 : 휴대용단말기
210 : 통신부 220 : 출력부
222 : 디스플레이부 224 : 음원출력부
230 : 입력부 240 : 저장부
250 : 카메라부 260 : 제어부
300 : 아바타유닛 310 : 통신모듈
320 : 데이터베이스 330 : 작동모듈
331 : 인터페이스 333 : 컨트롤러
335 : 메모리 337 : 모터
338 : 가속센서 339 : 각속도센서
340 : 제어모듈 400 : 소셜네트워크서버
100: Service providing server 200: Portable terminal
210: communication unit 220: output unit
222: display unit 224: sound source output unit
230: input unit 240: storage unit
250: camera unit 260:
300: avatar unit 310: communication module
320: Database 330: Operation Module
331: Interface 333: Controller
335: memory 337: motor
338: Acceleration sensor 339: Angular velocity sensor
340: control module 400: a social network server

Claims (9)

삭제delete 삭제delete (A) 아바타유닛이 제어신호에 따라 구동하는 단계와;
(B) 상기 아바타유닛의 구동 내역을 상기 아바타유닛의 구동 부위에 설치된 센서로부터 검출하는 단계와;
(C) 상기 검출결과에 따라 모션정보를 생성하는 단계와;
(D) 휴대용단말기가 상기 아바타유닛으로부터 상기 모션정보를 수신하는 단계와;
(E) 상기 휴대용단말기가 카메라부를 활성화시키고 휴대용단말기의 화면상에 출력되는 스킨으로, 2D 또는 3D로 구현된 가상 아바타 이미지가 포함된 모션스킨을 구동시켜 화면상에 가상아바타를 출력하는 단계와;
(F) 상기 모션정보에 따라 상기 모션스킨 상의 가상아바타를 구동시키는 단계와;
(G) 사용자로부터 동기화 조절명령을 입력받는 단계와;
(H) 상기 동기화 조절명령이 모션동기화인 경우, 상기 동기화 조절명령에 따라 상기 가상아바타의 모션 구동 싱크를 조절하는 단계와;
(I) 상기 동기화 조절명령이 음원동기화인 경우, 상기 동기화 조절명령에 따라 음원출력의 싱크를 조절하는 단계와;
(J) 사용자로부터 촬영명령을 입력받는 단계와;
(K) 상기 모션스킨이 포함된 영상을 촬영하여 컨텐츠 데이터를 생성하는 단계; 그리고
(L) 상기 컨텐츠 데이터를 저장하는 단계를 포함하여 수행되고:
상기 컨텐츠 데이터는 정지영상데이터 또는 동영상데이터이고:
상기 아바타유닛은,
다수의 작동모듈로 구성된 모듈러 로봇이고,
상기 다수의 작동모듈은 고유 아이디(ID), 초기상태, 이동폭, 이동축의 정보를 포함하여 구성되고:
상기 모션정보는,
상기 아바타유닛의 각 작동모듈의 동작에 따른 각속도 및 가속도 정보를 포함하는 것을 특징으로 하는 가상아바타와 실감아바타의 동기화를 이용한 콘텐츠 생성 방법.
(A) the avatar unit is driven in accordance with a control signal;
(B) detecting a driving history of the avatar unit from a sensor installed at a driving site of the avatar unit;
(C) generating motion information according to the detection result;
(D) receiving, by the portable terminal, the motion information from the avatar unit;
(E) activating a camera unit and outputting a virtual avatar on a screen by driving a motion skin including a virtual avatar image implemented in 2D or 3D with a skin outputted on a screen of the portable terminal;
(F) driving a virtual avatar on the motion skin according to the motion information;
(G) receiving a synchronization adjustment command from a user;
(H) adjusting the motion drive sink of the virtual avatar according to the synchronization adjustment command when the synchronization adjustment command is motion synchronization;
(I) adjusting the synchronization of the sound source output according to the synchronization adjustment command when the synchronization adjustment command is sound source synchronization;
(J) receiving a photographing command from a user;
(K) capturing an image including the motion skin to generate content data; And
(L) storing the content data;
Wherein the content data is still image data or moving image data:
The avatar unit includes:
A modular robot composed of a plurality of operation modules,
The plurality of operating modules are configured to include information of a unique ID, an initial state, a moving width, and a moving axis,
The motion information includes:
And an angular velocity and acceleration information according to an operation of each operation module of the avatar unit.
제 3 항에 있어서,
상기 휴대용단말기가 사용자에 의해 지정된 음원을 출력하는 단계를 더 포함하여 수행됨을 특징으로 하는 가상아바타와 실감아바타의 동기화를 이용한 콘텐츠 생성 방법.
The method of claim 3,
And outputting a sound source designated by the user by the portable terminal. The method of claim 1, wherein the virtual avatar is a virtual avatar.
삭제delete 삭제delete 삭제delete 삭제delete 제 4 항에 있어서,
상기 아바타유닛은,
상기 각 작동모듈에 대하여 기설정된 모션마다 인덱스를 할당하고 상기 아바타유닛에서 상기 휴대용단말기로 상기 인덱스를 전송하고;
상기 휴대용단말기는,
상기 인덱스에 대응되는 모션정보를 추출하고, 상기 가상 아바타에 상기 추출된 모션을 적용하여 상기 가상 아바타의 모션이 동작되도록 제어함을 특징으로 하는 가상아바타와 실감아바타의 동기화를 이용한 콘텐츠 생성 방법.
5. The method of claim 4,
The avatar unit includes:
Assigning an index to each operation module for each predetermined motion and transmitting the index from the avatar unit to the portable terminal;
The portable terminal includes:
Extracting motion information corresponding to the index, and controlling the motion of the virtual avatar to operate by applying the extracted motion to the virtual avatar.
KR1020150037916A 2015-03-19 2015-03-19 Apparatus and method for contents creation using synchronization between virtual avatar and real avatar Expired - Fee Related KR101744674B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150037916A KR101744674B1 (en) 2015-03-19 2015-03-19 Apparatus and method for contents creation using synchronization between virtual avatar and real avatar

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150037916A KR101744674B1 (en) 2015-03-19 2015-03-19 Apparatus and method for contents creation using synchronization between virtual avatar and real avatar

Publications (2)

Publication Number Publication Date
KR20160113384A KR20160113384A (en) 2016-09-29
KR101744674B1 true KR101744674B1 (en) 2017-06-09

Family

ID=57073607

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150037916A Expired - Fee Related KR101744674B1 (en) 2015-03-19 2015-03-19 Apparatus and method for contents creation using synchronization between virtual avatar and real avatar

Country Status (1)

Country Link
KR (1) KR101744674B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110299062A (en) * 2018-03-21 2019-10-01 北京猎户星空科技有限公司 Mechanical arm teaching system, method, apparatus, medium, controller and mechanical arm
KR20240028188A (en) * 2022-08-24 2024-03-05 삼성전자주식회사 Robot and controlling method thereof

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101097761B1 (en) * 2011-02-15 2011-12-22 에스알시 주식회사 Toy robot controlled by toy robot control system and mobile communication terminal

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101671900B1 (en) 2009-05-08 2016-11-03 삼성전자주식회사 System and method for control of object in virtual world and computer-readable recording medium
KR20110071220A (en) 2009-12-21 2011-06-29 한국전자통신연구원 Remote control device and method of remote existence robot

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101097761B1 (en) * 2011-02-15 2011-12-22 에스알시 주식회사 Toy robot controlled by toy robot control system and mobile communication terminal

Also Published As

Publication number Publication date
KR20160113384A (en) 2016-09-29

Similar Documents

Publication Publication Date Title
US20220382051A1 (en) Virtual reality interaction method, device and system
US20200329214A1 (en) Method and system for providing mixed reality service
US10022626B2 (en) Information processing system, information processing apparatus, storage medium having stored therein information processing program, and information processing method, for performing augmented reality
CN106999772B (en) System, program, and method for operating screen by linking display with a plurality of controllers connected via network
AU2018442007B2 (en) System and method for controlling a massage apparatus
US20220233956A1 (en) Program, method, and information terminal device
US20120167014A1 (en) Visual surrogate for indirect experience and apparatus and method for providing the same
WO2018125742A2 (en) Dynamic depth-based content creation in virtual reality environments
US20130010071A1 (en) Methods and systems for mapping pointing device on depth map
CN106125903B (en) Multi-person interaction system and method
US10916061B2 (en) Systems and methods to synchronize real-world motion of physical objects with presentation of virtual content
US9733896B2 (en) System, apparatus, and method for displaying virtual objects based on data received from another apparatus
US20140243086A1 (en) Server, method for controlling a game in a server, mobile apparatus, method for controlling a mobile apparatus, display apparatus, and method for displaying a game image in a display apparatus
US11448884B2 (en) Image based finger tracking plus controller tracking
CN107185245B (en) A virtual and real synchronous display method and system based on SLAM technology
US20130057574A1 (en) Storage medium recorded with program, information processing apparatus, information processing system, and information processing method
US20170083082A1 (en) Image processing virtual reality controller system and method
EP3229482A1 (en) Master device, slave device, and control method therefor
KR20050082559A (en) Dance learning system, internet community service system and internet community service method using the same, dance learning method, and computer executable recording media on which programs implement said methods are recorded
KR101638550B1 (en) Virtual Reality System using of Mixed reality, and thereof implementation method
KR101744674B1 (en) Apparatus and method for contents creation using synchronization between virtual avatar and real avatar
JP7140465B2 (en) Game program, information processing device, information processing system, game processing method
CN109643182A (en) Information processing method and device, cloud processing equipment and computer program product
US20150084848A1 (en) Interaction between generic interaction devices and an interactive display
JP2010282497A (en) Different world state reflection device

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

St.27 status event code: A-0-1-A10-A12-nap-PA0109

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

D13-X000 Search requested

St.27 status event code: A-1-2-D10-D13-srh-X000

D14-X000 Search report completed

St.27 status event code: A-1-2-D10-D14-srh-X000

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

St.27 status event code: A-1-2-D10-D21-exm-PE0902

E13-X000 Pre-grant limitation requested

St.27 status event code: A-2-3-E10-E13-lim-X000

P11-X000 Amendment of application requested

St.27 status event code: A-2-2-P10-P11-nap-X000

P13-X000 Application amended

St.27 status event code: A-2-2-P10-P13-nap-X000

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

St.27 status event code: A-1-2-D10-D22-exm-PE0701

GRNT Written decision to grant
PR0701 Registration of establishment

St.27 status event code: A-2-4-F10-F11-exm-PR0701

PR1002 Payment of registration fee

St.27 status event code: A-2-2-U10-U11-oth-PR1002

Fee payment year number: 1

PG1601 Publication of registration

St.27 status event code: A-4-4-Q10-Q13-nap-PG1601

P22-X000 Classification modified

St.27 status event code: A-4-4-P10-P22-nap-X000

PC1903 Unpaid annual fee

St.27 status event code: A-4-4-U10-U13-oth-PC1903

Not in force date: 20200602

Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

PC1903 Unpaid annual fee

St.27 status event code: N-4-6-H10-H13-oth-PC1903

Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE

Not in force date: 20200602

R18-X000 Changes to party contact information recorded

St.27 status event code: A-5-5-R10-R18-oth-X000