KR101744674B1 - Apparatus and method for contents creation using synchronization between virtual avatar and real avatar - Google Patents
Apparatus and method for contents creation using synchronization between virtual avatar and real avatar Download PDFInfo
- Publication number
- KR101744674B1 KR101744674B1 KR1020150037916A KR20150037916A KR101744674B1 KR 101744674 B1 KR101744674 B1 KR 101744674B1 KR 1020150037916 A KR1020150037916 A KR 1020150037916A KR 20150037916 A KR20150037916 A KR 20150037916A KR 101744674 B1 KR101744674 B1 KR 101744674B1
- Authority
- KR
- South Korea
- Prior art keywords
- avatar
- motion
- unit
- virtual avatar
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1689—Teleoperation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/081—Touching devices, e.g. pressure-sensitive
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Information Transfer Between Computers (AREA)
Abstract
본 발명은 가상 아바타(virtual avatar)와 모션을 동기화시키고, 이들의 구동을 동시에 하나의 콘텐츠로 생성하는 가상아바타와 실감아바타의 동기화를 이용한 콘텐츠 생성 장치 및 방법에 관한 것으로, 본 발명은 (A) 휴대용단말기가 서비스제공서버로부터 실행데이터를 제공받는 단계와; (B) 상기 휴대용단말기가 아바타유닛과의 통신을 활성화시키는 단계와; (C) 상기 휴대용단말기가 카메라부를 활성화시키고 모션스킨을 구동시켜 화면상에 가상아바타를 출력하는 단계와; (D) 상기 실행데이터에 포함된 모션데이터를 상기 아바타유닛으로 전송하여, 상기 아바타 유닛을 상기 모션데이터에 따라 구동시키는 단계; 그리고 (E)상기 모션데이터에 따라 상기 모션스킨 상의 가상아바타의 모션을 구동시키는 단계를 포함하여 수행된다. 이와 같은 본 발명에 의하면, 동기화된 가상아바타와 실감아바타를 포함하는 콘텐츠를 생성하고, 생성된 콘텐츠를 공유할 수 있도록 하여 동기화가 구현된 아바타의 활용성을 확대할 수 있는 효과가 있다.The present invention relates to an apparatus and method for generating a content using a virtual avatar and a real avatar synchronizing a virtual avatar and a motion synchronized with each other, The portable terminal receiving execution data from a service providing server; (B) activating communication with the avatar unit by the portable terminal; (C) activating the camera unit and driving the motion skin to output a virtual avatar on the screen; (D) transferring the motion data included in the execution data to the avatar unit, and driving the avatar unit according to the motion data; And (E) driving the motion of the virtual avatar on the motion skin according to the motion data. According to the present invention, contents including synchronized virtual avatars and real-life avatars can be generated, and the generated contents can be shared, thereby widening the usability of the avatar in which synchronization is implemented.
Description
본 발명은 실제 아바타 로봇을 휴대단말의 화면에 2차원 또는 3차원 이미지로 디스플레이되는 가상 아바타(virtual avatar)와 모션을 동기화시키고, 이들의 구동을 동시에 하나의 콘텐츠로 생성하는 가상아바타와 실감아바타의 동기화를 이용한 콘텐츠 생성 장치 및 방법에 관한 것으로, 문화체육관광부의 2012년 문화기술 연구개발지원사업 중 '상호작용 실감 한류 스타 캐릭터 아바타 기술 개발'과제(수행기간 : 2012.05.01~2015.03.31)를 수행함에 있어 산출된 결과물에 대한 발명이다.
The present invention relates to a virtual avatar that synchronizes an actual avatar robot with a virtual avatar displayed in a two-dimensional or three-dimensional image on a screen of a mobile terminal and generates motions of the virtual avatar and the real avatar (2012.05.01 ~ 2015.03.31) of the Ministry of Culture, Sports and Tourism's support for cultural technology research and development in 2012, It is an invention of the result produced in performing.
일반적으로 아바타는 분신 또는 화신 등을 뜻하는 넓은 의미의 용어로서, 예컨대 가상(virtual) 아바타와, 실감(reality) 아바타 등으로 구분될 수 있다.Generally, an avatar is a broad term used to refer to a false or incarnation, and may be classified into, for example, a virtual avatar and a reality avatar.
가상 아바타는 사이버 공간에서 사람의 역할을 대신하는 애니메이션 캐릭터 등으로 사용될 수 있다. 예컨대 스마트폰이나 태블릿 PC와 같은 휴대단말의 화면에 다양한 모션으로 움직이는 2차원 또는 3차원 이미지로 디스플레이될 수 있다.The virtual avatar can be used as an animation character in place of a human role in cyberspace. For example, a two-dimensional or three-dimensional image moving in various motions on a screen of a portable terminal such as a smart phone or a tablet PC.
실감 아바타는 원격의 리모컨 제어신호 또는 로봇 제어용 어플리케이션 프로그램 등에 의해 이동, 동작 등의 다양한 모션으로 움직이는 로봇 등으로서, 다수의 액츄에이터 모듈(actuator module)로 구성된 모듈러 로봇(modular robot) 등이 사용될 수 있다.A realistic avatar may be a robot moving in various motions such as a movement or an operation by a remote control signal for remote control or an application program for robot control or the like and may be a modular robot composed of a plurality of actuator modules.
최근 이러한 가상 아바타와 실감 아바타를 연동함으로써 사용자에게 흥미를 제공하고 게임에 응용하여 게이머들에게 즐거움을 주도록 하는 기술이 제공되고 있다. 예컨대, 현실세계의 사용자의 모습이 가상세계에서 아바타의 특징에 반영할 수 있도록 제어하는 기술이 제시되고 있다. 또한, 원격 존재 로봇으로부터 전송되는 로봇 상태 정보를 수신하여 표시하고 사용자 입력에 따라 원격 존재 로봇을 제어하도록 하는 장치가 제공되고 있다.In recent years, there has been provided a technique for providing an interest to a user by interacting with a virtual avatar and a realistic avatar, and allowing the gamer to enjoy the game by applying it to the game. For example, a technology for controlling the appearance of a user in the real world so as to reflect the feature of the avatar in the virtual world has been proposed. There is also provided an apparatus for receiving and displaying robot status information transmitted from a remote presence robot and controlling the remote presence robot according to user input.
하지만, 이러한 종래의 기술에서는 사용자의 동작을 센서를 통해 센싱하여 그에 대응하는 가상 아바타의 제어정보를 생성하고 이러한 제어정보에 따라 가상 아바타의 모션을 제어하도록 하므로 사용자의 동작을 센싱하기 위한 센서를 다수 개가 필요하다는 단점이 있으며, 이러한 센서정보를 일일이 분석하고 처리해야 하는 문제점이 있었다.However, in this conventional technique, the user's operation is sensed through the sensor, and control information of the corresponding virtual avatar is generated, and the motion of the virtual avatar is controlled according to the control information, so that a plurality of sensors Therefore, there is a problem in that such sensor information needs to be analyzed and processed individually.
그리고 최근에는 소셜네트워크 등의 발달로 인하여, 종래기술에서는 제공되지 않는, 모바일 단말기 상에서 이미지로 구현되는 가상아바타와 이와 연동되어 현실로 구동되는 실감아바타를 모두 포함하는 콘텐츠를 생성하여 다양하게 활용하고자 하는 필요성이 대두되고 있다.
In recent years, due to the development of social networks and the like, a content including both a virtual avatar implemented as an image on a mobile terminal and a realistic avatar linked to the virtual avatar in combination with the real avatar is provided, There is a growing need.
본 발명은 상기와 같은 종래의 문제점을 해결하기 위하여 안출된 것으로, 본 발명은 모바일 단말기 상에서 이미지로 구현되는 가상아바타와 이와 연동되어 현실로 구동되는 실감아바타의 동작을 동기화시켜 이들 간의 통일된 구동을 구현하기 위한 가상아바타와 실감아바타의 동기화를 이용한 콘텐츠 생성 장치 및 방법을 제공하고자 하는 것이다.SUMMARY OF THE INVENTION The present invention has been made in order to solve the above-mentioned problems, and it is an object of the present invention to provide a virtual avatar realized by an image on a mobile terminal and a real- And an apparatus and method for generating a content using synchronization of a real avatar and a virtual avatar for implementing the present invention.
또한, 본 발명은 구현된 아바타의 활용성을 확대하기 위하여, 동기화된 가상아바타와 실감아바타를 포함하는 콘텐츠를 생성하고, 생성된 콘텐츠를 공유할 수 있도록 하는 가상아바타와 실감아바타의 동기화를 이용한 콘텐츠 생성 장치 및 방법을 제공하고자 하는 것이다.
Further, in order to expand the utility of the implemented avatar, the present invention can also be applied to a content creation system that creates content including a synchronized virtual avatar and a realistic avatar, and uses a virtual avatar and a real- And to provide a method and apparatus for generating the same.
상기한 바와 같은 목적을 달성하기 위한 본 발명의 특징에 따르면, 본 발명은 (A) 휴대용단말기가 서비스제공서버로부터 실행데이터를 제공받는 단계와; (B) 상기 휴대용단말기가 아바타유닛과의 통신을 활성화시키는 단계와; (C) 상기 휴대용단말기가 카메라부를 활성화시키고 모션스킨을 구동시켜 화면상에 가상아바타를 출력하는 단계와; (D) 상기 실행데이터에 포함된 모션데이터를 상기 아바타유닛으로 전송하여, 상기 아바타 유닛을 상기 모션데이터에 따라 구동시키는 단계; 그리고 (E)상기 모션데이터에 따라 상기 모션스킨 상의 가상아바타의 모션을 구동시키는 단계를 포함하여 수행된다.According to an aspect of the present invention, there is provided a mobile terminal comprising: (A) a mobile terminal receiving execution data from a service providing server; (B) activating communication with the avatar unit by the portable terminal; (C) activating the camera unit and driving the motion skin to output a virtual avatar on the screen; (D) transferring the motion data included in the execution data to the avatar unit, and driving the avatar unit according to the motion data; And (E) driving the motion of the virtual avatar on the motion skin according to the motion data.
그리고 상기 실행데이터에 포함된 음원데이터를 출력하는 단계를 더 포함하여 수행될 수도 있다.And outputting the sound source data included in the execution data.
한편, 본 발명은 (a) 아바타유닛이 제어신호에 따라 구동하는 단계와; (b) 상기 아바타유닛의 구동 내역을 상기 아바타유닛의 구동 부위에 설치된 센서로부터 검출하는 단계와; (c) 상기 검출결과에 따라 모션정보를 생성하는 단계와; (d) 상기 휴대용단말기가 상기 아바타유닛으로부터 상기 모션정보를 수신하는 단계와; (e) 상기 휴대용단말기가 카메라부를 활성화시키고 모션스킨을 구동시켜 화면상에 가상아바타를 출력하는 단계; 그리고 (f) 상기 모션정보에 따라 상기 모션스킨 상의 가상아바타를 구동시키는 단계를 포함하여 수행되는 가상아바타와 실감아바타의 동기화를 이용한 콘텐츠 생성 방법을 포함한다.(A) the avatar unit is driven according to a control signal; (b) detecting a driving history of the avatar unit from a sensor installed at a driving site of the avatar unit; (c) generating motion information according to the detection result; (d) the portable terminal receiving the motion information from the avatar unit; (e) activating the camera unit and driving a motion skin to output a virtual avatar on the screen; And (f) driving a virtual avatar on the motion skin in accordance with the motion information. The method includes generating a content using synchronization between a virtual avatar and a realistic avatar.
이때, 상기 휴대용단말기가 사용자에 의해 지정된 음원을 출력하는 단계를 더 포함하여 수행될 수도 있다.In this case, the portable terminal may output the sound source designated by the user.
그리고 본 발명은 (G) 사용자로부터 동기화 조절명령을 입력받는 단계와; (H) 상기 동기화 조절명령이 모션동기화인 경우, 상기 동기화 조절명령에 따라 상기 가상아바타의 모션 구동 싱크를 조절하는 단계; 그리고 (I) 상기 동기화 조절명령이 음원동기화인 경우, 상기 동기화 조절명령에 따라 상기 음원출력 싱크를 조절하는 단계를 더 포함하여 수행될 수도 있다.(G) receiving a synchronization adjustment command from a user; (H) adjusting the motion driving sink of the virtual avatar according to the synchronization adjustment command when the synchronization adjustment command is motion synchronization; And (I) adjusting the sound source output sink according to the synchronization adjustment command when the synchronization adjustment command is sound source synchronization.
또한, 본 발명은 (J) 사용자로부터 촬영명령을 입력받는 단계와; (K) 상기 모션스킨이 포함된 영상을 촬영하여 컨텐츠 데이터를 생성하는 단계; 그리고 (L) 상기 컨텐츠 데이터를 저장하는 단계를 더 포함하여 수행되고: 상기 컨텐츠 데이터는 정지영상데이터 또는 동영상데이터일 수도 있다.(J) receiving a photographing command from a user; (K) capturing an image including the motion skin to generate content data; And (L) storing the content data. The content data may be still image data or moving image data.
그리고 상기 아바타유닛은, 다수의 작동모듈로 구성된 모듈러 로봇이고, 상기 다수의 작동모듈은 고유 아이디(ID), 초기상태, 이동폭, 이동축의 정보를 포함할 수도 있다.The avatar unit is a modular robot composed of a plurality of operation modules, and the plurality of operation modules may include information of a unique ID, an initial state, a movement width, and a movement axis.
또한, 상기 모션정보는, 상기 아바타유닛의 각 작동모듈의 동작에 따른 각속도 및 가속도 정보를 더 포함할 수도 있다.The motion information may further include angular velocity and acceleration information according to an operation of each operation module of the avatar unit.
그리고 상기 아바타유닛은, 상기 각 작동모듈에 대하여 기설정된 모션마다 인덱스를 할당하고 상기 아바타유닛에서 상기 휴대용단말기로 상기 인덱스를 전송하고; 상기 휴대용단말기는, 상기 인덱스에 대응되는 모션정보를 추출하고, 상기 가상 아바타에 상기 추출된 모션을 적용하여 상기 가상 아바타의 모션이 동작되도록 제어할 수도 있다.
Wherein the avatar unit allocates an index for each predetermined motion to each operation module and transmits the index to the portable terminal in the avatar unit; The portable terminal may extract motion information corresponding to the index and control the motion of the virtual avatar to operate by applying the extracted motion to the virtual avatar.
살핀 바와 같은 본 발명에 의한 가상아바타와 실감아바타의 동기화를 이용한 콘텐츠 생성 시스템 및 방법에서는 다음과 같은 효과를 기대할 수 있다.The following effects can be expected in the contents creation system and method using the synchronization between the virtual avatar and the real feeler avatar according to the present invention.
즉, 본 발명에서는 모바일 단말기 상에서 이미지로 구현되는 가상아바타와 이와 연동되어 현실로 구동되는 실감아바타의 동작을 동기화시켜 이들 간의 통일된 구동을 구현할 수 있는 장점이 있다.That is, according to the present invention, there is an advantage that synchronized operation of a virtual avatar realized with an image on a mobile terminal and a realistic avatar driven by a real robot can be realized.
그리고 본 발명은 동기화된 가상아바타와 실감아바타를 포함하는 콘텐츠를 생성하고, 생성된 콘텐츠를 공유할 수 있도록 하여 동기화가 구현된 아바타의 활용성을 확대할 수 있는 장점이 있다.
In addition, the present invention has an advantage that the contents including the synchronized virtual avatar and the real feeling avatar can be generated, and the generated content can be shared, thereby widening the usability of the avatar realized synchronization.
도 1은 본 발명에 의한 가상아바타와 실감아바타의 동기화를 이용한 콘텐츠 생성 시스템의 구성을 도시한 구성도.
도 2는 본 발명의 구체적인 실시예를 구성하는 휴대용단말기 및 아바타유닛의 구성을 도시한 블록도.
도 3은 본 발명의 구체적인 실시예를 구성하는 아바타유닛의 작동모듈 구성을 도시한 블록도.
도 4는 본 발명의 구체적인 실시예에 의한 가상아바타와 실감아바타의 동기화를 이용한 콘텐츠 생성 방법을 도시한 흐름도.
도 5는 본 발명의 구체적인 실시예에 의한 모션데이터의 일 예를 도시한 예시도.
도 6은 본 발명의 구체적인 실시예에 의한 촬영모드 실행 예를 도시한 예시도.
도 7은 본 발명의 구체적인 실시예에 의한 동기화 조절 모드의 일 예를 도시한 예시도.Brief Description of the Drawings Fig. 1 is a configuration diagram showing a configuration of a content creation system using synchronization between a virtual avatar and a real feeling avatar according to the present invention; Fig.
2 is a block diagram showing a configuration of a portable terminal and an avatar unit constituting a specific embodiment of the present invention;
3 is a block diagram showing an operation module configuration of an avatar unit constituting a specific embodiment of the present invention.
FIG. 4 is a flowchart illustrating a content generation method using synchronization between a virtual avatar and a real feeling avatar according to a specific embodiment of the present invention. FIG.
FIG. 5 is an exemplary diagram showing an example of motion data according to a specific embodiment of the present invention. FIG.
FIG. 6 is an exemplary view showing an example of execution of a photographing mode according to a specific embodiment of the present invention; FIG.
FIG. 7 is an exemplary diagram illustrating an example of a synchronization adjustment mode according to a specific embodiment of the present invention; FIG.
이하에서는 첨부된 도면을 참조하여 본 발명의 구체적인 실시예에 의한 가상아바타와 실감아바타의 동기화를 이용한 콘텐츠 생성 시스템 및 방법을 살펴보기로 한다.Hereinafter, a system and method for generating a content using synchronization between a virtual avatar and a real sense avatar according to a specific embodiment of the present invention will be described with reference to the accompanying drawings.
설명에 앞서 먼저, 본 발명의 효과, 특징 및 이를 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예에서 명확해진다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. BRIEF DESCRIPTION OF THE DRAWINGS The above and other objects, features and advantages of the present invention will be more apparent from the following detailed description taken in conjunction with the accompanying drawings, in which: FIG. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the concept of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims.
본 발명의 실시 예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이며, 후술되는 용어들은 본 발명의 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS In the following description of the present invention, detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. , Which may vary depending on the intention or custom of the user, the operator, and the like. Therefore, the definition should be based on the contents throughout this specification.
첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들(실행 엔진)에 의해 수행될 수도 있으며, 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다.Each block of the accompanying block diagrams and combinations of steps of the flowcharts may be performed by computer program instructions (execution engines), which may be stored in a general-purpose computer, special purpose computer, or other processor of a programmable data processing apparatus The instructions that are executed through the processor of the computer or other programmable data processing equipment will generate means for performing the functions described in each block or flowchart of the block diagram.
이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다.These computer program instructions may also be stored in a computer usable or computer readable memory capable of directing a computer or other programmable data processing apparatus to implement the functionality in a particular manner so that the computer usable or computer readable memory It is also possible for the instructions stored in the block diagram to produce an article of manufacture containing instruction means for performing the functions described in each block or flowchart of the flowchart.
그리고, 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성하여 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명되는 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.Computer program instructions may also be loaded onto a computer or other programmable data processing equipment so that a series of operating steps may be performed on a computer or other programmable data processing equipment to create a computer- It is also possible that the instructions that perform the data processing equipment are capable of providing the steps for executing the functions described in each block of the block diagram and at each step of the flowchart.
또한, 각 블록 또는 각 단계는 특정된 논리적 기능들을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있으며, 몇 가지 대체 실시 예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능하다.Also, each block or step may represent a portion of a module, segment, or code that includes one or more executable instructions for executing the specified logical functions, and in some alternative embodiments, It is also possible for functions to occur out of order.
즉, 도시된 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하며, 또한 그 블록들 또는 단계들이 필요에 따라 해당하는 기능의 역순으로 수행되는 것도 가능하다.That is, it is also possible that the two blocks or steps shown are actually concurrently performed, and that the blocks or steps are performed in the reverse order of the function as required.
먼저, 본 발명의 구체적인 실시예에 의한 가상아바타와 실감아바타의 동기화를 이용한 콘텐츠 생성 시스템을 설명하기로 한다.First, a content generation system using synchronization between a virtual avatar and a real feeling avatar according to a specific embodiment of the present invention will be described.
도 1은 본 발명에 의한 가상아바타와 실감아바타의 동기화를 이용한 콘텐츠 생성 시스템의 구성을 도시한 구성도이고, 도 2는 본 발명의 구체적인 실시예를 구성하는 휴대용단말기 및 아바타유닛의 구성을 도시한 블록도이며, 도 3은 본 발명의 구체적인 실시예를 구성하는 아바타유닛의 작동모듈 구성을 도시한 블록도이다.FIG. 1 is a configuration diagram showing a configuration of a content generation system using synchronization between a virtual avatar and a real feeling avatar according to the present invention, FIG. 2 shows a configuration of a portable terminal and an avatar unit constituting a specific embodiment of the
본 발명의 구체적인 실시예에 의한 가상아바타와 실감아바타의 동기화를 이용한 콘텐츠 생성 시스템은, 도 1에 도시된 바와 같이, 서비스제공서버(100), 휴대용단말기(200), 아바타유닛(300) 및 소셜네트워크서버(400)을 포함하여 구성된다.1, a content generation system using synchronization between a virtual avatar and a real feeler avatar according to a specific embodiment of the present invention includes a
상기 서비스제공서버(100)는 본 발명의 구동을 위한 응용프로그램(이하 '앱'이라 한다) 및 실행데이터를 저장하여, 이들을 필요에 따라 상기 휴대용단말기(200)에 제공한다.The
그리고 상기 휴대용단말기(200)는 상기 서비스제공서버(100)로부터 상기 앱 및 실행데이터를 수신받고, 후술할 아바타 유닛(300)과 통신하여, 상기 아바타유닛(300)을 구동함과 동시에, 디스플레이 장치를 통해 가상 아바타를 동기화시켜 출력할 뿐만 아니라, 이들을 촬영할 수 있도록 하는 것으로 상기 휴대용단말기(200)의 구성과 기능은 이후 다시 상세히 설명하기로 한다.The
이때, 상기 휴대용단말기(200)는 스마트 폰 또는 태블릿 PC 등일 수 있다.At this time, the
한편, 상기 아바타유닛(300)은 휴대단말기(200)와 무선통신이 가능한 실감 아바타로서, 예컨대 다수의 작동모듈(actuator module)에 의해 전기적 및 기계적으로 연결되어 구성된 게임용 로봇 또는 교육용 로봇 등일 수 있다.Meanwhile, the
상기 아바타유닛(300)의 구체적인 구성 및 기능 역시 이후 다시 상세히 설명하기로 한다.The specific configuration and function of the
그리고 상기 소셜네트워크서버(400)는 상기 휴대용단말기(20))를 통해 생성된 콘텐츠를 공유하기 위한 통상의 SNS 서버를 의미한다.And the
이하에서는 도 2 및 도 3을 참조하여 상기 휴대용단말기와 아바타유닛의 구체적인 구성 및 기능을 설명하기로 한다.Hereinafter, specific configurations and functions of the portable terminal and the avatar unit will be described with reference to FIGS. 2 and 3. FIG.
도 2에 도시된 바와 같이, 상기 휴대용단말기는 통신부(210), 출력부(220), 입력부(230), 저장부(240), 카메라부(250) 및 이들 구성을 제어하고 앱을 실행시키는 제어부(260)를 포함하여 구성된다.2, the portable terminal includes a
상기 통신부(210)는 상기 아바타유닛(300)과 통신을 위한 것으로, 고주파(RF), 와이파이(WiFi), 블루투스(Bluetooth), 근거리 통신(NFC), 적외선(IR) 등의 각종 통신방식 중 하나를 이용하여 상기 아바타유닛(300)과 통신한다.The
그리고 상기 출력부(220)는 이미지출력을 위한 디스플레이부(222) 및 음원 력을 위한 음원출력부(224)를 포함하여 구성된다.The
상기 디스플레이부(222)는 터치크린(touch screen)이 적용될 수 있고, 가상아바타 및 사용자로부터 입력되는 각종 데이터 및 정보를 표시할 수도 있다.A touch screen may be applied to the
상기 입력부(230)는 키 버튼 또는 스크린 터치 등을 통해 사용자로부터 각종 정보 및 데이터를 받는 것으로, 이는 아바타유닛(300)과의 통신을 위한 설정, 가상 및 실감 아바타 사이의 동기화 조절신호 입력 그리고 가상 아바타의 모션에 따른 배경음악 설정 등에 대한 명령을 입력받을 수 있다.The
한편, 상기 저장부(240)는 본원 발명 실행을 위한 앱과 다양한 정보 및 실행데이터를 저장할 수 있다. Meanwhile, the
그리고 상기 카메라부(250)는 휴대용디바이스에 구비되는 카메라 모듈로, 가상 아바타가 출력된 모션스킨과 피사체를 동시에 촬영할 수 있도록 구성된다.The
또한, 상기 제어부(260)는 휴대단말기(200)의 전반적인 동작을 제어한다. 특히, 상기 통신부(210), 출력부(220), 입력부(230), 저장부(240) 및 카메라부(250)의 동작을 제어함으로써 상기 휴대단말기(200)와 상기 아바타유닛(300)간의 통신을 통해 상기 아바타유닛(300)을 구동한다.In addition, the
그리고 상기 제어부(260)는 상기 실행데이터를 통해 상기 디스플레이부(222)를 통해 출력되는 가상아바타의 모션을 제어하도록 한다. 이때, 상기 가상아바타는 모션스킨을 통해 구동되고, 상기 카메라부(250)를 활성화하여 상기 모션스킨과 함께 상기 아바타유닛(300)을 대상으로 촬영하여 콘테츠를 생성한다.The
이와 같이 구성된 휴대단말기(200)에서는 가상 아바타를 디스플레이부(222)에 출력하고, 통신부(210)를 통해 아바타유닛(300)을 구동시키며, 상기 가상아바타와 아바타유닛(300)의 모션에 대한 동기화를 조절하여 정확한 싱크를 조절할 수 있다.In the
또한, 상기 휴대용단말기(200)는 가상아바타가 출력된 상태에서 카메라부(250)를 활성화하여, 상기 가상아바타와 아바타유닛(300)이 동시에 포함된 영상을 촬영하여 콘텐츠를 생성할 수 있고, 생성된 콘텐츠를 소셜네트워크 서버(400)를 통해 널리 공유할 수 있다.In addition, the
이를 위하여 상기 아바타 유닛(300)은 통신모듈(310), 데이터베이스(320), 제어모듈(340) 및 작동모듈(330)을 포함하여 구성된다.The
상기 통신모듈(310)은 휴대단말기(200)와 고주파(RF), 와이파이(WiFi), 블루투스(Bluetooth), 근거리 통신(NFC), 적외선(IR) 등과 같은 소정의 통신방식 중 어느 하나 이상을 통해 통신을 수행한다.The communication module 310 is connected to the
그리고 상기 데이터베이스(320)는 제어모듈(340)의 동작제어에 필요한 응용프로그램과, 상기 휴대용단말기(200)로부터 수신된 모션데이터를 저장할 수 있다.The
또한, 상기 제어모듈(340)은 상기 휴대용단말기(200)로부터 수신된 모션데이터에 따라 작동모듈(330)을 제어한다.Also, the
그리고 상기 작동모듈(330)은 상기 아바타유닛(300)의 구동을 제어하는 부분으로, 도 3에 도시된 바와 같이, 인터페이스(331), 컨트롤러(333), 메모리(335), 모터(337)를 포함하여 구성되고, 추가적으로 본 발명의 다른 실시예의 경우, 가속도 센서(338) 및 각속도 센서(339)를 더 포함하여 구성될 수도 있다.The
상기 인터페이스(331)는 제어모듈(340)과 물리적 또는 신호적으로 연결 접속하기 위한 것이다. 즉, 제어모듈(340)로부터 모션 실행을 위한 명령이 전달되면, 이를 컨트롤러(33)로 전달하는 역할을 한다.The interface 331 is for physical or signal connection connection with the
그리고 상기 컨트롤러(333)는 상기 모션실행을 위한 명령에 따라 모터(337)를 구동시켜 상기 아바타유닛(300)을 실제로 구동하는 부분이다.The
또한, 상기 메모리(335)는 컨트롤러(333)의 동작제어에 필요한 각종 데이터를 저장하는 부분이다.The
한편, 상기 가속도 센서(338)와 각속도 센서(339)는 본 발명의 다른 실시예의 경우 선택적으로 구비되는 구성요소로, 각각 가속도 및 각속도를 산출하는 역할을 수행한다.Meanwhile, the
이하에서는 본 발명에 의한 가상아바타와 실감아바타의 동기화를 이용한 콘텐츠 생성 방법을 첨부된 도면을 참고하여 상세하게 설명한다.Hereinafter, a content generation method using synchronization between a virtual avatar and a real sense avatar according to the present invention will be described in detail with reference to the accompanying drawings.
도 4는 본 발명의 구체적인 실시예에 의한 가상아바타와 실감아바타의 동기화를 이용한 콘텐츠 생성 방법을 도시한 흐름도이고, 도 5는 본 발명의 구체적인 실시예에 의한 모션데이터의 일 예를 도시한 예시도이며, 도 6은 본 발명의 구체적인 실시예에 의한 촬영모드 실행 예를 도시한 예시도이고, 도 7은 본 발명의 구체적인 실시예에 의한 동기화 조절 모드의 일 예를 도시한 예시도이다.FIG. 4 is a flowchart illustrating a content generation method using synchronization between a virtual avatar and a real feeler avatar according to a specific embodiment of the present invention. FIG. 5 is an exemplary diagram illustrating an example of motion data according to a specific embodiment of the present invention FIG. 6 is an exemplary view illustrating an example of a photographing mode execution according to a specific embodiment of the present invention, and FIG. 7 is an exemplary view illustrating an example of a synchronization control mode according to a specific embodiment of the present invention.
먼저, 도 4에 도시된 바와 같이, 본 발명에 의한 가상아바타와 실감아바타의 동기화를 이용한 콘텐츠 생성 방법은 휴대용단말기(200)가 서비스제공서버(100)로부터 실행데이터를 수신받아 저장하는 것으로부터 시작된다(S110, S120).As shown in FIG. 4, the content generation method using the synchronization between the virtual avatar and the real feeling avatar according to the present invention starts from receiving the execution data from the
이때, 상기 실행데이터는 모션데이터와 음원데이터를 포함하여 구성될 수 있는데, 상기 모션데이터는 가상아바타 및 아바타유닛(실감아바타)의 구동 모션정보를 나타내는 데이터이고, 상기 음원 데이터는 상기 아바타들의 구동시 상기 휴대용단말기를 통해 출력될 음원을 말한다.Here, the execution data may include motion data and sound source data, and the motion data is data representing driving motion information of a virtual avatar and an avatar unit (real sense avatar) Refers to a sound source to be output through the portable terminal.
그리고, 도 5에 예시된 바와 같은 상기 모션데이터는, 각 작동모듈(330)에 대한(관절 단위) 구동 내용이 포함된 데이터로, 해당 데이터에 의해 모션스킨 상에 구현되는 가상아바타 역시 모션을 변화시킨다.The motion data as illustrated in FIG. 5 is data including driving contents (joint units) for each
또한, 상기 서비스제공서버(100)에서는 다양한 종류의 실행데이터들을 제공하는데, 바람직하게는 특정 곡에 대한 안무를 재현하는 모션 단위로 구분되어 제공될 수 있다.In addition, the
한편, 상기 실행데이터를 제공받은 휴대용단말기(200)는 사용자로부터의 앱실행명령입력을 대기하고, 사용자가 앱실행명령을 입력한 경우(S120), 아바타유닛(300)과의 통신을 활성화 시킨다(S140, S150).Meanwhile, the
다음으로, 상기 휴대용단말기(200)는 카메라부(250)를 활성화시키고, 활영화면 상에 모션스킨을 구동시킨다(S160, S170).Next, the
이때, 상기 모션 스킨이란, 휴대용단말기(200)의 촬영 화면상에 출력되는 스킨으로, 상기 모션스킨에는 2D 또는 3D로 구현된 가상 아바타 이미지가 포함된다.Here, the motion skin is a skin that is output on the photographing screen of the
도 6에는 모션스킨이 구동되어 휴대용단말기(200)의 화면상에 가상아바타(VA)와 아바타유닛(300)이 함께 표시된 예가 도시되어 있다.6 shows an example in which a virtual avatar VA and an
그리고 상기 사용자의 구동명령 입력되면(S210), 상기 휴대용단말기(200)는 실행데이터 중 모션데이터를 아바타유닛(300)으로 송신한다(S220).When the driving command of the user is input (S210), the
다음으로, 상기 모션데이터에 의해 가상아바타(VA)의 모션을 변화시켜 출력한다(S230).Next, the motion of the virtual avatar VA is changed by the motion data and output (S230).
이와 동시에, 상기 모션데이터를 수신(S222)한 아바타유닛(300)은 수신된 모션데이터를 저장하고, 상기 모션데이터에 따라 작동모듈(330)을 구동하여 아바타유닛(300)을 구동한다(S224, S226).At the same time, the
이때, 상기 모션데이터의 저장은 작동모듈(330) 구동의 안정성을 확보하기 위한 것으로, 선택적으로 수행될 수 있다.At this time, the storage of the motion data is performed to secure the stability of driving the
이에 따라, 상기 가상아바타(VA)의 모션과 아바타유닛(300)의 모션은 일치된 모션으로 동작한다.Accordingly, the motion of the virtual avatar VA and the motion of the
또한, 상기 휴대용단말기(200)는 상기 가상아바타(VA)의 구동과 함께, 음원데이터를 출력한다(S240).In addition, the
한편, 상기 휴대용단말기(200)는 사용자로부터 동기화 조절신호가 입력되면(S250), 동기화 조절모드를 실행한다(S250).Meanwhile, when the user inputs a synchronization adjustment signal (S250), the
상기 동기화 조절모드는, 가상아바타의 모션, 아바타유닛의 모션 및 음원출력 간의 싱크를 조절하는 것으로, 크게 음원동기화와 모션동기화가 있다.The synchronization control mode adjusts the synchronization between the virtual avatar's motion, the avatar's unit's motion, and the sound output, and includes sound source synchronization and motion synchronization.
이때, 상기 동기화 조절모드에서 도 7에 도시된 바와 같이, 모션동기화의 경우, 가상아바타의 모션출력 싱크를 증(+)감(-)하여, 아바타유닛의 모션과 싱크를 일치화시킬 수 있다.At this time, as shown in FIG. 7, in the synchronization adjustment mode, in the case of motion synchronization, the motion output sync of the virtual avatar can be increased (-) to synchronize the motion of the avatar unit with the sink.
또한, 음원동기화의 경우, 음원출력 싱크를 증(+)감(-)하여, 가상아바타의 모션과 싱크를 일치화시킬 수 있다.In addition, in the case of sound source synchronization, the sound output synchronization can be increased (-) to make the virtual avatar motion synchronized with the motion.
이에 따라, 가상아바타의 모션, 아바타유닛의 모션 및 음원출력의 싱크를 일치화시킬 수 있다. This makes it possible to match the motion of the virtual avatar, the motion of the avatar unit, and the sink output of the sound source.
한편, 상기 모션스킨 구동 이후에, 사용자로부터 촬영명령이 입력되면(S310), 상기 휴대용단말기(200)는 촬영모드를 실행하여 콘텐츠를 생성한다(S320).If the user inputs a photographing command (S310) after the motion skin driving, the
그리고 생성된 콘텐츠를 저장한다(S330).Then, the generated content is stored (S330).
이때, 상기 촬영모드는 정지영상촬영모드와 동영상촬영모드를 포함하고, 상기 촬영모드에 따라 생성되는 콘텐츠 역시 정지영상(사진) 또는 동영상일 수 있다.In this case, the shooting mode includes a still image shooting mode and a moving image shooting mode, and the content generated according to the shooting mode may also be a still image (photograph) or a moving image.
그리고 도시하지는 않았으나, 상기 저장된 콘텐츠는 사용자 가입에 따라 연동된 다양한 소셜 네트워크 서버(400)로 전송되어 개시될 수 있다.Although not shown, the stored contents can be transmitted to various
이상에서는 가상아바타(VA)와 아바타유닛(300)의 구동에 있어, 휴대용단말기(200)가 모션데이터를 수신받고, 이를 아바타유닛(300)으로 전송하여 아바타유닛(300)을 구동하는 방식을 설명하였다.The above describes a method of driving the virtual avatar VA and the
그러나, 본 발명의 다른 실시예에 의하면, 상기 아바타유닛이 모션데이터를 저장하여 상기 모션데이터에 의해 구동되고, 상기 아바타유닛의 구동을 상기 가속센서(338) 및 각속도센서(339)가 측정하여 측정된 값으로부터 모션정보를 생성하고, 상기 모션정보를 상기 휴대용단말기로 전송하여 이에 따라 가상 아바타의 모션을 구동시키도록 하는 실시예도 가능하다.However, according to another embodiment of the present invention, the avatar unit stores motion data and is driven by the motion data, and the driving of the avatar unit is measured by the
구체적으로, 상기 아바타유닛은 미리 설정된 프로그램 또는 외부장치로부터의 제어신호에 따라 모션을 수행할 수 있으며, 이러한 아바타유닛의 모션정보는 무선통신을 통해 휴대용단말기로 전송된다. Specifically, the avatar unit can perform a motion according to a preset program or a control signal from an external device, and the motion information of the avatar unit is transmitted to the portable terminal through wireless communication.
그리고 상기 휴대용단말기에서는 이와 같이 아바타유닛으로부터 수신된 모션정보에 따라 화면에 디스플레이되는 가상 아바타의 모션을 구현한다. The portable terminal implements the motion of the virtual avatar displayed on the screen according to the motion information received from the avatar unit.
이때, 상기 가상아바타의 모션은 아바타유닛의 모션과 서로 매칭된다. 예컨대, 아바타유닛이 오른쪽 팔을 들어올리는 모션을 수행한 경우 휴대용단말기의 화면에는 가상 아바타가 이와 동일하게 오른쪽 팔을 들어올리는 모션을 수행하게 된다. At this time, the motion of the virtual avatar is matched with the motion of the avatar unit. For example, when the avatar unit performs the motion of raising the right arm, the virtual avatar performs a motion in which the right arm is lifted in the same manner on the screen of the portable terminal.
이를 위해 본 발명의 다른 실시예에 의한 아바타유닛의 작동모듈은 가속센서와 각속도센서를 포함하여 구성된다. 이때 상기 모션정보는 각각의 작동모듈에 할당된 고유의 아이디(ID)와 종류(type) 등을 식별할 수 있는 식별정보를 포함할 수 있다. To this end, the operation module of the avatar unit according to another embodiment of the present invention includes an acceleration sensor and an angular velocity sensor. At this time, the motion information may include identification information that can identify a unique ID and a type assigned to each operation module.
또한, 상기 모션정보는 해당 작동모듈의 초기상태(initial state), 최소위치(minimum position), 최대위치(maximum position), 이동폭(move width), 최대회전수(max. rpm) 그리고 축정보(axis) 등에 대한 다양한 모션 데이터들을 포함할 수 있으며, 이러한 모션 데이터는 각 작동모듈의 움직임에 따라 업데이트 될 수 있다.The motion information may include at least one of an initial state, a minimum position, a maximum position, a move width, a maximum rotation (rpm), and an axis information axis, and the like, and such motion data can be updated according to the motion of each operation module.
한편, 상기 모션정보 중 고유 아이디(ID)는 각 작동모듈의 고유식별정보이면서 해당 작동모듈의 모션정보를 대표하는 인덱스(index)가 될 수 있다. Meanwhile, the unique ID of the motion information may be the unique identification information of each operation module and may be an index representing the motion information of the operation module.
다시 말하면, 작동모듈에 대하여 적어도 하나 이상의 모션에 소정의 인덱스(index)를 할당하고 아바타유닛이 인덱스에 대응하는 모션을 수행하는 경우, 아바타유닛은 휴대용단말기로 모션정보를 전송하는 것이 아니라 인덱스만 전송하고, 휴대용단말기는 인덱스에 대응하는 모션정보를 추출하여 해당 모션을 가상 아바타가 수행할 수 있도록 할 수 있다. In other words, when a predetermined index is assigned to at least one motion for the operation module and the avatar unit performs motion corresponding to the index, the avatar unit does not transmit motion information to the portable terminal but transmits only the index The portable terminal can extract the motion information corresponding to the index and allow the virtual avatar to perform the motion.
본 발명의 권리는 위에서 설명된 실시예에 한정되지 않고 청구범위에 기재된 바에 의해 정의되며, 본 발명의 분야에서 통상의 지식을 가진 자가 청구범위에 기재된 권리범위 내에서 다양한 변형과 개작을 할 수 있다는 것은 자명하다.
It is to be understood that the invention is not limited to the disclosed embodiment, but is capable of many modifications and variations within the scope of the appended claims. It is self-evident.
본 발명은 가상 아바타(virtual avatar)와 모션을 동기화시키고, 이들의 구동을 동시에 하나의 콘텐츠로 생성하는 가상아바타와 실감아바타의 동기화를 이용한 콘텐츠 생성 장치 및 방법에 관한 것으로, 본 발명에 의하면, 동기화된 가상아바타와 실감아바타를 포함하는 콘텐츠를 생성하고, 생성된 콘텐츠를 공유할 수 있도록 하여 동기화가 구현된 아바타의 활용성을 확대할 수 있는 효과가 있다.
The present invention relates to an apparatus and a method for generating a content using a virtual avatar and a real avatar synchronizing a virtual avatar and a motion synchronized with each other and simultaneously generating a single content with the virtual avatar synchronized with the virtual avatar. It is possible to generate contents including the virtual avatar and the real feeling avatar, and to share the generated contents, thereby extending the usability of the avatar in which the synchronization is implemented.
100 : 서비스제공서버 200 : 휴대용단말기
210 : 통신부 220 : 출력부
222 : 디스플레이부 224 : 음원출력부
230 : 입력부 240 : 저장부
250 : 카메라부 260 : 제어부
300 : 아바타유닛 310 : 통신모듈
320 : 데이터베이스 330 : 작동모듈
331 : 인터페이스 333 : 컨트롤러
335 : 메모리 337 : 모터
338 : 가속센서 339 : 각속도센서
340 : 제어모듈 400 : 소셜네트워크서버100: Service providing server 200: Portable terminal
210: communication unit 220: output unit
222: display unit 224: sound source output unit
230: input unit 240: storage unit
250: camera unit 260:
300: avatar unit 310: communication module
320: Database 330: Operation Module
331: Interface 333: Controller
335: memory 337: motor
338: Acceleration sensor 339: Angular velocity sensor
340: control module 400: a social network server
Claims (9)
(B) 상기 아바타유닛의 구동 내역을 상기 아바타유닛의 구동 부위에 설치된 센서로부터 검출하는 단계와;
(C) 상기 검출결과에 따라 모션정보를 생성하는 단계와;
(D) 휴대용단말기가 상기 아바타유닛으로부터 상기 모션정보를 수신하는 단계와;
(E) 상기 휴대용단말기가 카메라부를 활성화시키고 휴대용단말기의 화면상에 출력되는 스킨으로, 2D 또는 3D로 구현된 가상 아바타 이미지가 포함된 모션스킨을 구동시켜 화면상에 가상아바타를 출력하는 단계와;
(F) 상기 모션정보에 따라 상기 모션스킨 상의 가상아바타를 구동시키는 단계와;
(G) 사용자로부터 동기화 조절명령을 입력받는 단계와;
(H) 상기 동기화 조절명령이 모션동기화인 경우, 상기 동기화 조절명령에 따라 상기 가상아바타의 모션 구동 싱크를 조절하는 단계와;
(I) 상기 동기화 조절명령이 음원동기화인 경우, 상기 동기화 조절명령에 따라 음원출력의 싱크를 조절하는 단계와;
(J) 사용자로부터 촬영명령을 입력받는 단계와;
(K) 상기 모션스킨이 포함된 영상을 촬영하여 컨텐츠 데이터를 생성하는 단계; 그리고
(L) 상기 컨텐츠 데이터를 저장하는 단계를 포함하여 수행되고:
상기 컨텐츠 데이터는 정지영상데이터 또는 동영상데이터이고:
상기 아바타유닛은,
다수의 작동모듈로 구성된 모듈러 로봇이고,
상기 다수의 작동모듈은 고유 아이디(ID), 초기상태, 이동폭, 이동축의 정보를 포함하여 구성되고:
상기 모션정보는,
상기 아바타유닛의 각 작동모듈의 동작에 따른 각속도 및 가속도 정보를 포함하는 것을 특징으로 하는 가상아바타와 실감아바타의 동기화를 이용한 콘텐츠 생성 방법.
(A) the avatar unit is driven in accordance with a control signal;
(B) detecting a driving history of the avatar unit from a sensor installed at a driving site of the avatar unit;
(C) generating motion information according to the detection result;
(D) receiving, by the portable terminal, the motion information from the avatar unit;
(E) activating a camera unit and outputting a virtual avatar on a screen by driving a motion skin including a virtual avatar image implemented in 2D or 3D with a skin outputted on a screen of the portable terminal;
(F) driving a virtual avatar on the motion skin according to the motion information;
(G) receiving a synchronization adjustment command from a user;
(H) adjusting the motion drive sink of the virtual avatar according to the synchronization adjustment command when the synchronization adjustment command is motion synchronization;
(I) adjusting the synchronization of the sound source output according to the synchronization adjustment command when the synchronization adjustment command is sound source synchronization;
(J) receiving a photographing command from a user;
(K) capturing an image including the motion skin to generate content data; And
(L) storing the content data;
Wherein the content data is still image data or moving image data:
The avatar unit includes:
A modular robot composed of a plurality of operation modules,
The plurality of operating modules are configured to include information of a unique ID, an initial state, a moving width, and a moving axis,
The motion information includes:
And an angular velocity and acceleration information according to an operation of each operation module of the avatar unit.
상기 휴대용단말기가 사용자에 의해 지정된 음원을 출력하는 단계를 더 포함하여 수행됨을 특징으로 하는 가상아바타와 실감아바타의 동기화를 이용한 콘텐츠 생성 방법.
The method of claim 3,
And outputting a sound source designated by the user by the portable terminal. The method of claim 1, wherein the virtual avatar is a virtual avatar.
상기 아바타유닛은,
상기 각 작동모듈에 대하여 기설정된 모션마다 인덱스를 할당하고 상기 아바타유닛에서 상기 휴대용단말기로 상기 인덱스를 전송하고;
상기 휴대용단말기는,
상기 인덱스에 대응되는 모션정보를 추출하고, 상기 가상 아바타에 상기 추출된 모션을 적용하여 상기 가상 아바타의 모션이 동작되도록 제어함을 특징으로 하는 가상아바타와 실감아바타의 동기화를 이용한 콘텐츠 생성 방법.
5. The method of claim 4,
The avatar unit includes:
Assigning an index to each operation module for each predetermined motion and transmitting the index from the avatar unit to the portable terminal;
The portable terminal includes:
Extracting motion information corresponding to the index, and controlling the motion of the virtual avatar to operate by applying the extracted motion to the virtual avatar.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020150037916A KR101744674B1 (en) | 2015-03-19 | 2015-03-19 | Apparatus and method for contents creation using synchronization between virtual avatar and real avatar |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020150037916A KR101744674B1 (en) | 2015-03-19 | 2015-03-19 | Apparatus and method for contents creation using synchronization between virtual avatar and real avatar |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20160113384A KR20160113384A (en) | 2016-09-29 |
| KR101744674B1 true KR101744674B1 (en) | 2017-06-09 |
Family
ID=57073607
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020150037916A Expired - Fee Related KR101744674B1 (en) | 2015-03-19 | 2015-03-19 | Apparatus and method for contents creation using synchronization between virtual avatar and real avatar |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR101744674B1 (en) |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN110299062A (en) * | 2018-03-21 | 2019-10-01 | 北京猎户星空科技有限公司 | Mechanical arm teaching system, method, apparatus, medium, controller and mechanical arm |
| KR20240028188A (en) * | 2022-08-24 | 2024-03-05 | 삼성전자주식회사 | Robot and controlling method thereof |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101097761B1 (en) * | 2011-02-15 | 2011-12-22 | 에스알시 주식회사 | Toy robot controlled by toy robot control system and mobile communication terminal |
Family Cites Families (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101671900B1 (en) | 2009-05-08 | 2016-11-03 | 삼성전자주식회사 | System and method for control of object in virtual world and computer-readable recording medium |
| KR20110071220A (en) | 2009-12-21 | 2011-06-29 | 한국전자통신연구원 | Remote control device and method of remote existence robot |
-
2015
- 2015-03-19 KR KR1020150037916A patent/KR101744674B1/en not_active Expired - Fee Related
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR101097761B1 (en) * | 2011-02-15 | 2011-12-22 | 에스알시 주식회사 | Toy robot controlled by toy robot control system and mobile communication terminal |
Also Published As
| Publication number | Publication date |
|---|---|
| KR20160113384A (en) | 2016-09-29 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US20220382051A1 (en) | Virtual reality interaction method, device and system | |
| US20200329214A1 (en) | Method and system for providing mixed reality service | |
| US10022626B2 (en) | Information processing system, information processing apparatus, storage medium having stored therein information processing program, and information processing method, for performing augmented reality | |
| CN106999772B (en) | System, program, and method for operating screen by linking display with a plurality of controllers connected via network | |
| AU2018442007B2 (en) | System and method for controlling a massage apparatus | |
| US20220233956A1 (en) | Program, method, and information terminal device | |
| US20120167014A1 (en) | Visual surrogate for indirect experience and apparatus and method for providing the same | |
| WO2018125742A2 (en) | Dynamic depth-based content creation in virtual reality environments | |
| US20130010071A1 (en) | Methods and systems for mapping pointing device on depth map | |
| CN106125903B (en) | Multi-person interaction system and method | |
| US10916061B2 (en) | Systems and methods to synchronize real-world motion of physical objects with presentation of virtual content | |
| US9733896B2 (en) | System, apparatus, and method for displaying virtual objects based on data received from another apparatus | |
| US20140243086A1 (en) | Server, method for controlling a game in a server, mobile apparatus, method for controlling a mobile apparatus, display apparatus, and method for displaying a game image in a display apparatus | |
| US11448884B2 (en) | Image based finger tracking plus controller tracking | |
| CN107185245B (en) | A virtual and real synchronous display method and system based on SLAM technology | |
| US20130057574A1 (en) | Storage medium recorded with program, information processing apparatus, information processing system, and information processing method | |
| US20170083082A1 (en) | Image processing virtual reality controller system and method | |
| EP3229482A1 (en) | Master device, slave device, and control method therefor | |
| KR20050082559A (en) | Dance learning system, internet community service system and internet community service method using the same, dance learning method, and computer executable recording media on which programs implement said methods are recorded | |
| KR101638550B1 (en) | Virtual Reality System using of Mixed reality, and thereof implementation method | |
| KR101744674B1 (en) | Apparatus and method for contents creation using synchronization between virtual avatar and real avatar | |
| JP7140465B2 (en) | Game program, information processing device, information processing system, game processing method | |
| CN109643182A (en) | Information processing method and device, cloud processing equipment and computer program product | |
| US20150084848A1 (en) | Interaction between generic interaction devices and an interactive display | |
| JP2010282497A (en) | Different world state reflection device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A201 | Request for examination | ||
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| D13-X000 | Search requested |
St.27 status event code: A-1-2-D10-D13-srh-X000 |
|
| D14-X000 | Search report completed |
St.27 status event code: A-1-2-D10-D14-srh-X000 |
|
| PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| E13-X000 | Pre-grant limitation requested |
St.27 status event code: A-2-3-E10-E13-lim-X000 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
St.27 status event code: A-2-4-F10-F11-exm-PR0701 |
|
| PR1002 | Payment of registration fee |
St.27 status event code: A-2-2-U10-U11-oth-PR1002 Fee payment year number: 1 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |
|
| P22-X000 | Classification modified |
St.27 status event code: A-4-4-P10-P22-nap-X000 |
|
| PC1903 | Unpaid annual fee |
St.27 status event code: A-4-4-U10-U13-oth-PC1903 Not in force date: 20200602 Payment event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE |
|
| PC1903 | Unpaid annual fee |
St.27 status event code: N-4-6-H10-H13-oth-PC1903 Ip right cessation event data comment text: Termination Category : DEFAULT_OF_REGISTRATION_FEE Not in force date: 20200602 |
|
| R18-X000 | Changes to party contact information recorded |
St.27 status event code: A-5-5-R10-R18-oth-X000 |