KR20250000353A - 5G-based metaverse motion synchronization system and metaverse motion synchronization method using the same - Google Patents
5G-based metaverse motion synchronization system and metaverse motion synchronization method using the same Download PDFInfo
- Publication number
- KR20250000353A KR20250000353A KR1020230082085A KR20230082085A KR20250000353A KR 20250000353 A KR20250000353 A KR 20250000353A KR 1020230082085 A KR1020230082085 A KR 1020230082085A KR 20230082085 A KR20230082085 A KR 20230082085A KR 20250000353 A KR20250000353 A KR 20250000353A
- Authority
- KR
- South Korea
- Prior art keywords
- motion
- information
- digital human
- server
- metaverse
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/205—3D [Three Dimensional] animation driven by audio data
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Hardware Design (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Architecture (AREA)
- Processing Or Creating Images (AREA)
Abstract
본 발명은 5G 기반의 메타버스 모션동기화 시스템(1) 및 이를 이용한 메타버스 모션동기화 방법에 관한 것이다.
본 발명의 바람직한 실시예에 따르면, 모션캡쳐 서버(200)와 5G 네트워크 연결된 디지털휴먼 서버(100)를 포함하는 메타버스 모션동기화 시스템(1)에서 이뤄지는 메타버스 모션동기화 방법으로, a) 상기 모션캡쳐 서버(200)가, 사용자 모델의 움직임 정보로서 얼굴의 움직임을 나타내는 페이스모션정보와, 바디 및 손의 움직임을 나타내는 바디모션정보 중 적어도 어느 하나를 포함하는 디지털휴먼 모션정보를 모션캡쳐 장치를 통해 수집하는 단계; b) 상기 디지털휴먼 서버(100)가, 미리 설정된 가상모델 구성 방법에 기초하여 가상모델을 구성하는 단계; c) 상기 디지털휴먼 서버(100)가, 상기 모션캡쳐 서버(200)로부터 디지털휴먼 모션정보를 전달받는 단계; 및 d) 상기 디지털휴먼 서버(100)가, 상기 디지털휴먼 모션정보를 미리 설정된 모션동기화 방법에 기초하여 상기 가상모델과 매칭하여 디지털휴먼 정보를 생성하는 단계;를 포함하는, 메타버스 모션동기화 방법이 제공된다.The present invention relates to a 5G-based metaverse motion synchronization system (1) and a metaverse motion synchronization method using the same.
According to a preferred embodiment of the present invention, a metaverse motion synchronization method is provided in a metaverse motion synchronization system (1) including a motion capture server (200) and a digital human server (100) connected to a 5G network, the method comprising: a) a step in which the motion capture server (200) collects digital human motion information including at least one of face motion information representing facial movement and body motion information representing body and hand movement as movement information of a user model through a motion capture device; b) a step in which the digital human server (100) configures a virtual model based on a preset virtual model configuration method; c) a step in which the digital human server (100) receives digital human motion information from the motion capture server (200); and d) a step in which the digital human server (100) matches the digital human motion information with the virtual model based on a preset motion synchronization method to generate digital human information.
Description
본 발명은 5G 기반의 메타버스 모션동기화 시스템 및 이를 이용한 메타버스 모션동기화 방법으로서, 상세하게는 미리 설정된 가상모델 구성방법에 기초하여 구성된 가상모델과 모션정보를 매칭하여 디지털휴먼 정보를 생성하는 과정에서, 5G 네트워크 기반의 미리 설정된 매칭 매커니즘을 사용함으로써 신속하고 정확한 동기화를 통해 자연스러운 디지털휴먼 정보 생성이 이뤄질 수 있도록 하는 5G 기반의 메타버스 모션동기화 시스템 및 이를 이용한 메타버스 모션동기화 방법에 관한 것이다.The present invention relates to a 5G-based metaverse motion synchronization system and a metaverse motion synchronization method using the same, and more particularly, to a 5G-based metaverse motion synchronization system and a metaverse motion synchronization method using the same, which enables natural digital human information generation through rapid and accurate synchronization by using a 5G network-based preset matching mechanism in the process of generating digital human information by matching motion information with a virtual model configured based on a preset virtual model configuration method.
산업발달 및 감염병 확산과 더불어 온라인 및 비대면 환경에 대한 요구가 증가되고 있으며, 가상현실과 실생활이 융합된 이른바 메타버스 컨텐츠에 대한 기대감이 확산되고 있다.With the development of industry and the spread of infectious diseases, the demand for online and non-face-to-face environments is increasing, and expectations for so-called metaverse content that combines virtual reality and real life are spreading.
이러한 메타버스 컨텐츠는 다양한 컨텐츠를 비대면 환경으로 제공함으로써 시간 및 공간을 초월하여 많은 정보를 단시간에 제공할 수 있다는 면에서 큰 장점을 가지고 있다.These metaverse contents have a great advantage in that they can provide a lot of information in a short period of time, transcending time and space, by providing various contents in a non-face-to-face environment.
종래 기술에 따른 메타버스 컨텐츠는 주로 특정 컨텐츠를 대상으로 하고 사용자에게 일방적인 컨텐츠를 전달하는데 그치고 있으므로, 가상현실을 기반으로 하되 사용자의 다양한 참여가 가능하도록 하는 기술로 디지털휴먼을 생성하고 이를 활용하는 기술이 주목받고 있으며, 특히 사람의 역할을 대신하는 디지털휴먼 기술에 있어서 어떻게 하면 인간과 실제로 비슷한 형태, 동작을 수행할 수 있을지에 대한 연구가 이뤄지고 있다.Metaverse content based on conventional technology mainly targets specific content and only delivers one-sided content to users, so technology that creates digital humans based on virtual reality but allows for diverse user participation and utilizes them is attracting attention. In particular, research is being conducted on how to make digital human technology that replaces the role of humans perform forms and movements similar to those of actual humans.
종래 기술의 일례로서, 대한민국 등록특허 제10-2373608호의 "디지털 휴먼 영상 형성을 위한 전자 장치 및 방법과, 그를 수행하도록 컴퓨터 판독 가능한 기록 매체에 저장된 프로그램"이 있다.As an example of prior art, there is Korean Patent No. 10-2373608 entitled “Electronic device and method for forming a digital human image, and a program stored in a computer-readable recording medium to perform the same.”
상기 종래기술은, 대상체와의 친밀도 및 나이, 얼굴의 움직임, 바람 및 외부 힘을 고려하여 디지털 휴먼 영상을 생성함으로써 보다 정교하면서도 실감나는 디지털 휴먼 영상을 형성할 수 있도록 한다.The above conventional technology enables the formation of a more sophisticated and realistic digital human image by generating a digital human image by considering the intimacy and age of the subject, facial movement, wind, and external force.
상기 종래기술은 대상체의 실시간 얼굴 형상 및 실시간 자세를 고려하여 정교하면서도 실감나는 디지털 휴먼 영상을 형성할 수 있다는 장점이 있으나, 고속의 데이터 전송 및 안정적인 데이터 전송이 이뤄지지 않는 경우에 모션 싱크(동기화)가 제대로 이뤄지지 않으므로 메타버스 환경에서 디지털휴먼 영상이 어색하게 표현되는 문제가 있다.The above conventional technology has the advantage of being able to form a sophisticated and realistic digital human image by considering the real-time facial shape and real-time posture of the subject, but there is a problem in that the digital human image is expressed awkwardly in the metaverse environment because motion synchronization is not properly achieved when high-speed and stable data transmission is not achieved.
특히 상기 종래기술은 실시간 얼굴 형상 및 자세를 고려한 가중치를 특징점에 부여할 뿐, 얼굴이나 몸의 움직임이 동시에 이뤄지는 경우 각각의 모션정보(데이터)의 수집 및 전달 시간에 따른 차이를 전혀 고려하지 않으므로 실제 구현되는 대상체의 현실감이 떨어지는 문제가 있다.In particular, the above-mentioned conventional technology only assigns weights to feature points that take into account real-time facial shape and posture, and does not consider any difference in the collection and transmission time of each motion information (data) when facial or body movements occur simultaneously, so there is a problem in that the realism of the actual implemented object is low.
본 발명은 상기 종래기술이 가지는 문제점을 해결하기 위한 것으로서, 자연스러운 메타버스 컨텐츠를 구현하기 위한 디지털휴먼의 움직임(모션)이 동시에 이뤄지는 경우 최적의 시스템 자원으로 각각의 모션을 동기화하는 방법 및 시스템을 제공하고자 한다.The present invention is intended to solve the problems of the above-mentioned prior art, and to provide a method and system for synchronizing each motion with optimal system resources when the movements (motions) of digital humans for implementing natural metaverse content are performed simultaneously.
또한, 본 발명은 네트워크 환경의 변화에 능동적으로 대처할 수 있는 동기화 방법을 제공고자 한다.In addition, the present invention seeks to provide a synchronization method that can actively cope with changes in a network environment.
상기와 같은 과제를 해결하기 위한 본 발명의 바람직한 실시예에 따르면, 모션캡쳐 서버와 5G 네트워크 연결된 디지털휴먼 서버를 포함하는 메타버스 모션동기화 시스템에서 이뤄지는 메타버스 모션동기화 방법으로, a) 상기 모션캡쳐 서버가, 사용자 모델의 움직임 정보로서 얼굴의 움직임을 나타내는 페이스모션정보와, 바디 및 손의 움직임을 나타내는 바디모션정보 중 적어도 어느 하나를 포함하는 디지털휴먼 모션정보를 모션캡쳐 장치를 통해 수집하는 단계; b) 상기 디지털휴먼 서버가, 미리 설정된 가상모델 구성 방법에 기초하여 가상모델을 구성하는 단계; c) 상기 디지털휴먼 서버가, 상기 모션캡쳐 서버로부터 디지털휴먼 모션정보를 전달받는 단계; 및 d) 상기 디지털휴먼 서버가, 상기 디지털휴먼 모션정보를 미리 설정된 모션동기화 방법에 기초하여 상기 가상모델과 매칭하여 디지털휴먼 정보를 생성하는 단계;를 포함하는, 메타버스 모션동기화 방법이 제공된다.According to a preferred embodiment of the present invention for solving the above-mentioned problem, a metaverse motion synchronization method is provided in a metaverse motion synchronization system including a motion capture server and a digital human server connected to a 5G network, the method comprising: a) a step in which the motion capture server collects digital human motion information including at least one of face motion information representing facial movement and body motion information representing body and hand movement as movement information of a user model through a motion capture device; b) a step in which the digital human server configures a virtual model based on a preset virtual model configuration method; c) a step in which the digital human server receives digital human motion information from the motion capture server; and d) a step in which the digital human server matches the digital human motion information with the virtual model based on a preset motion synchronization method to generate digital human information.
또 다른 본 발명의 바람직한 실시예에 따르면, 상기 미리 설정된 모션동기화 방법은, 상기 모션캡쳐 서버가 상기 모션캡쳐 장치로부터 디지털휴먼 모션정보를 수집한 제1 시간 및 상기 디지털휴먼 서버가 상기 디지털휴먼 모션정보를 전달받은 제2 시간의 차이에 기초하여 동기화가 이뤄지도록 하는 것임을 특징으로 한다.According to another preferred embodiment of the present invention, the preset motion synchronization method is characterized in that synchronization is achieved based on a difference between a first time when the motion capture server collects digital human motion information from the motion capture device and a second time when the digital human server receives the digital human motion information.
또 다른 본 발명의 바람직한 실시예에 따르면, 상기 디지털휴먼 모션정보는 적어도 하나 이상의 기준 모션정보를 포함하며, 상기 미리 설정된 모션동기화 방법은, 상기 기준 모션정보가, 상기 모션캡쳐 서버 또는 상기 디지털휴먼 서버 중 어느 하나에 전달되는 시간마다 자동으로 동기화가 이뤄지도록 하는 것임을 특징으로 한다.According to another preferred embodiment of the present invention, the digital human motion information includes at least one reference motion information, and the preset motion synchronization method is characterized in that synchronization is automatically performed every time the reference motion information is transmitted to either the motion capture server or the digital human server.
또 다른 본 발명의 바람직한 실시예에 따르면, 상기 미리 설정된 모션동기화 방법은, 상기 모션캡쳐 장치로부터 수집된 페이스모션정보와, 상기 페이스모션정보에 대응하여 모션캡쳐 장치로부터 수집된 바디모션정보에 기초하여 동기화가 이뤄지도록 하는 것임을 특징으로 한다.According to another preferred embodiment of the present invention, the preset motion synchronization method is characterized in that synchronization is achieved based on face motion information collected from the motion capture device and body motion information collected from the motion capture device in response to the face motion information.
또 다른 본 발명의 바람직한 실시예에 따르면, 상기 미리 설정된 모션동기화 방법은, 상기 모션캡쳐 장치로부터 수집된 손의 모션정보가 포함된 바디모션정보와, 상기 손의 모션정보에 대응하여 모션캡쳐 장치로부터 수집된 바디의 모션정보가 포함된 바디모션정보에 기초하여 동기화가 이뤄지도록 하는 것임을 특징으로 한다.According to another preferred embodiment of the present invention, the preset motion synchronization method is characterized in that synchronization is achieved based on body motion information including hand motion information collected from the motion capture device and body motion information including body motion information collected from the motion capture device in response to the hand motion information.
또 다른 본 발명의 바람직한 실시예에 따르면, 상기 디지털휴먼 모션정보는 상기 모션캡쳐 서버에서 수집된 사용자 모델의 음성정보를 더 포함하며, 상기 미리 설정된 모션동기화 방법은, 상기 음성정보와, 상기 음성정보에 대응하여 상기 모션캡쳐 장치로부터 수집된 페이스모션정보에 기초하여 동기화가 이뤄지도록 하는 것임을 특징으로 한다.According to another preferred embodiment of the present invention, the digital human motion information further includes voice information of a user model collected from the motion capture server, and the preset motion synchronization method is characterized in that synchronization is achieved based on the voice information and face motion information collected from the motion capture device in response to the voice information.
또 다른 본 발명의 바람직한 실시예에 따르면, 상기 모션캡쳐 서버는 와이파이(Wifi) 및 5G 네트워크 중 적어도 어느 하나와 연결되어 상기 모션캡쳐 장치로부터 디지털휴먼 모션정보를 수집하도록 구성되며, 상기 미리 설정된 모션동기화 방법에서, 상기 모션캡쳐 서버와 연결된 네트워크의 종류에 따라 미리 설정된 가중치가 적용되어 사전 모션동기화가 이뤄지는 것을 특징으로 한다.According to another preferred embodiment of the present invention, the motion capture server is configured to be connected to at least one of a Wi-Fi and a 5G network and to collect digital human motion information from the motion capture device, and in the preset motion synchronization method, a preset weight is applied according to the type of network connected to the motion capture server to perform pre-motion synchronization.
또 다른 본 발명의 바람직한 실시예에 따르면, 모션캡쳐 서버와 5G 네트워크 연결된 디지털휴먼 서버를 포함하는 메타버스 모션동기화 시스템으로, 모션캡쳐 장치와 네트워크 연결되어 사용자 모델의 움직임 정보로서 얼굴의 움직임을 나타내는 페이스모션정보와, 바디 및 손의 움직임을 나타내는 바디모션정보 중 적어도 어느 하나를 포함하는 디지털휴먼 모션정보를 수집하는 모션캡쳐 서버; 및 미리 설정된 가상모델 구성 방법에 기초하여 가상모델을 구성하는 기능, 상기 모션캡쳐 서버로부터 디지털휴먼 모션정보를 전달받는 기능 및 상기 디지털휴먼 모션정보를 미리 설정된 모션동기화 방법에 기초하여 상기 가상모델과 매칭하여 디지털휴먼 정보를 생성하는 기능을 수행하는 디지털휴먼 서버;를 포함하는, 메타버스 모션동기화 시스템이 제공된다.According to another preferred embodiment of the present invention, a metaverse motion synchronization system is provided, which includes a motion capture server and a digital human server connected to a 5G network, the motion capture server being connected to a motion capture device and a network to collect digital human motion information including at least one of face motion information representing facial movement as movement information of a user model and body motion information representing movement of a body and hands; and a digital human server performing a function of configuring a virtual model based on a preset virtual model configuring method, a function of receiving digital human motion information from the motion capture server, and a function of generating digital human information by matching the digital human motion information with the virtual model based on a preset motion synchronization method.
본 발명에 따르면 5G 기반의 무선 네트워크를 사용함으로써 현장감있고 자연스러운 디지털휴먼을 표시함으로써 실감있는 메타버스 컨텐츠를 구현하는 효과가 있다.According to the present invention, there is an effect of implementing realistic metaverse content by displaying realistic and natural digital humans by using a 5G-based wireless network.
특히 본 발명은 모션의 종류 및 무선 네트워크의 종류에 따른 데이터 전달 시간의 차이로 인해 디지털휴먼의 모션이 어색하게 구현되는 현상을 최소화할 수 있는 장점이 있다.In particular, the present invention has an advantage in that it can minimize the phenomenon in which the motion of a digital human is awkwardly implemented due to differences in data transmission time depending on the type of motion and the type of wireless network.
도 1은 본 발명의 일실시예에 따른 5G 기반의 메타버스 모션동기화 시스템의 구성도,
도 2는 본 발명의 일실시예에 따른 디지털휴먼 서버의 구성도,
도 3은 본 발명의 일실시예에 따른 5G 기반의 메타버스 모션동기화 방법의 순서도,
도 4는 본 발명의 일실시예에 따른 가상모델 생성 스튜디오의 구성 및 디지털휴먼 서버와의 네트워크 연결을 나타내는 모식도,
도 5는 본 발명의 일실시예에 따른 모션캡쳐 장치의 구성 및 모션캡쳐 서버와의 네트워크 연결을 나타내는 모식도,
도 6은 본 발명의 일실시예에 따른 메타버스 모션동기화를 설명하기 위한 모식도,
도 7, 도 8은 본 발명의 다른 실시예에 따른 5G 기반의 메타버스 모션동기화 방법의 순서도,
도 9는 본 발명의 또 다른 실시예에 따른 5G 기반의 메타버스 모션동기화 방법에 따라 생성되는 디지털휴먼 컨텐츠의 생성에 관한 순서도,
도 10은 본 발명의 또 다른 실시예에 따른 5G 기반의 메타버스 모션동기화 시스템의 구성도,
도 11은 본 발명의 또 다른 실시예에 따른 5G 기반의 메타버스 모션동기화 시스템에서 이뤄지는 디지털휴먼 컨텐츠 스트리밍의 모식도,
도 12는 본 발명의 또 다른 실시예에 따른 5G 기반의 메타버스 모션동기화 시스템에서 이뤄지는 디지털휴먼 컨텐츠 스트리밍에 관한 흐름도이다.Figure 1 is a configuration diagram of a 5G-based metaverse motion synchronization system according to one embodiment of the present invention.
Figure 2 is a configuration diagram of a digital human server according to one embodiment of the present invention.
Figure 3 is a flow chart of a 5G-based metaverse motion synchronization method according to an embodiment of the present invention.
Figure 4 is a schematic diagram showing the configuration of a virtual model creation studio and a network connection with a digital human server according to one embodiment of the present invention.
FIG. 5 is a schematic diagram showing the configuration of a motion capture device and network connection with a motion capture server according to one embodiment of the present invention.
Figure 6 is a schematic diagram for explaining metaverse motion synchronization according to one embodiment of the present invention.
Figures 7 and 8 are flowcharts of a 5G-based metaverse motion synchronization method according to another embodiment of the present invention.
FIG. 9 is a flow chart of the creation of digital human content generated according to a 5G-based metaverse motion synchronization method according to another embodiment of the present invention.
Figure 10 is a configuration diagram of a 5G-based metaverse motion synchronization system according to another embodiment of the present invention.
Figure 11 is a schematic diagram of digital human content streaming in a 5G-based metaverse motion synchronization system according to another embodiment of the present invention.
FIG. 12 is a flow chart of digital human content streaming performed in a 5G-based metaverse motion synchronization system according to another embodiment of the present invention.
이하에서는 본 발명의 실시예를 첨부된 도면을 참조하여 상세히 설명한다. 그러나 본 발명을 설명함에 있어 공지의 구성을 구체적으로 설명함으로 인하여 본 발명의 기술적 사상을 흐리게 하거나 불명료하게 하는 경우에는 위 공지의 구성에 관하여는 그 설명을 생략하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the attached drawings. However, when describing the present invention, if the technical idea of the present invention is obscured or unclear due to a detailed description of the known configuration, the description of the known configuration will be omitted.
본 발명에 따른 '사용자 모델'은 가상모델을 구성하는 기초가 되는 사용자 이미지 정보, 디지털휴먼 정보에 포함된 모션정보 및/또는 음성정보를 수집하는 대상이 되는 현실의 모델로서, 상기 사용자 이미지 정보, 모션정보 및 음성정보는 하나의 사용자 모델이 2 이상의 정보를 제공할 수도 있고, 서로 다른 사용자 모델이 각각의 정보를 제공할 수도 있다. 예를들어, 하나의 사용자 모델이 가상모델을 구성하는 기초가 되는 사용자 이미지 정보를 제공하고, 다른 사용자 모델이 모션정보 및 음성정보를 제공하도록 구성될 수 있다.The 'user model' according to the present invention is a real model that is a target for collecting user image information, motion information and/or voice information included in digital human information that serve as the basis for constructing a virtual model. The user image information, motion information and voice information may be provided by one user model in two or more pieces of information, and different user models may provide each piece of information. For example, one user model may provide user image information that serves as the basis for constructing a virtual model, and another user model may provide motion information and voice information.
이하, 5G 기반의 메타버스 모션동기화 시스템 및 이를 이용한 메타버스 모션동기화 방법에 대해 도면을 기준으로 상세히 설명한다.Below, a 5G-based metaverse motion synchronization system and a metaverse motion synchronization method using the same are described in detail based on drawings.
도 1은 본 발명의 일실시예에 따른 5G 기반의 메타버스 모션동기화 시스템의 구성도, 도 2는 본 발명의 일실시예에 따른 디지털휴먼 서버의 구성도, 도 4는 본 발명의 일실시예에 따른 가상모델 생성 스튜디오의 구성 및 디지털휴먼 서버와의 네트워크 연결을 나타내는 모식도, 도 5는 본 발명의 일실시예에 따른 모션캡쳐 장치의 구성 및 모션캡쳐 서버와의 네트워크 연결을 나타내는 모식도이다.FIG. 1 is a schematic diagram showing the configuration of a 5G-based metaverse motion synchronization system according to an embodiment of the present invention, FIG. 2 is a schematic diagram showing the configuration of a digital human server according to an embodiment of the present invention, FIG. 4 is a schematic diagram showing the configuration of a virtual model creation studio according to an embodiment of the present invention and a network connection with a digital human server, and FIG. 5 is a schematic diagram showing the configuration of a motion capture device according to an embodiment of the present invention and a network connection with a motion capture server.
본 발명의 일례에 따른 메타버스 모션동기화 시스템(1)은, 도 1에 도시된 바와 같이, 디지털휴먼 서버(100) 및 디지털휴먼 서버(100)와 5G 네트워크 연결된 모션캡쳐 서버(200)를 포함한다.A metaverse motion synchronization system (1) according to an example of the present invention includes a digital human server (100) and a motion capture server (200) connected to a 5G network and the digital human server (100), as shown in FIG. 1.
상기 디지털휴먼 서버(100)는, 미리 설정된 가상모델 구성 방법에 기초하여 가상모델을 구성하며, 모션캡쳐 서버(200)로부터 디지털휴먼 모션정보를 전달받는 기능 및 상기 디지털휴먼 모션정보를 미리 설정된 모션동기화 방법에 기초하여 상기 가상모델과 매칭하여 디지털휴먼 정보를 생성하는 기능을 수행한다.The above digital human server (100) configures a virtual model based on a preset virtual model configuration method, receives digital human motion information from a motion capture server (200), and generates digital human information by matching the digital human motion information with the virtual model based on a preset motion synchronization method.
본 발명의 일례에 따른 디지털휴먼 서버(100)는, 도 2에 도시된 바와 같이, 후술하는 가상모델 생성 스튜디오(120)에서 수집된 사용자 이미지 정보, 모션정보 수집 스튜디오(240)에서 모션캡쳐 장치를 통해 수집된 모션정보는 물론 가상모델 구성 및 디지털휴먼 정보 생성 과정에서 일시적으로 발생된 데이터(정보)를 저장하도록 하는 메모리부(104), 통신모듈을 포함하여 구성되는 통신부(105), 가상모델의 구성 및 및 관리가 이뤄지도록 하는 가상모델 구성/관리부(106), 디지털휴먼 정보의 생성, 동기화 및 관리가 이뤄지도록 하는 디지털휴먼 정보 동기화/관리부(107) 및 서버의 전반적인 운영이 이뤄지도록 하는 운영부(102)를 포함한다.A digital human server (100) according to an example of the present invention, as illustrated in FIG. 2, includes a memory unit (104) for storing user image information collected in a virtual model creation studio (120) described below, motion information collected through a motion capture device in a motion information collection studio (240), as well as data (information) temporarily generated during the process of configuring a virtual model and generating digital human information, a communication unit (105) configured to include a communication module, a virtual model configuration/management unit (106) for configuring and managing a virtual model, a digital human information synchronization/management unit (107) for generating, synchronizing, and managing digital human information, and an operation unit (102) for performing overall operation of the server.
상기 가상모델 생성 스튜디오(120)는, 도 4에 도시된 바와 같이, 전신 캡쳐 장치(122)를 포함하며, 상기 전신 캡쳐 장치(122)는 적어도 복수개의 카메라(124)와 조명(126)을 구비하며, 상기 복수개의 카메라(124) 및 조명(126)을 제어하고 사용자 이미지 정보를 획득하여 네트워크를 통해 상기 디지털휴먼 서버(100)로 전달하는 기능을 수행하는 통신모듈(129, 129')을 포함하여 이뤄질 수 있다. 상기 통신모듈(149, 149')은 5G 모뎀, 5G 무선 동글, Wifi AP 등일 수 있다.The above virtual model creation studio (120) may include, as illustrated in FIG. 4, a full-body capture device (122), and the full-body capture device (122) may include at least a plurality of cameras (124) and lights (126), and may include a communication module (129, 129') that performs a function of controlling the plurality of cameras (124) and lights (126), obtaining user image information, and transmitting the information to the digital human server (100) via a network. The communication module (149, 149') may be a 5G modem, a 5G wireless dongle, a Wifi AP, etc.
예를 들어, 상기 전신 캡쳐 장치(122)는, 16 내지 64개의 볼류메트릭 카메라(volumetric camera) 또는 32 내지 128개의 포토그래메트릭 카메라(photogrammetric camera)가 사용자 모델이 내부에 수용될 수 있는 철제 프레임(도면 부호 미도시)의 외부에 고르게 구비되어 사용자 모델의 360도 전신을 촬영할 수 있도록 구성될 수 있다. 예를 들어, 상기 볼류메트릭 카메라는 RGB-D 카메라, 키넥트 센서가 결합된 RGB 카메라 등 깊이값을 생성할 수 있는 카메라일 수 있다.For example, the full body capture device (122) may be configured to capture 360-degree full body images of a user model by evenly disposing 16 to 64 volumetric cameras or 32 to 128 photogrammetric cameras on the outside of a steel frame (not shown in the drawing) in which a user model can be accommodated. For example, the volumetric camera may be a camera capable of generating depth values, such as an RGB-D camera, an RGB camera combined with a Kinect sensor, etc.
본 발명의 일례에 따른 모션캡쳐 서버(200)는, 상기 모션정보 수집 스튜디오(240)는 모션캡쳐 장치(242, 242', 244', 246')를 통해 사용자 모델(UM2)의 모션정보를 수집할 수 있다.According to an example of the present invention, a motion capture server (200) can collect motion information of a user model (UM2) through a motion capture device (242, 242', 244', 246') in the motion information collection studio (240).
상기 모션정보 수집 스튜디오(240)는, 도 5에 도시된 바와 같이, 모션캡쳐 장치(242, 242', 244', 246')를 포함하며, 상기 모션캡쳐 장치(242, 242', 244', 246')를 제어하고 사용자 모델(UM1)의 얼굴의 움직임을 나타내는 페이스모션정보(UF)와 사용자 모델(UM1)의 손이나 손을 제외한 몸의 움직임을 나타내는 바디모션정보(UBB, UBH, UB) 중 적어도 어느 하나를 획득하여 네트워크를 통해 상기 모션캡쳐 서버(200)로 전달하는 기능을 수행하는, 통신모듈(249, 249')을 포함할 수 있다. 상기 통신모듈(249, 249')은 5G 모뎀, 5G 무선 동글, Wifi AP 등일 수 있으며, Wifi 모듈과 5G 모듈의 결합으로 이뤄질 수도 있다. 예를 들어, 바디모션정보(UBB, UBH, UB)를 Wifi AP나 Wifi Gateway로 수신하고, 5G 무선 동글을 통해 5G 네트워크를 거쳐 캡쳐 서버(200)로 전달되도록 구성될 수도 있다. The above motion information collection studio (240), as illustrated in FIG. 5, includes a motion capture device (242, 242', 244', 246'), and may include a communication module (249, 249') that performs a function of controlling the motion capture device (242, 242', 244', 246') and obtaining at least one of face motion information (UF) representing the movement of the face of the user model (UM1) and body motion information (UBB, UBH, UB) representing the movement of the hand or the body excluding the hand of the user model (UM1) and transmitting the obtained information to the motion capture server (200) via a network. The communication module (249, 249') may be a 5G modem, a 5G wireless dongle, a Wifi AP, or the like, and may also be formed by combining a Wifi module and a 5G module. For example, body motion information (UBB, UBH, UB) may be received by a Wifi AP or Wifi Gateway and transmitted to a capture server (200) through a 5G network via a 5G wireless dongle.
일례로, 상기 모션캡쳐 장치는 카메라(142) 형태로 이뤄져서 사용자 모델(UM1)의 신체 전체를 촬영하면서 얼굴의 움직임과 바디의 움직임을 각각 구분하여 인식, 저장할 수 있도록 구성될 수 있다. 이 때, 상기 카메라(142)는 CCTV나 디지털카메라일 수 있으며, 스마트폰에 구비된 카메라(깊이 카메라, 광각/망원 카메라 등)일 수 있다.For example, the motion capture device may be configured in the form of a camera (142) to capture the entire body of a user model (UM1) and recognize and store facial and body movements separately. In this case, the camera (142) may be a CCTV or a digital camera, or may be a camera equipped on a smartphone (depth camera, wide-angle/telephoto camera, etc.).
다른 예로, 상기 모션캡쳐 장치는, 사용자 모델의 얼굴의 움직임 및/또는 후술하는 사용자 모델의 음성 정보를 수집하는 페이스모션 캡쳐(감지)장치(242')나, 사용자 모델의 바디에 다수개 부착하여 사용자 모델의 바디의 움직임 정보를 수집하는 센서(144'), 장갑(146') 등의 형태로 나누어 구성될 수도 있다. 상기 센서는 일례로 3축 가속계, 3축 지자계 및 3축 자이로스코프를 갖는 9 DoF의 IMU 센서일 수 있다.As another example, the motion capture device may be configured in the form of a facial motion capture (detection) device (242') that collects movement of the user model's face and/or voice information of the user model described below, a sensor (144') that is attached to the body of the user model in multiple units to collect movement information of the body of the user model, a glove (146'), etc. The sensor may be, for example, a 9 DoF IMU sensor having a 3-axis accelerometer, a 3-axis magnetometer, and a 3-axis gyroscope.
예를 들어, 상기 바디모션정보(UBB)를 수집하는 모션캡쳐 장치는 16개 이상의 마그네틱 센서가 사용자 모델의 관절에 해당하는 위치에 구비되어 각각의 센서가 사용자 모델의 바디모션을 캡쳐하도록 구성된 스마트 슈트로 이뤄질 수 있다.For example, the motion capture device that collects the above body motion information (UBB) may be configured as a smart suit in which 16 or more magnetic sensors are provided at locations corresponding to the joints of the user model, and each sensor is configured to capture the body motion of the user model.
예를 들어, 상기 손의 움직임에 따른 바디모션정보(UBH)를 수집하는 모션캡쳐 장치는 24개 이상의 마그네틱 센서가 사용자 모델의 손가락 관절에 해당하는 위치에 구비되어 각각의 센서가 사용자 모델의 손의 움직임을 나타내는 바디모션을 캡쳐하도록 구성된 스마트 글로브로 이뤄질 수 있다.For example, a motion capture device that collects body motion information (UBH) according to the movement of the hand may be configured as a smart glove in which 24 or more magnetic sensors are provided at positions corresponding to the finger joints of the user model, and each sensor is configured to capture body motion representing the movement of the user model's hand.
상기 카메라(142) 또는 페이스모션캡쳐 장치(142') 등의 모션캡쳐 장치는, 사용자 모델(UM2)의 얼굴의 시선처리, 표정 등을 촬영하고 시선이나 표정의 변화에 따른 특징점을 확인할 수 있도록 하며, 상기 모션캡쳐 서버(200)는 이러한 특징점의 변화를 통해 사용자 모델의 페이스모션정보(UF)를 수집할 수 있다.The motion capture device, such as the above camera (142) or facial motion capture device (142'), captures the gaze processing, facial expression, etc. of the user model's (UM2) face and identifies characteristic points according to changes in the gaze or facial expression. The motion capture server (200) can collect facial motion information (UF) of the user model through changes in these characteristic points.
상기 카메라(142) 또는 페이스모션캡쳐 장치(142') 등의 모션캡쳐 장치는, 마이크 및 녹음기능이 구비되어 사용자 모델(UM2)의 음성정보(UV, 도 6 참고)를 수집할 수 있으며, 수집된 음성정보(UV)를 상기 모션캡쳐 서버(200)로 전달할 수 있다.The motion capture device, such as the above camera (142) or facial motion capture device (142'), is equipped with a microphone and recording function and can collect voice information (UV, see FIG. 6) of the user model (UM2) and transmit the collected voice information (UV) to the motion capture server (200).
상기 사용자 모델의 음성정보(UV)는 사용자 모델의 음색이나 톤 또는 말투 정보를 포함할 수 있으며, 특정 단어로 구성되어 메타버스 모션동기화를 위한 기준 모션정보를 구성할 수도 있다.The voice information (UV) of the above user model may include the user model's voice color, tone, or speech pattern information, and may also be composed of specific words to form reference motion information for metaverse motion synchronization.
상기 모션캡쳐 서버(200)는, 모션캡쳐 장치와 네트워크 연결되어 사용자 모델의 움직임 정보로서 얼굴의 움직임을 나타내는 페이스모션정보(UF)와, 바디 및 손의 움직임을 나타내는 바디모션정보(UB, UBH, UBB)와, 상기 음성정보(UV)를 포함하는 디지털휴먼 모션정보를 수집하고, 이를 네트워크를 통해 디지털휴먼 서버(100)로 전달할 수 있다.The above motion capture server (200) is connected to a motion capture device and a network to collect digital human motion information including facial motion information (UF) representing facial movement as movement information of a user model, body motion information (UB, UBH, UBB) representing movement of the body and hands, and voice information (UV), and transmit the collected information to the digital human server (100) through a network.
상기 네트워크는 5G 기반의 네트워크로 구성될 수 있으며, 기존의 저속 네트워크망에 비해 5G 기반의 네트워크로 구성되는 경우, 상기 가상현실 컨텐츠 정보는 물론 디지털휴먼 정보의 데이터를 효율적으로 전달하는 과정에서 데이터 손실이나 시간 지연이 발생할 가능성이 높으므로, 보다 빠르고 대용량의 데이터 전송이 이뤄질 수 있도록 한다는 점에서 5G 기반의 네트워크로 구성되는 것이 바람직하다.The above network can be configured as a 5G-based network, and when configured as a 5G-based network compared to existing low-speed networks, there is a high possibility of data loss or time delay in the process of efficiently transmitting not only the virtual reality content information but also the digital human information data. Therefore, it is desirable to configure a 5G-based network in that it allows faster and larger data transmission.
다만 상기 모션캡쳐 서버(200)와 모션캡쳐 장치는 시공간적 제약 및 5G 네트워크를 보완하기 위해 와이파이, 블루투스 등의 별도 무선네트워크와 추가적으로 연결되도록 구성될 수 있다.However, the above motion capture server (200) and motion capture device may be configured to be additionally connected to a separate wireless network such as Wi-Fi or Bluetooth to supplement spatiotemporal constraints and 5G networks.
본 발명의 일실시예에 따른 메타버스 모션동기화는, 무선네트워크의 데이터 전송용량 및 전송시간의 차이와, 네트워크 사용환경의 변화(예, 재해, 사용자 집중에 따른 속도 지연 등)에 따라 전달되는 모션정보에 각각 시간 차이가 발생할 수 있는 상황에서 자연스러운 가상현실을 구현하기 위한 것이다. 따라서 가상모델과 디지털휴먼 모션정보의 매칭시 시간 차이를 고려한 모션동기화를 통해 디지털휴먼 정보 생성이 이뤄지도록 한다.Metaverse motion synchronization according to one embodiment of the present invention is intended to implement natural virtual reality in a situation where time differences may occur in the transmitted motion information due to differences in data transmission capacity and transmission time of a wireless network and changes in the network usage environment (e.g., disaster, speed delay due to user concentration, etc.). Therefore, when matching virtual models and digital human motion information, motion synchronization that takes time differences into account is performed so that digital human information is generated.
상기 모션캡쳐 서버(200)는 상기 페이스모션정보(UF), 바디모션정보(UB, UBH, UBB) 및 음성정보(UV)가 각각 모션캡쳐 장치를 통해 수집되는 수집시간을 측정/저장할 수 있으며, 음성과 페이스모션, 페이스모션과 바디모션, 바디모션과 음성이 동시에 이뤄지는 경우, 각각의 정보가 모션캡쳐 장치를 통해 캡쳐되는 시간도 저장할 수 있다.The above motion capture server (200) can measure/store the collection time at which the face motion information (UF), body motion information (UB, UBH, UBB) and voice information (UV) are collected through a motion capture device, and when voice and face motion, face motion and body motion, and body motion and voice are performed simultaneously, the time at which each piece of information is captured through a motion capture device can also be stored.
상기 디지털휴먼 서버(100) 및 모션캡쳐 서버(200)는 각각 디지털휴먼 모션정보의 수신 및 발신시간을 측정할 수 있으며, 상기 디지털휴먼 모션정보의 수신 및 발신시간의 차이에 기초하여 메타버스 모션동기화가 이뤄질 수 있다.The above digital human server (100) and motion capture server (200) can each measure the reception and transmission times of digital human motion information, and metaverse motion synchronization can be achieved based on the difference between the reception and transmission times of the digital human motion information.
도 3은 본 발명의 일실시예에 따른 5G 기반의 메타버스 모션동기화 방법의 순서도, 도 6은 본 발명의 일실시예에 따른 메타버스 모션동기화를 설명하기 위한 모식도, 도 7 및 도 8은 본 발명의 다른 실시예에 따른 5G 기반의 메타버스 모션동기화 방법의 순서도이다.FIG. 3 is a flowchart of a 5G-based metaverse motion synchronization method according to an embodiment of the present invention, FIG. 6 is a schematic diagram for explaining metaverse motion synchronization according to an embodiment of the present invention, and FIGS. 7 and 8 are flowcharts of a 5G-based metaverse motion synchronization method according to another embodiment of the present invention.
본 발명의 바람직한 실시예에 따른 메타버스 모션동기화 방법은, 모션캡쳐 서버(200)가 디지털휴먼 모션정보를 수집하고(단계 a), 디지털휴먼 서버(100)가 가상모델을 구성하고(단계 b), 모션캡쳐 서버(200)가 디지털휴먼 모션정보를 디지털휴먼 서버(100)로 전달하며(단계 c), 디지털휴먼 서버(100)가 가상모델과 디지털휴먼 모션정보를 매칭하여 디지털휴먼 정보를 생성하는(단계 d) 과정을 포함하여 이뤄질 수 있다.A metaverse motion synchronization method according to a preferred embodiment of the present invention may include a process in which a motion capture server (200) collects digital human motion information (step a), a digital human server (100) configures a virtual model (step b), the motion capture server (200) transmits the digital human motion information to the digital human server (100) (step c), and the digital human server (100) matches the virtual model and the digital human motion information to generate digital human information (step d).
상술하면, 도 3에 도시된 바와 같이, 단계 a에서 상기 모션캡쳐 서버(200)가, 사용자 모델의 움직임 정보로서 얼굴의 움직임을 나타내는 페이스모션정보(UF)와, 바디 및 손의 움직임을 나타내는 바디모션정보(UB, UBH, UBB) 중 적어도 어느 하나를 포함하는 디지털휴먼 모션정보를 모션캡쳐 장치를 통해 수집할 수 있다.As described above, as illustrated in FIG. 3, in step a, the motion capture server (200) can collect digital human motion information including at least one of face motion information (UF) representing facial movement as movement information of a user model and body motion information (UB, UBH, UBB) representing movement of the body and hands, through a motion capture device.
상기 모션정보 수집 스튜디오(240)에서 모션캡쳐 장치를 통해 수집한 사용자 모델(UM2)의 디지털휴먼 모션정보는, 유무선 네트워크를 통해 상기 모션캡쳐 서버(200)로 전달된다.The digital human motion information of the user model (UM2) collected through a motion capture device in the above motion information collection studio (240) is transmitted to the motion capture server (200) through a wired or wireless network.
바람직하게 상기 디지털휴먼 모션정보는 5G 네트워크를 통해 모션캡쳐 서버(200)로 전달될 수 있으며, 내외부 환경의 문제로 일시적으로 5G 네트워크가 동작하지 않는 경우에는 와이파이 등의 별도 연결된 무선네트워크를 통해 전달되도록 할 수 있다. 이 때, 상기 모션캡쳐 서버(200)는 네트워크의 변경 및 디지털휴먼 모션정보를 전달하는 네트워크의 종류에 관한 정보를 획득할 수 있다.Preferably, the digital human motion information can be transmitted to the motion capture server (200) via a 5G network, and in case the 5G network is temporarily not operating due to internal or external environmental problems, it can be transmitted via a separately connected wireless network such as Wi-Fi. At this time, the motion capture server (200) can obtain information about changes in the network and the type of network transmitting the digital human motion information.
상기 모션캡쳐 장치는 사용자 모델(UM2)의 움직임 정보(표정 및/또는 움직임)를 캡쳐할 수 있으며, 상기 디지털휴먼 모션정보는 얼굴의 움직임을 나타내는 페이스모션정보(UF)와, 바디 및 손의 움직임을 나타내는 바디모션정보 중 적어도 어느 하나를 포함할 수 있고, 전술한 사용자 모델(UM2)의 음성정보(UV)를 더 포함할 수 있다.The above motion capture device can capture movement information (expression and/or movement) of a user model (UM2), and the digital human motion information can include at least one of face motion information (UF) indicating movement of a face and body motion information indicating movement of a body and hands, and can further include voice information (UV) of the above-described user model (UM2).
상기 페이스모션정보(UF)는, 사용자 모델(UM2)의 시선이나 표정 등을 통해 사용자 모델의 감정이나 심리 상태 등이 전달될 수 있도록 하는 것이며, 바디모션정보는 사용자 모델(UM2)의 움직임이 전달될 수 있도록 하는 것이다.The above facial motion information (UF) enables the user model's (UM2) emotions or psychological state to be conveyed through the user model's (UM2) gaze or facial expression, and the body motion information enables the user model's (UM2) movements to be conveyed.
단계 b에서 상기 디지털휴먼 서버(100)가, 미리 설정된 가상모델 구성 방법에 기초하여 가상모델을 구성할 수 있다.In step b, the digital human server (100) can configure a virtual model based on a preset virtual model configuration method.
상기 미리 설정된 가상모델 구성방법은, 상기 디지털휴먼 서버(100)와 네트워크 연결된 가상모델 생성 스튜디오(120)에 구비된 전신 캡쳐 장치를 통해 사용자 모델(UM1)을 촬영하여 사용자 이미지 정보를 수집하고, 상기 사용자 이미지 정보에 기초하여 가상모델 기초 모델링 정보를 생성하며, 상기 생성된 가상모델 기초 모델링 정보를 후처리하여 가상모델을 구성할 수 있다.The above preset virtual model configuration method can collect user image information by photographing a user model (UM1) through a full body capture device equipped in a virtual model creation studio (120) connected to the digital human server (100) through a network, generate virtual model basic modeling information based on the user image information, and configure a virtual model by post-processing the generated virtual model basic modeling information.
상기 사용자 이미지 정보에 기초하여 가상모델 기초 모델링 정보를 생성하는 것은, 사용자 모델(UM1)의 360도 전신에 대한 사용자 이미지를 수집하고, 각각의 이미지를 결합시키면서 자동화된 모델링 과정을 거쳐 가상모델 기초 모델링 정보를 생성하는 것이다. 일례로, 상기 가상모델 기초 모델링 정보는 사용자 모델(UM1)의 입체감 없는 360도 외형으로 이해될 수 있다. Generating virtual model basic modeling information based on the above user image information is to collect user images of the 360-degree full body of the user model (UM1), and generate virtual model basic modeling information by performing an automated modeling process while combining each image. For example, the virtual model basic modeling information can be understood as a 360-degree external shape of the user model (UM1) without a sense of three-dimensionality.
상기 가상모델 기초 모델링 정보는 가상모델 기초 모델링 정보에 색상 및 질감을 부여하여 입체감이 생기도록 하는 텍스쳐링(texturing) 및 가상모델 기초 모델링 정보에 관절 및 뼈대를 부여함으로써 디지털휴먼 모션정보와 결합하여 가상모델의 움직임이 가능하도록 하는 리깅(rigging) 등의 후처리를 거쳐 입체감 있는 3차원의 가상모델을 구성할 수 있다.The above virtual model basic modeling information can be post-processed to form a three-dimensional virtual model with a three-dimensional effect by texturing, which gives a three-dimensional effect by adding color and texture to the virtual model basic modeling information, and rigging, which allows the virtual model to move by combining it with digital human motion information by giving joints and bones to the virtual model basic modeling information.
상기 단계 b의 가상모델 구성은 단계 a의 디지털휴먼 모션정보의 수집과 동시에 또는 단계 a보다 먼저 이뤄질 수도 있으며, 단계 a와 단계 b는 디지털휴먼 정보를 생성하는데 있어 순서를 의미하는 것은 아니다.The virtual model configuration of step b above may be performed simultaneously with the collection of digital human motion information of step a or prior to step a, and steps a and b do not imply an order in generating digital human information.
상기 모션캡쳐 서버(200)는, 모션캡쳐 장치와 네트워크 연결되어 수집된 디지털휴먼 모션정보를 네트워크를 통해 디지털휴먼 서버(100)로 전달할 수 있다. 상기 디지털휴먼 서버(100)가, 단계 c를 통해 상기 모션캡쳐 서버(200)로부터 디지털휴먼 모션정보를 전달받은 다음, 단계 d에서는 상기 디지털휴먼 서버(100)가, 상기 디지털휴먼 모션정보를 미리 설정된 모션동기화 방법에 기초하여 상기 가상모델과 매칭하여 디지털휴먼 정보를 생성할 수 있다.The above motion capture server (200) can be connected to a motion capture device through a network and transmit the collected digital human motion information to the digital human server (100) through the network. After the digital human server (100) receives the digital human motion information from the motion capture server (200) through step c, in step d, the digital human server (100) can match the digital human motion information with the virtual model based on a preset motion synchronization method to generate digital human information.
본 발명의 일례에 따른 메타버스 모션동기화는, 전술한 네트워크를 통한 정보전달 과정에서 오는 시간 차이를 고려해야 함은 물론, 디지털휴먼 모션정보가 수집되고 가상모델의 생성, 가상모델과 상기 디지털휴먼 모션정보가 결합하여 디지털휴먼 정보를 생성하는 과정에서, 데이터 전송과 텍스쳐링 및 리깅 등의 후처리가 필요하므로 복수개의 모션이 동시에 이뤄지는 경우(예, 페이스모션정보와 바디모션정보, 페이스모션정보와 음성정보 등)에 이를 동기화하여 정확한 매칭이 이뤄지도록 하는 것이 바람직하다.Metaverse motion synchronization according to an example of the present invention must consider the time difference resulting from the process of information transmission through the aforementioned network, and in addition, in the process of collecting digital human motion information, creating a virtual model, and combining the virtual model and the digital human motion information to create digital human information, post-processing such as data transmission, texturing, and rigging is required. Therefore, in cases where multiple motions occur simultaneously (e.g., face motion information and body motion information, face motion information and voice information, etc.), it is desirable to synchronize them to ensure accurate matching.
일례로, 상기 미리 설정된 모션동기화 방법은, 상기 모션캡쳐 서버(200)가 상기 모션캡쳐 장치로부터 디지털휴먼 모션정보를 수집한 제1 시간 및 상기 디지털휴먼 서버(100)가 상기 디지털휴먼 모션정보를 전달받은 제2 시간의 차이에 기초하여 동기화가 이뤄지도록 한다.For example, the above preset motion synchronization method enables synchronization to be achieved based on the difference between a first time when the motion capture server (200) collects digital human motion information from the motion capture device and a second time when the digital human server (100) receives the digital human motion information.
디지털휴먼 정보를 생성함에 있어서, 5G 네트워크를 이용하는 경우 대용량의 데이터를 전송하더라도 전송시간이 매우 짧으므로 디지털휴먼 모션정보가 빠르게 가상모델과 매칭될 수 있다. When generating digital human information, if a 5G network is used, the transmission time is very short even when transmitting a large amount of data, so digital human motion information can be quickly matched with the virtual model.
그러나 사용자 모델의 이미지나 센서의 수가 많아 디지털휴먼 정보를 구성하는 디지털휴먼 모션정보의 데이터 크기가 매우 크거나, 5G 네트워크에 문제가 발생하여 원활한 데이터 전송이 이뤄지지 않는 경우, 또는 5G 네트워크를 대체하여 사용 가능한 Wifi 등의 무선네트워크의 속도가 늦거나 시간당 데이터 처리량 또는 전송 용량이 매우 적은 경우에는, 디지털휴먼 모션정보의 전달이 지연됨에 따라 가상모델과 디지털휴먼 모션정보의 매칭시 현실감이 떨어지는 디지털휴먼 정보의 구성이 이뤄질 수 있다.However, if the number of images or sensors of the user model is large, the data size of the digital human motion information constituting the digital human information is very large, or if there is a problem with the 5G network and smooth data transmission is not possible, or if the speed of the wireless network such as Wifi that can be used instead of the 5G network is slow or the data processing amount or transmission capacity per hour is very low, the transmission of the digital human motion information may be delayed, resulting in the composition of digital human information with low realism when matching the virtual model and the digital human motion information.
따라서 상기 디지털휴먼 모션정보가 상기 모션캡쳐 서버(200)에서 수집되는 시간(제1 시간)과 상기 디지털휴먼 모션정보가 상기 디지털휴먼 서버(100)에서 수집되는 시간(제2 시간)의 차이를 측정하고 이러한 시간 차이를 가상모델과 매칭시 고려하여 매칭함으로써 끊김을 최소화하는 자연스러운 디지털휴먼 정보가 생성될 수 있다.Accordingly, by measuring the difference between the time (first time) at which the digital human motion information is collected from the motion capture server (200) and the time (second time) at which the digital human motion information is collected from the digital human server (100), and taking this time difference into consideration when matching with the virtual model, natural digital human information that minimizes interruption can be generated.
상기 디지털휴먼 서버(100)는 상기 모션캡쳐 서버(200)로부터 디지털휴먼 모션정보와 함께 모션캡쳐 서버(200)에서 수집 및/또는 전송하는 디지털휴먼 모션정보의 수집 및/또는 전송시간 정보를 전달받을 수 있으며, 하나의 모션(동작)과 다음 모션 사이나 새로운 모션의 시작시에 해당 시간 차이를 반영하여 가상모델과 매칭되도록 함으로써 정확한 메타버스 모션동기화가 이뤄질 수 있다.The above digital human server (100) can receive digital human motion information from the motion capture server (200) along with collection and/or transmission time information of the digital human motion information collected and/or transmitted by the motion capture server (200), and can accurately achieve metaverse motion synchronization by reflecting the time difference between one motion (action) and the next motion or at the start of a new motion to match it with the virtual model.
다른 예로, 미리 설정된 모션동기화 방법에서, 상기 제1 시간은 상기 모션캡쳐 장치가 디지털휴먼 모션정보를 수집하는 시간(순간) 또는 상기 모션캡쳐 서버(200)가 상기 모션캡쳐 장치로부터 디지털휴먼 모션정보를 수집하고 이를 디지털휴먼 서버(100)로 전송하는 시간으로 설정될 수도 있으며, 상기 제2 시간은 상기 디지털휴먼 서버(100)가 상기 디지털휴먼 모션정보를 전달받고 이를 생성된 가상모델과 매칭하는 시간(순간)으로 설정될 수도 있다.As another example, in a preset motion synchronization method, the first time may be set to a time (moment) at which the motion capture device collects digital human motion information or a time at which the motion capture server (200) collects digital human motion information from the motion capture device and transmits it to the digital human server (100), and the second time may be set to a time (moment) at which the digital human server (100) receives the digital human motion information and matches it with the generated virtual model.
상기 미리 설정된 모션동기화 방법은, 이전 모션동기화 시간 이후 일정 시간이 경과한 이후인지 여부, 기준 모션정보가 디지털휴먼 모션정보에 포함되는지 여부 및 강제 모션동기화 신호가 디지털휴먼 서버(100)에 수신되었는지 여부에 따라 자동으로 실시되도록 구성될 수 있다.The above preset motion synchronization method can be configured to be automatically performed depending on whether a certain amount of time has passed since the previous motion synchronization time, whether the reference motion information is included in the digital human motion information, and whether a forced motion synchronization signal has been received by the digital human server (100).
일례로, 상기 미리 설정된 모션동기화 방법은, 일정한 시간 간격(예, 1시간)마다 상기 제1 시간과 제2 시간의 시간 차이를 측정하고, 해당 시간 차이를 모션동기화에 반영되도록 구성할 수 있다.For example, the preset motion synchronization method can be configured to measure the time difference between the first time and the second time at regular time intervals (e.g., 1 hour) and reflect the time difference in motion synchronization.
다른 예로, 상기 미리 설정된 모션동기화 방법은, 디지털휴먼 모션정보에 특정한 모션이 포함되어 있는 경우에 상기 제1 시간과 제2 시간의 시간 차이를 측정하고, 해당 시간 차이를 모션동기화에 반영되도록 구성할 수 있다. 이를 위해 상기 모션캡쳐 장치에서 수집되는 사용자 모델(UM2)의 모션정보 중 특정한 모션을 기준 모션정보로 설정할 수 있으며, 상기 디지털휴먼 모션정보는 적어도 하나 이상의 기준 모션정보를 포함할 수 있다. As another example, the above-described preset motion synchronization method can be configured to measure a time difference between the first time and the second time when a specific motion is included in the digital human motion information, and to reflect the time difference in the motion synchronization. To this end, a specific motion among the motion information of the user model (UM2) collected from the motion capture device can be set as reference motion information, and the digital human motion information can include at least one or more reference motion information.
예를 들어 상기 특정한 모션(기준 모션정보)을 인사하는 동작으로 구성할 수 있으며, 상기 디지털휴먼 모션정보에 인사하는 동작이 포함되는 경우에 자동으로 모션동기화가 이뤄질 수 있다.For example, the above specific motion (reference motion information) can be configured as a greeting motion, and if the digital human motion information includes a greeting motion, motion synchronization can be performed automatically.
상기 기준 모션정보는 자동으로 모션동기화가 이뤄지도록 하기 위한 것으로, 상기 기준 모션정보가 상기 모션캡쳐 서버(200) 또는 상기 디지털휴먼 서버(100) 중 어느 하나에 전달되는 시간마다 자동으로 동기화가 이뤄지도록 설정될 수 있다. 즉 사용자 모델(UM2)이 미리 설정된 특정한 모션(예, 인사)을 수행(동작)하는 경우, 해당 모션이 상기 모션캡쳐 서버(200) 및/또는 디지털휴먼 서버(100)에 전달되면 본 발명의 일례에 따른 메타버스 모션동기화가 자동으로 이뤄질 수 있다.The above-mentioned reference motion information is intended to automatically perform motion synchronization, and may be set to automatically perform synchronization whenever the above-mentioned reference motion information is transmitted to either the motion capture server (200) or the digital human server (100). That is, when the user model (UM2) performs (operates) a specific motion (e.g., greeting) that is preset, if the motion is transmitted to the motion capture server (200) and/or the digital human server (100), the metaverse motion synchronization according to an example of the present invention may be automatically performed.
또 다른 일례로, 도 7에 도시된 바와 같이, 디지털휴먼 서버(100)가 모션캡쳐 서버(200)로부터 디지털휴먼 모션정보를 수신하는 경우, 우선 기준 모션정보가 포함되어 있는지 여부를 판단하고, 기준 모션정보가 포함된 경우 자동으로 모션동기화가 이뤄지도록 하고 그렇지 않은 경우에는 이전 모션동기화 시간 이후 일정 시간(예, 1시간)이 경과하였는지 여부를 판단한다.As another example, as illustrated in FIG. 7, when a digital human server (100) receives digital human motion information from a motion capture server (200), it first determines whether reference motion information is included, and if reference motion information is included, motion synchronization is performed automatically, and if not, it determines whether a certain amount of time (e.g., 1 hour) has passed since the previous motion synchronization time.
만일 이전 모션동기화 시간 이후 일정 시간이 경과하였다면 자동으로 모션동기화가 이뤄지도록 하고 그렇지 않은 경우에는 강제 모션동기화 신호가 수신되었는지를 판단한다.If a certain amount of time has passed since the previous motion synchronization time, motion synchronization is performed automatically. If not, it determines whether a forced motion synchronization signal has been received.
상기 강제 모션동기화 신호는 강제적으로 모션동기화가 이뤄져야 하는 상황에서 해당 신호가 전달되는 경우 자동으로 모션동기화가 이뤄지도록 함으로써 디지털휴먼 정보가 자연스럽게 구성되도록 하기 위한 것이다. 예를 들어, 디지털휴먼 모션정보를 전달하는 네트워크의 상황이 변경되는 경우에 상기 모션캡쳐 서버(200)로부터 자동으로 상기 강제 모션동기화 신호가 상기 디지털휴먼 서버(100)로 전달되도록 구성될 수 있다. 상기 디지털휴먼 서버(100)는 강제 모션동기화 신호가 수신되는 경우 제1 시간 및 제2 시간의 시간차이를 반영하여 자동으로 모션동기화가 이뤄지도록 하고, 그렇지 않은 경우에는 모션동기화를 자동으로 수행하지 않도록 구성될 수 있다.The above-mentioned forced motion synchronization signal is intended to automatically perform motion synchronization when the signal is transmitted in a situation where motion synchronization must be performed forcibly, thereby allowing digital human information to be naturally configured. For example, when the status of the network transmitting digital human motion information changes, the forced motion synchronization signal may be configured to be automatically transmitted from the motion capture server (200) to the digital human server (100). The digital human server (100) may be configured to automatically perform motion synchronization by reflecting the time difference between the first time and the second time when the forced motion synchronization signal is received, and to not automatically perform motion synchronization otherwise.
또 다른 본 발명의 바람직한 실시예에 따르면, 상기 미리 설정된 모션동기화 방법은, 도 6에 도시된 바와 같이, 상기 모션캡쳐 장치로부터 수집된 손의 모션정보가 포함된 바디모션정보(UBH)와, 상기 손의 모션정보에 대응하여 모션캡쳐 장치로부터 수집된 바디의 모션정보가 포함된 바디모션정보(UBB)에 기초하여 동기화가 이뤄지도록 설정될 수 있다.According to another preferred embodiment of the present invention, the preset motion synchronization method may be set to perform synchronization based on body motion information (UBH) including hand motion information collected from the motion capture device, as illustrated in FIG. 6, and body motion information (UBB) including body motion information collected from the motion capture device in response to the hand motion information.
일례로, 상기 미리 설정된 모션동기화 방법은, 상기 모션캡쳐 장치로부터 수집된 손의 모션정보가 포함된 바디모션정보(UBH)가 상기 디지털휴먼 서버(100)에 수신되는 시간(제3 시간)과, 상기 손의 모션정보에 대응하여 모션캡쳐 장치로부터 수집된 바디의 모션정보가 포함된 바디모션정보(UBB)가 상기 디지털휴먼 서버(100)에 수신되는 시간(제4 시간)의 시간 차이를 반영하여 동기화가 이뤄지도록 설정될 수 있다.For example, the above preset motion synchronization method may be set to synchronize by reflecting the time difference between the time (third time) at which body motion information (UBH) including hand motion information collected from the motion capture device is received by the digital human server (100) and the time (fourth time) at which body motion information (UBB) including body motion information collected from the motion capture device in response to the hand motion information is received by the digital human server (100).
상기 제3 시간과 제4 시간의 시간 차이를 반영하여 동기화가 이뤄지게 되면, 상기 손의 모션정보가 포함된 바디모션정보(UBH)와 상기 손의 모션정보에 대응한 바디(손을 제외한)의 모션정보를 포함한 바디모션정보(UBB)가 동시에 이뤄질 수 있으므로, 자연스러운 디지털휴먼 정보가 생성(및 표시)될 수 있다.When synchronization is achieved by reflecting the time difference between the third and fourth times, body motion information (UBH) including the motion information of the hand and body motion information (UBB) including the motion information of the body (excluding the hand) corresponding to the motion information of the hand can be achieved simultaneously, so that natural digital human information can be generated (and displayed).
다른 예로, 상기 제3 시간은 손의 모션정보가 포함된 바디모션정보(UBH)가 가상모델과 결합하여 디지털휴먼 정보를 생성한 시간으로 설정될 수 있으며, 상기 제4 시간은 손의 모션정보에 대응하여 수집되는 (손을 제외한) 바디모션정보(UBB)가 가상모델과 결합하여 디지털휴먼 정보를 생성한 시간으로 설정될 수 있다. 표 1은 본 실시예에 따라 손의 모션정보가 포함된 바디모션정보(UBH)에 기초하여 생성된 디지털휴먼 정보의 생성시간(제3 시간) 및 손의 모션정보를 제외한 바디모션정보(UBB)에 기초하여 생성된 디지털휴먼 정보의 생성시간(제4 시간)과 그 차이를 나타낸다.As another example, the third time period may be set as a time when body motion information (UBH) including hand motion information is combined with a virtual model to generate digital human information, and the fourth time period may be set as a time when body motion information (UBB) (excluding the hand) collected in response to the hand motion information is combined with a virtual model to generate digital human information. Table 1 shows the generation time (third time period) of digital human information generated based on body motion information (UBH) including hand motion information and the generation time (fourth time period) of digital human information generated based on body motion information (UBB) excluding hand motion information according to the present embodiment, and the difference therebetween.
이 경우, 평균 시간 차이인 0.798초 만큼 지연하여 손의 모션정보가 포함된 바디모션정보(UBH)를 가상모델과 매칭하는 경우, 상기 손의 모션정보가 포함된 바디모션정보(UBH)와 이에 대응하여 수집되는 손을 제외한 바디모션정보(UBB)가 자연스러운 디지털휴먼 정보를 생성하게 되는 메타버스 모션동기화가 이뤄질 수 있다. In this case, when matching the body motion information (UBH) including the motion information of the hand with the virtual model by delaying by the average time difference of 0.798 seconds, metaverse motion synchronization can be achieved in which the body motion information (UBH) including the motion information of the hand and the body motion information excluding the hand (UBB) collected in response to it generate natural digital human information.
또 다른 본 발명의 바람직한 실시예에 따르면, 상기 디지털휴먼 모션정보가 상기 모션캡쳐 서버(200)에서 수집된 사용자 모델의 음성정보(UV)를 더 포함하는 경우, 상기 미리 설정된 모션동기화 방법은, 상기 음성정보(UV)가 수신되는 시간(제5 시간)과, 상기 음성정보(UV)에 대응하여 상기 모션캡쳐 장치로부터 수집된 페이스모션정보(UF)가 수신되는 시간(제6 시간)의 시간 차이를 반영하여 동기화가 이뤄지도록 설정될 수 있다.According to another preferred embodiment of the present invention, when the digital human motion information further includes voice information (UV) of a user model collected from the motion capture server (200), the preset motion synchronization method may be set to synchronize by reflecting a time difference between a time (fifth time) at which the voice information (UV) is received and a time (sixth time) at which the face motion information (UF) collected from the motion capture device corresponding to the voice information (UV) is received.
상기 제5 시간과 제6 시간의 시간 차이를 반영하여 동기화가 이뤄지게 되면, 상기 음성정보(UV)와 상기 음성정보(UV)에 대응한 페이스모션정보(UF)가 동시에 이뤄질 수 있으므로, 자연스러운 디지털휴먼 정보가 생성(및 표시)될 수 있다.When synchronization is achieved by reflecting the time difference between the above-mentioned 5th and 6th hours, the voice information (UV) and the facial motion information (UF) corresponding to the voice information (UV) can be achieved simultaneously, so that natural digital human information can be generated (and displayed).
다른 예로, 상기 제5 시간은 음성정보(UV)가 가상모델과 결합하여 디지털휴먼 정보를 생성하고 표시(예, 음성 출력)된 시간으로 설정될 수 있으며, 상기 제6 시간은 상기 음성정보(UV)에 대응하여 수집되는 페이스모션정보(UF)가 가상모델과 결합하여 디지털휴먼 정보를 생성하고 표시(예, 디지털휴먼 정보 표시)된 시간으로 설정될 수 있다. 표 2는 본 실시예에 따라 페이스모션정보(UF)에 기초하여 생성된 디지털휴먼 정보의 표시시간(제6 시간) 및 상기 페이스모션정보(UF)에 대응하여 생성된 음성정보(UV)의 출력시간(제5 시간)과 그 차이를 나타낸다.As another example, the fifth time period may be set as a time at which voice information (UV) is combined with a virtual model to generate digital human information and is displayed (e.g., voice output), and the sixth time period may be set as a time at which face motion information (UF) collected in response to the voice information (UV) is combined with a virtual model to generate digital human information and is displayed (e.g., digital human information display). Table 2 shows the display time (sixth time period) of digital human information generated based on face motion information (UF) according to the present embodiment and the output time (fifth time period) of voice information (UV) generated in response to the face motion information (UF) and the difference therebetween.
이 경우, 평균 시간 차이인 0.766초 만큼 지연하여 음성정보(UV)에 대응하는 페이스모션정보(UF)를 가상모델과 매칭하는 경우, 상기 페이스모션정보(UF)와 이에 대응하여 수집되는 음성정보(UV)가 자연스러운 디지털휴먼 정보를 생성하게 되는 메타버스 모션동기화가 이뤄질 수 있다. In this case, when matching the facial motion information (UF) corresponding to the voice information (UV) with the virtual model by delaying it by the average time difference of 0.766 seconds, metaverse motion synchronization can be achieved in which the facial motion information (UF) and the voice information (UV) collected in response to it generate natural digital human information.
또 다른 본 발명의 바람직한 실시예에 따르면, 상기 미리 설정된 모션동기화 방법은, 상기 모션캡쳐 장치로부터 수집된 페이스모션정보(UF)와, 상기 페이스모션정보(UF)에 대응하여 모션캡쳐 장치로부터 수집된 바디모션정보(UB, UBH, UBB)에 기초하여 동기화가 이뤄지도록 설정될 수 있다.According to another preferred embodiment of the present invention, the preset motion synchronization method may be set to be synchronized based on face motion information (UF) collected from the motion capture device and body motion information (UB, UBH, UBB) collected from the motion capture device in response to the face motion information (UF).
예를 들어, 상기 미리 설정된 모션동기화 방법은, 상기 모션캡쳐 장치로부터 수집된 페이스모션정보(UF)가 수신되는 시간과, 상기 페이스모션정보(UF)에 대응하여 모션캡쳐 장치로부터 수집된 바디모션정보(UB, UBH, UBB)가 수신되는 시간의 시간 차이를 반영하여 동기화가 이뤄지도록 설정될 수 있으며, 이러한 동기화는 상기 손을 포함한 바디모션정보(UBH)와 손을 제외한 바디모션정보(UBB)의 동기화와 유사하게 이뤄질 수 있으므로 자세한 설명은 생략한다.For example, the above preset motion synchronization method can be set to synchronize by reflecting the time difference between the time at which the face motion information (UF) collected from the motion capture device is received and the time at which the body motion information (UB, UBH, UBB) collected from the motion capture device in response to the face motion information (UF) is received, and since this synchronization can be performed similarly to the synchronization of the body motion information (UBH) including the hand and the body motion information (UBB) excluding the hand, a detailed description thereof is omitted.
또 다른 본 발명의 바람직한 실시예에 따르면, 도 8에 도시된 바와 같이, 상기 모션캡쳐 서버(200)는 와이파이(Wifi) 및 5G 네트워크 중 적어도 어느 하나와 연결되어 상기 모션캡쳐 장치로부터 디지털휴먼 모션정보를 수집하도록 구성되며, 상기 미리 설정된 모션동기화 방법에서, 상기 모션캡쳐 서버(200)와 연결된 네트워크의 종류에 따라 미리 설정된 가중치가 적용되어 사전 모션동기화가 이뤄질 수 있다. 이 때, 네트워크의 종류가 변경되지 않거나 네트워크의 속도가 변경되지 않으면 사전 모션동기화가 이뤄지지 않도록 설정될 수도 있고, 네트워크의 종류가 변경되지 않더라도 네트워크의 속도가 미리 설정된 범위 이상으로 변경되는 경우에는 사전 모션동기화가 이뤄지도록 설정될 수도 있다.According to another preferred embodiment of the present invention, as illustrated in FIG. 8, the motion capture server (200) is configured to collect digital human motion information from the motion capture device by being connected to at least one of a Wi-Fi and a 5G network, and in the preset motion synchronization method, a preset weight may be applied according to the type of network connected to the motion capture server (200) so that pre-motion synchronization may be performed. At this time, if the type of network does not change or the speed of the network does not change, the pre-motion synchronization may be set not to be performed, or if the speed of the network changes beyond a preset range even if the type of the network does not change, the pre-motion synchronization may be set to be performed.
상기 가중치는 네트워크의 종류에 따라 디지털휴먼 모션정보 등의 데이터를 전송하는 속도와 시간당 전송량의 차이가 발생함에 따라 이를 사전에 적용하여 시간 차이를 최소화하기 위한 것으로 이해될 수 있다.The above weights can be understood as being applied in advance to minimize time differences, as there are differences in the speed of transmitting data such as digital human motion information and the amount of data transmitted per hour depending on the type of network.
일례로, 상기 가중치는 5G 네트워크인 경우를 1로 하고, 와이파이 네트워크인 경우를 0.5~0.8, 블루투스 네트워크인 경우를 0.2~0.3으로 설정할 수 있다.For example, the weight can be set to 1 for a 5G network, 0.5 to 0.8 for a Wi-Fi network, and 0.2 to 0.3 for a Bluetooth network.
예를 들어, 상기 모션캡쳐 서버(200)가 페이스모션정보(UF)와 음성정보(UV)를 포함한 디지털휴먼 모션정보를 5G 네트워크를 통해 수집하다가 5G 네트워크에 문제가 발생하여 와이파이 네트워크로 변경되는 경우, 5G 네트워크에 비해 속도 및 시간당 전송 가능한 데이터량이 감소하여 데이터 전송에 따른 시간 차이가 더욱 커지게 되므로, 와이파이 네트워크의 속도 및 시간당 전송 가능한 데이터 전송량에 따라 0.5~0.8의 가중치를 적용하여 페이스모션정보(UF)와 음성정보(UV)의 전달 시간 차이를 최소화함으로써 신속하고 정확한 메타버스 모션동기화가 이뤄질 수 있다.For example, if the motion capture server (200) collects digital human motion information including facial motion information (UF) and voice information (UV) through a 5G network and a problem occurs in the 5G network and is changed to a Wi-Fi network, the speed and the amount of data that can be transmitted per hour decrease compared to the 5G network, so that the time difference according to data transmission becomes larger. Therefore, by applying a weight of 0.5 to 0.8 depending on the speed of the Wi-Fi network and the amount of data that can be transmitted per hour, the difference in transmission time between facial motion information (UF) and voice information (UV) can be minimized, thereby enabling rapid and accurate metaverse motion synchronization.
도 9는 본 발명의 또 다른 실시예에 따른 5G 기반의 메타버스 모션동기화 방법에 따라 생성되는 디지털휴먼 컨텐츠의 생성에 관한 순서도, 도 10은 본 발명의 또 다른 실시예에 따른 5G 기반의 메타버스 모션동기화 시스템의 구성도, 도 11은 본 발명의 또 다른 실시예에 따른 5G 기반의 메타버스 모션동기화 시스템에서 이뤄지는 디지털휴먼 컨텐츠 스트리밍의 모식도, 도 12는 본 발명의 또 다른 실시예에 따른 5G 기반의 메타버스 모션동기화 시스템에서 이뤄지는 디지털휴먼 컨텐츠 스트리밍에 관한 흐름도이다.FIG. 9 is a flowchart regarding the creation of digital human content generated according to a 5G-based metaverse motion synchronization method according to another embodiment of the present invention, FIG. 10 is a configuration diagram of a 5G-based metaverse motion synchronization system according to another embodiment of the present invention, FIG. 11 is a schematic diagram regarding digital human content streaming performed in a 5G-based metaverse motion synchronization system according to another embodiment of the present invention, and FIG. 12 is a flowchart regarding digital human content streaming performed in a 5G-based metaverse motion synchronization system according to another embodiment of the present invention.
본 발명의 또 다른 실시예에 따른 메타버스 모션동기화 시스템(1)은 전술한 모션동기화에 기초하여 상기 디지털휴먼 정보와 가상현실 컨텐츠 정보를 결합하되 상기 디지털휴먼 정보와 상기 가상현실 컨텐츠 정보의 자연스러운 결합이 이뤄지도록 하는 모션동기화가 이뤄진 디지털휴먼 컨텐츠를 생성할 수 있다.A metaverse motion synchronization system (1) according to another embodiment of the present invention can generate digital human content with motion synchronization that combines the digital human information and virtual reality content information based on the aforementioned motion synchronization, thereby allowing natural combination of the digital human information and the virtual reality content information.
상기 디지털휴먼 컨텐츠 생성은, 가상모델과 디지털휴먼 모션정보를 매칭하여 디지털휴먼 정보를 생성, 동기화 및 관리하는 디지털휴먼 서버(100)와, 디지털휴먼의 모션정보를 수집하는 모션캡쳐 서버(200)와, 가상현실 컨텐츠를 관리하는 컨텐츠관리 서버(300)와, 상기 디지털휴먼 정보와 가상현실 컨텐츠 정보를 결합하여 디지털휴먼 컨텐츠를 생성하는 메타버스 클라우드 서버(400)를 포함하여 이뤄진다.The above digital human content creation is accomplished by including a digital human server (100) that creates, synchronizes, and manages digital human information by matching a virtual model with digital human motion information, a motion capture server (200) that collects motion information of the digital human, a content management server (300) that manages virtual reality content, and a metaverse cloud server (400) that creates digital human content by combining the digital human information and virtual reality content information.
도 10에 도시된 바와 같이, 본 발명의 또 다른 실시예에 따른 5G 기반의 메타버스 모션동기화 시스템(1)은 상기 메타버스 클라우드 서버(400)에서 생성된 디지털휴먼 컨텐츠를 스트리밍하도록 구성될 수 있으며, 이를 위해 본 실시예에 따른 5G 기반의 메타버스 모션동기화 시스템은 메타버스 스트리밍 서버(500) 및 상기 디지털휴먼 컨텐츠가 스트리밍되는 사용자 단말(600)을 더 포함하여 이뤄질 수 있다.As illustrated in FIG. 10, a 5G-based metaverse motion synchronization system (1) according to another embodiment of the present invention may be configured to stream digital human content generated in the metaverse cloud server (400), and to this end, the 5G-based metaverse motion synchronization system according to the present embodiment may further include a metaverse streaming server (500) and a user terminal (600) through which the digital human content is streamed.
상기 컨텐츠관리 서버(300)는 복수의 가상현실 컨텐츠 정보를 관리하고, 상기 메타버스 클라우드 서버(400)의 요청에 의해 적어도 어느 하나의 가상현실 컨텐츠 정보를 상기 메타버스 클라우드 서버(400)로 전달하며, 사용자 모델과 디지털휴먼 정보 및 가상현실 컨텐츠 정보를 관리할 수 있다.The above content management server (300) manages a plurality of virtual reality content information, transmits at least one virtual reality content information to the metaverse cloud server (400) upon request of the metaverse cloud server (400), and can manage user models, digital human information, and virtual reality content information.
다른 일례로, 상기 컨텐츠관리 서버(300)는, 상기 메타버스 클라우드 서버(400)와 메타버스 스트리밍 서버(500)를 중계하여 메타버스 클라우드 서버(400)로부터 디지털휴먼 컨텐츠를 메타버스 스트리밍 서버(500)로 전달하도록 구성될 수도 있으며, 이 경우 상기 메타버스 클라우드 서버(400)에서 생성된 디지털휴먼 컨텐츠가 포함된 영상컨텐츠를 관리할 수 있다.As another example, the content management server (300) may be configured to relay the metaverse cloud server (400) and the metaverse streaming server (500) to transmit digital human content from the metaverse cloud server (400) to the metaverse streaming server (500), in which case, video content including digital human content generated in the metaverse cloud server (400) can be managed.
상기 복수의 가상현실 컨텐츠 정보는 상기 컨텐츠관리 서버(300)에 구비된 저장매체(미도시)에 미리 저장될 수도 있으나, 바람직하게 상기 컨텐츠관리 서버(300)와 네트워크 연결된 별도의 가상현실 컨텐츠 정보 DB(미도시)에 저장될 수 있으며, 스트리밍 가능한 영상컨텐츠 형태로 구성되어 유튜브(youtube) 등 다양한 종류의 외부 스트리밍 서버로부터 전달 받을 수도 있다.The above-mentioned plurality of virtual reality content information may be stored in advance in a storage medium (not shown) provided in the content management server (300), but may preferably be stored in a separate virtual reality content information DB (not shown) connected to the content management server (300) through a network, and may be configured in the form of streamable video content and transmitted from various types of external streaming servers such as YouTube.
일례로, 상기 가상현실 컨텐츠 정보는 교육컨텐츠, 전시컨텐츠 및 공연컨텐츠를 포함 다양한 분야에서 가상현실을 직접, 간접적으로 체험할 수 있는 영상컨텐츠에 관한 것으로, 다양한 컨텐츠 서버에서 생성 및 저장될 수 있다.For example, the above virtual reality content information relates to video content that allows for direct or indirect experience of virtual reality in various fields including educational content, exhibition content, and performance content, and can be created and stored in various content servers.
일례로, 상기 메타버스 클라우드 서버(400)는 상기 컨텐츠관리 서버(300)로부터 수신된 가상현실 컨텐츠 정보와, 사용자 모션정보와 결합하여 생성된 디지털휴먼 정보를 서로 결합하여 디지털휴먼 컨텐츠를 생성하고, 상기 디지털휴먼 컨텐츠를 메타버스 스트리밍 서버(500)로 전달할 수 있다.For example, the metaverse cloud server (400) can create digital human content by combining virtual reality content information received from the content management server (300) and digital human information generated by combining user motion information, and transmit the digital human content to the metaverse streaming server (500).
상기 메타버스 스트리밍 서버(500)는 상기 디지털휴먼 컨텐츠를 각각의 사용자 단말(600)로 제공하여 스트리밍하는 기능을 수행할 수 있으며, 후술하는 사용자별 디지털휴먼 컨텐츠를 각각의 미리 설정된 사용자 그룹별로 사용자 단말(600)로 제공하여 스트리밍하는 기능을 더욱 수행할 수 있다.The above metaverse streaming server (500) can perform a function of streaming the digital human content by providing it to each user terminal (600), and can further perform a function of streaming the digital human content for each user by providing it to each user terminal (600) by each preset user group.
상기 메타버스 스트리밍 서버(500)는 상기 디지털휴먼 컨텐츠의 실시간 스트리밍 서비스 이외에도, 다양한 형태의 영상컨텐츠를 보유할 수 있으며, 사용자별 디지털휴먼 컨텐츠를 포함하는 영상컨텐츠를 상기 컨텐츠관리 서버(300)에 제공할 수도 있다.In addition to the real-time streaming service of the digital human content, the above metaverse streaming server (500) can also possess various forms of video content and provide video content including digital human content for each user to the content management server (300).
상기 메타버스 스트리밍 서버(500)는 상기 디지털휴먼 컨텐츠는 물론 미리 설정된 사용자 그룹별로 스트리밍되는 사용자별 디지털휴먼 컨텐츠의 범위가 차별화되도록 구성될 수 있으며 상세한 내용은 후술한다.The above metaverse streaming server (500) can be configured to differentiate the range of digital human content streamed for each user group as well as the above digital human content, and details will be described later.
상기 메타버스 스트리밍 서버(500)는 사용자별로 서로 다른 다양한 형태의 사용자 단말(600)에 대응하도록 다양한 스트리밍 프로토콜을 포함하여 구성될 수 있다. The above metaverse streaming server (500) can be configured to include various streaming protocols to correspond to various types of user terminals (600) for each user.
상기 디지털휴먼 컨텐츠 스트리밍 모듈은, RTSP(Real Time Streaming Protocol), RTMP(Real Time Messaging Protocol) 등의 스트리밍 프로토콜이나 HLS(Http Live Streaming) 등의 적응형 HTTP 스트리밍 프로토콜을 동시에 또는 어느 하나를 포함할 수 있으며, 프로그레시브(Progressive) 다운로드 기능을 부가적으로 구성할 수도 있다.The above digital human content streaming module may include one or more of streaming protocols such as RTSP (Real Time Streaming Protocol), RTMP (Real Time Messaging Protocol), or adaptive HTTP streaming protocols such as HLS (Http Live Streaming), and may additionally configure a progressive download function.
상기 사용자 단말(600)은 디지털휴먼 컨텐츠를 표시할 수 있는 표시장치로 이해될 수 있으며, 표시장치가 구비된 스마트폰, 태블릿 등의 휴대단말이나 컴퓨터일 수 있고, HMD(Head Mount Display) 등의 가상현실 컨텐츠를 표시할 수 있는 VR(Virtual Reality) 장치일 수 있다. 상기 사용자 단말(600)은 이동 가능하도록 구성함으로써 언제 어디서나 다양한 디지털휴먼 컨텐츠를 활용할 수 있도록 하는 것이 바람직하며, 이를 위해 무선으로 네트워크를 구성하는 것이 바람직하다.The above user terminal (600) can be understood as a display device capable of displaying digital human content, and can be a portable terminal equipped with a display device such as a smart phone or tablet, or a computer, or a VR (Virtual Reality) device capable of displaying virtual reality content such as an HMD (Head Mount Display). It is preferable to configure the user terminal (600) to be movable so that various digital human content can be utilized anytime and anywhere, and for this purpose, it is preferable to configure a network wirelessly.
도 9에 도시된 바와 같이, 본 발명의 또 다른 실시예에 따른 5G 기반의 메타버스 모션동기화 시스템(1)에서 이뤄지는 모션동기화 방법은, 모션캡쳐 서버(200)가 디지털휴먼 모션정보를 수집하는 단계(a), 디지털휴먼 서버(100)가, 미리 설정된 가상모델 구성방법에 기초하여 가상모델을 구성하는 단계(b), 디지털휴먼 서버(100)가, 모션캡쳐 서버(200)로부터 디지털휴먼 모션정보를 수신하는 단계(c), 디지털휴먼 서버(100)가 디지털휴먼 모션정보를 상기 가상모델과 매칭하여 디지털휴먼 정보를 생성하는 단계(d)를 포함한다.As illustrated in FIG. 9, a motion synchronization method performed in a 5G-based metaverse motion synchronization system (1) according to another embodiment of the present invention includes a step (a) in which a motion capture server (200) collects digital human motion information, a step (b) in which a digital human server (100) configures a virtual model based on a preset virtual model configuration method, a step (c) in which the digital human server (100) receives digital human motion information from the motion capture server (200), and a step (d) in which the digital human server (100) matches the digital human motion information with the virtual model to generate digital human information.
다음으로 상기 디지털휴먼 서버(100)가, 디지털휴먼 정보를 상기 메타버스 클라우드 서버로 전달하는 단계(e) 및 상기 메타버스 클라우드 서버가 상기 컨텐츠관리 서버로부터 수신된 가상현실 컨텐츠 정보 및 상기 디지털휴먼 정보를 결합하여 디지털휴먼 컨텐츠를 생성하는 단계(f)를 포함할 수 있으며, 상기 메타버스 클라우드 서버가 디지털휴먼 컨텐츠를 메타버스 스트리밍 서버로 전달(g)하고, 사용자 단말(600)에서 네트워크를 통해 상기 디지털휴먼 컨텐츠의 실시간 스트리밍이 표시될 수 있다.Next, the digital human server (100) may include a step (e) of transmitting digital human information to the metaverse cloud server, and a step (f) of the metaverse cloud server combining virtual reality content information received from the content management server and the digital human information to generate digital human content, and the metaverse cloud server may transmit the digital human content to the metaverse streaming server (g), and real-time streaming of the digital human content may be displayed through a network on a user terminal (600).
상기 a 단계(가상모델 구성 단계) 및 b 단계(디지털휴먼 모션정보 수신 단계)에서는 복수의 가상모델이 생성될 수 있고, 각각의 가상모델에 매칭되는 복수의 디지털휴먼 모션정보가 수신 될 수 있다. 이를 위해, 도 10에 도시된 바와 같이, 상기 디지털휴먼 서버(100)는 복수의 가상모델 생성 스튜디오(120, 120')를 통해 각각 가상모델을 구성할 수 있으며, 상기 모션캡쳐 서버(200)는 복수의 모션정보 수집 스튜디오(240, 240')을 통해 각각 사용자별 모션정보를 수집할 수 있다.In the above step a (virtual model configuration step) and step b (digital human motion information reception step), multiple virtual models can be created, and multiple digital human motion information matching each virtual model can be received. To this end, as illustrated in FIG. 10, the digital human server (100) can configure virtual models through multiple virtual model creation studios (120, 120'), and the motion capture server (200) can collect motion information for each user through multiple motion information collection studios (240, 240').
상기 f 단계(디지털휴먼 컨텐츠를 생성하는 단계)에서는 상기 d 단계(디지털휴먼 정보를 생성하는 단계)에서 생성된 디지털휴먼 정보와 컨텐츠관리 서버로부터 수신된 가상현실 컨텐츠 정보의 결합시 본 발명의 일례에 따른 메타버스 모션동기화 방법과 유사하게 상기 디지털휴먼 정보와 가상현실 컨텐츠 정보의 동기화가 이뤄질 수 있다.In the above step f (step of generating digital human content), when the digital human information generated in the above step d (step of generating digital human information) is combined with virtual reality content information received from a content management server, synchronization of the digital human information and virtual reality content information can be achieved similarly to the metaverse motion synchronization method according to an example of the present invention.
즉 전술한 데이터의 수신 시간의 차이에 따른 모션동기화 설정, 기준 모션정보의 포함여부나, 모션동기화 시간(주기)이나 강제 모션동기화 신호 수신에 따른 자동 모션동기화 및 네트워크 환경 변화에 따른 미리 설정된 가중치가 반영된 사전 모션동기화 등의 방법이 디지털휴먼 컨텐츠 생성과정에서 이용될 수 있으며, 더욱 현장감 있는 실시간 디지털휴먼 컨텐츠 스트리밍이 이뤄질 수 있게 된다.In other words, methods such as motion synchronization settings based on the difference in the reception time of the aforementioned data, whether or not reference motion information is included, automatic motion synchronization based on motion synchronization time (cycle) or forced motion synchronization signal reception, and pre-motion synchronization reflecting preset weights based on changes in the network environment can be used in the process of creating digital human content, and more realistic real-time digital human content streaming can be achieved.
예를 들어, 상기 메타버스 클라우드 서버(400)는 상기 컨텐츠관리 서버(300)로부터 수신되는 가상현실 컨텐츠 정보를 컨텐츠관리 서버(300)에서 송신하는 시간과 메타버스 클라우드 서버(400)에서 수신하는 시간 차이를 통해 가상현실 컨텐츠 정보에 대한 지연시간 정보를 획득할 수 있다.For example, the metaverse cloud server (400) can obtain delay time information on virtual reality content information received from the content management server (300) through the difference in time between the time the content management server (300) transmits the virtual reality content information and the time the metaverse cloud server (400) receives the virtual reality content information.
다음으로 상기 디지털휴먼 정보를 디지털휴먼 서버(100)에서 송신하는 시간과 상기 메타버스 클라우드 서버(400)에서 수신하는 시간 차이를 통해 디지털휴먼 정보에 대한 지연시간 정보를 획득할 수 있다.Next, delay time information on the digital human information can be obtained through the difference in time between the time the digital human information is transmitted from the digital human server (100) and the time it is received from the metaverse cloud server (400).
상기 메타버스 클라우드 서버(400)는 상기 가상현실 컨텐츠 정보에 대한 지연시간 정보와 상기 디지털휴먼 정보에 대한 지연시간 정보를 반영하여 상기 가상현실 컨텐츠 정보와 상기 디지털휴먼 정보의 결합시 모션동기화가 이뤄지는 디지털휴먼 컨텐츠를 생성할 수 있다.The above metaverse cloud server (400) can generate digital human content in which motion synchronization is achieved when the virtual reality content information and the digital human information are combined by reflecting the delay time information for the virtual reality content information and the delay time information for the digital human information.
상기 메타버스 스트리밍 서버(500)는 복수의 사용자별 디지털휴먼 모션정보가 반영된 복수의 사용자별 디지털휴먼 컨텐츠를 상기 메타버스 클라우드 서버(400)로부터 수신하고 이를 사용자 단말(600)에 각각 전달할 때, 복수의 사용자별 디지털휴먼 컨텐츠가 하나의 메타버스 공간상에 표시되는 과정에서 서로간의 자연스러운 동작(모션)이 이뤄질 수 있도록 사용자별 모션동기화를 수행할 수 있다. 상기 복수의 사용자별 디지털휴먼 컨텐츠의 스트리밍에서의 사용자별 모션동기화는 각각의 사용자별 디지털휴먼 컨텐츠를 상기 메타버스 클라우드 서버(400)에서 송신한 시간과 상기 메타버스 스트리밍 서버(500)에서 이를 수신한 시간의 차이에 기초하여 이뤄질 수 있다.The metaverse streaming server (500) receives a plurality of user-specific digital human contents in which a plurality of user-specific digital human motion information is reflected from the metaverse cloud server (400) and transmits them to each user terminal (600), and when the metaverse streaming server (500) transmits the same to each user terminal (600), the metaverse streaming server can perform motion synchronization for each user so that natural movements (motions) can be made between the multiple user-specific digital human contents during the process of displaying the multiple user-specific digital human contents on one metaverse space. The motion synchronization for each user in the streaming of the multiple user-specific digital human contents can be performed based on the difference between the time when each user-specific digital human content is transmitted from the metaverse cloud server (400) and the time when the metaverse streaming server (500) receives it.
바람직하게 본 발명의 각각의 실시예에 따른 5G 기반의 메타버스 모션동기화 시스템(1)은 5G 네트워크로 각각의 서버(100, 200, 300, 400, 500) 및 사용자 단말(600)이 상호 연결되며, 통신상황에 따른 대응을 위해 와이파이, 블루투스(bluethooth), 유무선 Lan 등 별도의 유무선 네트워크가 선택적으로 연결되도록 구성될 수도 있다.Preferably, the 5G-based metaverse motion synchronization system (1) according to each embodiment of the present invention is configured such that each server (100, 200, 300, 400, 500) and user terminal (600) are interconnected through a 5G network, and a separate wired/wireless network such as Wi-Fi, Bluetooth, or wired/wireless Lan can be selectively connected to respond according to a communication situation.
도 12에 도시된 바와 같이, 본 발명의 또 다른 일례에 따른 메타버스 동기화 시스템(1)은 상기 사용자 단말(600)로부터 각각의 사용자의 디지털휴먼 모션정보(사용자 모션정보)를 수집하고 이를 디지털휴먼 서버(100)로 직접 전달하거나, 사용자 단말(600)로부터 수집된 각각의 사용자의 디지털휴먼 모션정보(사용자 모션정보)를 상기 모션캡쳐 서버(200)를 거쳐 디지털휴먼 서버(100)로 전달하도록 구성될 수 있다.As illustrated in FIG. 12, a metaverse synchronization system (1) according to another example of the present invention may be configured to collect digital human motion information (user motion information) of each user from the user terminal (600) and directly transmit the same to the digital human server (100), or transmit the digital human motion information (user motion information) of each user collected from the user terminal (600) to the digital human server (100) via the motion capture server (200).
일례로, 상기 사용자 단말(600)은 각각의 사용자 모션정보를 수집할 수 있도록 하는 모션캡쳐 장치를 구비할 수 있다. 상기 사용자 단말(600)에 구비된 모션캡쳐 장치는 카메라 및/또는 각종 센서(중력 센서, 가속도 센서, 자이로 센서 등)일 수 있다.For example, the user terminal (600) may be equipped with a motion capture device capable of collecting each user's motion information. The motion capture device equipped in the user terminal (600) may be a camera and/or various sensors (gravity sensor, acceleration sensor, gyro sensor, etc.).
상기 사용자 단말(600)은 상기 모션캡쳐 장치를 통해 미리 설정된 사용자 그룹별로 사용자의 디지털휴먼 모션정보를 제공할 수 있으며, 표시수단을 통해 모션동기화가 이뤄진 디지털휴먼 컨텐츠를 사용자별로 스트리밍할 수 있다.The above user terminal (600) can provide digital human motion information of users to each preset user group through the motion capture device, and can stream digital human content with motion synchronization for each user through a display means.
이 경우, 상기 메타버스 클라우드 서버(400)는 상기 컨텐츠관리 서버(300)로부터 수신된 가상현실 컨텐츠 정보와, 상기 사용자 단말(600)로부터 수신된 사용자별 모션정보와 결합하여 생성된 사용자별 디지털휴먼 정보를 서로 결합하여 사용자별 디지털휴먼 컨텐츠를 생성하고, 상기 사용자별 디지털휴먼 컨텐츠를 메타버스 스트리밍 서버(500)로 전달할 수 있다.In this case, the metaverse cloud server (400) can create user-specific digital human content by combining the virtual reality content information received from the content management server (300) and the user-specific digital human information generated by combining the user-specific motion information received from the user terminal (600), and transmit the user-specific digital human content to the metaverse streaming server (500).
이 때, 상기 메타버스 클라우드 서버(400)는 상기 가상현실 컨텐츠 정보와 사용자별 디지털휴먼 정보를 결합하는 과정에서 모션동기화를 통해 자연스러운 사용자별 디지털휴먼 컨텐츠를 생성할 수 있다.At this time, the metaverse cloud server (400) can generate natural user-specific digital human content through motion synchronization in the process of combining the virtual reality content information and user-specific digital human information.
상기 사용자별 디지털휴먼 컨텐츠는 사용자별 디지털휴먼 정보에 가상현실 컨텐츠 정보가 결합된 것으로 이해될 수 있다.The above user-specific digital human content can be understood as a combination of user-specific digital human information and virtual reality content information.
일례로, 하나의 상황(예, 모델 선발대회, 콘서트, 전시회, 교육 등)에 하나의 가상현실 컨텐츠 정보를 수신하고, 동일한 가상현실 컨텐츠 정보에 각각의 사용자별 디지털휴먼 정보를 위치 및/또는 시간만 달리하여 배치하는 형태로 구성될 수 있다. 다른 예로, 각각의 가상현실 컨텐츠 정보가 각각의 사용자별 디지털휴먼 정보에 맞춤형으로 별도로 구성되어 각각 결합하도록 함으로써 사용자별로 독창적인 디지털휴먼 컨텐츠가 생성되도록 구성될 수도 있다. For example, one virtual reality content information may be received in one situation (e.g., model selection contest, concert, exhibition, education, etc.), and digital human information for each user may be arranged in the same virtual reality content information with only different locations and/or times. As another example, each virtual reality content information may be separately configured to be customized for each user's digital human information and combined with each other, so that unique digital human content may be created for each user.
상기 미리 설정된 사용자 그룹은, 상기 가상모델과 매칭하여 사용자별 디지털휴먼 정보를 생성하는 제1 사용자 모션정보를 제공하는 제1 사용자 그룹과, 상기 제1 사용자 그룹에서 제공되는 제1 사용자 모션정보의 변경이 가능하도록 하는 제2 사용자 모션정보를 제공하는 제2 사용자 그룹을 포함할 수 있다.The above preset user group may include a first user group that provides first user motion information that matches the virtual model to generate user-specific digital human information, and a second user group that provides second user motion information that enables changes to the first user motion information provided in the first user group.
일례로, 상기 디지털휴먼 서버(100)는 상기 제2 사용자 모션정보를 미리 설정된 범위 내에서 상기 가상모델과 매칭하여 사용자별 디지털휴먼 정보를 생성할 수 있다.For example, the digital human server (100) can generate digital human information for each user by matching the second user motion information with the virtual model within a preset range.
일례로, 상기 제2 사용자 모션정보는, 모션캡쳐 장치를 통해 수집된 제2 사용자 그룹에 포함된 제2 사용자의 움직임 정보이며, 얼굴의 움직임을 나타내는 페이스모션정보와 바디 및 손의 움직임을 나타내는 바디모션정보 중 적어도 어느 하나를 포함할 수 있다.For example, the second user motion information is movement information of a second user included in a second user group collected through a motion capture device, and may include at least one of face motion information indicating facial movement and body motion information indicating body and hand movement.
상기 사용자 그룹은 가상현실 내에서 다양한 종류 및/또는 형태의 컨텐츠를 직접 또는 간접으로 경험하도록 하는 다양성을 제공하기 위해 등급 또는 단계의 형태로 구분하는 것으로 이해될 수 있다.The above user group can be understood as being divided into grades or stages in order to provide diversity in directly or indirectly experiencing various types and/or forms of content within virtual reality.
가상현실 컨텐츠 정보는 모델 선발대회, 교육, 전시, 공연 등일 수 있으며, 예를 들어, 공연의 경우 공연장에서 직접 공연하는 공연자와 해당 공연장에서 공연을 관람하는 관람자를 필요로 하고, 모델 선발대회의 경우 직접 워킹 및 각종 퍼포먼스(움직임)를 제공하는 다수의 모델과 사회자 및/또는 관람자를 필요로 한다.Virtual reality content information may be model selection contests, education, exhibitions, performances, etc. For example, in the case of a performance, performers performing in person at a performance venue and audience members watching the performance at the venue are required, and in the case of a model selection contest, multiple models performing walks and various performances (movements) directly, as well as an emcee and/or audience members are required.
이 때, 상기 제1 사용자 그룹과 제2 사용자 그룹은 각각 공연자(또는 모델)와 관람자(또는 사회자)로 이해될 수 있으며, 각각 공연장에서 행하는 동작(예, 공연-관람)과 허용되는 움직임의 범위(예, 무대 위-무대 아래) 등이 다르므로 가상현실 컨텐츠 정보와 결합하여 디지털휴먼 컨텐츠를 생성하기 위한 디지털휴먼 정보를 구성하는 모션정보에도 제한(구분)하는 것이 바람직하다.At this time, the first user group and the second user group can be understood as performers (or models) and spectators (or hosts), respectively, and since the actions performed at the performance venue (e.g., performance-spectator) and the range of permitted movements (e.g., on-stage-off-stage) are different, it is desirable to also limit (distinguish) the motion information that constitutes digital human information for generating digital human content by combining with virtual reality content information.
일례로, 상기 제1 사용자 그룹에 해당하는 사용자(들)는 실제 공연을 행하는 사람이므로, 사용자의 모든 모션정보(제1 사용자 모션정보)를 그대로 제공하여 전술한 가상모델과 매칭하여 사용자별 디지털휴먼 정보를 생성할 수 있다.For example, since the user(s) corresponding to the first user group are people who perform actual performances, all of the user's motion information (first user motion information) can be provided as is and matched with the aforementioned virtual model to generate user-specific digital human information.
이를 위해 상기 모션정보 수집 스튜디오(240)는 상기 제1 사용자 그룹의 사용자가 직접 방문하여 사용자별 디지털휴먼 모션정보를 수집하고, 수집된 제1 사용자 그룹의 사용자별 디지털휴먼 모션정보를 상기 모션캡쳐 서버(200)를 거쳐 상기 디지털휴먼 서버(100)로 전달하도록 구성될 수도 있다.To this end, the motion information collection studio (240) may be configured to allow users of the first user group to visit in person to collect digital human motion information for each user, and to transmit the collected digital human motion information for each user of the first user group to the digital human server (100) via the motion capture server (200).
일례로 상기 제2 사용자 모션정보는 상기 바디 움직임 중에서 상반신에 대한 바디모션정보만을 포함하도록 구성될 수 있다.For example, the second user motion information may be configured to include only body motion information for the upper body among the body movements.
즉, 상기 제2 사용자 그룹에 해당하는 사용자(들)는 공연이나 대회를 관람하는 사람이므로, 무대 아래에서 무대 위로의 이동을 방지하거나 일정한 크기 이상의 소리를 내지 못하도록 제한하는 것이 필요하며, 사용자의 일부 모션정보(제2 사용자 모션정보)만을 제공하여 전술한 가상모델과 매칭하여 사용자별 디지털휴먼 정보를 생성할 수 있다.That is, since the user(s) corresponding to the second user group are people watching a performance or competition, it is necessary to prevent them from moving from under the stage to on the stage or to restrict them from making sounds exceeding a certain volume, and only some of the motion information of the user (the second user motion information) can be provided to match it with the virtual model described above to generate digital human information for each user.
예를 들어, 상기 제2 사용자 그룹에 해당하는 사용자가 제공하는 제2 사용자 모션정보는 박수를 치거나, 공연자(예, 제1 사용자 그룹의 사용자)를 응원하는 플래카드를 흔드는 행동일 수 있다. 이 때, 사용자별 디지털휴먼 컨텐츠의 스트리밍이 실시간으로 이뤄지는 라이브 공연의 경우 이러한 행동이 상기 제1 사용자 그룹의 사용자에게 보여질 수 있도록 함으로써 제1 사용자 그룹에서 제공되는 제1 사용자 모션정보의 변경이 가능할 수 있으며, 공연자와 관람자간의 다양한 형태의 상호 교감을 이끌어낼 수 있도록 모션동기화를 통한 자연스러운 움직임이 이뤄지도록 하는 것이 바람직하다. For example, the second user motion information provided by a user corresponding to the second user group may be an action of clapping or waving a placard to cheer on a performer (e.g., a user of the first user group). In this case, in the case of a live performance where streaming of digital human contents for each user is performed in real time, such an action may be made visible to the users of the first user group, thereby enabling a change in the first user motion information provided by the first user group. In addition, it is desirable to enable natural movements through motion synchronization so as to induce various forms of interaction between the performer and the audience.
예를 들어, 제2 사용자 그룹의 사용자 단말(600)은 VR 장치 또는 2차원이나 3차원 표시수단을 포함할 수 있으며, 도 11에 도시된 바와 같이, 공연자(제1 사용자 그룹의 사용자)의 모습(디지털휴먼 정보, U1) 및 공연 무대(가상현실 컨텐츠 정보, MVSC, Metaverse Virtual Space Contents)가 사용자별 디지털휴먼 컨텐츠(MDHC, Metaverse Digital Human Contents)로 스트리밍되도록 구성될 수 있다.For example, the user terminal (600) of the second user group may include a VR device or a two-dimensional or three-dimensional display means, and as illustrated in FIG. 11, the appearance (digital human information, U1) and the performance stage (virtual reality content information, MVSC, Metaverse Virtual Space Contents) of the performer (user of the first user group) may be configured to be streamed as user-specific digital human content (MDHC, Metaverse Digital Human Contents).
상기 제2 사용자 그룹의 사용자 단말(600)에 제공되는 사용자별 디지털휴먼 컨텐츠(MDHC)는 제2 사용자 그룹의 사용자가 공연 무대가 아닌 관람석에 앉아 있는 제2 사용자 그룹의 다른 사용자의 모습(디지털휴먼 정보, U2)일 수도 있다.The user-specific digital human content (MDHC) provided to the user terminal (600) of the second user group may be the appearance (digital human information, U2) of another user of the second user group who is sitting in the audience rather than on the performance stage.
예를 들어, 제1 사용자 그룹의 사용자 단말(600)은 VR 장치 또는 2차원이나 3차원 표시수단을 포함할 수 있으며, 공연자의 시점에서 바라보는 공연 무대나 관람자(제2 사용자 그룹의 사용자)의 모습이 사용자별 디지털휴먼 컨텐츠(MDHC)로 스트리밍되도록 구성될 수 있다. 또한 제1 사용자 그룹의 사용자 단말(600)에서 제1 사용자의 선택에 따라 공연자인 자신의 모습이 어떻게 보여지는지를 확인할 수 있도록, 가상카메라의 각각의 위치에서 바라보는 이미지/영상 정보를 선택하여 스트리밍하도록 구성될 수도 있다.For example, the user terminal (600) of the first user group may include a VR device or a two-dimensional or three-dimensional display means, and may be configured to stream the performance stage or the appearance of the audience (user of the second user group) as viewed from the performer's point of view as user-specific digital human content (MDHC). In addition, the user terminal (600) of the first user group may be configured to select and stream image/video information viewed from each position of the virtual camera so that the performer's appearance can be confirmed according to the first user's selection.
일례로, 상기 사용자별 디지털휴먼 컨텐츠는 2 이상의 시점에서 바라본 디지털휴먼 정보를 포함하며, 상기 제1 사용자 그룹 및 제2 사용자 그룹의 사용자 단말(600) 중 적어도 어느 하나의 사용자 단말(600)은, 상기 2 이상의 시점에서 바라본 디지털휴먼 정보(U1, U1-1, U1-2)를 선택적으로 스트리밍할 수 있도록 구성될 수 있다.For example, the user-specific digital human content includes digital human information viewed from two or more viewpoints, and at least one user terminal (600) among the user terminals (600) of the first user group and the second user group can be configured to selectively stream digital human information (U1, U1-1, U1-2) viewed from the two or more viewpoints.
상기 2 이상의 시점에서 바라본 디지털휴먼 정보는 가상현실 컨텐츠 내에 구성되는 적어도 하나 이상의 가상카메라(VCAM1, VCAM2)에서 바라보는 이미지/영상 정보일 수 있다.The digital human information viewed from the above two or more viewpoints may be image/video information viewed from at least one virtual camera (VCAM1, VCAM2) configured within the virtual reality content.
일례로, 도 4 및 도 5에서 도시된 바와 같이 다수의 가상카메라(VCAM1, VCAM2)를 구성하고, 각각의 사용자 그룹의 사용자 단말(600)에서 다양한 시점에서 바라본 디지털휴먼 정보를 스트리밍할 수 있도록 구성될 수 있다.For example, as shown in FIGS. 4 and 5, multiple virtual cameras (VCAM1, VCAM2) can be configured and configured to stream digital human information viewed from various viewpoints from user terminals (600) of each user group.
예를 들어, 제1 사용자 그룹의 사용자에 의해 제공된 제1 사용자 모션정보로 형성되는 사용자별 디지털휴먼 정보(U1, U1-1, U1-2)를 복수의 가상카메라(VCAM1)의 시점에서 촬영하고 해당 영상을 제1 사용자 그룹의 사용자 단말(600)에서 선택적으로 스트리밍할 수 있도록 구성될 수 있고, 제2 사용자 그룹의 사용자에 의해 제공된 제2 사용자 모션정보로 형성되는 사용자별 디지털휴먼 정보(U2, U2-1, U2-2, U2-3)를 복수의 가상카메라(VCAM2)의 시점에서 촬영하고 해당 영상을 제1 사용자 그룹 및/또는 제2 사용자 그룹의 사용자 단말(600)에서 선택적으로 스트리밍할 수 있도록 구성될 수도 있다.For example, the user-specific digital human information (U1, U1-1, U1-2) formed by first user motion information provided by users of a first user group may be configured to be captured from the viewpoint of a plurality of virtual cameras (VCAM1) and the corresponding images may be selectively streamed from user terminals (600) of the first user group, and the user-specific digital human information (U2, U2-1, U2-2, U2-3) formed by second user motion information provided by users of a second user group may be configured to be captured from the viewpoint of a plurality of virtual cameras (VCAM2) and the corresponding images may be selectively streamed from user terminals (600) of the first user group and/or the second user group.
본 발명의 또 다른 실시예에 따르면, 상기 미리 설정된 사용자 그룹은, 사용자 모션정보를 제공하지 않는 제3 사용자 그룹을 더 포함할 수 있다.According to another embodiment of the present invention, the preset user group may further include a third user group that does not provide user motion information.
일례로, 도 11에 도시된 바와 같이, 상기 제3 사용자 그룹의 사용자 단말(600)은 상기 제1 사용자 그룹 및 제2 사용자 그룹에서 제공된 사용자 모션정보에 기초하여 생성된 디지털휴먼 컨텐츠를 단순 스트리밍 하도록 구성될 수 있다.For example, as illustrated in FIG. 11, the user terminal (600) of the third user group may be configured to simply stream digital human content generated based on user motion information provided by the first user group and the second user group.
상기 제3 사용자 그룹은 전술한 공연자 및 관람자에 각각 해당하는 제1 사용자 그룹 및 제2 사용자 그룹과는 다른 일반 시청자로 이해될 수 있으며, 공연 실황이나 공연을 녹화한 영상을 스트리밍할 수 있는 사용자일 수 있다.The above third user group may be understood as general viewers, different from the first and second user groups corresponding to the performers and spectators described above, respectively, and may be users who can stream live performances or recorded videos of performances.
예를 들어, 상기 제3 사용자 그룹의 사용자는 전술한 가상의 카메라(VCAM1, VCAM2)에서 촬영한 다양한 시점의 디지털휴먼 정보를 포함하는 디지털휴먼 컨텐츠를 선택적으로 스트리밍할 수 없도록 제한할 수 있다. For example, users of the third user group can be restricted from selectively streaming digital human content including digital human information of various viewpoints captured by the aforementioned virtual cameras (VCAM1, VCAM2).
이 경우 일반 시청자가 방송국에서 중계하는 공연 영상을 그대로 시청할 수 밖에 없는 것처럼, 상기 제3 사용자 그룹의 사용자 단말(600)은 상기 제2 사용자 그룹의 사용자(예, 관람자)와의 차별화를 위해 디지털휴먼 컨텐츠를 구성하는 기획자에 의해 미리 계획된 영상(디지털휴먼 컨텐츠)을 그대로 스트리밍하도록 하는 것이 바람직하다. 이러한 사용자 그룹별 참여, 관람 및 시청에 따른 스트리밍 범위(권한)의 차별화를 통해 단순 시청보다는 적극적인 공연 관람을 유도할 수 있다.In this case, just as general viewers have no choice but to watch the performance video broadcast by the broadcasting station as is, it is desirable for the user terminal (600) of the third user group to stream the video (digital human content) planned in advance by the planner who composes the digital human content in order to differentiate it from the users (e.g., viewers) of the second user group. Through this differentiation of streaming scope (authority) according to participation, viewing, and viewing by user group, active performance viewing can be induced rather than simple viewing.
본 실시예에 따른 메타버스 모션동기화 시스템(1)은 상기 미리 설정된 사용자 그룹별로 디지털휴먼 컨텐츠를 생성할 때와 생성된 디지털휴먼 컨텐츠를 스트리밍할 때 각각 동기화가 이뤄지도록 구성될 수 있으며, 상기 메타버스 클라우드 서버(400) 및 상기 메타버스 스트리밍 서버(500)는 각각 모션동기화를 위한 데이터 송신/수신 시간을 저장하고, 시간차이에 따라 모션동기화가 이뤄지도록 설정될 수 있다.The metaverse motion synchronization system (1) according to the present embodiment can be configured to perform synchronization when generating digital human content for each preset user group and when streaming the generated digital human content, and the metaverse cloud server (400) and the metaverse streaming server (500) can be configured to store data transmission/reception times for motion synchronization, and perform motion synchronization according to the time difference.
본 발명의 각각의 실시예에 따른 5G 기반의 메타버스 모션동기화 방법은 다양한 컴퓨터에서 실행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터로 판독 가능한 기록매체에 기록된다.The 5G-based metaverse motion synchronization method according to each embodiment of the present invention is implemented in the form of a program command that can be executed on various computers and recorded on a computer-readable recording medium.
상기 기록매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있으며, 일례로, 하드 디스크나 플로피 디스크 등의 자기 기록매체, CD나 DVD 등의 광기록 매체, 플롭티컬 디스크 등의 자기광 매체, 롬, 램, 플래쉬 메모리 등일 수 있다. The above recording medium may include program commands, data files, data structures, etc., alone or in combination, and may be, for example, a magnetic recording medium such as a hard disk or a floppy disk, an optical recording medium such as a CD or DVD, a magneto-optical medium such as a floptical disk, a ROM, a RAM, a flash memory, etc.
상기 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되거나 구성될 수 있으며, 공지되어 사용 가능한 것일 수 있다. 일례로, 상기 프로그램 명령은 기계어 코드 또는 고급 언어 코드를 포함할 수 있다.The program commands recorded on the above recording medium may be specially designed or configured for the present invention, or may be known and available. For example, the program commands may include machine language code or high-level language code.
이상에서 본 발명은 구체적인 실시예를 참조하여 상세히 설명하였으나, 상기 실시예는 본 발명을 이해하기 쉽도록 하기 위한 예시에 불과한 것이므로, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 치환, 부가 및 변형된 실시 형태들 역시 하기의 청구범위에 의하여 정해지는 본 발명의 보호범위에 속한다고 할 것이다.Although the present invention has been described in detail above with reference to specific embodiments, the embodiments are merely examples to facilitate understanding of the present invention. Therefore, embodiments that are substituted, added, and modified within the scope that does not depart from the technical spirit of the present invention are also included in the scope of protection of the present invention defined by the following claims.
1 : 메타버스 모션동기화 시스템
100 : 디지털휴먼 서버
120 : 가상모델 생성 스튜디오
200 : 모션캡쳐 서버
240 : 모션정보 수집 스튜디오
300 : 컨텐츠관리 서버
400 : 메타버스 클라우드 서버
500 : 메타버스 스트리밍 서버
600 : 사용자 단말1: Metaverse motion synchronization system 100: Digital human server
120: Virtual Model Creation Studio 200: Motion Capture Server
240: Motion information collection studio 300: Content management server
400: Metaverse Cloud Server 500: Metaverse Streaming Server
600 : User terminal
Claims (8)
a) 상기 모션캡쳐 서버(200)가, 사용자 모델의 움직임 정보로서 얼굴의 움직임을 나타내는 페이스모션정보와, 바디 및 손의 움직임을 나타내는 바디모션정보 중 적어도 어느 하나를 포함하는 디지털휴먼 모션정보를 모션캡쳐 장치를 통해 수집하는 단계;
b) 상기 디지털휴먼 서버(100)가, 미리 설정된 가상모델 구성 방법에 기초하여 가상모델을 구성하는 단계;
c) 상기 디지털휴먼 서버(100)가, 상기 모션캡쳐 서버(200)로부터 디지털휴먼 모션정보를 전달받는 단계; 및
d) 상기 디지털휴먼 서버(100)가, 상기 디지털휴먼 모션정보를 미리 설정된 모션동기화 방법에 기초하여 상기 가상모델과 매칭하여 디지털휴먼 정보를 생성하는 단계;를 포함하는, 메타버스 모션동기화 방법.
A metaverse motion synchronization method performed in a metaverse motion synchronization system (1) including a motion capture server (200) and a digital human server (100) connected to a 5G network.
a) A step in which the motion capture server (200) collects digital human motion information including at least one of face motion information indicating facial movement and body motion information indicating body and hand movement as movement information of a user model through a motion capture device;
b) A step in which the digital human server (100) configures a virtual model based on a preset virtual model configuration method;
c) a step in which the digital human server (100) receives digital human motion information from the motion capture server (200); and
d) A metaverse motion synchronization method, comprising a step of generating digital human information by matching the digital human motion information with the virtual model based on a preset motion synchronization method by the digital human server (100).
상기 미리 설정된 모션동기화 방법은,
상기 모션캡쳐 서버(200)가 상기 모션캡쳐 장치로부터 디지털휴먼 모션정보를 수집한 제1 시간 및 상기 디지털휴먼 서버(100)가 상기 디지털휴먼 모션정보를 전달받은 제2 시간의 차이에 기초하여 동기화가 이뤄지도록 하는 것임을 특징으로 하는, 메타버스 모션동기화 방법.
In paragraph 1,
The above preset motion synchronization method is,
A metaverse motion synchronization method characterized in that synchronization is achieved based on the difference between a first time when the motion capture server (200) collects digital human motion information from the motion capture device and a second time when the digital human server (100) receives the digital human motion information.
상기 디지털휴먼 모션정보는 적어도 하나 이상의 기준 모션정보를 포함하며,
상기 미리 설정된 모션동기화 방법은,
상기 기준 모션정보가, 상기 모션캡쳐 서버(200) 또는 상기 디지털휴먼 서버(100) 중 어느 하나에 전달되는 시간마다 자동으로 동기화가 이뤄지도록 하는 것임을 특징으로 하는, 메타버스 모션동기화 방법.
In paragraph 2,
The above digital human motion information includes at least one reference motion information,
The above preset motion synchronization method is,
A metaverse motion synchronization method characterized in that the above-mentioned standard motion information is automatically synchronized every time it is transmitted to either the motion capture server (200) or the digital human server (100).
상기 미리 설정된 모션동기화 방법은,
상기 모션캡쳐 장치로부터 수집된 페이스모션정보와, 상기 페이스모션정보에 대응하여 모션캡쳐 장치로부터 수집된 바디모션정보에 기초하여 동기화가 이뤄지도록 하는 것임을 특징으로 하는, 메타버스 모션동기화 방법.
In paragraph 1,
The above preset motion synchronization method is,
A metaverse motion synchronization method characterized in that synchronization is achieved based on face motion information collected from the motion capture device and body motion information collected from the motion capture device in response to the face motion information.
상기 미리 설정된 모션동기화 방법은,
상기 모션캡쳐 장치로부터 수집된 손의 모션정보가 포함된 바디모션정보와, 상기 손의 모션정보에 대응하여 모션캡쳐 장치로부터 수집된 바디의 모션정보가 포함된 바디모션정보에 기초하여 동기화가 이뤄지도록 하는 것임을 특징으로 하는, 메타버스 모션동기화 방법.
In paragraph 1,
The above preset motion synchronization method is,
A metaverse motion synchronization method characterized in that synchronization is performed based on body motion information including hand motion information collected from the motion capture device and body motion information including body motion information collected from the motion capture device in response to the hand motion information.
상기 디지털휴먼 모션정보는 상기 모션캡쳐 서버(200)에서 수집된 사용자 모델의 음성정보를 더 포함하며,
상기 미리 설정된 모션동기화 방법은,
상기 음성정보와, 상기 음성정보에 대응하여 상기 모션캡쳐 장치로부터 수집된 페이스모션정보에 기초하여 동기화가 이뤄지도록 하는 것임을 특징으로 하는, 메타버스 모션동기화 방법.
In paragraph 1,
The above digital human motion information further includes voice information of the user model collected from the motion capture server (200).
The above preset motion synchronization method is,
A metaverse motion synchronization method characterized in that synchronization is achieved based on the above voice information and the facial motion information collected from the motion capture device in response to the above voice information.
상기 모션캡쳐 서버(200)는 와이파이(Wifi) 및 5G 네트워크 중 적어도 어느 하나와 연결되어 상기 모션캡쳐 장치로부터 디지털휴먼 모션정보를 수집하도록 구성되며,
상기 미리 설정된 모션동기화 방법에서,
상기 모션캡쳐 서버(200)와 연결된 네트워크의 종류에 따라 미리 설정된 가중치가 적용되어 사전 모션동기화가 이뤄지는 것을 특징으로 하는, 메타버스 모션동기화 방법.
In paragraph 1,
The above motion capture server (200) is configured to collect digital human motion information from the motion capture device by being connected to at least one of a Wi-Fi and a 5G network.
In the above preset motion synchronization method,
A metaverse motion synchronization method characterized in that pre-motion synchronization is performed by applying preset weights according to the type of network connected to the above motion capture server (200).
모션캡쳐 장치와 네트워크 연결되어 사용자 모델의 움직임 정보로서 얼굴의 움직임을 나타내는 페이스모션정보와, 바디 및 손의 움직임을 나타내는 바디모션정보 중 적어도 어느 하나를 포함하는 디지털휴먼 모션정보를 수집하는 모션캡쳐 서버(200); 및
미리 설정된 가상모델 구성 방법에 기초하여 가상모델을 구성하는 기능, 상기 모션캡쳐 서버(200)로부터 디지털휴먼 모션정보를 전달받는 기능 및 상기 디지털휴먼 모션정보를 미리 설정된 모션동기화 방법에 기초하여 상기 가상모델과 매칭하여 디지털휴먼 정보를 생성하는 기능을 수행하는 디지털휴먼 서버(100);를 포함하는, 메타버스 모션동기화 시스템.A metaverse motion synchronization system (1) including a motion capture server (200) and a digital human server (100) connected to a 5G network,
A motion capture server (200) connected to a motion capture device and a network to collect digital human motion information including at least one of face motion information representing facial movement as movement information of a user model and body motion information representing movement of the body and hands; and
A metaverse motion synchronization system, comprising: a digital human server (100) that performs a function of configuring a virtual model based on a preset virtual model configuration method, a function of receiving digital human motion information from the motion capture server (200), and a function of generating digital human information by matching the digital human motion information with the virtual model based on a preset motion synchronization method.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020230082085A KR102840548B1 (en) | 2023-06-26 | 2023-06-26 | 5G-based metaverse motion synchronization method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020230082085A KR102840548B1 (en) | 2023-06-26 | 2023-06-26 | 5G-based metaverse motion synchronization method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20250000353A true KR20250000353A (en) | 2025-01-03 |
| KR102840548B1 KR102840548B1 (en) | 2025-07-31 |
Family
ID=94241911
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020230082085A Active KR102840548B1 (en) | 2023-06-26 | 2023-06-26 | 5G-based metaverse motion synchronization method |
Country Status (1)
| Country | Link |
|---|---|
| KR (1) | KR102840548B1 (en) |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20150324636A1 (en) * | 2010-08-26 | 2015-11-12 | Blast Motion Inc. | Integrated sensor and video motion analysis method |
| KR20170052976A (en) * | 2015-11-05 | 2017-05-15 | 삼성전자주식회사 | Electronic device for performing motion and method for controlling thereof |
| KR20230075345A (en) * | 2021-11-22 | 2023-05-31 | 옥재윤 | System for providing an integrated service for metaverse by interworking with individual metaverse servers |
-
2023
- 2023-06-26 KR KR1020230082085A patent/KR102840548B1/en active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20150324636A1 (en) * | 2010-08-26 | 2015-11-12 | Blast Motion Inc. | Integrated sensor and video motion analysis method |
| KR20170052976A (en) * | 2015-11-05 | 2017-05-15 | 삼성전자주식회사 | Electronic device for performing motion and method for controlling thereof |
| KR20230075345A (en) * | 2021-11-22 | 2023-05-31 | 옥재윤 | System for providing an integrated service for metaverse by interworking with individual metaverse servers |
Also Published As
| Publication number | Publication date |
|---|---|
| KR102840548B1 (en) | 2025-07-31 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7135141B2 (en) | Information processing system, information processing method, and information processing program | |
| CN112562433B (en) | A working method of 5G strong interactive remote delivery teaching system based on holographic terminal | |
| CN106303555B (en) | A live broadcast method, device and system based on mixed reality | |
| CN110602517B (en) | Live broadcast method, device and system based on virtual environment | |
| KR101327995B1 (en) | Apparatus and method for processing performance on stage using digital character | |
| US8990842B2 (en) | Presenting content and augmenting a broadcast | |
| TWI515032B (en) | System, method, viewing device for collaborative entertainment platform and machine-readable medium | |
| Lelyveld | Virtual reality primer with an emphasis on camera-captured VR | |
| US20140267598A1 (en) | Apparatus and method for holographic poster display | |
| WO2017214040A1 (en) | Mixed reality system | |
| JP6688378B1 (en) | Content distribution system, distribution device, reception device, and program | |
| CN104883557A (en) | Real time holographic projection method, device and system | |
| CN115442658B (en) | Live broadcast method, live broadcast device, storage medium, electronic equipment and product | |
| CN108322474B (en) | Virtual reality system based on shared desktop, related device and method | |
| KR20150105058A (en) | Mixed reality type virtual performance system using online | |
| WO2021246183A1 (en) | Information processing device, information processing method, and program | |
| KR20210084248A (en) | Method and apparatus for providing a platform for transmitting vr contents | |
| CN107818595A (en) | Wearable Instant Interaction System | |
| KR20160136160A (en) | Virtual Reality Performance System and Performance Method | |
| CN114172953A (en) | Cloud navigation method of MR mixed reality scenic spot based on cloud computing | |
| US20160179206A1 (en) | Wearable interactive display system | |
| US20180124374A1 (en) | System and Method for Reducing System Requirements for a Virtual Reality 360 Display | |
| KR102200239B1 (en) | Real-time computer graphics video broadcasting service system | |
| KR101816446B1 (en) | Image processing system for processing 3d contents displyed on the flat display and applied telepresence, and method of the same | |
| WO2013116163A1 (en) | Method of creating a media composition and apparatus therefore |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
St.27 status event code: A-0-1-A10-A12-nap-PA0109 |
|
| PA0201 | Request for examination |
St.27 status event code: A-1-2-D10-D11-exm-PA0201 |
|
| PG1501 | Laying open of application |
St.27 status event code: A-1-1-Q10-Q12-nap-PG1501 |
|
| E902 | Notification of reason for refusal | ||
| PE0902 | Notice of grounds for rejection |
St.27 status event code: A-1-2-D10-D21-exm-PE0902 |
|
| E13-X000 | Pre-grant limitation requested |
St.27 status event code: A-2-3-E10-E13-lim-X000 |
|
| P11-X000 | Amendment of application requested |
St.27 status event code: A-2-2-P10-P11-nap-X000 |
|
| P13-X000 | Application amended |
St.27 status event code: A-2-2-P10-P13-nap-X000 |
|
| E701 | Decision to grant or registration of patent right | ||
| PE0701 | Decision of registration |
St.27 status event code: A-1-2-D10-D22-exm-PE0701 |
|
| PG1601 | Publication of registration |
St.27 status event code: A-4-4-Q10-Q13-nap-PG1601 |