JP2024154850A - Information processing system, information processing method, and program - Google Patents
Information processing system, information processing method, and program Download PDFInfo
- Publication number
- JP2024154850A JP2024154850A JP2023069002A JP2023069002A JP2024154850A JP 2024154850 A JP2024154850 A JP 2024154850A JP 2023069002 A JP2023069002 A JP 2023069002A JP 2023069002 A JP2023069002 A JP 2023069002A JP 2024154850 A JP2024154850 A JP 2024154850A
- Authority
- JP
- Japan
- Prior art keywords
- information
- movement
- master
- motion information
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本開示は、情報処理システム、情報処理方法、及びプログラムに関する。 This disclosure relates to an information processing system, an information processing method, and a program.
ユーザに装着されたセンサ装置により検出された検出位置のセンサデータに基づいて、ユーザのモーションを解析し、モーション解析結果に基づいて、ユーザの画像の表示を制御する技術が知られている。 A technology is known that analyzes a user's motion based on sensor data of a detection position detected by a sensor device worn by the user, and controls the display of an image of the user based on the results of the motion analysis.
しかしながら、上記のような従来技術では、他のユーザの動きのデータを得るようなことは想定されていない。
そこで、1つの側面では、本開示は、他のユーザの動きのデータを活用することを目的とする。
However, the above-mentioned conventional techniques do not assume that data on the movements of other users will be obtained.
Therefore, in one aspect, the present disclosure aims to utilize movement data of other users.
1つの側面では、人又はモノの一部又は全体の動きの時系列を表すマスタ動き情報を記憶する記憶部と、
ユーザの一部又は全体の動きに関する第1動き情報を取得する動き取得部と、
前記動き取得部により取得された前記第1動き情報と、前記記憶部に記憶されている前記マスタ動き情報との間の類似性に関する所定パラメータの値を算出する算出部と、
前記算出部により算出された前記所定パラメータの値に基づいて、前記記憶部に記憶されている複数の前記マスタ動き情報のうちから、前記動き取得部により取得された前記第1動き情報に応じた1つ以上の前記マスタ動き情報を抽出する抽出処理部と、を備える、情報処理システムが提供される。
In one aspect, a storage unit stores master movement information representing a time series of a movement of a part or the whole of a person or an object;
A movement acquisition unit that acquires first movement information related to a movement of a part or an entirety of a user;
a calculation unit that calculates a value of a predetermined parameter related to a similarity between the first motion information acquired by the motion acquisition unit and the master motion information stored in the storage unit;
An information processing system is provided, comprising: an extraction processing unit that extracts one or more master motion information corresponding to the first motion information acquired by the motion acquisition unit from among the multiple master motion information stored in the memory unit based on the value of the specified parameter calculated by the calculation unit.
1つの側面では、本開示によれば、他のユーザの動きのデータを活用することができる。 In one aspect, the present disclosure allows for the use of movement data from other users.
以下、添付図面を参照しながら各実施形態について詳細に説明する。なお、添付図面では、見易さのために、複数存在する同一属性の部位には、一部しか参照符号が付されていない場合がある。 Each embodiment will be described in detail below with reference to the attached drawings. Note that in the attached drawings, for ease of viewing, only some of the reference symbols may be assigned to multiple parts with the same attribute.
図1を参照して、一実施形態に係る検索支援システム1の概要について説明する。図1は、本実施形態に係る検索支援システム1のブロック図である。 An overview of a search support system 1 according to one embodiment will be described with reference to FIG. 1. FIG. 1 is a block diagram of the search support system 1 according to this embodiment.
検索支援システム1は、サーバ装置10と、1つ以上の端末装置20と、を備える。図1では簡便のため、1つの端末装置20を図示しているが、端末装置20の数は任意である。 The search support system 1 includes a server device 10 and one or more terminal devices 20. For simplicity, one terminal device 20 is illustrated in FIG. 1, but the number of terminal devices 20 is arbitrary.
サーバ装置10は、例えば、本実施形態による検索支援機能を提供する1つ以上の運営者が管理するサーバ等の情報処理システムである。端末装置20は、例えば携帯電話、スマートフォン、タブレット端末、PC(Personal Computer)、ヘッドマウントディスプレイ、又はゲーム装置等の、ユーザによって使用される装置である。端末装置20は、装着型装置を含んでよい。装着型装置は、ヘッドマウントディスプレイやメガネ型装置であってもよい。メガネ型装置は、いわゆるAR(Augmented Reality)グラスやMR(Mixed Reality)グラスであってよい。いずれの場合でも、装着型装置は、端末装置20の本体とは別であってもよいし、端末装置20の一部又は全部の機能を実現してもよい。 The server device 10 is, for example, an information processing system such as a server managed by one or more operators that provides the search support function according to this embodiment. The terminal device 20 is, for example, a device used by a user, such as a mobile phone, a smartphone, a tablet terminal, a PC (Personal Computer), a head-mounted display, or a game device. The terminal device 20 may include a wearable device. The wearable device may be a head-mounted display or a glasses-type device. The glasses-type device may be so-called AR (Augmented Reality) glasses or MR (Mixed Reality) glasses. In either case, the wearable device may be separate from the main body of the terminal device 20, or may realize some or all of the functions of the terminal device 20.
端末装置20は、本実施形態に係る検索支援アプリケーションを実行可能である。検索支援アプリケーションは、ネットワーク3を介してサーバ装置10や所定のアプリケーション配信サーバから端末装置20に受信されてもよく、あるいは端末装置20に備えられた記憶装置又は端末装置20が読取可能なメモリカード等の記憶媒体にあらかじめ記憶されていてもよい。サーバ装置10及び端末装置20は、ネットワーク3を介して通信可能に接続される。例えば、サーバ装置10及び端末装置20が協動して、本実施形態による検索支援機能に関する多様な処理を実行する。 The terminal device 20 is capable of executing a search support application according to this embodiment. The search support application may be received by the terminal device 20 from the server device 10 or a specified application distribution server via the network 3, or may be stored in advance in a storage device provided in the terminal device 20 or a storage medium such as a memory card readable by the terminal device 20. The server device 10 and the terminal device 20 are connected to each other via the network 3 so as to be able to communicate with each other. For example, the server device 10 and the terminal device 20 cooperate to execute various processes related to the search support function according to this embodiment.
各端末装置20は、サーバ装置10を介して互いに通信可能に接続されている。なお、以下では、「一の端末装置20が情報を他の端末装置20に送信する」とは、「一の端末装置20が情報をサーバ装置10を介して他の端末装置20に送信する」ことを意味する。同様に、「一の端末装置20が情報を他の端末装置20から受信する」とは、「一の端末装置20が情報をサーバ装置10を介して他の端末装置20から受信する」ことを意味する。ただし、変形例では、各端末装置20は、サーバ装置10を介さずに通信可能に接続されてもよい。 The terminal devices 20 are connected to each other so that they can communicate with each other via the server device 10. In the following, "one terminal device 20 transmits information to another terminal device 20" means "one terminal device 20 transmits information to another terminal device 20 via the server device 10". Similarly, "one terminal device 20 receives information from another terminal device 20" means "one terminal device 20 receives information from another terminal device 20 via the server device 10". However, in a modified example, each terminal device 20 may be connected to each other so that they can communicate with each other without going through the server device 10.
なお、ネットワーク3は、無線通信網や、インターネット、VPN(Virtual Private Network)、WAN(Wide Area Network)、有線ネットワーク、又はこれらの任意の組み合わせ等を含んでよい。 The network 3 may include a wireless communication network, the Internet, a Virtual Private Network (VPN), a Wide Area Network (WAN), a wired network, or any combination of these.
以下では、検索支援システム1が、情報処理システムの一例を実現するが、特定の一の端末装置20の各要素が、情報処理システムの一例を実現してもよいし、複数の端末装置20が、協動して情報処理システムの一例を実現してもよい。また、サーバ装置10が単独で、情報処理システムの一例を実現してもよいし、サーバ装置10と1つ以上の端末装置20が、協動して情報処理システムの一例を実現してもよい。 In the following, the search support system 1 realizes an example of an information processing system, but each element of a specific terminal device 20 may realize an example of an information processing system, or multiple terminal devices 20 may cooperate to realize an example of an information processing system. Also, the server device 10 may independently realize an example of an information processing system, or the server device 10 and one or more terminal devices 20 may cooperate to realize an example of an information processing system.
図2は、サーバ装置10のハードウェア構成の一例を示す概略図である。図2には、サーバ装置10のハードウェア構成に関連付けて、周辺機器129が模式的に図示されている。周辺機器129は、任意であるが、ディスプレイ等であってもよい。 FIG. 2 is a schematic diagram showing an example of the hardware configuration of the server device 10. In FIG. 2, a peripheral device 129 is illustrated in association with the hardware configuration of the server device 10. The peripheral device 129 is optional, and may be a display, etc.
サーバ装置10は、バス119で接続されたCPU(Central Processing Unit)111、RAM(Random Access Memory)112、ROM(Read Only Memory)113、補助記憶装置114、ドライブ装置115、及び通信インターフェース117、並びに、通信インターフェース117に接続された有線送受信部125及び無線送受信部126を含む。 The server device 10 includes a CPU (Central Processing Unit) 111, a RAM (Random Access Memory) 112, a ROM (Read Only Memory) 113, an auxiliary storage device 114, a drive device 115, and a communication interface 117, all connected by a bus 119, as well as a wired transceiver unit 125 and a wireless transceiver unit 126 connected to the communication interface 117.
補助記憶装置114は、例えばHDD(Hard Disk Drive)や、SSD(Solid State Drive)などであり、アプリケーションソフトウェアなどに関連するデータを記憶する記憶装置である。 The auxiliary storage device 114 is, for example, a hard disk drive (HDD) or a solid state drive (SSD), and is a storage device that stores data related to application software, etc.
有線送受信部125は、有線ネットワークを利用して通信可能な送受信部を含む。有線送受信部125には、周辺機器129が接続される。ただし、周辺機器129の一部又は全部は、バス119に接続されてもよいし、無線送受信部126に接続されてもよい。 The wired transceiver 125 includes a transceiver capable of communicating over a wired network. Peripheral devices 129 are connected to the wired transceiver 125. However, some or all of the peripheral devices 129 may be connected to the bus 119 or to the wireless transceiver 126.
無線送受信部126は、無線ネットワークを利用して通信可能な送受信部である。無線ネットワークは、上述したネットワーク3を含んでよい。 The wireless transceiver 126 is a transceiver capable of communicating using a wireless network. The wireless network may include the network 3 described above.
なお、サーバ装置10は、記録媒体116と接続可能であってもよい。記録媒体116は、所定のプログラムを格納する。この記録媒体116に格納されたプログラムは、ドライブ装置115を介してサーバ装置10の補助記憶装置114等にインストールされる。インストールされた所定のプログラムは、サーバ装置10のCPU111により実行可能となる。例えば、記録媒体116は、CD(Compact Disc)-ROM、フレキシブルディスク、光磁気ディスク等のように情報を光学的、電気的あるいは磁気的に記録する記録媒体、ROM、フラッシュメモリ等のように情報を電気的に記録する半導体メモリ等であってよい。 The server device 10 may be connectable to a recording medium 116. The recording medium 116 stores a specific program. The program stored in the recording medium 116 is installed in the auxiliary storage device 114 of the server device 10 via the drive device 115. The installed specific program can be executed by the CPU 111 of the server device 10. For example, the recording medium 116 may be a recording medium that records information optically, electrically or magnetically, such as a CD (Compact Disc)-ROM, a flexible disk, or a magneto-optical disk, or a semiconductor memory that records information electrically, such as a ROM or a flash memory.
図3は、端末装置20のハードウェア構成の一例を示す概略図である。図3には、サーバ装置10のハードウェア構成に関連付けて、周辺機器260が模式的に図示されている。 Figure 3 is a schematic diagram showing an example of the hardware configuration of the terminal device 20. In Figure 3, a peripheral device 260 is illustrated in association with the hardware configuration of the server device 10.
端末装置20は、バス219で接続されたCPU211、RAM212、ROM213、補助記憶装置214、ドライブ装置215、及び通信インターフェース217、並びに、通信インターフェース217に接続された有線送受信部225及び無線送受信部226を含む。 The terminal device 20 includes a CPU 211, a RAM 212, a ROM 213, an auxiliary storage device 214, a drive device 215, and a communication interface 217, which are connected by a bus 219, as well as a wired transceiver unit 225 and a wireless transceiver unit 226 connected to the communication interface 217.
補助記憶装置214は、例えばHDDやSSDなどであり、アプリケーションソフトウェアなどに関連するデータを記憶する記憶装置である。 The auxiliary storage device 214 is, for example, a HDD or SSD, and is a storage device that stores data related to application software, etc.
有線送受信部225は、有線ネットワークを利用して通信可能な送受信部を含む。有線送受信部225には、周辺機器260が接続される。ただし、周辺機器260の一部又は全部は、バス219に接続されてもよいし、無線送受信部226に接続されてもよい。 The wired transceiver 225 includes a transceiver capable of communicating over a wired network. Peripheral devices 260 are connected to the wired transceiver 225. However, some or all of the peripheral devices 260 may be connected to the bus 219 or to the wireless transceiver 226.
無線送受信部226は、無線ネットワークを利用して通信可能な送受信部である。無線ネットワークは、上述したネットワーク3を含んでよい。 The wireless transceiver 226 is a transceiver capable of communicating using a wireless network. The wireless network may include the network 3 described above.
なお、端末装置20は、記録媒体216と接続可能であってもよい。記録媒体216は、所定のプログラムを格納する。この記録媒体216に格納されたプログラムは、ドライブ装置215を介して端末装置20の補助記憶装置214等にインストールされる。インストールされた所定のプログラムは、端末装置20のCPU211により実行可能となる。例えば、記録媒体216は、CD-ROM、フレキシブルディスク、光磁気ディスク等のように情報を光学的、電気的あるいは磁気的に記録する記録媒体、ROM、フラッシュメモリ等のように情報を電気的に記録する半導体メモリ等であってよい。 The terminal device 20 may be connectable to a recording medium 216. The recording medium 216 stores a specific program. The program stored in the recording medium 216 is installed in the auxiliary storage device 214 of the terminal device 20 via the drive device 215. The installed specific program can be executed by the CPU 211 of the terminal device 20. For example, the recording medium 216 may be a recording medium that records information optically, electrically or magnetically, such as a CD-ROM, a flexible disk, or a magneto-optical disk, or a semiconductor memory that records information electrically, such as a ROM or a flash memory.
周辺機器260は、任意であるが、本実施形態では、表示装置2623及び入力装置2624を含む。 The peripheral device 260 is optional, but in this embodiment includes a display device 2623 and an input device 2624.
表示装置2623は、例えば液晶ディスプレイ又は有機EL(Electro-Luminescence)ディスプレイ等の表示デバイスを含む。表示装置2623は、多様な画像を表示可能である。表示装置2623は、例えばタッチパネルで構成され、多様なユーザ操作を検出するインターフェースとして機能する。また、表示装置2623は、ヘッドマウントディスプレイに内蔵される形態であってよい。 The display device 2623 includes a display device such as a liquid crystal display or an organic EL (Electro-Luminescence) display. The display device 2623 is capable of displaying a variety of images. The display device 2623 is configured, for example, with a touch panel, and functions as an interface that detects a variety of user operations. The display device 2623 may also be in a form that is built into a head-mounted display.
入力装置2624は、物理キーを含んでもよいし、マウス等のようなポインティングデバイスをはじめとする任意の入力インターフェースを更に含んでもよい。また、入力装置2624は、音声入力やジェスチャ入力、視線入力のような、非接触型のユーザ入力を受付可能であってもよい。なお、ジェスチャ入力には、ユーザの各種状態を検出するためのセンサ(画像センサや、加速度センサ、距離センサ等)や、センサ技術やカメラを統合した専用モーションキャプチャー、ジョイパッドのようなコントローラ等が利用されてもよい。また、視線検出用のカメラは、ヘッドマウントディスプレイ内に配置されてもよい。なお、上述したように、ユーザの各種状態は、例えばユーザの向きや位置、動き又はその類であり、この場合、ユーザの向きや位置、動きとは、ユーザの顔や手等の身体の一部や全部の向き、位置、動きのみならず、ユーザの視線の向き、位置、動き又はその類を含む概念である。 The input device 2624 may include physical keys, or may further include any input interface including a pointing device such as a mouse. The input device 2624 may also be capable of accepting non-contact user input such as voice input, gesture input, and gaze input. For gesture input, a sensor (image sensor, acceleration sensor, distance sensor, etc.) for detecting various states of the user, a dedicated motion capture integrating sensor technology and a camera, a controller such as a joypad, etc. may be used. The camera for gaze detection may also be disposed in a head-mounted display. As described above, the various states of the user are, for example, the user's orientation, position, movement, or the like. In this case, the user's orientation, position, and movement are concepts that include not only the orientation, position, and movement of a part or all of the user's body such as the face or hands, but also the orientation, position, movement, or the like of the user's gaze.
次に、図4以降を参照して、検索支援システム1を更に説明する。 Next, the search support system 1 will be further described with reference to FIG. 4 onward.
図4は、検索支援システム1により実行される処理の流れの一例を概略的に示すフローチャートである。図5から図7は、図3に示す処理の説明図であり、図5は、加速度センサの取り付け位置の一例の説明図である。図6は、関節の一例の説明図であり、図7は、入力と出力の関係を示す図である。 Figure 4 is a flow chart showing an example of the flow of processing executed by the search support system 1. Figures 5 to 7 are explanatory diagrams of the processing shown in Figure 3, and Figure 5 is an explanatory diagram of an example of the mounting position of an acceleration sensor. Figure 6 is an explanatory diagram of an example of a joint, and Figure 7 is a diagram showing the relationship between input and output.
図4では、サーバ装置10と、端末装置20とに分けて処理が示されている。なお、データベースの機能は、便宜上、サーバ装置10とは分けて示されているが、サーバ装置10により実現されてもよい。以下では、一の端末装置20について説明するが、他の端末装置20においても同様の機能を実現できる。また、以下では、ユーザとは、特に言及しない限り、一の端末装置20のユーザを指す。 In FIG. 4, the processing is shown separately for the server device 10 and the terminal device 20. Note that although the database function is shown separately from the server device 10 for convenience, it may be realized by the server device 10. In the following, one terminal device 20 is described, but similar functions can be realized in other terminal devices 20. In the following, a user refers to a user of one terminal device 20 unless otherwise specified.
ユーザは、端末装置20を介して入力用モーション情報(第1動き情報の一例)を生成し(ステップS2100)、サーバ装置10に送信する(ステップS2110)。入力用モーション情報は、人又はモノの動きを表す情報である。入力用モーション情報は、一時点の姿勢に基づく情報であってもよいし、一連の動き(姿勢の変化)に基づく情報(時系列データ)であってもよい。 The user generates input motion information (an example of first movement information) via the terminal device 20 (step S2100) and transmits it to the server device 10 (step S2110). The input motion information is information that represents the movement of a person or an object. The input motion information may be information based on a posture at a single point in time, or may be information (time-series data) based on a series of movements (posture changes).
入力用モーション情報は、典型的には、ユーザ自身の動きを表す情報であるが、他の人(例えば友人)の動きを表す情報、犬などの動物の動きを表す情報、ロボットなどのモノの動きを表す情報等であってもよい。 The input motion information is typically information that represents the user's own movements, but it may also be information that represents the movements of other people (e.g., friends), information that represents the movements of animals such as dogs, information that represents the movements of objects such as robots, etc.
また、入力用モーション情報は、動画や静止画のような画像情報であってもよいし、画像情報に基づいて生成された情報(二次情報)であってもよい。例えば、画像情報に基づいて生成された情報は、画像処理や画像解析に基づいて、動きだけを抽出した情報や、動きを抽象化して表す情報であってもよい。 In addition, the input motion information may be image information such as a video or still image, or may be information (secondary information) generated based on image information. For example, information generated based on image information may be information that extracts only the movement based on image processing or image analysis, or information that represents the movement in an abstract form.
また、入力用モーション情報は、実際の動きに基づく情報であってもよいし、描画等により人工的に生成された情報であってもよい。例えば、入力用モーション情報は、漫画などに描画されている既存の絵等に基づいて生成されてもよいし、ユーザによる手書きの絵に基づいて生成されてもよい。 In addition, the input motion information may be information based on actual movements, or may be information artificially generated by drawing, etc. For example, the input motion information may be generated based on existing pictures drawn in manga, etc., or may be generated based on hand-drawn pictures by the user.
また、入力用モーション情報の生成には、ユーザの各種状態を検出するためのセンサ(画像センサや、加速度センサ、距離センサ等)や、センサ技術やカメラを統合した専用モーションキャプチャー、ジョイパッドのようなコントローラ等が利用されてもよい。例えば、図5には、ユーザに装着されてよい加速度センサの装着位置の例が示されている。なお、加速度センサは、ジャイロ(角速度)を検出する機能を更に有してよい。図5の場合、加速度センサは、人の体の頭部、手首、お尻、足首の合計6箇所(図5のHD、WL、WR、HP、AKL、AKR参照)に装着されるが、他の態様で装着されてもよい。 In addition, the generation of input motion information may utilize sensors for detecting various states of the user (image sensors, acceleration sensors, distance sensors, etc.), dedicated motion capture that integrates sensor technology and cameras, controllers such as joypads, etc. For example, FIG. 5 shows examples of positions at which acceleration sensors may be worn by the user. The acceleration sensor may further have a function for detecting gyro (angular velocity). In the case of FIG. 5, the acceleration sensors are worn at a total of six locations on the person's body: the head, wrist, buttocks, and ankles (see HD, WL, WR, HP, AKL, and AKR in FIG. 5), but they may be worn in other ways.
また、入力用モーション情報は、距離画像等に基づく関節の動きとして生成されてもよい。例えば、図6に示す例は、複数の関節と、関節間の骨格(リンク)とで表されるモデルである。図6に示すような関節モデルは、頭部が1つ、胴部(胴体部)、両腕部、及び両脚部がそれぞれ3つの関節を持つ16関節モデルであり、頭部は両端が関節として規定され、その他は両端及び中点の3つが関節として規定される。具体的には、関節モデルは、16個の関節A0~A15と、関節間を繋ぐ15個の骨格B1~B15(又は「部位B1~B15」とも称する)とからなる。なお、理解できるように、例えば関節A4、A7は、左右の肩の関節であり、関節A2は、頸椎に係る関節である。また、関節A14、A15は、左右の股関節であり、関節A0は、腰椎に係る関節である。また、入力用モーション情報は、指の関節のような、より細かい部分の関節の動きを含んでもよい。 The input motion information may be generated as the movement of joints based on a distance image or the like. For example, the example shown in FIG. 6 is a model represented by multiple joints and skeletons (links) between the joints. The joint model shown in FIG. 6 is a 16-joint model with one head, three torso (torso), both arms, and both legs, with both ends of the head defined as joints, and the other three ends and midpoints defined as joints. Specifically, the joint model consists of 16 joints A0 to A15 and 15 skeletons B1 to B15 (also called "parts B1 to B15") that connect the joints. As can be understood, for example, joints A4 and A7 are left and right shoulder joints, and joint A2 is a joint related to the cervical vertebrae. Also, joints A14 and A15 are left and right hip joints, and joint A0 is a joint related to the lumbar vertebrae. The input motion information may also include the movement of finer joints, such as finger joints.
また、入力用モーション情報は、動く対象(人又はモノ)の全体の動きを表してもよいし、一部であってもよい。例えば、入力用モーション情報は、身体全体の動き、身体の特定部位の動きを表してもよい。また、動きは、関節を介した各部位の動きだけでなく、顔の表情に係る動き(筋肉などの動き)を表してもよい。また、動きは、ユーザの視線の動きを表してもよい。なお、この場合、視線検出用のカメラは、ヘッドマウントディスプレイ内に配置されてもよい。 The input motion information may represent the entire movement of a moving subject (person or object), or only a part of it. For example, the input motion information may represent the movement of the entire body, or the movement of a specific part of the body. The movement may represent not only the movement of each part via the joints, but also the movement related to facial expressions (movement of muscles, etc.). The movement may represent the movement of the user's gaze. In this case, the camera for gaze detection may be placed inside the head-mounted display.
サーバ装置10は、入力用モーション情報を取得すると(ステップS2200)、所与のマスタ動き情報データベース内に記憶されるモーション情報データに対して、入力用モーション情報に係る類似パラメータの値を算出する(ステップS2210)。 When the server device 10 acquires input motion information (step S2200), it calculates the value of a similarity parameter related to the input motion information for the motion information data stored in a given master motion information database (step S2210).
入力用モーション情報に係る類似パラメータは、入力用モーション情報と比較対象の他のモーション情報との間の類似度合いを表すパラメータである。ここで、上述したように、入力用モーション情報は、動きを表す情報である。従って、入力用モーション情報と比較対象の他のモーション情報との間の類似度合いは、それぞれの動きの類似度合いに関する。入力用モーション情報に係る類似パラメータの値の算出方法は、任意であるが、例えば、特徴的な動き(例えば出現頻度が高い動きや、ユニークな動き)に、比較的重い重みが付与される態様で、算出されてもよい。 The similarity parameter related to the input motion information is a parameter that indicates the degree of similarity between the input motion information and other motion information to be compared. Here, as described above, the input motion information is information that indicates movement. Therefore, the degree of similarity between the input motion information and other motion information to be compared relates to the degree of similarity of each movement. The method of calculating the value of the similarity parameter related to the input motion information is arbitrary, but for example, it may be calculated in such a way that a relatively heavy weight is assigned to characteristic movements (e.g. movements that occur frequently or unique movements).
また、入力用モーション情報と比較対象の他のモーション情報との間の類似度合いは、入力用モーション情報及び/又は比較対象の他のモーション情報を加工した上で評価されてもよい。例えば、入力用モーション情報及び比較対象の他のモーション情報は、ダイジェストとして部分的に切り取られた部分や圧縮された部分同士が比較されてもよい。また、入力用モーション情報及び比較対象の他のモーション情報との間の類似度合いは、それぞれの時系列波形に対する周波数分析結果(例えばFFT:Fast Fourier Transform)に基づいて評価されてもよい。この場合、あるリズムに合わせて動いている場合、そのリズムに応じた周波数でピークが現れるため、リズムに合わせて動いている場合のモーション情報について類似性を適切に評価できる。また、評価に好適に利用できるその他のパラメータとしては、全体の時間(動きの時間)、テンポ(例えばBeats Per Minute)、対応するリズムに対する精度(同調度合い)等が利用されてもよい。 The degree of similarity between the input motion information and other motion information to be compared may be evaluated after processing the input motion information and/or the other motion information to be compared. For example, the input motion information and the other motion information to be compared may be compared with each other in parts that have been partially cut out or compressed as a digest. The degree of similarity between the input motion information and other motion information to be compared may be evaluated based on the frequency analysis results (e.g., FFT: Fast Fourier Transform) for each time series waveform. In this case, when moving in accordance with a certain rhythm, a peak appears at a frequency corresponding to that rhythm, so that the similarity of the motion information when moving in accordance with the rhythm can be appropriately evaluated. Other parameters that can be suitably used for evaluation may include the total time (time of movement), tempo (e.g., Beats Per Minute), accuracy (degree of synchronization) with respect to the corresponding rhythm, etc.
また、入力用モーション情報と比較対象の他のモーション情報との間の類似度合いは、動きに関する類似度合いだけであってもよいが、その他の要素(芸術性や、対応付けられている楽曲や背景)の類似性を含んでもよい。この場合、入力用モーション情報は、動き以外の付属情報(例えば音楽や背景)を含んでもよい。また、その他の要素や付属情報としては、アタバーのパーツ、衣装の種類、ID、仮想空間内のアバターの場所、日付、ユーザの属性(国、言語、年齢、性別等)等を含んでよい。 The degree of similarity between the input motion information and other motion information to be compared may be only the degree of similarity regarding the movement, but may also include similarity of other elements (artistic quality, associated music, and background). In this case, the input motion information may include additional information other than the movement (e.g., music and background). Other elements and additional information may include avatar parts, type of costume, ID, location of the avatar in the virtual space, date, user attributes (country, language, age, gender, etc.), etc.
なお、比較対象の他のモーション情報を記憶するマスタ動き情報データベース内には、典型的には、多数の比較対象のモーション情報が蓄積されてもよい。この場合、多数の比較対象のモーション情報のそれぞれに対して、入力用モーション情報に係る類似パラメータの値が算出されてよい。この場合、マスタ動き情報データベース内の比較対象のモーション情報の蓄積量が多いほど、マスタ動き情報データベース内には、入力用モーション情報に係る類似パラメータの値が高くなるような比較対象のモーション情報が存在する可能性が高くなる。なお、マスタ動き情報データベースは、複数存在してもよい。従って、ある一のマスタ動き情報データベースを利用した場合に、入力用モーション情報に係る類似パラメータの値が閾値以上となるような比較対象の他のモーション情報が得られない場合、他のマスタ動き情報データベースが利用されてもよい。 Note that a large number of pieces of motion information to be compared may typically be stored in the master motion information database that stores other pieces of motion information to be compared. In this case, the value of a similarity parameter related to the input motion information may be calculated for each of the many pieces of motion information to be compared. In this case, the greater the amount of motion information to be compared stored in the master motion information database, the greater the likelihood that the master motion information database contains motion information to be compared that has a high value of a similarity parameter related to the input motion information. Note that there may be multiple master motion information databases. Therefore, when one master motion information database is used, if no other motion information to be compared is obtained that has a similarity parameter related to the input motion information that is equal to or greater than a threshold value, another master motion information database may be used.
サーバ装置10は、入力用モーション情報に係る類似パラメータの値を算出する(ステップS2210)と、算出結果に基づいて、当該入力用モーション情報に応じた1つ以上のマスタ動き情報を抽出する(ステップS2220)。抽出する1つ以上のマスタ動き情報は、例えば、入力用モーション情報に係る類似パラメータの値が閾値以上となるような比較対象の他のモーション情報(マスタ動き情報データベース内のモーション情報)を含んでよい。あるいは、抽出する1つ以上のマスタ動き情報は、例えば、入力用モーション情報に係る類似パラメータの値が閾値以上となるような比較対象の他のモーション情報のうちの、最も類似パラメータの値が高い比較対象の他のモーション情報だけであってもよい。 The server device 10 calculates the value of a similarity parameter related to the input motion information (step S2210), and extracts one or more master motion information corresponding to the input motion information based on the calculation result (step S2220). The one or more master motion information to be extracted may include, for example, other motion information to be compared (motion information in the master motion information database) for which the value of a similarity parameter related to the input motion information is equal to or greater than a threshold value. Alternatively, the one or more master motion information to be extracted may be only other motion information to be compared that has the highest similarity parameter value among other motion information to be compared that has a similarity parameter value related to the input motion information equal to or greater than a threshold value.
なお、上述したように、サーバ装置10は、複数のサーバコンピュータにより形成されてよい。従って、サーバ装置10を形成する一のサーバコンピュータは、サーバ装置10を形成する他の一のサーバコンピュータと連携して、該入力用モーション情報に応じた1つ以上のマスタ動き情報を抽出してもよい。この場合、サーバコンピュータ同士はAPI(Application Programming Interface)を介して連携されてもよい。 As described above, the server device 10 may be formed by multiple server computers. Therefore, one server computer forming the server device 10 may cooperate with another server computer forming the server device 10 to extract one or more pieces of master movement information corresponding to the input motion information. In this case, the server computers may cooperate with each other via an API (Application Programming Interface).
サーバ装置10は、入力用モーション情報に応じた1つ以上のマスタ動き情報を抽出する(ステップS2220)と、抽出結果を出力する(ステップS2230)。抽出結果の出力先は、任意であり、抽出結果は、例えば入力用モーション情報に係るユーザに向けて出力されてもよいし、サーバ装置10内の他の処理用に出力されてもよい。 The server device 10 extracts one or more pieces of master motion information corresponding to the input motion information (step S2220) and outputs the extraction results (step S2230). The destination of the extraction results is arbitrary, and the extraction results may be output, for example, to a user related to the input motion information, or may be output for other processing within the server device 10.
このようにして、本実施形態では、検索支援システム1は、入力用モーション情報が入力されると、入力用モーション情報に基づいて、当該入力用モーション情報に応じた1つ以上のマスタ動き情報を抽出及び出力する。 In this way, in this embodiment, when input motion information is input, the search support system 1 extracts and outputs one or more pieces of master movement information corresponding to the input motion information based on the input motion information.
ここで、マスタ動き情報とは、人又はモノの一部又は全体の動きの時系列を表す情報であり、入力用モーション情報と同様の情報であってよい。例えば、マスタ動き情報は、動きの時系列として、人の表情に関する動きの時系列、及び、関節を有する人又はモノの部位の動きの時系列のうちの、少なくともいずれか一方を含んでよい。ただし、マスタ動き情報は、入力用モーション情報とは異なり、あらかじめ用意(管理及び蓄積)されている情報(マスタ動き情報データベース内のモーション情報)である。マスタ動き情報の供給源は、任意であるが、例えば著名なパーフォーマーや演者の実演データや、アニメーションや動画等であってもよい。ただし、この場合、使用許諾(例えば著作権関連の使用許諾)が得られていることを前提としてもよいし、有償サービスとして展開されてもよい。 The master motion information here is information that represents a time series of the movement of a part or the whole of a person or object, and may be the same information as the input motion information. For example, the master motion information may include, as a time series of movement, at least one of a time series of movements related to a person's facial expressions and a time series of movements of parts of a person or object that have joints. However, unlike the input motion information, the master motion information is information that is prepared (managed and accumulated) in advance (motion information in a master motion information database). The source of the master motion information is arbitrary, and may be, for example, performance data of a famous performer or actor, animation, video, etc. However, in this case, it may be assumed that a license (for example a copyright-related license) has been obtained, or it may be developed as a paid service.
以下では、一の入力用モーション情報が入力されると抽出されうる1つ以上のマスタ動き情報を、一の入力用モーション情報に対応する1つ以上のマスタ動き情報とも称する。また、この場合の一の入力用モーション情報は、抽出される1つ以上のマスタ動き情報に対応する入力用モーション情報とも称する。 In the following, one or more pieces of master motion information that may be extracted when one piece of input motion information is input will also be referred to as one or more pieces of master motion information corresponding to one piece of input motion information. In addition, one piece of input motion information in this case will also be referred to as input motion information corresponding to one or more pieces of master motion information that are extracted.
一の入力用モーション情報と、当該一の入力用モーション情報に対応する1つ以上のマスタ動き情報とは、上述したように、当該一の入力用モーション情報に係る類似パラメータの値が閾値以上となるような関係を有する。なお、上述したように、一の入力用モーション情報と、当該一の入力用モーション情報に対応する1つ以上のマスタ動き情報とは、必ずしも同じような長さ(時間的な長さ)のモーションを表すとは限らない。例えば、一の入力用モーション情報に対応する1つ以上のマスタ動き情報は、一の入力用モーション情報よりも有意に長い又は短いモーションを表す情報であってもよい。より具体的には、例えば、一の入力用モーション情報が比較的時間の長い動画に基づくのに対して、当該一の入力用モーション情報に対応する1つ以上のマスタ動き情報は、比較的時間の短い動画(例えばTikTok(登録商標)のようなショート動画)であってもよい。 As described above, a single piece of input motion information and one or more pieces of master motion information corresponding to the single piece of input motion information have a relationship in which the value of the similarity parameter related to the single piece of input motion information is equal to or greater than a threshold value. As described above, a single piece of input motion information and one or more pieces of master motion information corresponding to the single piece of input motion information do not necessarily represent motions of similar length (time length). For example, one or more pieces of master motion information corresponding to the single piece of input motion information may represent motions that are significantly longer or shorter than the single piece of input motion information. More specifically, for example, while a single piece of input motion information is based on a video that lasts a relatively long time, one or more pieces of master motion information corresponding to the single piece of input motion information may be a video that lasts a relatively short time (for example, a short video such as TikTok (registered trademark)).
なお、本実施形態において、一の入力用モーション情報に対するマスタ動き情報の抽出条件は、ユーザによりカスタマイズ可能とされてもよい。この場合、カスタマイズ可能な抽出条件は、任意であるが、閾値や属性に関してもよいし、演者に関してもよい。例えば、女性演者に係るマスタ動き情報だけが抽出されるような抽出条件が設定されてもよい。 In this embodiment, the extraction conditions for the master motion information for one piece of input motion information may be customizable by the user. In this case, the customizable extraction conditions are arbitrary, and may relate to thresholds, attributes, or performers. For example, extraction conditions may be set such that only master motion information related to female performers is extracted.
検索支援システム1は、このようにして抽出したマスタ動き情報をそのまま出力してもよいし、加工等を加えた上で出力してもよい。出力先は、任意であるが、例えば入力用モーション情報を入力したユーザに設定されてもよい。この場合、ある動きに関するマスタ動き情報を入手したいユーザは、当該動きに類似する動きを表す入力用モーション情報を生成し、生成した入力用モーション情報を検索支援システム1に入力すれば、目的を果たすことができる。すなわち、当該ユーザは、当該動きに係るマスタ動き情報を得ることが可能となりうる。これにより、当該ユーザは、一から自身で同様のモーション情報を制作する必要がなくなり、利便性が向上する。例えば、図7には、左側に入力用モーション情報の一例が示されている。この場合、入力用モーション情報を入力すると、対応するマスタ動き情報が得られるので、ユーザは、入力用モーション情報に応じたマスタ動き情報を利用できる。 The search support system 1 may output the master motion information extracted in this manner as is, or may output it after processing, etc. The output destination is arbitrary, but may be set to the user who input the input motion information, for example. In this case, a user who wants to obtain master motion information for a certain movement can achieve the purpose by generating input motion information representing a movement similar to the movement and inputting the generated input motion information to the search support system 1. In other words, the user may be able to obtain master motion information related to the movement. This eliminates the need for the user to create similar motion information from scratch, improving convenience. For example, an example of input motion information is shown on the left side of FIG. 7. In this case, when input motion information is input, corresponding master motion information is obtained, so that the user can use the master motion information corresponding to the input motion information.
このような本実施形態の検索支援システム1によれば、動き情報の類似性に基づくデータ検索機能を実現できるので、利便性が向上する。例えば、ユーザは、言葉に表現し難い動き等に基づいて所望のマスタ動き情報の取得が可能であり、利便性が向上する。また、検索対象は、マスタ動き情報としてあらかじめ管理しておくことが可能であり、検索領域を限定して処理負荷の低減を図ることが可能となる。 According to the search support system 1 of this embodiment, a data search function based on the similarity of movement information can be realized, improving convenience. For example, a user can obtain desired master movement information based on movements that are difficult to express in words, improving convenience. In addition, the search target can be managed in advance as master movement information, making it possible to limit the search area and reduce the processing load.
ところで、ユーザが、モーションデータを含む動画等を検索した場合、従来は、その動画等に紐付けられている文字列(タイトルやハッシュハグによる曲名、タレント名など)をもとに抽出するしかなかった。しかしながら、動画等によっては、文字列が付加されていないような場合も考えられる。 When a user searches for a video or other content that includes motion data, conventionally, the only way to extract the data is based on a character string associated with the video or other content (such as the title, a song title using a hash hug, or a celebrity name). However, there may be cases where no character string is attached to the video or other content.
これに対して本実施形態によれば、ユーザが例えば手足を動かして入力用モーション情報を生成すると、その入力用モーション情報をもちいて類似のモーション自体や類似モーションを含む動画等を検索することができる。
本実施形態においては、マスタ動き情報は、視聴対象として検索されてもよい。すなわち、ユーザは、マスタ動き情報を利用するためでなく、視聴するために検索支援システム1を利用してもよい。この場合、検索支援システム1は、視聴目的の検索と、制作目的の検索とで、検索対象を異ならせてもよい。例えば、視聴目的の検索の場合、マスタ動き情報として検索されうる動きデータは、視聴用に制作された動画(例えばTikTok(登録商標)やYouTube(登録商標)又はその類で視聴可能な動画)であってもよい。この場合、ユーザは、新たな視聴用動画の検索方法を利用して効率的に所望の動画を視聴できる。
また、本実施形態においては、所望のマスタ動き情報を検索するために用いる入力用モーション情報は、感情的要素(エモート)を表す情報であってもよく、この場合、エモートを表す情報は、対応する表情の画像や、対応する感情を表す文字情報等を含んでよい。この場合、所望のエモートに対応したマスタ動き情報を検索でき、それに基づいて、後述するようなアニメーション等の生成が可能となる。例えば、ユーザは、複数提示されうるマスタ動き情報のうちから、所望のマスタ動き情報を選択し、選択したマスタ動き情報に基づいて、後述するようなアニメーション等の生成が可能となる。この場合、入力用モーション情報は、ユーザ自身の動きであるので、例えばぎこちない動きを表す情報でありうる。しかしながら、それに基づき検索されるマスタ動き情報は、キレのある動き(動きが上手なユーザが生成したもの等、まるでユーザ自身の動きが修正されたような動き)でありえ、その場合、ユーザは、このようなキレのある動きを、自身のアバターに反映させること(後述のアバターモーション情報の生成を参照)も可能となる。
In contrast, according to this embodiment, when a user generates input motion information, for example by moving his or her arms and legs, that input motion information can be used to search for similar motions or videos that include similar motions.
In this embodiment, the master motion information may be searched for as a viewing target. That is, a user may use the search support system 1 for viewing, not for using the master motion information. In this case, the search support system 1 may have different search targets for searches for viewing purposes and searches for production purposes. For example, in the case of a search for viewing purposes, the motion data that can be searched for as the master motion information may be videos produced for viewing (e.g., videos that can be viewed on TikTok (registered trademark), YouTube (registered trademark), or the like). In this case, a user can efficiently watch a desired video by using a new method for searching videos for viewing.
In addition, in this embodiment, the input motion information used to search for the desired master motion information may be information representing an emotional element (emote), and in this case, the information representing the emote may include an image of a corresponding facial expression, text information representing a corresponding emotion, or the like. In this case, the master motion information corresponding to the desired emote can be searched, and based on the information, animations, etc., as described below, can be generated. For example, the user selects the desired master motion information from among a plurality of pieces of master motion information that may be presented, and based on the selected master motion information, animations, etc., as described below, can be generated. In this case, since the input motion information is the user's own motion, it may be information representing, for example, awkward motion. However, the master motion information searched based on the information may be a sharp motion (such as a motion generated by a user who is good at motion, as if the user's own motion has been corrected), and in that case, the user may reflect such a sharp motion in his or her avatar (see the generation of avatar motion information, described below).
図8は、検索支援システム1により実行される処理の流れの他の一例を概略的に示すフローチャートである。 Figure 8 is a flowchart that shows an outline of another example of the processing flow executed by the search support system 1.
図8に示す例は、図4に示す例に対して、抽出結果を出力する処理(ステップS2230)の具体例を含む点が異なる。図8に示す例は、図4に示す例のステップS2230として、ステップS22301やステップS22302の処理を含む。 The example shown in FIG. 8 differs from the example shown in FIG. 4 in that it includes a specific example of a process (step S2230) for outputting the extraction results. The example shown in FIG. 8 includes the processes of steps S22301 and S22302 as step S2230 of the example shown in FIG. 4.
具体的には、サーバ装置10は、端末装置20に向けて抽出結果(第2動き情報の一例)を送信し(ステップS22301)、端末装置20は、表示装置2623を介して抽出結果をユーザに出力する(ステップS2120)。なお、表示装置2623を介した抽出結果の出力態様は、任意であり、動画再生のよう形態で、1つ以上のマスタ動き情報に基づく動画が再生されてもよい。あるいは、抽出された1つ以上のマスタ動き情報へのアクセスを可能するURLなどのリンクが出力されてもよい。この場合、サーバ装置10から端末装置20へ送信される抽出結果は、抽出された1つ以上のマスタ動き情報へのアクセスを可能するURLなどのリンク情報を含んでよい。このような構成によれば、通信負荷を低減できる。 Specifically, the server device 10 transmits the extraction result (an example of the second movement information) to the terminal device 20 (step S22301), and the terminal device 20 outputs the extraction result to the user via the display device 2623 (step S2120). Note that the manner in which the extraction result is output via the display device 2623 is arbitrary, and a video based on one or more pieces of master movement information may be played in a form similar to video playback. Alternatively, a link such as a URL that allows access to the extracted one or more pieces of master movement information may be output. In this case, the extraction result transmitted from the server device 10 to the terminal device 20 may include link information such as a URL that allows access to the extracted one or more pieces of master movement information. With such a configuration, the communication load can be reduced.
ユーザは、抽出された1つ以上のマスタ動き情報に基づいて、マスタ動き情報を自身のアバターに反映させたいと思うと、その旨の反映指示を生成し、サーバ装置10に送信してもよい(ステップS2130)。なお、反映指示は、抽出された1つ以上のマスタ動き情報のうちの、どの1つ以上のマスタ動き情報を利用するかの指示を含んでよい。 When the user wishes to reflect the master movement information on his/her avatar based on the one or more pieces of extracted master movement information, the user may generate a reflection instruction to that effect and send it to the server device 10 (step S2130). Note that the reflection instruction may include an instruction as to which one or more pieces of extracted master movement information to use.
この場合、サーバ装置10は、マスタ動き情報を特定のアバター(例えばユーザ自身のアバター)に反映させたモーション情報(以下、区別のため、「アバターモーション情報」とも称する)(第2動き情報の一例)を生成する。そして、サーバ装置10は、生成したアバターモーション情報を端末装置20に向けて送信する(ステップS22302)。この場合、端末装置20は、受信したアバターモーション情報を、表示装置2623を介してユーザに出力してよい(ステップS2140)。なお、表示装置2623を介したアバターモーション情報の出力態様は、任意であり、動画再生のよう形態で、アバターモーション情報に基づく動画が再生されてもよい。あるいは、生成されたアバターモーション情報を再生可能なWEBサイトへのアクセスを可能するURLなどのリンクが出力されてもよい。この場合、サーバ装置10から端末装置20へ送信されるアバターモーション情報は、アバターモーション情報へのアクセスを可能するURLなどのリンク情報を含んでよい。このような構成によれば、アバターモーション情報を動画ファイル形式で端末装置20に送信する場合に比べて、通信負荷を低減できる。あるいは、サーバ装置10から端末装置20へ送信されるアバターモーション情報は、アバターモーション情報の一部だけでもよい。例えば、アバターモーション情報をユーザのアバターに反映させる際に必要な情報(例えばメタデータなど)だけがサーバ装置10から端末装置20へ送信されてもよい。例えば、この場合、端末装置20は、端末装置20側で備える情報(例えばユーザのアバターの情報)を利用して、アバターモーション情報に基づく動画を再生してよい。この場合も、アバターモーション情報を動画ファイル形式で端末装置20に送信する場合に比べて、通信負荷を低減できる。また、ユーザのアバターの情報(パーツのID、身につけているアイテムのID)、音声データなどのようなメタデータ部分をタイムスタンプと関連づけて保存することで、端末装置20でこれらのデータを再現(クライアントレンダリング)することとしてもよい。 In this case, the server device 10 generates motion information (hereinafter, for the sake of distinction, also referred to as "avatar motion information") (an example of second motion information) in which the master motion information is reflected in a specific avatar (for example, the user's own avatar). Then, the server device 10 transmits the generated avatar motion information to the terminal device 20 (step S22302). In this case, the terminal device 20 may output the received avatar motion information to the user via the display device 2623 (step S2140). Note that the output mode of the avatar motion information via the display device 2623 is arbitrary, and a video based on the avatar motion information may be played in a form similar to video playback. Alternatively, a link such as a URL that enables access to a WEB site that can play the generated avatar motion information may be output. In this case, the avatar motion information transmitted from the server device 10 to the terminal device 20 may include link information such as a URL that enables access to the avatar motion information. According to such a configuration, the communication load can be reduced compared to the case where the avatar motion information is transmitted to the terminal device 20 in a video file format. Alternatively, the avatar motion information transmitted from the server device 10 to the terminal device 20 may be only a part of the avatar motion information. For example, only information (e.g., metadata, etc.) required to reflect the avatar motion information on the user's avatar may be transmitted from the server device 10 to the terminal device 20. For example, in this case, the terminal device 20 may play a video based on the avatar motion information using information (e.g., information on the user's avatar) stored on the terminal device 20 side. In this case, the communication load can be reduced compared to the case where the avatar motion information is transmitted to the terminal device 20 in the form of a video file. In addition, by storing metadata such as information on the user's avatar (parts ID, ID of the item worn), audio data, etc. in association with a timestamp, the terminal device 20 may reproduce these data (client rendering).
ここで、マスタ動き情報をユーザのアバターの動きに反映させる方法は、任意であるが、例えばマスタ動き情報が、関節や部位ごとに時系列の動きデータを有する場合、アバターの対応する各関節や部位に、同様の時系列の動きデータを与えることとしてもよい。この際、マスタ動き情報のモデルとなる人又はモノと、ユーザのアバターとが、関節数や部位の長さが異なる場合、かかる相違点は適宜補正されてよい。例えば、マスタ動き情報のモデルとなる人の関節のうちの、時系列の動きデータが対応付けられている関節の数が、ユーザのアバターの関節の数よりも少ない場合、アバターの他の関節の動きは、インバースキネマティック等の技術を利用して適宜補正されてもよい。 Here, the method of reflecting the master movement information in the movement of the user's avatar is arbitrary, but for example, if the master movement information has time-series movement data for each joint or part, similar time-series movement data may be given to each corresponding joint or part of the avatar. In this case, if the person or object that is the model for the master movement information and the user's avatar differ in the number of joints or the length of parts, such differences may be appropriately corrected. For example, if the number of joints associated with time-series movement data among the joints of the person that is the model for the master movement information is fewer than the number of joints of the user's avatar, the movements of the other joints of the avatar may be appropriately corrected using techniques such as inverse kinematics.
また、ユーザのアバターの動きに反映させるマスタ動き情報の数は、任意であり、例えば2つ以上のマスタ動き情報を組み合わせてユーザのアバターの動きに反映させることが可能とされてもよい。この場合、2つ以上のマスタ動き情報は、時分割的に組み合わせられてもよいし、関節や部位ごとに異なるマスタ動き情報が反映される態様で、組み合わせられてもよい。 The number of pieces of master movement information to be reflected in the movement of the user's avatar is arbitrary, and for example, two or more pieces of master movement information may be combined and reflected in the movement of the user's avatar. In this case, the two or more pieces of master movement information may be combined in a time-division manner, or may be combined in such a manner that different master movement information is reflected for each joint or body part.
次に、図9以降を参照して、本実施形態の検索支援システム1の更なる詳細を説明する。 Next, further details of the search support system 1 of this embodiment will be described with reference to Figure 9 onwards.
図9は、本実施形態の検索支援システム1の一例を概略的に示すブロック図である。図10は、アバター情報記憶部142内のデータの一例を示す説明図である。図11は、マスタ動き情報記憶部144内のデータの一例を示す説明図である。なお、図10及び図11において、「***」は、なんらかの情報が格納されている状態を示し、「・・・」は、同様の情報の格納の繰り返し状態を示す。図12は、プロフィール画像の説明図である。図13A及び図13Bは、自動再生用のアニメーションコンテンツの説明図である。図14は、複数のアバターのモーションに係る説明図である。図15は、マスタ動き情報の階層構造の説明図である。 Fig. 9 is a block diagram showing an example of the search support system 1 of this embodiment. Fig. 10 is an explanatory diagram showing an example of data in the avatar information storage unit 142. Fig. 11 is an explanatory diagram showing an example of data in the master movement information storage unit 144. In Figs. 10 and 11, "***" indicates a state in which some information is stored, and "..." indicates a state in which similar information is repeatedly stored. Fig. 12 is an explanatory diagram of a profile image. Figs. 13A and 13B are explanatory diagrams of animation content for automatic playback. Fig. 14 is an explanatory diagram related to the motions of multiple avatars. Fig. 15 is an explanatory diagram of the hierarchical structure of master movement information.
なお、以下の検索支援システム1の機能は、サーバ装置10又は1つ以上の端末装置20若しくはこれらの任意の組み合わせにより実現されてもよい。 The functions of the search support system 1 described below may be realized by a server device 10, one or more terminal devices 20, or any combination of these.
図9に示す例では、検索支援システム1は、ユーザ情報記憶部140、アバター情報記憶部142、マスタ動き情報記憶部144、入力用モーション情報取得部150、類似性算出部152、抽出処理部154、出力処理部156、表示用モーション生成部158、コンテンツ生成部160、情報管理部162、記憶処理部164、プロフィール画像生成部166、アニメーション生成部168、及びアニメーション再生処理部170を含む。 In the example shown in FIG. 9, the search support system 1 includes a user information storage unit 140, an avatar information storage unit 142, a master movement information storage unit 144, an input motion information acquisition unit 150, a similarity calculation unit 152, an extraction processing unit 154, an output processing unit 156, a display motion generation unit 158, a content generation unit 160, an information management unit 162, a storage processing unit 164, a profile image generation unit 166, an animation generation unit 168, and an animation playback processing unit 170.
なお、入力用モーション情報取得部150等の各処理部は、図2に示したCPU111及び/又は図3に示したCPU211が、記憶装置(例えばROM113、213等)により実現できる。また、評価用情報記憶部190やユーザ情報記憶部192のような記憶部は、図2に示した補助記憶装置114や図3に示した補助記憶装置214により実現できる。 Note that each processing unit such as the input motion information acquisition unit 150 can be realized by the CPU 111 shown in FIG. 2 and/or the CPU 211 shown in FIG. 3 using a storage device (e.g., ROM 113, 213, etc.). Also, storage units such as the evaluation information storage unit 190 and the user information storage unit 192 can be realized by the auxiliary storage device 114 shown in FIG. 2 and the auxiliary storage device 214 shown in FIG. 3.
ユーザ情報記憶部140には、ユーザIDや、それに対応付けられているアバターID等が記憶されてよい。なお、ユーザ情報記憶部140が端末装置20により実現される場合、ユーザ情報記憶部140は、対応する端末装置20のユーザに係るアバターIDだけを記憶してよい。また、ユーザ情報記憶部140がサーバ装置10により実現される場合、ユーザ情報記憶部140は、各ユーザに係るユーザIDやアバターIDを記憶してよい。 The user information storage unit 140 may store user IDs and associated avatar IDs. When the user information storage unit 140 is realized by a terminal device 20, the user information storage unit 140 may store only the avatar IDs related to the users of the corresponding terminal devices 20. When the user information storage unit 140 is realized by a server device 10, the user information storage unit 140 may store user IDs and avatar IDs related to each user.
アバター情報記憶部142には、ユーザのアバターに関するアバター情報が格納される。図10に示す例では、アバター情報700は、各アバターIDに、顔パーツID、髪型パーツID、服装パーツID等が対応付けられる。顔パーツID、髪型パーツID、服装パーツID等の容姿に係るパーツ情報は、アバターを特徴付けるパラメータであり、対応する各ユーザにより選択されてよい。例えば、アバターに係る顔パーツID、髪型パーツID、服装パーツID等の容姿に係る情報は、複数種類用意される。また、顔パーツIDについては、顔の形、目、口、鼻等の各種類にそれぞれパーツIDが用意され、顔パーツIDに係る情報は、当該顔を構成する各パーツのIDの組み合わせで管理されてもよい。この場合、各アバターIDに紐付けられた容姿に係る各IDに基づいて、サーバ装置10のみならず端末装置20側においても各アバターを描画することが可能となる。 The avatar information storage unit 142 stores avatar information related to the user's avatar. In the example shown in FIG. 10, in the avatar information 700, each avatar ID is associated with a face part ID, a hairstyle part ID, a clothing part ID, etc. The part information related to appearance, such as the face part ID, hairstyle part ID, clothing part ID, etc., is a parameter that characterizes the avatar, and may be selected by each corresponding user. For example, multiple types of information related to appearance, such as the face part ID, hairstyle part ID, clothing part ID, etc., related to the avatar are prepared. In addition, for the face part ID, a part ID is prepared for each type, such as face shape, eyes, mouth, nose, etc., and the information related to the face part ID may be managed as a combination of IDs of each part that constitutes the face. In this case, it is possible to draw each avatar not only on the server device 10 but also on the terminal device 20 side based on each ID related to appearance linked to each avatar ID.
また、本実施形態では、アバター情報は、対応するアバターの関節情報や部位情報を含んでよい。 In addition, in this embodiment, the avatar information may include joint information and body part information of the corresponding avatar.
アバターの関節情報は、例えば図6に示したような各関節のうちの、どの関節を有するか(機能するか)や、関節の位置関係(例えば正規姿勢での位置関係)の情報、関節の可動範囲(自由度)等を含んでよい。部位情報は、各関節をつなぐ部位の形状等の情報を含んでよい。 The avatar's joint information may include, for example, which joints the avatar has (which joints function), information on the positional relationship of the joints (e.g., the positional relationship in a normal posture), the range of motion of the joints (degrees of freedom), etc. The part information may include information such as the shape of the parts connecting the joints.
なお、アバター情報記憶部142が端末装置20により実現される場合、アバター情報記憶部142は、対応する端末装置20のユーザに係るアバター情報だけを記憶してよい。また、アバター情報記憶部142がサーバ装置10により実現される場合、アバター情報記憶部142は、各ユーザに係るアバター情報を記憶してよい。 When the avatar information storage unit 142 is realized by a terminal device 20, the avatar information storage unit 142 may store only avatar information related to the user of the corresponding terminal device 20. When the avatar information storage unit 142 is realized by a server device 10, the avatar information storage unit 142 may store avatar information related to each user.
マスタ動き情報記憶部144は、図4等を参照して上述したマスタ動き情報データベースに対応する。マスタ動き情報記憶部144には、上述したように抽出対象となるマスタ動き情報が記憶される。なお、マスタ動き情報の記憶形式は、任意であり、例えば動画ファイルの形式であってもよいし、当該動画ファイルに基づいて抽出されたモーション情報(例えば各関節の動きの時系列データ)の形式であってもよい。また、マスタ動き情報ごとに、記憶形式が異なってもよい。図11に示す例では、マスタ動き情報記憶部144には、マスタ動き情報IDごとに、モーションデータや、音響情報、背景情報、ハードウェア情報、ユニークネス情報、管理情報等の各種情報アイテムが対応付けられている。モーションデータは、上述したように、動きを表すデータであってよい。音響情報や背景情報、ハードウェア情報、ユニークネス情報等は、対応付けられない場合がある任意の情報アイテムであってよい。例えば、マスタ動き情報が音楽に合わせた動きである場合、当該マスタ動き情報には音響情報が紐付けられてもよい。また、マスタ動き情報が特定の背景をバックに撮像されているような動画である場合、当該マスタ動き情報には、その背景情報が紐付けられてもよい。また、ハードウェア情報は、マスタ動き情報の取得に用いられたハードウェア(例えば加速度センサや深度カメラ等)を特定可能な情報である。ハードウェア情報は、フレームレートや、記録時刻、位置情報等を含んでよい。また、ユニークネス情報は、対応するモーションデータのユニークネス(オリジナリティ)を表す情報である。また、ハードウェア情報は、サーバ装置10又は端末装置20内で実行されるサブプロセスやエミュレーションによる仮想ハードウェアを表してもよい。ユニークネス情報は、人工知能等に基づいて自動的に評価されてもよい。また、ユニークネス情報は、例えば、既に記憶されている他のマスタ動き情報との間の類似性に関するパラメータ(例えば類似パラメータ)の値に基づいて生成されてもよい。また、ユニークネス情報に係るユニークネスは、モーションデータ単独で評価されてもよいが、音響情報や背景情報、ハードウェア情報等との組み合わせで評価されてもよい。また、管理情報は、タグ付け用の文字情報や、対応するマスタ動き情報の作成者(演者など)、作成日時等の情報を含んでよい。また、管理情報は、対応するマスタ動き情報を利用する場合の利用条件の情報を含んでよい。利用条件は、例えば有償の場合の費用等に基づく条件を含んでもよいし、加工の可否、デフォルメの要否等を含んでよい。また、利用条件は、利用者の手足の長さ(又はアバターの手足の長さ)やハードウェア構成に関する条件を含んでもよい。 The master motion information storage unit 144 corresponds to the master motion information database described above with reference to FIG. 4 and the like. The master motion information storage unit 144 stores the master motion information to be extracted as described above. The storage format of the master motion information is arbitrary, and may be, for example, the format of a video file, or the format of motion information extracted based on the video file (for example, time-series data of the motion of each joint). The storage format may be different for each piece of master motion information. In the example shown in FIG. 11, the master motion information storage unit 144 is associated with various information items such as motion data, audio information, background information, hardware information, uniqueness information, and management information for each master motion information ID. The motion data may be data representing a motion, as described above. The audio information, background information, hardware information, uniqueness information, and the like may be any information item that may not be associated. For example, when the master motion information is a motion that matches music, the audio information may be associated with the master motion information. When the master motion information is a video that is captured against a specific background, the background information may be associated with the master motion information. The hardware information is information that can identify the hardware (e.g., acceleration sensor, depth camera, etc.) used to acquire the master motion information. The hardware information may include frame rate, recording time, position information, etc. The uniqueness information is information that represents the uniqueness (originality) of the corresponding motion data. The hardware information may represent a sub-process executed in the server device 10 or the terminal device 20 or virtual hardware by emulation. The uniqueness information may be automatically evaluated based on artificial intelligence, etc. The uniqueness information may be generated based on the value of a parameter (e.g., a similarity parameter) related to the similarity between other master motion information that has already been stored. The uniqueness related to the uniqueness information may be evaluated by the motion data alone, or may be evaluated in combination with audio information, background information, hardware information, etc. The management information may include character information for tagging, information such as the creator (performer, etc.) of the corresponding master motion information, and the creation date and time. The management information may include information on the usage conditions when using the corresponding master motion information. The usage conditions may include, for example, conditions based on costs in the case of paid use, whether processing is possible, whether deformation is required, etc. The usage conditions may also include conditions regarding the length of the user's limbs (or the length of the avatar's limbs) and the hardware configuration.
また、マスタ動き情報記憶部144には、探索範囲(後述する類似性算出部152による算出対象の範囲)を絞ることを可能とする付加情報が記憶されてもよい。例えば、付加情報は、マスタ動き情報に係る動きの属性(例えば、ダンス、スポーツ、日常の動きなど)を含んでもよい。 The master movement information storage unit 144 may also store additional information that allows the search range (the range of objects to be calculated by the similarity calculation unit 152, described later) to be narrowed down. For example, the additional information may include attributes of the movement related to the master movement information (e.g., dance, sports, daily movements, etc.).
なお、マスタ動き情報記憶部144は、比較的大量のデータを記憶するのが好適であるため、サーバ装置10により実現されるのが好適であるが、複数の端末装置20により実現されてもよい。 The master movement information storage unit 144 is preferably implemented by a server device 10 since it is suitable for storing a relatively large amount of data, but may also be implemented by multiple terminal devices 20.
入力用モーション情報取得部150は、入力用モーション情報を取得する。入力用モーション情報は、上述したとおりである。 The input motion information acquisition unit 150 acquires input motion information. The input motion information is as described above.
なお、入力用モーション情報取得部150は、端末装置20単独で実現されてもよい。この場合、端末装置20は、対応するユーザからの入力用モーション情報を取得する。他方、入力用モーション情報取得部150は、複数の端末装置20及びサーバ装置10により実現されてもよく、この場合、サーバ装置10は、端末装置20を介して各ユーザからの入力用モーション情報を取得してもよい。 The input motion information acquisition unit 150 may be realized by the terminal device 20 alone. In this case, the terminal device 20 acquires input motion information from the corresponding user. On the other hand, the input motion information acquisition unit 150 may be realized by multiple terminal devices 20 and the server device 10. In this case, the server device 10 may acquire input motion information from each user via the terminal device 20.
本実施形態では、入力用モーション情報取得部150は、ユーザからのモーション情報要求に対応付けて入力用モーション情報を取得する。ユーザからのモーション情報要求は、後述する表示用モーション情報の取得に関連した要求であり、後述する絞り込み情報や特定のアバターを指定する情報(後述するアバターモーション情報の生成を要求する場合)等を含んでよい。 In this embodiment, the input motion information acquisition unit 150 acquires input motion information in association with a motion information request from a user. The motion information request from a user is a request related to the acquisition of display motion information, which will be described later, and may include filtering information, which will be described later, information specifying a specific avatar (when requesting the generation of avatar motion information, which will be described later), and the like.
類似性算出部152は、入力用モーション情報取得部150により取得された入力用モーション情報と、マスタ動き情報記憶部144に記憶されているマスタ動き情報との間の類似性に関する所定パラメータの値を算出する。所定パラメータは、上述した類似パラメータであってよい。 The similarity calculation unit 152 calculates the value of a predetermined parameter related to the similarity between the input motion information acquired by the input motion information acquisition unit 150 and the master motion information stored in the master motion information storage unit 144. The predetermined parameter may be the similarity parameter described above.
類似性算出部152は、一の入力用モーション情報に関して、マスタ動き情報記憶部144に記憶されているすべてのマスタ動き情報のそれぞれに対する類似パラメータの値を算出してもよいが、好ましくは、処理負荷を低減する観点から、算出対象が絞られてよい。例えば、一の入力用モーション情報の属性が判別可能である場合、同一の属性を有するマスタ動き情報だけに算出対象が絞られてもよい。また、一の入力用モーション情報が動き以外の付属情報を含む場合、当該付属情報に基づいて、算出対象が絞られてよい。例えば、付属情報は、ユーザにより入力可能な絞り込み情報であってもよい。例えば、付属情報は、“***ダンス”といった文字情報を含んでもよい。また、付属情報は、入力用モーション情報の取得に用いたハードウェア資源(例えば加速度センサなど)に関する情報を含んでよい。この場合、同じ又は同様の系列のハードウェア資源を用いて取得されたマスタ動き情報だけに、算出対象が絞られてもよい。また、付属情報は、背景情報を含んでよい。また、付属情報は、音響情報を含んでもよい。この場合、同じ系統の音響情報が紐付けられているマスタ動き情報だけに、算出対象が絞られてもよい。また、付属情報は、背景情報を含んでよい。背景情報は、入力用モーション情報が画像情報である場合、動いている人やモノの背景に関する情報である。この場合も、同じ系統の背景情報が紐付けられているマスタ動き情報だけに、算出対象が絞られてもよい。 The similarity calculation unit 152 may calculate the value of the similarity parameter for each of all the master motion information stored in the master motion information storage unit 144 for one input motion information, but preferably, the calculation target may be narrowed down from the viewpoint of reducing the processing load. For example, when the attribute of one input motion information is distinguishable, the calculation target may be narrowed down to only the master motion information having the same attribute. Furthermore, when one input motion information includes auxiliary information other than the motion, the calculation target may be narrowed down based on the auxiliary information. For example, the auxiliary information may be narrowed down information that can be input by the user. For example, the auxiliary information may include text information such as "*** dance". Furthermore, the auxiliary information may include information regarding the hardware resource (e.g., an acceleration sensor, etc.) used to acquire the input motion information. In this case, the calculation target may be narrowed down to only the master motion information acquired using the same or similar series of hardware resources. Furthermore, the auxiliary information may include background information. Furthermore, the auxiliary information may include audio information. In this case, the calculation target may be narrowed down to only the master motion information to which the same series of audio information is linked. The auxiliary information may also include background information. When the input motion information is image information, the background information is information about the background of a moving person or object. In this case, the calculation target may be limited to only master motion information that is linked to background information of the same type.
本実施形態では、類似性算出部152は、動き類似性評価部1521と、その他の類似性評価部1522とを含む。 In this embodiment, the similarity calculation unit 152 includes a movement similarity evaluation unit 1521 and an other similarity evaluation unit 1522.
動き類似性評価部1521は、動き同士の類似性に関するパラメータの値を算出する。この場合、入力用モーション情報に係る動きとマスタ動き情報に係る動き同士が比較される。なお、上述したように、動き同士の比較方法は、上述した類似パラメータの値の算出方法と同様であってよい。 The movement similarity evaluation unit 1521 calculates the value of a parameter related to the similarity between movements. In this case, the movements related to the input motion information and the movements related to the master movement information are compared. As described above, the method of comparing the movements may be the same as the method of calculating the value of the similarity parameter described above.
なお、関節を介して動く人の動きに関しては、類似性に関するパラメータの値は、関節角度、関節角度の変化態様、関節位置、関節位置の変化態様、及び関節間の長さのうちの少なくともいずれか1つに基づいて算出されてもよい。これらのパラメータの値の時系列波形やその周波数分析結果が類似性の比較に利用されてもよい。なお、関節角度は、内積などの他のパラメータで評価されてもよい。 For human movements that involve joints, the value of a parameter related to similarity may be calculated based on at least one of the joint angle, the change in the joint angle, the joint position, the change in the joint position, and the length between the joints. Time-series waveforms of the values of these parameters or the results of frequency analysis thereof may be used to compare similarities. The joint angle may be evaluated using other parameters such as the dot product.
その他の類似性評価部1522は、動き同士以外の類似性に関するパラメータの値を算出する。この場合、上述した属性や付属情報が考慮されてよい。 The other similarity evaluation unit 1522 calculates parameter values related to similarities other than between movements. In this case, the attributes and additional information described above may be taken into consideration.
類似性算出部152は、動き同士の類似性に関するパラメータの算出値と、動き同士以外の類似性に関するパラメータの算出値とに基づいて、所定パラメータの最終的な値を算出してよい。なお、類似性の算出には、人工知能が利用されてもよい。 The similarity calculation unit 152 may calculate the final value of the predetermined parameter based on the calculated value of the parameter related to the similarity between the movements and the calculated value of the parameter related to the similarity other than between the movements. Note that artificial intelligence may be used to calculate the similarity.
抽出処理部154は、類似性算出部152による算出結果に基づいて、1つ以上のマスタ動き情報を抽出する。類似性算出部152による算出結果に基づくマスタ動き情報の抽出方法は、任意であるが、所定パラメータの値が最も大きいマスタ動き情報を抽出してもよいし、所定パラメータの値が最も大きい順に所定個のマスタ動き情報を抽出してもよい。あるいは、所定パラメータの値が閾値以上のマスタ動き情報をすべて抽出してもよい。 The extraction processing unit 154 extracts one or more pieces of master motion information based on the calculation results by the similarity calculation unit 152. The method of extracting the master motion information based on the calculation results by the similarity calculation unit 152 is arbitrary, but the master motion information with the largest value of a specified parameter may be extracted, or a specified number of pieces of master motion information may be extracted in descending order of the value of the specified parameter. Alternatively, all master motion information with a value of a specified parameter equal to or greater than a threshold value may be extracted.
出力処理部156は、抽出処理部154により抽出された1つ以上のマスタ動き情報に基づいて生成される表示用モーション情報を人に視認可能に出力する。出力処理部156は、任意の表示装置に出力してもよい。例えば端末装置20の表示装置2623のような特定の人が見る端末に表示してもよいし、デジタルサイネージのような、不特定多数が見る装置に表示してもよい。 The output processing unit 156 outputs the display motion information generated based on one or more pieces of master motion information extracted by the extraction processing unit 154 in a manner that is visible to humans. The output processing unit 156 may output to any display device. For example, the information may be displayed on a terminal viewed by specific people, such as the display device 2623 of the terminal device 20, or may be displayed on a device viewed by an unspecified number of people, such as digital signage.
本実施形態では、出力処理部156は、モーション情報要求が所定条件を満たす場合、表示用モーション情報を出力してもよい。所定条件は、任意であるが、著作権や公序良俗等に関する条件を含んでよい。また、所定条件は、表示用モーション情報のユニーク性を担保するための条件を含んでよい。この場合、ユニーク性は、表示用モーション情報と、それに対応する元のマスタ動き情報との関係に基づいて、評価されてもよい。 In this embodiment, the output processing unit 156 may output the display motion information if the motion information request satisfies a predetermined condition. The predetermined condition is arbitrary, but may include conditions related to copyright, public order, and morals. The predetermined condition may also include a condition for ensuring the uniqueness of the display motion information. In this case, the uniqueness may be evaluated based on the relationship between the display motion information and the original master motion information corresponding to it.
表示用モーション生成部158は、抽出処理部154により抽出された1つ以上のマスタ動き情報に基づいて、出力処理部156により出力される表示用モーション情報を生成する。 The display motion generation unit 158 generates display motion information to be output by the output processing unit 156 based on one or more pieces of master motion information extracted by the extraction processing unit 154.
表示用モーション情報は、抽出処理部154により抽出された2つ以上のマスタ動き情報をまとめて表示する情報であってもよいし、マスタ動き情報ごとに生成されてもよい。一のマスタ動き情報に係る表示用モーション情報は、当該一のマスタ動き情報自体であってもよいし、当該一のマスタ動き情報に基づいて生成された新たな別の情報であってもよい。後者の場合、一のマスタ動き情報に係る表示用モーション情報は、当該一のマスタ動き情報を加工して生成されてもよい。この場合、加工方法は、任意であるが、例えばダイジェスト版(概略バージョン)に短縮する加工や、背景や音楽のリズム等を変化させる加工を含んでよい。 The display motion information may be information that collectively displays two or more pieces of master motion information extracted by the extraction processing unit 154, or may be generated for each piece of master motion information. The display motion information related to a piece of master motion information may be the piece of master motion information itself, or may be new information generated based on the piece of master motion information. In the latter case, the display motion information related to a piece of master motion information may be generated by processing the piece of master motion information. In this case, the processing method is arbitrary, but may include, for example, shortening to a digest version (summary version) or changing the background or rhythm of the music, etc.
また、表示用モーション生成部158は、上述したアバターモーション情報を生成してもよい。すなわち、表示用モーション生成部158は、抽出処理部154により抽出された1つ以上のマスタ動き情報を特定のアバターに反映させることで、表示用モーション情報(アバターモーション情報)を生成してもよい。この場合、特定のアバターは、ユーザ(例えばモーション情報要求の要求元のユーザ)により指定可能とされてよく、例えば当該ユーザのアバターであってよい。例えば、表示用モーション生成部158は、ユーザからの反映指示に基づいて、エモート情報に関連して検索されたマスタ動き情報を、対応するユーザのアバターの動きに反映させてよい。 The display motion generation unit 158 may also generate the avatar motion information described above. That is, the display motion generation unit 158 may generate display motion information (avatar motion information) by reflecting one or more pieces of master motion information extracted by the extraction processing unit 154 on a specific avatar. In this case, the specific avatar may be designated by a user (e.g., the user who has issued the motion information request), and may be, for example, the avatar of that user. For example, the display motion generation unit 158 may reflect the master motion information searched for in relation to the emote information on the movement of the corresponding user's avatar, based on a reflection instruction from the user.
表示用モーション生成部158は、アバターモーション情報に関連して上述したようにサーバ装置10側に設けられてもよいし、端末装置20側に設けられてもよいし、サーバ装置10側と端末装置20側とで機能を分担する態様で、双方に設けられてもよい。 The display motion generation unit 158 may be provided on the server device 10 side as described above in relation to the avatar motion information, or on the terminal device 20 side, or on both the server device 10 side and the terminal device 20 side in a manner in which the functions are shared between them.
コンテンツ生成部160は、表示用モーション生成部158により生成された表示用モーション情報に基づいて、動画コンテンツ又はアニメーションを生成する。動画コンテンツ又はアニメーションは、表示用モーション生成部158により生成された表示用モーション情報自体であってもよいし、表示用モーション生成部158により生成された表示用モーション情報とは異なる動画コンテンツ又はアニメーションであってもよい。後者の場合、例えば、コンテンツ生成部160は、動画コンテンツ又はアニメーションの一部に、表示用モーション生成部158により生成された表示用モーション情報を組み込むこととしてもよい。なお、この場合、組み込み先の動画コンテンツ又はアニメーションは、任意であるが、別の表示用モーション情報に基づいて制作されてもよい。 The content generating unit 160 generates video content or animation based on the display motion information generated by the display motion generating unit 158. The video content or animation may be the display motion information itself generated by the display motion generating unit 158, or may be video content or animation different from the display motion information generated by the display motion generating unit 158. In the latter case, for example, the content generating unit 160 may incorporate the display motion information generated by the display motion generating unit 158 into a part of the video content or animation. Note that in this case, the video content or animation to be incorporated is arbitrary, and may be produced based on other display motion information.
本実施形態では、コンテンツ生成部160は、表示用モーション生成部158により生成された表示用モーション情報に、背景情報、音響情報、エモート情報、又は文字情報を対応付けて動画コンテンツ又はアニメーションを生成してもよい。この場合、対応付けられる背景情報、音響情報、エモート情報、又は文字情報は、ユーザ(例えばモーション情報要求の要求元のユーザ)から供給されてもよいし、人工知能等に基づいて自動的に生成されてもよい。あるいは、エモート情報を対応付けて生成された動画コンテンツ又はアニメーションは、対応するユーザが利用可能なエモートリストを示すメニュー等に登録されてもよい。 In this embodiment, the content generation unit 160 may generate video content or animation by associating background information, audio information, emote information, or text information with the display motion information generated by the display motion generation unit 158. In this case, the associated background information, audio information, emote information, or text information may be supplied by a user (e.g., the user who has made the motion information request), or may be automatically generated based on artificial intelligence or the like. Alternatively, the video content or animation generated by associating the emote information may be registered in a menu or the like that shows a list of emotes available to the corresponding user.
また、コンテンツ生成部160は、ユーザからの申請等に応じて、生成した動画コンテンツ又はアニメーションに対してNFT化処理を実行してもよい。NFT化処理は、対象のアイテムをNFT(Non-Fungible Token)として発行することを含む。この場合、コンテンツ生成部160は、ブロックチェーンネットワーク(図示せず)上のスマートコントラクトを介してミントされてよい。なお、NFT化処理は、発行されたNFTを更にマーケットプレイス等でリストすることを含んでもよい。 The content generator 160 may also execute an NFT conversion process on the generated video content or animation in response to an application from a user, etc. The NFT conversion process includes issuing the target item as an NFT (Non-Fungible Token). In this case, the content generator 160 may be minted via a smart contract on a blockchain network (not shown). The NFT conversion process may also include listing the issued NFT on a marketplace, etc.
情報管理部162は、マスタ動き情報記憶部144に記憶(蓄積)されるマスタ動き情報に対する利用制限を設定する。例えば、情報管理部162は、一のマスタ動き情報に対して、当該一のマスタ動き情報に対応付けられている上述した管理情報に基づいて、利用制限を設定してもよい。この場合、当該一のマスタ動き情報に対応付けられている上述した管理情報が、有償での提供を表す場合、無償による提供(利用)が制限されてよい。この場合、情報管理部162は、利用制限に起因して利用できないマスタ動き情報については、探索範囲(又は類似性算出部152の算出対象)から除外してよい。 The information management unit 162 sets usage restrictions on the master motion information stored (accumulated) in the master motion information storage unit 144. For example, the information management unit 162 may set usage restrictions on a piece of master motion information based on the above-mentioned management information associated with the piece of master motion information. In this case, if the above-mentioned management information associated with the piece of master motion information indicates provision for a fee, free provision (use) may be restricted. In this case, the information management unit 162 may exclude master motion information that cannot be used due to the usage restrictions from the search range (or from the calculation target of the similarity calculation unit 152).
記憶処理部164は、特定のユーザから供給(提供)されるマスタ動き情報用のモーション情報(第3動き情報の一例)に基づいて、新たなマスタ動き情報をマスタ動き情報記憶部144に記憶する。特定のユーザは、任意であるが、上述したような利用態様(抽出されてアバターモーション情報等の生成に利用される態様)について許諾したユーザであってよい。記憶処理部164は、新たなマスタ動き情報を記憶する際、上述した管理情報等を取得及び生成してもよい。マスタ動き情報用のモーション情報の提供が促進されるように、マスタ動き情報用のモーション情報の提供ユーザには、特定の特典等のインセンティブが付与されてもよい。 The storage processing unit 164 stores new master movement information in the master movement information storage unit 144 based on motion information for master movement information (an example of third movement information) supplied (provided) by a specific user. The specific user is optional, but may be a user who has consented to the above-mentioned usage mode (extraction and use for generating avatar motion information, etc.). When storing new master movement information, the storage processing unit 164 may acquire and generate the above-mentioned management information, etc. In order to encourage the provision of motion information for master movement information, an incentive such as a specific benefit may be given to users who provide motion information for master movement information.
プロフィール画像生成部166は、表示用モーション生成部158により生成された表示用モーション情報に基づいて、ユーザに対応付けられているプロフィール画像を生成する。プロフィール画像は、ユーザに対応付けられているアバターの動きを伴うプロフィール画像であってよい。この場合、プロフィール画像生成部166により生成されるプロフィール画像は、SNS(Social Networking Service)又はその類で利用されてもよい。プロフィール画像は、静止画像であってもよいが、ショート動画のような比較的短い動画であってもよい。 The profile image generating unit 166 generates a profile image associated with the user based on the display motion information generated by the display motion generating unit 158. The profile image may be a profile image accompanied by the movement of an avatar associated with the user. In this case, the profile image generated by the profile image generating unit 166 may be used in a social networking service (SNS) or the like. The profile image may be a still image, or may be a relatively short video such as a short video.
プロフィール画像生成部166は、ユーザからのモーション情報要求に基づいて機能してもよい。例えば、モーション情報要求に、プロフィール画像の生成の要求が含まれている場合に、機能してもよい。あるいは、図8を参照して上述したステップS2130の反映指示のような指示に応じて機能してもよい。 The profile image generating unit 166 may function based on a motion information request from a user. For example, it may function when the motion information request includes a request to generate a profile image. Alternatively, it may function in response to an instruction such as the reflection instruction of step S2130 described above with reference to FIG. 8.
また、プロフィール画像生成部166は、生成したプロフィール画像に、背景情報、音響情報、エモート情報、又は文字情報を対応付けてもよい。この場合、対応付けられる背景情報、音響情報、エモート情報、又は文字情報は、ユーザ(例えばモーション情報要求の要求元のユーザ)から供給されてもよいし、人工知能等に基づいて自動的に生成されてもよい。なお、エモート情報は、ユーザがどんな感情を表現したかを表す情報や顔の表情のアニメーションを含んでよい。 The profile image generating unit 166 may also associate background information, audio information, emote information, or text information with the generated profile image. In this case, the associated background information, audio information, emote information, or text information may be supplied by a user (e.g., a user who has made a motion information request), or may be automatically generated based on artificial intelligence or the like. The emote information may include information indicating what emotion the user is expressing, or an animation of a facial expression.
なお、プロフィール画像生成部166の機能の一部又は全部は、上述したコンテンツ生成部160により実現されてもよい。 Note that some or all of the functions of the profile image generation unit 166 may be realized by the content generation unit 160 described above.
図12には、プロフィール画像G12を含むプロフィール画面の一例が示されている。プロフィール画像G12が動画である場合、プロフィール画面が出力された際に自動的に再生されてもよい。なお、図12に示す例では、プロフィール画像G12は、プロフィール画面の一部を形成するが、全体を形成してもよい。 Figure 12 shows an example of a profile screen including a profile image G12. If the profile image G12 is a video, it may be automatically played when the profile screen is output. In the example shown in Figure 12, the profile image G12 forms part of the profile screen, but it may also form the entirety of the profile screen.
アニメーション生成部168は、自動再生用のアニメーションコンテンツを生成する。自動再生用のアニメーションコンテンツは、上述したコンテンツ生成部160により生成されるアニメーションの一部又は全部であってよい。この場合、アニメーション生成部168の機能の一部又は全部は、上述したコンテンツ生成部160により実現されてもよい。 The animation generation unit 168 generates animation content for automatic playback. The animation content for automatic playback may be a part or all of the animation generated by the content generation unit 160 described above. In this case, a part or all of the functions of the animation generation unit 168 may be realized by the content generation unit 160 described above.
アニメーション生成部168により生成される自動再生用のアニメーションコンテンツは、ユーザ(例えばモーション情報要求の要求元のユーザ)に対応付けて記憶されてよい。また、自動再生用のアニメーションコンテンツは、例えば対応するユーザの端末装置20の記憶装置に、自動再生用の条件(再生条件)と関連付けて記憶されてもよい。自動再生用の条件(再生条件)は、任意であるが、ユーザにより設定されてもよい。自動再生用の条件は、チャット等の返答に利用されてもよい。すなわち、自動再生用のアニメーションコンテンツは、チャット等における返答として再生されてもよい。例えば、図13Aに示す例では、ユーザBの端末装置20は、他のユーザからの問いかけA(例えば、一緒にどこかに行こうといったお誘い)があった場合に、複数のスタンプSTM1からSTM4が候補として表示されている。この場合、スタンプSTM1からSTM4は、それぞれ、選択されると、対応する自動再生用のアニメーションコンテンツの再生を伴ってもよい。この場合、ユーザBが、自身でスタンプSTM1からSTM4のいずれかを選択してもよいが、自動モードでは、自動再生用の条件に応じて、スタンプSTM1からSTM4のいずれかが自動的に選択されてもよい。 The animation content for automatic playback generated by the animation generation unit 168 may be stored in association with a user (e.g., a user who has made a motion information request). The animation content for automatic playback may also be stored in association with conditions for automatic playback (playback conditions) in, for example, a storage device of the terminal device 20 of the corresponding user. The conditions for automatic playback (playback conditions) are arbitrary, but may be set by the user. The conditions for automatic playback may be used for responses in chats, etc. That is, the animation content for automatic playback may be played as a response in chats, etc. For example, in the example shown in FIG. 13A, when the terminal device 20 of user B receives a question A from another user (e.g., an invitation to go somewhere together), multiple stamps STM1 to STM4 are displayed as candidates. In this case, when each of the stamps STM1 to STM4 is selected, the corresponding animation content for automatic playback may be played. In this case, user B may select one of stamps STM1 to STM4 by himself, but in automatic mode, one of stamps STM1 to STM4 may be automatically selected depending on the conditions for automatic playback.
アニメーション再生処理部170は、一の自動再生用のアニメーションコンテンツに対応して、対応する自動再生用の条件が成立すると、同コンテンツを再生する。自動再生用のアニメーションコンテンツ及び自動再生用の条件は、上述した通りである。 When the conditions for automatic playback are met for a piece of animation content for automatic playback, the animation playback processing unit 170 plays the content. The animation content for automatic playback and the conditions for automatic playback are as described above.
また、アニメーション再生処理部170は、メタバース空間においても機能してもよい。例えば、メタバース空間において自動再生用の条件が成立すると、アバターを、自動再生用のアニメーションコンテンツに対応する動作で動かすこととしてもよい。例えば、上述したエモートリスト内の各種エモート情報(及びそれに対応付けられた動画コンテンツ等)は、対応するユーザがいずれか1つのエモートを選択(指定)することで自動再生用の条件が成立し、発動されてよい。一のエモートが発動すると、対応するアバターが、仮想空間内において、当該エモートを表現する動きを行う。このエモートを表現する動きは、上述したエモート情報を対応付けて生成された動画コンテンツ又はアニメーションであってよい。このようにしてエモートリストに所望のエモート情報に係る登録を行うことで、多様なエモートのうちの、所望のエモートを自身のアバターに容易に反映させることができる。
例えば、図13Bに示す例では、ユーザBの端末装置20は、エモートリストを呼び出し、複数のエモートボタンEM1からEM4が候補として表示されている。複数のエモートボタンEM1からEM4は、事前に登録されたコンテンツ(エモート情報を対応付けて生成された動画コンテンツ又はアニメーション)であってよい。この場合、エモートボタンEM1からEM4は、それぞれ、選択されると、対応する自動再生用のアニメーションコンテンツの再生を伴ってもよい。この場合、ユーザBが、自身でエモートボタンEM1からEM4のいずれかを選択してもよいが、自動モードでは、例えばユーザBの感情(心情)等を、生体情報(例えば心拍情報等)から自動的に検知し又は画像認識により検知し、EM1からEM4のいずれかが自動的に選択されてもよい。なお、図13Bに示す例では、エモートボタンEM1からEM4には、対応するエモートを表す文字が付与されているが、それに代えて又は加えて、対応するコンテンツのダイジェスト版等が再生されてもよい。また、図13Bに示す例では、4つのエモートボタンEM1からEM4が図示されているが、エモートボタンの数は任意であり、登録数に応じた数のエモートボタンが用意されてもよい。また、図13Bに示す例では、スマートフォンの形態の端末装置20が図示されているが、ヘッドマウントディスプレイのような他の形態の端末装置20が利用される場合も同様である。例えば、ヘッドマウントディスプレイの形態の端末装置20の場合、エモートボタンEM1からEM4に対応するボタンは、仮想空間内に呼び出し可能なユーザインタフェースにより実現されてもよい。
The animation playback processing unit 170 may also function in the metaverse space. For example, when the conditions for automatic playback are satisfied in the metaverse space, the avatar may be moved in a manner corresponding to the animation content for automatic playback. For example, the various emote information in the above-mentioned emote list (and the video content associated therewith, etc.) may be activated when the corresponding user selects (specifies) one of the emotes, thereby satisfying the conditions for automatic playback. When one emote is activated, the corresponding avatar performs a movement that expresses the emote in the virtual space. The movement that expresses this emote may be a video content or animation generated in association with the above-mentioned emote information. By registering the desired emote information in the emote list in this way, the desired emote from among the various emotes can be easily reflected in one's own avatar.
For example, in the example shown in FIG. 13B, the terminal device 20 of the user B calls up an emote list, and a plurality of emote buttons EM1 to EM4 are displayed as candidates. The plurality of emote buttons EM1 to EM4 may be preregistered content (video content or animation generated in association with emote information). In this case, when each of the emote buttons EM1 to EM4 is selected, the corresponding animation content for automatic playback may be played. In this case, the user B may select one of the emote buttons EM1 to EM4 by himself, but in the automatic mode, for example, the emotion (feeling) of the user B may be automatically detected from bioinformation (e.g., heart rate information, etc.) or detected by image recognition, and one of the emote buttons EM1 to EM4 may be automatically selected. In the example shown in FIG. 13B, the emote buttons EM1 to EM4 are given characters representing the corresponding emotes, but instead of or in addition to them, a digest version of the corresponding content may be played. In addition, in the example shown in Fig. 13B, four emote buttons EM1 to EM4 are illustrated, but the number of emote buttons is arbitrary, and the number of emote buttons may be prepared according to the number of registrations. In addition, in the example shown in Fig. 13B, the terminal device 20 in the form of a smartphone is illustrated, but the same applies when another type of terminal device 20, such as a head-mounted display, is used. For example, in the case of a terminal device 20 in the form of a head-mounted display, the buttons corresponding to the emote buttons EM1 to EM4 may be realized by a user interface that can be called up in a virtual space.
以上、各実施形態について詳述したが、特定の実施形態に限定されるものではなく、特許請求の範囲に記載された範囲内において、種々の変形及び変更が可能である。また、前述した実施形態の構成要素の全部又は複数を組み合わせることも可能である。 Although each embodiment has been described in detail above, it is not limited to a specific embodiment, and various modifications and changes are possible within the scope of the claims. It is also possible to combine all or some of the components of the above-mentioned embodiments.
例えば、上述した実施形態では、一の入力用モーション情報や一のマスタ動き情報は、対応する人又はモノの動きであって、一人の人又は一つのモノの動きを表すが、これに限られない。例えば、一の入力用モーション情報や一のマスタ動き情報は、二人以上の人の動きを表してもよい。この場合、例えば図14に示すような、複数のアバターA1からA4の連携した動きに係るアバターモーション情報を、抽出されたマスタ動き情報に基づいて取得可能となる。この場合、複数のアバターが手を繋いだり、一のアバターを一人以上のアバターが持ち上げたり、といった具合に、複数のアバターの互いの接触や連携を伴う動きに係るマスタ動き情報を得ることができる。 For example, in the above-described embodiment, one piece of input motion information or one piece of master motion information represents the motion of a corresponding person or object, and thus represents the motion of one person or object, but is not limited to this. For example, one piece of input motion information or one piece of master motion information may represent the motion of two or more people. In this case, for example, as shown in FIG. 14, avatar motion information relating to the coordinated motion of multiple avatars A1 to A4 can be obtained based on the extracted master motion information. In this case, it is possible to obtain master motion information relating to the motion involving contact or coordination between multiple avatars, such as multiple avatars holding hands or one or more avatars lifting up an avatar.
また、上述した実施形態において、マスタ動き情報記憶部144において、各マスタ動き情報は、図15に模式的に示すような階層構造で管理されてもよい。この場合、一の入力用モーション情報に対して類似性を上位階層から判断することで、当該一の入力用モーション情報に類似するマスタ動き情報の探索が容易となる。 In addition, in the above-described embodiment, in the master motion information storage unit 144, each piece of master motion information may be managed in a hierarchical structure as shown in FIG. 15. In this case, by determining the similarity to a piece of input motion information from a higher hierarchy, it becomes easier to search for master motion information similar to the piece of input motion information.
1 検索支援システム
3 ネットワーク
10 サーバ装置
20 端末装置
140 ユーザ情報記憶部
142 アバター情報記憶部
144 マスタ動き情報記憶部
150 入力用モーション情報取得部(動き取得部の一例)
152 類似性算出部
1521 動き類似性評価部
1522 その他の類似性評価部
154 抽出処理部
156 出力処理部
158 表示用モーション生成部(第2動き情報生成部の一例)
160 コンテンツ生成部
162 情報管理部
164 記憶処理部
166 プロフィール画像生成部
168 アニメーション生成部
170 アニメーション再生処理部
190 評価用情報記憶部
192 ユーザ情報記憶部
1 Search support system 3 Network 10 Server device 20 Terminal device 140 User information storage unit 142 Avatar information storage unit 144 Master motion information storage unit 150 Input motion information acquisition unit (an example of a motion acquisition unit)
152 Similarity calculation unit 1521 Movement similarity evaluation unit 1522 Other similarity evaluation unit 154 Extraction processing unit 156 Output processing unit 158 Display motion generation unit (an example of a second movement information generation unit)
160 Content generation unit 162 Information management unit 164 Storage processing unit 166 Profile image generation unit 168 Animation generation unit 170 Animation playback processing unit 190 Evaluation information storage unit 192 User information storage unit
Claims (22)
ユーザの一部又は全体の動きに関する第1動き情報を取得する動き取得部と、
前記動き取得部により取得された前記第1動き情報と、前記記憶部に記憶されている前記マスタ動き情報との間の類似性に関する所定パラメータの値を算出する算出部と、
前記算出部により算出された前記所定パラメータの値に基づいて、前記記憶部に記憶されている複数の前記マスタ動き情報のうちから、前記動き取得部により取得された前記第1動き情報に応じた1つ以上の前記マスタ動き情報を抽出する抽出処理部と、を備える、情報処理システム。 A storage unit that stores master movement information representing a time series of a movement of a part or the whole of a person or an object;
A movement acquisition unit that acquires first movement information related to a movement of a part or an entirety of a user;
a calculation unit that calculates a value of a predetermined parameter related to a similarity between the first motion information acquired by the motion acquisition unit and the master motion information stored in the storage unit;
An information processing system comprising: an extraction processing unit that extracts one or more master motion information corresponding to the first motion information acquired by the motion acquisition unit from among the multiple master motion information stored in the memory unit based on the value of the specified parameter calculated by the calculation unit.
前記出力処理部は、前記要求に係る要求元に向けて、前記第2動き情報を出力する、請求項3に記載の情報処理システム。 the movement acquisition unit acquires the first movement information in association with a request from the user;
The information processing system according to claim 3 , wherein the output processing unit outputs the second movement information to a request source related to the request.
前記動き取得部は、前記第1動き情報に加えて、前記第1動き情報に対応付けられたユーザ側の音響情報を取得し、
前記算出部は、前記動き取得部により前記ユーザ側の音響情報が取得された場合、前記ユーザ側の音響情報と、前記記憶部に記憶されている前記マスタ側の音響情報との間の類似性に更に関する前記所定パラメータの値を算出する、請求項1に記載の情報処理システム。 At least a part of the master motion information stored in the storage unit is associated with master-side acoustic information in the time series,
the movement acquisition unit acquires, in addition to the first movement information, acoustic information of a user side associated with the first movement information;
The information processing system of claim 1 , wherein the calculation unit, when the user's acoustic information is acquired by the movement acquisition unit, calculates the value of the specified parameter further related to the similarity between the user's acoustic information and the master's acoustic information stored in the memory unit.
前記第1動き情報は、前記ユーザの関節を介してつながる少なくとも2つ以上の部位の動きに関し、
前記算出部は、関節角度、関節角度の変化態様、関節位置、関節位置の変化態様、及び関節間の長さのうちの少なくともいずれか1つに基づいて、前記所定パラメータの値を算出する、請求項1に記載の情報処理システム。 The time series of movements includes a time series of movements of parts of a person or object having a joint;
The first movement information relates to movements of at least two or more parts of the user connected via a joint,
The information processing system according to claim 1 , wherein the calculation unit calculates the value of the predetermined parameter based on at least one of a joint angle, a change in the joint angle, a joint position, a change in the joint position, and a length between joints.
前記ユーザに関連する再生条件が成立した場合に、前記アニメーションコンテンツを再生するアニメーション再生処理部とを更に備える、請求項6又は7に記載の情報処理システム。 an animation generation unit that generates animation content for automatic playback based on the second motion information generated by the second motion information generation unit;
The information processing system according to claim 6 , further comprising an animation playback processing unit that plays back the animation content when a playback condition related to the user is satisfied.
人又はモノの一部又は全体の動きの時系列を表すマスタ動き情報を記憶する記憶部に記憶されている前記マスタ動き情報と、取得した前記第1動き情報との間の類似性に関する所定パラメータの値を算出し、
算出された前記所定パラメータの値に基づいて、前記記憶部に記憶されている複数の前記マスタ動き情報のうちから、前記第1動き情報に応じた1つ以上の前記マスタ動き情報を抽出することを含む、コンピュータにより実行される情報処理方法。 Obtaining first movement information relating to a movement of a part or an entirety of a user;
calculating a value of a predetermined parameter related to a similarity between master movement information stored in a storage unit that stores master movement information representing a time series of a movement of a part or an entirety of a person or an object and the acquired first movement information;
An information processing method executed by a computer, comprising: extracting one or more pieces of master movement information corresponding to the first movement information from among the plurality of pieces of master movement information stored in the memory unit based on the calculated value of the specified parameter.
人又はモノの一部又は全体の動きの時系列を表すマスタ動き情報を記憶する記憶部に記憶されている前記マスタ動き情報と、取得した前記第1動き情報との間の類似性に関する所定パラメータの値を算出し、
算出された前記所定パラメータの値に基づいて、前記記憶部に記憶されている複数の前記マスタ動き情報のうちから、前記第1動き情報に応じた1つ以上の前記マスタ動き情報を抽出する
処理をコンピュータに実行させるプログラム。 Obtaining first movement information relating to a movement of a part or an entirety of a user;
calculating a value of a predetermined parameter related to a similarity between master movement information stored in a storage unit that stores master movement information representing a time series of a movement of a part or an entirety of a person or an object and the acquired first movement information;
A program that causes a computer to execute a process of extracting one or more pieces of master movement information corresponding to the first movement information from among the multiple pieces of master movement information stored in the memory unit based on the calculated value of the specified parameter.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2023069002A JP2024154850A (en) | 2023-04-20 | 2023-04-20 | Information processing system, information processing method, and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2023069002A JP2024154850A (en) | 2023-04-20 | 2023-04-20 | Information processing system, information processing method, and program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2024154850A true JP2024154850A (en) | 2024-10-31 |
Family
ID=93259434
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2023069002A Pending JP2024154850A (en) | 2023-04-20 | 2023-04-20 | Information processing system, information processing method, and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2024154850A (en) |
Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH054274U (en) * | 1991-07-01 | 1993-01-22 | 宏英 布施 | Video code for picture book search |
| JP2008107904A (en) * | 2006-10-23 | 2008-05-08 | National Institute Of Information & Communication Technology | Text and animation service device and computer program |
| WO2013132557A1 (en) * | 2012-03-05 | 2013-09-12 | パナソニック株式会社 | Content processing apparatus, integrated circuit thereof, method, and program |
| WO2020022095A1 (en) * | 2018-07-25 | 2020-01-30 | 株式会社ドワンゴ | Content distribution server, virtual character providing server, content distribution system, content distribution method, and program |
| WO2022123800A1 (en) * | 2020-12-08 | 2022-06-16 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
| JP2023504649A (en) * | 2020-03-04 | 2023-02-06 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | Synthesis method and generation method of motion sequence of virtual object, synthesis device, and computer program |
| JP2023027017A (en) * | 2021-08-16 | 2023-03-01 | ソニー・インタラクティブエンタテインメント エルエルシー | Gesture-based skill search |
-
2023
- 2023-04-20 JP JP2023069002A patent/JP2024154850A/en active Pending
Patent Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH054274U (en) * | 1991-07-01 | 1993-01-22 | 宏英 布施 | Video code for picture book search |
| JP2008107904A (en) * | 2006-10-23 | 2008-05-08 | National Institute Of Information & Communication Technology | Text and animation service device and computer program |
| WO2013132557A1 (en) * | 2012-03-05 | 2013-09-12 | パナソニック株式会社 | Content processing apparatus, integrated circuit thereof, method, and program |
| WO2020022095A1 (en) * | 2018-07-25 | 2020-01-30 | 株式会社ドワンゴ | Content distribution server, virtual character providing server, content distribution system, content distribution method, and program |
| JP2023504649A (en) * | 2020-03-04 | 2023-02-06 | ▲騰▼▲訊▼科技(深▲セン▼)有限公司 | Synthesis method and generation method of motion sequence of virtual object, synthesis device, and computer program |
| WO2022123800A1 (en) * | 2020-12-08 | 2022-06-16 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
| JP2023027017A (en) * | 2021-08-16 | 2023-03-01 | ソニー・インタラクティブエンタテインメント エルエルシー | Gesture-based skill search |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Ren et al. | Self-supervised dance video synthesis conditioned on music | |
| US11679334B2 (en) | Dynamic gameplay session content generation system | |
| KR101671900B1 (en) | System and method for control of object in virtual world and computer-readable recording medium | |
| KR101306221B1 (en) | Method and apparatus for providing moving picture using 3d user avatar | |
| CN105228708B (en) | Body motion scoring device, dance scoring device, karaoke device and game device | |
| US12165247B2 (en) | Artificial intelligence for capturing facial expressions and generating mesh data | |
| CN112560605A (en) | Interaction method, device, terminal, server and storage medium | |
| US20190020614A1 (en) | Life log utilization system, life log utilization method, and recording medium | |
| WO2025195064A1 (en) | Animation generation method, storage medium, electronic device, and computer program product | |
| JP2024154850A (en) | Information processing system, information processing method, and program | |
| US12374015B2 (en) | Facial capture artificial intelligence for training models | |
| JP2021040203A (en) | Video playback device, video playback method, and video distribution system | |
| WO2024062913A1 (en) | Image processing device, method for operating image processing device, and program for operating image processing device | |
| Zhou et al. | Music conditioned 2D hand gesture dance generation with HGS | |
| KR20240082014A (en) | Apparatus, method and computer program for generating choreography video | |
| Feng et al. | Acting the part: The role of gesture on avatar identity | |
| JPWO2018135665A1 (en) | Proposed system, proposed method, server, and computer program | |
| JP6945693B2 (en) | Video playback device, video playback method, and video distribution system | |
| JP7442107B2 (en) | Video playback device, video playback method, and video distribution system | |
| US20240242827A1 (en) | Electronic device for generating multi-persona and operation method of the same | |
| Ramezanpanah | Bi-lateral interaction between a humanoid robot and a human in mixed reality | |
| WO2024215326A1 (en) | Methods and systems for updating renderings of three-dimensional (3d) objects | |
| KR20250066919A (en) | Device, methoed and computer program for providing virtual service based on virtual service space using virtual item | |
| CN119003347A (en) | Data processing method and device for interactive task, electronic equipment and storage medium | |
| JP2023110699A (en) | Information processing system, information processing method, and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20241213 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20241219 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20241213 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250115 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20250115 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20250909 |