JP2019096228A - Human body shape model visualization system, human body shape model visualization method and program - Google Patents
Human body shape model visualization system, human body shape model visualization method and program Download PDFInfo
- Publication number
- JP2019096228A JP2019096228A JP2017227159A JP2017227159A JP2019096228A JP 2019096228 A JP2019096228 A JP 2019096228A JP 2017227159 A JP2017227159 A JP 2017227159A JP 2017227159 A JP2017227159 A JP 2017227159A JP 2019096228 A JP2019096228 A JP 2019096228A
- Authority
- JP
- Japan
- Prior art keywords
- human body
- shape model
- body shape
- data
- stop motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】運動および運動に関係する時間変化データをわかりやすく提示する。
【解決手段】人体形状モデル可視化システムは、人体全身形状モデルデータと人体動作データと時間変化データとを取得し、時間変化データおよび人体全身形状モデルの初期配置と、ストップモーションモデルの生成時点とを決定し、再生操作命令に応じて人体全身形状モデルの初期配置に人体動作データを適用し、アニメーションされた人体全身形状モデルと、再生開始からの時間経過を示すタイムラインとを生成し、再生操作命令と仮想空間における時間変化データの初期配置とアニメーションされた人体全身形状モデルおよびタイムラインとストップモーションモデル群とに基づいて、時間変化データ位置情報と人体全身形状モデル位置情報とストップモーションモデル群位置情報とを生成し、それらと、映像提示部の位置・姿勢とに基づいて、映像提示部が利用者に提示する映像を生成する。
【選択図】図1PROBLEM TO BE SOLVED: To easily present time change data related to exercise and exercise.
A human body shape model visualization system acquires human body whole body shape model data, human body motion data, and time change data, and generates time change data, an initial arrangement of the human body whole body shape model, and a stop motion model generation time point. Determine and apply human body movement data to initial arrangement of human body whole body shape model according to reproduction operation command, generate animated human body whole body shape model, and generate timeline showing time lapse from reproduction start, reproduction operation Temporal change data position information and human body whole body shape model position information and stop motion model group position based on the instruction and initial arrangement of time change data in virtual space and animated human whole body shape model and timeline and stop motion model group Information and generate them, and the position and attitude of the image presentation unit Zui is, to produce a video image presentation unit is presented to the user.
[Selected figure] Figure 1
Description
本発明は、人体形状モデル可視化システム、人体形状モデル可視化方法およびプログラムに関する。 The present invention relates to a human body shape model visualization system, a human body shape model visualization method, and a program.
仮想現実感技術の産業応用に関する研究開発は20年以上の歴史がある。2000年代前半までは、ヘッドマウントディスプレイ(HMD)などの提示機器が高価だったこともあり、発電所や石油化学プラントのメンテナンスといったミッションクリティカルな状況に習熟するための訓練シミュレータとしての研究が行われた。
近年、HMDの低価格化(数百ドル〜一千ドル)とコンシューマ向けPCのグラフィックス処理能力の向上を背景に、XR技術(XR技術とは、仮想現実感技術の流れに位置づけられるVirtual Reality(VR)、Augmented Reality(AR)、Mixed Reality(MR)などの技術の総称である。)の応用範囲が前述のミッションクリティカルな状況から、より広い産業へ拡大し「2016年はVR元年」という報道もなされた。例えば米国ではXR技術の応用がスポーツ観戦(360度動画の配信)、メディア、報道、建築ビジュアライゼーション、ゲームエンターテイメントの分野へ拡大している。日本では住宅展示場や結婚式場がHMDを用いて360度動画で下見を行うサービスを提供している。調査によればXR関連ソフトウェア市場は2016年度86億円であり、2021年度には1065億円への成長が予測されており、適用範囲は今後も拡大するものと思われる。
Research and development on industrial applications of virtual reality technology has a history of over 20 years. Until the early 2000s, presentation equipment such as head-mounted displays (HMDs) were expensive, and research was conducted as a training simulator for mastering mission-critical situations such as maintenance of power plants and petrochemical plants. The
In recent years, with the lower price of HMD (several hundred dollars to one thousand dollars) and the improvement of graphics processing capability of consumer PCs, XR technology (XR technology is a virtual reality positioned as a flow of virtual reality technology) The scope of application of (VR), Augmented Reality (AR), Mixed Reality (MR), etc. is expanded from the above-mentioned mission-critical situation to a broader industry from "2016: VR first year" It was also reported that. For example, in the United States, the application of XR technology has expanded to the fields of sports watching (360 degree video distribution), media, news coverage, architectural visualization, and game entertainment. In Japan, housing exhibition halls and wedding halls offer HMD-based preview services with 360-degree videos. According to the survey, the XR-related software market is expected to grow to ¥ 86 billion in fiscal 2016, and to ¥ 106.5 billion in fiscal 2021, and the scope of application is expected to expand in the future.
ところでスポーツコーチング理論では、総論としてのコーチング学と、各論としてのスポーツ専門科目の両者を体系的に理解し実践することが重要であるとされている。例えば陸上トラック競技における「スタート動作」、バスケットボール競技における「リバウンド動作」、跳び箱における「踏切動作」といった具合に、科目ごとの着目すべき動作をコーチ(=研究者)が抽出し、当該動作の質を測る定量的な指標を作成または選定し、介入前後での指標値の変化を評価することが行なわれている。
スポーツコーチング学は「運動学」「形態学」「運動生理学」「統計学」の研究領域に分けることができ、運動計測はモーションキャプチャや高速度カメラ、形態計測はマルチン計測器や非接触寸法計測装置、生理情報には生理計測が対応する。
日本コーチング学会がインターネットで公開している学会誌「コーチング学研究」の過去5年分を調査したところ、特徴的な動作はコーチ(=研究者)が科目ごとや選手ごとにいわば職人的な観察力で見出しており、標準動作といったものは定義されていなかった。
従ってコーチングの場面では、職人的な観察力で抽出した動作に着目して各種データを計測し、そのデータを選手との共通言語とすべく可視化する必要がある。
By the way, in sports coaching theory, it is considered important to systematically understand and practice both coaching science as a general theory and sports specialized subjects as each theory. For example, the coach (= researcher) extracts the action to be focused on for each subject, such as “start movement” in track and field track competition, “rebound movement” in basketball competition, and “crossing-off movement” in a jumping box, and the quality of the movement It is conducted to create or select a quantitative index to measure and to evaluate the change in index value before and after intervention.
Sports coaching science can be divided into the research areas of "kinetics", "morphology", "exercise physiology" and "statistics", motion measurement is motion capture and high-speed camera, morphology measurement is a maltin instrument and non-contact dimension measurement Physiological measurement corresponds to the device and physiological information.
A survey of the past five years of the “Coaching Studies” published by the Japan Coaching Society on the Internet shows that the characteristic behavior is that the coach (= researcher) observes so to speak craftsmanship for each subject and player It was found by force, and no standard behavior was defined.
Therefore, in the coaching scene, it is necessary to measure various data focusing on the operation extracted by the craftsman-like observation power, and to visualize the data in order to make the data a common language with the player.
運動の可視化は、古くは写真銃を発明して連続写真を作成したマレー(仏、1830−1904)に遡ることができる。
図9はマレーの写真銃によって撮影された連続写真を説明するための図である。図9に示す例では、可視化の視点を後から変更することができない。
The visualization of movement can be traced back to Malay (Buddha, 1830-1904), who invented a photo gun and created a series of photographs.
FIG. 9 is a view for explaining a continuous photo taken by a photo camera of Malay. In the example shown in FIG. 9, the viewpoint of visualization can not be changed later.
そして今日に至るまで、運動や計測情報の可視化手法は2次元ディスプレイを前提に設計されている。製品としてはADInstruments社による映像・生理計測データの可視化ソフトウェアLabChartが公知であり、広く使われている。このソフトウェアを用いることによって、映像と生理計測データを同期して再生できる。しかし、このソフトウェアを用いた場合には、映像と生理情報とが別々のウインドウで描画されるため、利用者が動作と生理情報を同時に注視するには大変な努力を要し、分かりやすい表示とは言い難い。 And until today, visualization methods of motion and measurement information are designed on the premise of a two-dimensional display. As products, a visualization software LabChart for video and physiological measurement data by ADInstruments is known and widely used. By using this software, video and physiological measurement data can be reproduced synchronously. However, when this software is used, video and physiological information are drawn in separate windows, so it takes a lot of effort for the user to watch motion and physiological information at the same time, making it easy to understand Is hard to say.
また従来、コンピュータ生成された3次元オブジェクトとフィルムカメラからの映像フィードとをリアルタイムに混合または合成する方法が知られている(例えば特許文献1参照)。特許文献1に記載された方法では、フィルムカメラのボディが、3次元に移動可能である。また、カメラ内またはカメラに取り付けられたセンサが、カメラの3次元位置または3次元向きを定義する、または3次元位置を算出可能にするリアルタイム位置データを提供する。一方、特許文献1には、運動分析や生理計測データの可視化を効率的に行うための手段について記載されていない。 Also, conventionally, there is known a method of mixing or combining a computer-generated three-dimensional object and an image feed from a film camera in real time (see, for example, Patent Document 1). In the method described in Patent Document 1, the body of the film camera is movable in three dimensions. Also, a sensor mounted in or on the camera provides real time position data that defines the 3D position or 3D orientation of the camera or allows calculation of the 3D position. On the other hand, Patent Document 1 does not describe means for efficiently performing motion analysis or visualization of physiological measurement data.
本発明は上記事情に鑑みてなされたものであり、運動および運動に関係する時間変化データをわかりやすく提示することができる人体形状モデル可視化システム、人体形状モデル可視化方法およびプログラムを提供することを目的とする。 The present invention has been made in view of the above circumstances, and it is an object of the present invention to provide a human body shape model visualization system, a human body shape model visualization method, and a program capable of presenting time change data related to movement and movement in an easy-to-understand manner. I assume.
本発明は、上記課題を解決するため、以下の手段を提供する。 The present invention provides the following means in order to solve the above problems.
(1)本発明の一態様に係る人体形状モデル可視化システムは、人体全身形状モデルデータと人体動作データと時間変化データとを取得するデータ登録部と、前記データ登録部が取得した時間変化データに基づいて、仮想空間における時間変化データの初期配置を決定する時間変化データ初期配置決定部と、前記データ登録部が取得した人体全身形状モデルデータに基づいて、前記仮想空間における人体全身形状モデルの初期配置を決定する人体全身形状モデル初期配置決定部と、前記データ登録部が取得した人体全身形状モデルデータと人体動作データとに基づいて生成されるストップモーションモデルの生成時点を決定するストップモーションモデル生成時点決定部と、再生操作命令を送出する再生操作命令部と、前記再生操作命令部が送出した再生操作命令に応じて、前記人体全身形状モデル初期配置決定部が決定した人体全身形状モデルの初期配置に、前記データ登録部が取得した人体動作データを適用することによって、アニメーションされた人体全身形状モデルを生成すると共に、再生開始からの時間経過を示すタイムラインを生成するアニメーション人体全身形状モデル生成部と、前記ストップモーションモデル生成時点決定部が決定した生成時点に基づいて、ストップモーションモデル群を生成するストップモーションモデル群生成部と、前記再生操作命令部が送出した再生操作命令と、前記時間変化データ初期配置決定部が決定した前記仮想空間における時間変化データの初期配置と、前記アニメーション人体全身形状モデル生成部が生成したアニメーションされた人体全身形状モデルおよびタイムラインと、前記ストップモーションモデル群生成部が生成したストップモーションモデル群とに基づいて、前記仮想空間における時間変化データの位置を示す時間変化データ位置情報と、前記仮想空間におけるアニメーションされた人体全身形状モデルの位置を示す人体全身形状モデル位置情報と、前記仮想空間におけるストップモーションモデル群の位置を示すストップモーションモデル群位置情報とを生成する配置移動部と、前記配置移動部が生成する時間変化データ位置情報、人体全身形状モデル位置情報およびストップモーションモデル群位置情報と、利用者に映像を提示する映像提示部の位置および姿勢とに基づいて、前記映像提示部が利用者に提示する映像を生成する映像生成部とを備える。 (1) A human body shape model visualization system according to an aspect of the present invention includes a data registration unit for acquiring human body whole body shape model data, human body motion data, and time change data, and time change data acquired by the data registration unit. Based on the temporal change data initial arrangement determination unit for determining the initial arrangement of temporal change data in the virtual space, and the initial arrangement of the human body whole body shape model in the virtual space based on the human whole body shape model data acquired by the data registration unit A human body whole body shape model initial arrangement determining unit for determining arrangement, and a stop motion model generation for determining a generation time point of a stop motion model generated based on human body whole shape model data and human body movement data acquired by the data registration unit A time point determination unit, a reproduction operation instruction unit for transmitting a reproduction operation instruction, and the reproduction operation instruction unit The human body animated by applying the human body motion data acquired by the data registration unit to the initial arrangement of the human body whole body shape model determined by the human body whole body shape model initial arrangement determination unit according to the reproduction operation command issued An animation human body whole body shape model generation unit that generates a whole body shape model and generates a time line indicating a time lapse from the start of reproduction, and a stop motion model based on generation time points determined by the stop motion model generation time point determination unit A stop motion model group generation unit for generating a group; a reproduction operation instruction sent by the reproduction operation instruction unit; an initial arrangement of time change data in the virtual space determined by the time change data initial arrangement determination unit; The animation generated by the human body whole body shape model generation unit Time-varying data position information indicating the position of time-varying data in the virtual space based on the human body whole-body shape model and the timeline and the stop motion model group generated by the stop motion model group generation unit; An arrangement movement unit for generating position information of a human body whole body shape model indicating a position of an animated human body whole body shape model and stop motion model group position information indicating a position of a stop motion model group in the virtual space; The image presentation unit uses the time change data position information generated by the unit, the human body whole-body shape model position information and the stop motion model group position information, and the position and orientation of the image presentation unit that presents the image to the user And a video generation unit for generating a video to be presented to a person.
(2)上記(1)に記載の人体形状モデル可視化システムにおいて、時間変化データは、生理計測装置によって得られた時系列の生理計測データであり、前記映像生成部は、再生開始からの時間経過を示すタイムライン上に、その時点における生理計測データの値(グラフ)と、その時点におけるアニメーションされた人体全身形状モデルとを配置し、タイムライン上に配置されるアニメーションされた人体全身形状モデルは、その時点における人体の姿勢を示してもよい。 (2) In the human body shape model visualization system according to (1) above, the time change data is time series physiological measurement data obtained by the physiological measurement device, and the video generation unit On the timeline showing the values of the physiological measurement data at that time (graph) and the animated human whole body shape model at that time, and the animated human whole body shape model placed on the timeline is The posture of the human body at that time may be indicated.
(3)上記(1)または(2)に記載の人体形状モデル可視化システムにおいて、前記ストップモーションモデル生成時点決定部は、設定ファイル、外部プログラムおよび前記映像提示部の利用者との対話的な操作の少なくともいずれかに基づいて、前記仮想空間におけるストップモーションモデルの生成間隔を決定してもよい。 (3) In the human body shape model visualization system according to (1) or (2) above, the stop motion model generation time point determination unit interacts with the setting file, the external program, and the user of the video presentation unit. The generation interval of the stop motion model in the virtual space may be determined based on at least one of the above.
(4)上記(1)から(3)のいずれか一つに記載の人体形状モデル可視化システムにおいて、前記ストップモーションモデル生成時点決定部は、人体動作データからルールベースに抽出された時点を、前記仮想空間におけるストップモーションモデルの生成時点として決定してもよい。 (4) In the human body shape model visualization system according to any one of (1) to (3) above, the stop motion model generation time point determination unit may calculate the time point extracted as human body motion data in a rule base. It may be determined as the generation time of the stop motion model in the virtual space.
(5)上記(1)から(4)のいずれか一つに記載の人体形状モデル可視化システムにおいて、前記再生操作命令部が順方向の再生操作命令を送出した場合に、前記配置移動部は、アニメーションされた人体全身形状モデルと再生開始からの時間経過を示すタイムラインとを右向きに移動させる、もしくは、時間変化データの波形と前記ストップモーションモデル群生成部が生成したストップモーションモデル群とを左向きに移動させてもよい。 (5) In the human body shape model visualization system according to any one of (1) to (4) above, when the reproduction operation instruction unit transmits a reproduction operation instruction in the forward direction, the placement and movement unit is: Move the animated whole human body shape model and the time line showing the time lapse from the start of reproduction to the right, or the waveform of the time change data and the stop motion model group generated by the stop motion model group generator to the left You may move it to
(6)上記(1)から(5)のいずれか一つに記載の人体形状モデル可視化システムにおいて、前記データ登録部が取得する人体全身形状モデルデータは、人物を模して作成された形状モデルデータ、あるいは、形状計測機によって得られた点群データを変換することにより得られた形状モデルデータであってもよい。 (6) In the human body shape model visualization system according to any one of the above (1) to (5), the human body whole body shape model data acquired by the data registration unit is a shape model created by imitating a person. It may be data or shape model data obtained by converting point cloud data obtained by the shape measuring machine.
(7)上記(1)から(6)のいずれか一つに記載の人体形状モデル可視化システムにおいて、前記データ登録部が取得する人体動作データは、人体動作計測装置によって得られた時系列データであってもよい。 (7) In the human body shape model visualization system according to any one of (1) to (6), the human body movement data acquired by the data registration unit is time series data acquired by the human body movement measurement device. It may be.
(8)上記(1)に記載の人体形状モデル可視化システムにおいて、前記データ登録部が取得する時間変化データは、外部プログラムによって得られた時系列データであってもよい。 (8) In the human body shape model visualization system described in (1) above, the time change data acquired by the data registration unit may be time series data acquired by an external program.
(9)上記(1)に記載の人体形状モデル可視化システムにおいて、前記再生操作命令部は、前記映像提示部の利用者の操作に応じて、および/または、外部プログラムからのコマンドに応じて再生操作命令を送出し、前記再生操作命令部が送出する再生操作命令には、順方向の再生操作命令、逆方向の再生操作命令、順方向の微速度再生操作命令、逆方向の微速度再生操作命令、順方向の増速再生操作命令、逆方向の増速再生操作命令、一時停止命令、停止命令およびループ再生命令の少なくともいずれかが含まれてもよい。 (9) In the human body shape model visualization system according to (1), the reproduction operation instruction unit reproduces in response to an operation of a user of the video presentation unit and / or according to a command from an external program. In the reproduction operation instruction sent out by the reproduction operation instruction unit, an operation instruction is sent out: forward reproduction operation instruction, reverse direction reproduction operation instruction, forward direction speed reproduction operation instruction, reverse direction speed reproduction operation An instruction, a forward acceleration playback operation instruction, a reverse acceleration playback operation instruction, a pause instruction, a stop instruction and / or a loop playback instruction may be included.
(10)本発明の一態様に係る人体形状モデル可視化方法は、人体全身形状モデルデータと人体動作データと時間変化データとを取得するデータ登録ステップと、前記データ登録ステップにおいて取得された時間変化データに基づいて、仮想空間における時間変化データの初期配置を決定する時間変化データ初期配置決定ステップと、前記データ登録ステップにおいて取得された人体全身形状モデルデータに基づいて、前記仮想空間における人体全身形状モデルの初期配置を決定する人体全身形状モデル初期配置決定ステップと、前記データ登録ステップにおいて取得された人体全身形状モデルデータと人体動作データとに基づいて生成されるストップモーションモデルの生成時点を決定するストップモーションモデル生成時点決定ステップと、再生操作命令を送出する再生操作命令ステップと、前記再生操作命令ステップにおいて送出された再生操作命令に応じて、前記人体全身形状モデル初期配置決定ステップにおいて決定された人体全身形状モデルの初期配置に、前記データ登録ステップにおいて取得された人体動作データを適用することによって、アニメーションされた人体全身形状モデルを生成すると共に、再生開始からの時間経過を示すタイムラインを生成するアニメーション人体全身形状モデル生成ステップと、前記ストップモーションモデル生成時点決定ステップにおいて決定された生成時点に基づいて、ストップモーションモデル群を生成するストップモーションモデル群生成ステップと、前記再生操作命令ステップにおいて送出された再生操作命令と、前記時間変化データ初期配置決定ステップにおいて決定された前記仮想空間における時間変化データの初期配置と、前記アニメーション人体全身形状モデル生成ステップにおいて生成されたアニメーションされた人体全身形状モデルおよびタイムラインと、前記ストップモーションモデル群生成ステップにおいて生成されたストップモーションモデル群とに基づいて、前記仮想空間における時間変化データの位置を示す時間変化データ位置情報と、前記仮想空間におけるアニメーションされた人体全身形状モデルの位置を示す人体全身形状モデル位置情報と、前記仮想空間におけるストップモーションモデル群の位置を示すストップモーションモデル群位置情報とを生成する配置移動ステップと、前記配置移動ステップにおいて生成される時間変化データ位置情報、人体全身形状モデル位置情報およびストップモーションモデル群位置情報と、利用者に映像を提示する映像提示部の位置および姿勢とに基づいて、前記映像提示部が利用者に提示する映像を生成する映像生成ステップとを備える。 (10) A human body shape model visualizing method according to an aspect of the present invention includes a data registration step of acquiring human body whole body shape model data, human body motion data, and time change data, and time change data acquired in the data registration step. Based on the time change data initial arrangement determining step of determining the initial arrangement of time change data in the virtual space, and the human whole body shape model in the virtual space based on the human whole body shape model data acquired in the data registration step. Human body whole body shape model initial arrangement determining step of determining the initial arrangement of the human body, and stop determining the generation time point of the stop motion model generated based on the human body whole body shape model data and human body movement data acquired in the data registration step. Motion model generation time point determination step And an initial arrangement of a human body whole body shape model determined in the human body whole body shape model initial arrangement determining step according to a reproduction operation instruction step of transmitting a reproduction operation instruction and the reproduction operation instruction transmitted in the reproduction operation step. An animated human whole body shape model generating step of generating an animated human whole body shape model by applying the human body motion data acquired in the data registration step, and generating a time line indicating time lapse from the start of reproduction; A stop motion model group generation step of generating a stop motion model group based on a generation time point determined in the stop motion model generation time point determination step; a reproduction operation instruction sent out in the reproduction operation instruction step; Time Initial arrangement of temporal change data in the virtual space determined in the change data initial arrangement determining step, an animated human whole body shape model and timeline generated in the animation human body whole body shape model generating step, and the stop motion model Time change data position information indicating the position of time change data in the virtual space based on the stop motion model group generated in the group generation step, and a human body indicating the position of the animated human whole body shape model in the virtual space An arrangement movement step for generating whole body shape model position information and stop motion model group position information indicating the position of the stop motion model group in the virtual space; and time change data generated in the arrangement movement step Video presented by the video presentation unit to the user based on the position information of the human body shape model and the stop motion model group position and the position and posture of the video presentation unit presenting the video to the user And V. generating an image.
(11)本発明の一態様に係るプログラムは、コンピュータに、人体全身形状モデルデータと人体動作データと時間変化データとを取得するデータ登録ステップと、前記データ登録ステップにおいて取得された時間変化データに基づいて、仮想空間における時間変化データの初期配置を決定する時間変化データ初期配置決定ステップと、前記データ登録ステップにおいて取得された人体全身形状モデルデータに基づいて、前記仮想空間における人体全身形状モデルの初期配置を決定する人体全身形状モデル初期配置決定ステップと、前記データ登録ステップにおいて取得された人体全身形状モデルデータと人体動作データとに基づいて生成されるストップモーションモデルの生成時点を決定するストップモーションモデル生成時点決定ステップと、再生操作命令を送出する再生操作命令ステップと、前記再生操作命令ステップにおいて送出された再生操作命令に応じて、前記人体全身形状モデル初期配置決定ステップにおいて決定された人体全身形状モデルの初期配置に、前記データ登録ステップにおいて取得された人体動作データを適用することによって、アニメーションされた人体全身形状モデルを生成すると共に、再生開始からの時間経過を示すタイムラインを生成するアニメーション人体全身形状モデル生成ステップと、前記ストップモーションモデル生成時点決定ステップにおいて決定された生成時点に基づいて、ストップモーションモデル群を生成するストップモーションモデル群生成ステップと、前記再生操作命令ステップにおいて送出された再生操作命令と、前記時間変化データ初期配置決定ステップにおいて決定された前記仮想空間における時間変化データの初期配置と、前記アニメーション人体全身形状モデル生成ステップにおいて生成されたアニメーションされた人体全身形状モデルおよびタイムラインと、前記ストップモーションモデル群生成ステップにおいて生成されたストップモーションモデル群とに基づいて、前記仮想空間における時間変化データの位置を示す時間変化データ位置情報と、前記仮想空間におけるアニメーションされた人体全身形状モデルの位置を示す人体全身形状モデル位置情報と、前記仮想空間におけるストップモーションモデル群の位置を示すストップモーションモデル群位置情報とを生成する配置移動ステップと、前記配置移動ステップにおいて生成される時間変化データ位置情報、人体全身形状モデル位置情報およびストップモーションモデル群位置情報と、利用者に映像を提示する映像提示部の位置および姿勢とに基づいて、前記映像提示部が利用者に提示する映像を生成する映像生成ステップとを実行させるためのものである。 (11) A program according to an aspect of the present invention is a computer that includes a data registration step of acquiring human body whole-body shape model data, human body motion data, and time change data, and time change data acquired in the data registration step. Based on a time change data initial arrangement determining step of determining an initial arrangement of time change data in the virtual space, and a human body whole body shape model in the virtual space based on the human whole body shape model data acquired in the data registration step. A human body whole body shape model initial arrangement determining step for determining an initial arrangement, and a stop motion for determining a generation time point of a stop motion model generated based on human body whole body shape model data and human body motion data acquired in the data registration step Model generation point determination step And a reproduction operation instruction step of transmitting a reproduction operation instruction, and an initial arrangement of a human body whole body shape model determined in the human body whole body shape model initial arrangement determining step according to the reproduction operation instruction transmitted in the reproduction operation instruction step. By generating the animated human whole body shape model by applying the human body movement data acquired in the data registration step, and generating a timeline indicating the time lapse from the start of reproduction; A stop motion model group generation step of generating a stop motion model group based on a generation time point determined in the stop motion model generation time point determination step; a reproduction operation instruction sent out in the reproduction operation instruction step; Said Initial arrangement of temporal change data in the virtual space determined in the inter-change data initial arrangement determination step, an animated human whole-body shape model and timeline generated in the animation human body whole-body shape model generation step, and the stop motion Indicates time-varying data position information indicating the position of time-varying data in the virtual space based on the stop motion model group generated in the model group generation step, and the position of the animated human whole body shape model in the virtual space An arrangement movement step of generating human body whole-body shape model position information and stop motion model group position information indicating the position of the stop motion model group in the virtual space; and time change generated in the arrangement movement step Based on data position information, human body whole shape shape position information and stop motion model group position information, and the position and posture of the image presentation unit presenting the image to the user, the image presented to the user by the image presentation unit is And a video generation step to generate.
本発明によれば、運動および運動に関係する時間変化データをわかりやすく提示することができる人体形状モデル可視化システム、人体形状モデル可視化方法およびプログラムを提供することができる。 According to the present invention, it is possible to provide a human body shape model visualization system, a human body shape model visualization method, and a program capable of presenting time change data related to movement and movement in an easy-to-understand manner.
以下、本発明の人体形状モデル可視化システム、人体形状モデル可視化方法およびプログラムの実施形態を、図を適宜参照しながら詳細に説明する。以下の説明で用いる図面は、本発明の特徴を分かりやすくするために、便宜上特徴となる部分を拡大して示している場合があり、各構成要素の寸法比率等は実際とは異なっていることがある。以下の説明において例示される材料、寸法等は一例であって、本発明はそれらに限定されるものではなく、本発明の効果を奏する範囲で適宜変更して実施することが可能である。 Hereinafter, embodiments of a human body shape model visualization system, a human body shape model visualization method, and a program according to the present invention will be described in detail with reference to the drawings. In the drawings used in the following description, in order to make features of the present invention intelligible, the features that are the features may be enlarged and shown for convenience, and the dimensional ratio of each component is different from the actual one. There is. The materials, dimensions, and the like exemplified in the following description are merely examples, and the present invention is not limited to them, and can be appropriately modified and implemented within the scope of achieving the effects of the present invention.
図1は実施形態の人体形状モデル可視化システム1の構成などの一例を示す図である。
図1に示す例では、人体全身形状モデルデータ110と、人体動作データ120と、時間変化データ130とが、AND演算部150を介して人体形状モデル可視化システム1に入力可能に構成されている。
人体形状モデル可視化システム1に入力される人体全身形状モデルデータ110は、例えば、人物を模して作成された形状モデルデータである。
他の例では、人体形状モデル可視化システム1に入力される人体全身形状モデルデータ110が、デジタイザなどの形状計測機(図示せず)によって得られた点群データを変換することにより得られた形状モデルデータであってもよい。
FIG. 1 is a diagram showing an example of the configuration of a human body shape model visualization system 1 according to the embodiment.
In the example shown in FIG. 1, human body whole body shape model data 110, human body motion data 120, and time change data 130 are configured to be able to be input to human body shape model visualization system 1 via AND operation unit 150.
The human body whole body shape model data 110 input to the human body shape model visualization system 1 is, for example, shape model data created to simulate a person.
In another example, a shape obtained by converting point cloud data obtained by a shape measuring machine (not shown) such as a digitizer into the whole human body shape model data 110 input to the human body shape model visualization system 1 It may be model data.
図1に示す例では、人体形状モデル可視化システム1に入力される人体動作データ120は、例えば、人体動作計測装置(図示せず)によって得られた各関節角度などの時系列データである。
人体形状モデル可視化システム1に入力される時間変化データ130は、例えば、外部プログラムによって得られた時系列データである。外部プログラムによって得られた時系列データは、例えば、生理計測装置によって得られた時系列の生理計測データである。生理計測装置によって得られた時系列の生理計測データとしては、例えば、筋電、心拍、呼吸代謝、消費カロリーなどの時系列データがある。
他の例では、時間変化データ130として、人体動作データおよび時間変化データの被計測者が、その計測最中において、携帯型端末(図示せず)を用いて記録した運動中の気分の状態などを示すデータを人体形状モデル可視化システム1に入力してもよい。
In the example shown in FIG. 1, the human body motion data 120 input to the human body shape model visualization system 1 is, for example, time series data such as each joint angle obtained by a human body motion measuring device (not shown).
The time change data 130 input to the human body shape model visualization system 1 is, for example, time series data obtained by an external program. The time-series data obtained by the external program is, for example, time-series physiological measurement data obtained by the physiological measurement device. Examples of time-series physiological measurement data obtained by the physiological measurement device include time-series data such as myoelectric potential, heartbeat, respiratory metabolism, consumed calories, and the like.
In another example, as the time change data 130, the subject of human body movement data and time change data measures the state of mood during exercise recorded using a portable terminal (not shown) during the measurement, etc. May be input to the human body shape model visualization system 1.
図1に示す例では、映像提示部200が、人体全身形状モデルデータ110と、人体動作データ120とに基づいて、人体形状モデル可視化システム1によって生成されたアニメーションされた人体全身形状モデル(動作する人体全身形状モデルの動く像)の映像を、人体形状モデル可視化システム1および映像提示部200の利用者に提示する。
また、映像提示部200は、人体全身形状モデルデータ110と、人体動作データ120とに基づいて、人体形状モデル可視化システム1によって生成されたストップモーションモデル(動作する人体全身形状モデルを所定のタイミングで静止させたもの)の映像を利用者に提示する。
また、映像提示部200は、時間変化データ130に基づいて人体形状モデル可視化システム1によって生成された時間変化データの波形の映像を利用者に提示する。
映像提示部200は、例えば公知のVR(Virtual Reality)デバイスまたはAR(Augmented Reality)デバイスである。人体形状モデル可視化システム1には、映像提示部200の位置および姿勢の情報が入力される。映像提示部200を着用する利用者の位置または姿勢の変化に伴って、映像提示部200の位置または姿勢が変化すると、映像提示部200が利用者に提示する映像のアングルなどが変化する。
映像提示部200の位置および姿勢を検出するためには、例えば、外部センサを利用するVR用トラッキング技術「Lighthouse」、内蔵カメラを利用するSLAM(Simultaneous Localization and Mapping)などの技術が用いられる。
In the example shown in FIG. 1, the image presentation unit 200 generates an animated human body whole-body shape model (operated by the human body shape model visualization system 1 based on the human body whole-body shape model data 110 and the human body motion data 120) An image of a moving image of the human body whole body shape model is presented to the user of the human body shape model visualization system 1 and the image presentation unit 200.
In addition, the image presentation unit 200 is a stop motion model generated by the human body shape model visualization system 1 based on the human body whole body shape model data 110 and the human body motion data 120 (with the operating whole body shape model at a predetermined timing). Present the user with the image of
In addition, the image presentation unit 200 presents the user with an image of the waveform of the time change data generated by the human body shape model visualization system 1 based on the time change data 130.
The image presentation unit 200 is, for example, a known virtual reality (VR) device or an augmented reality (AR) device. Information on the position and orientation of the image presentation unit 200 is input to the human body shape model visualization system 1. When the position or posture of the video presentation unit 200 changes with the change of the position or posture of the user wearing the video presentation unit 200, the angle or the like of the video presented to the user by the video presentation unit 200 changes.
In order to detect the position and orientation of the image presentation unit 200, for example, techniques such as VR tracking technology "Lighthouse" using an external sensor, SLAM (Simultaneous Localization and Mapping) using a built-in camera, and the like are used.
図1に示す例では、人体形状モデル可視化システム1が、データ登録部1Aと、時間変化データ初期配置決定部1Bと、人体全身形状モデル初期配置決定部1Cと、ストップモーションモデル生成時点決定部1Dと、再生操作命令部1Eと、アニメーション人体全身形状モデル生成部1Fと、ストップモーションモデル群生成部1Gと、配置移動部1Hと、映像生成部1Iとを備える。
データ登録部1Aは、人体形状モデル可視化システム1に入力された人体全身形状モデルデータ110と人体動作データ120と時間変化データ130とを取得する。
In the example shown in FIG. 1, the human body shape model visualization system 1 includes a data registration unit 1A, a time change data initial arrangement determination unit 1B, a human whole body shape model initial arrangement determination unit 1C, and a stop motion model generation time point determination unit 1D. , A reproduction operation command unit 1E, an animation human body whole-body shape model generation unit 1F, a stop motion model group generation unit 1G, an arrangement movement unit 1H, and a video generation unit 1I.
The data registration unit 1A acquires the human body whole body shape model data 110, the human body motion data 120, and the time change data 130 input to the human body shape model visualization system 1.
時間変化データ初期配置決定部1Bは、データ登録部1Aに接続されている。時間変化データ初期配置決定部1Bは、データ登録部1Aが取得した時間変化データ130に基づいて、仮想空間における時間変化データの初期配置を決定する。仮想空間とは、VRデバイスまたはARデバイスのディスプレイに表示される空間である。
つまり、時間変化データ初期配置決定部1Bは、VRデバイスまたはARデバイスのディスプレイに表示される空間における時間変化データの波形の初期位置(詳細には、例えば時刻t0の時間変化データの波形の値の表示位置)を決定する。
The time change data initial arrangement determination unit 1B is connected to the data registration unit 1A. The time change data initial arrangement determination unit 1B determines the initial arrangement of time change data in the virtual space based on the time change data 130 acquired by the data registration unit 1A. The virtual space is a space displayed on the display of the VR device or AR device.
That is, the time change data initial arrangement determination unit 1B determines the initial position of the waveform of the time change data in the space displayed on the display of the VR device or AR device (specifically, for example, the value of the waveform of the time change data at time t0 Determine the display position).
人体全身形状モデル初期配置決定部1Cは、データ登録部1Aに接続されている。人体全身形状モデル初期配置決定部1Cは、データ登録部1Aが取得した人体全身形状モデルデータ110に基づいて、仮想空間における人体全身形状モデルの初期配置を決定する。
つまり、人体全身形状モデル初期配置決定部1Cは、VRデバイスまたはARデバイスのディスプレイに表示される空間における人体全身形状モデルの初期位置(詳細には、例えば時刻t0の人体全身形状モデルの表示位置)を決定する。
The human body whole-body shape model initial arrangement determination unit 1C is connected to the data registration unit 1A. The human body whole body shape model initial arrangement determining unit 1C determines the initial arrangement of the human body whole body shape model in the virtual space based on the human body whole shape model data 110 acquired by the data registration unit 1A.
That is, the human body whole body shape model initial arrangement determination unit 1C is an initial position of the human body whole body shape model in the space displayed on the display of the VR device or the AR device (in detail, for example, the display position of the human body whole body shape model at time t0) Decide.
ストップモーションモデル生成時点決定部1Dは、データ登録部1Aに接続されている。ストップモーションモデル生成時点決定部1Dは、データ登録部1Aが取得した人体全身形状モデルデータ110と人体動作データ120とに基づいて生成されるストップモーションモデルの生成時点(例えば時刻t0、t1、t2など)を決定する。
ストップモーションモデル生成時点決定部1Dは、例えば設定ファイルに基づいてストップモーションモデルの生成間隔(例えば生成間隔t1−t0、t2−t1など)を決定する。
他の例では、ストップモーションモデル生成時点決定部1Dが、外部プログラムに基づいてストップモーションモデルの生成間隔を決定してもよく、利用者との対話(例えば利用者のリクエスト)的な操作に基づいてストップモーションモデルの生成間隔を決定してもよい。
あるいは、ストップモーションモデル生成時点決定部1Dが、人体動作データ120からルールベースに抽出された時点を、ストップモーションモデルの生成時点として決定してもよい。
ストップモーションモデル生成時点決定部1Dが、それらを組み合わせて、ストップモーションモデルの生成間隔を決定してもよい。
The stop motion model generation time point determination unit 1D is connected to the data registration unit 1A. The stop motion model generation time point determination unit 1D generates a stop motion model generation time point (for example, time t0, t1, t2, etc.) generated based on the human body whole body shape model data 110 and the human body motion data 120 acquired by the data registration unit 1A. To determine).
The stop motion model generation time point determination unit 1D determines a stop motion model generation interval (for example, generation interval t1-t0, t2-t1) based on, for example, a setting file.
In another example, the stop motion model generation time point determination unit 1D may determine the stop motion model generation interval based on an external program, and based on an operation like interaction with a user (for example, a user request). The generation interval of the stop motion model may be determined.
Alternatively, the stop motion model generation time point determination unit 1D may determine a time point extracted from the human body motion data 120 on a rule basis as a generation time point of the stop motion model.
The stop motion model generation time point determination unit 1D may combine them to determine the generation interval of the stop motion model.
図1に示す例では、再生操作命令部1Eが、再生操作命令を送出する。再生操作命令とは、上述したアニメーションされた人体全身形状モデル(動作する人体全身形状モデルの動く像)などの再生操作を指示する命令である。
再生操作命令部1Eは、人体形状モデル可視化システム1および映像提示部200の利用者の操作に応じて再生操作命令を送出する。
他の例(例えば人体形状モデル可視化システム1がアーカイブ鑑賞システムに組み込まれる場合)では、再生操作命令部1Eが、外部プログラムからのコマンドに応じて再生操作命令を送出してもよい。再生操作命令部1Eが、利用者の操作および外部プログラムからのコマンドの両方に応じて再生操作命令を送出してもよい。
In the example shown in FIG. 1, the reproduction operation instruction unit 1E sends out a reproduction operation instruction. The reproduction operation instruction is an instruction for instructing the reproduction operation of the above-described animated human whole body shape model (moving image of a moving human whole body shape model) or the like.
The reproduction operation instruction unit 1E sends out a reproduction operation instruction according to the operation of the user of the human body shape model visualization system 1 and the image presentation unit 200.
In another example (for example, when the human body shape model visualization system 1 is incorporated into the archive viewing system), the reproduction operation instruction unit 1E may send out the reproduction operation instruction according to the command from the external program. The reproduction operation command unit 1E may send out the reproduction operation command according to both the user operation and the command from the external program.
図1に示す例では、再生操作命令部1Eが送出する再生操作命令に、例えば、順方向の再生操作命令と、逆方向の再生操作命令と、順方向の微速度再生操作命令と、逆方向の微速度再生操作命令と、順方向の増速再生操作命令と、逆方向の増速再生操作命令と、一時停止命令と、停止命令と、ループ再生命令とが含まれる。
他の例では、再生操作命令部1Eが送出する再生操作命令に、上述した命令の少なくともいずれかが含まれる。
In the example shown in FIG. 1, the reproduction operation instruction sent by the reproduction operation instruction unit 1E includes, for example, a reproduction operation instruction in the forward direction, a reproduction operation instruction in the reverse direction, and a time reproduction operation instruction in the forward direction. And a reverse playback instruction, a pause instruction, a stop instruction, and a loop playback instruction.
In another example, the reproduction operation instruction sent by the reproduction operation instruction unit 1E includes at least one of the above-described instructions.
図1に示す例では、アニメーション人体全身形状モデル生成部1Fが、人体全身形状モデル初期配置決定部1Cと、再生操作命令部1Eとに接続されている。
アニメーション人体全身形状モデル生成部1Fは、再生操作命令部1Eが送出した再生操作命令に応じて、人体全身形状モデルの初期配置に人体動作データ120を適用することによって、アニメーションされた人体全身形状モデル(動作する人体全身形状モデルの動く像)を生成する。アニメーションされた人体全身形状モデルは、後述するように、VRデバイスまたはARデバイスのディスプレイに表示される。
また、アニメーション人体全身形状モデル生成部1Fは、再生開始からの時間経過を示すタイムラインを生成する。タイムラインは、後述するように、VRデバイスまたはARデバイスのディスプレイに表示される。また、VRデバイスまたはARデバイスのディスプレイに表示される仮想空間におけるタイムラインの位置は、再生開始後の時間の経過に伴って変化する。
In the example shown in FIG. 1, an animation human body whole body shape model generation unit 1F is connected to a human body whole body shape model initial arrangement determination unit 1C and a reproduction operation command unit 1E.
The animated human body whole body shape model generation unit 1F is an animated human body whole body shape model by applying the human body motion data 120 to the initial arrangement of the human body whole body shape model according to the reproduction operation command sent out by the reproduction operation command unit 1E. (A moving image of an operating human body whole-body shape model) is generated. The animated whole body shape model is displayed on the display of the VR device or AR device as described later.
In addition, the animation human body whole-body shape model generation unit 1F generates a time line indicating time lapse from the start of reproduction. The timeline is displayed on the display of the VR device or AR device, as described later. Further, the position of the timeline in the virtual space displayed on the display of the VR device or AR device changes with the passage of time after the start of reproduction.
ストップモーションモデル群生成部1Gは、ストップモーションモデル生成時点決定部1Dに接続されている。ストップモーションモデル群生成部1Gは、ストップモーションモデル生成時点決定部1Dが決定した生成時点に基づいて、ストップモーションモデル群を生成する。
例えば、ストップモーションモデル生成時点決定部1Dが、ストップモーションモデルの生成時点として、時刻t0と、時刻t1と、時刻t2とを決定した場合、ストップモーションモデル群生成部1Gは、アニメーションされた人体全身形状モデル(動作する人体全身形状モデルの動く像(statue))を時刻t0に停止させたもの(人体全身形状モデルの静止像)を、時刻t0のストップモーションモデルとして生成する。また、ストップモーションモデル群生成部1Gは、アニメーションされた人体全身形状モデルを時刻t1に停止させたものを時刻t1のストップモーションモデルとして生成し、アニメーションされた人体全身形状モデルを時刻t2に停止させたものを時刻t2のストップモーションモデルとして生成する。
また、ストップモーションモデル生成時点決定部1Dが、ストップモーションモデルの生成時点として、時刻t0と、時刻t1と、時刻t2とを決定した場合には、ストップモーションモデル群生成部1Gが生成するストップモーションモデル群は、時刻t0のストップモーションモデルと、時刻t1のストップモーションモデルと、時刻t2のストップモーションモデルとによって構成される。
The stop motion model group generation unit 1G is connected to the stop motion model generation time point determination unit 1D. The stop motion model group generation unit 1G generates a stop motion model group based on the generation time point determined by the stop motion model generation time point determination unit 1D.
For example, when the stop motion model generation time point determination unit 1D determines the time t0, the time t1, and the time t2 as the generation time of the stop motion model, the stop motion model group generation unit 1G generates the animated whole human body. A shape model (moving image of an operating human body whole-body shape model) is stopped at time t0 (a still image of the human whole body shape model) is generated as a stop motion model at time t0. In addition, the stop motion model group generation unit 1G generates a stop motion model of time t1 by stopping the animated human whole body shape model at time t1 as a stop motion model of time t1, and stops the animated human whole body shape model at time t2. Is generated as a stop motion model at time t2.
In addition, when the stop motion model generation time point determination unit 1D determines the time t0, the time t1, and the time t2 as the generation time of the stop motion model, the stop motion generated by the stop motion model group generation unit 1G The model group is configured of a stop motion model at time t0, a stop motion model at time t1, and a stop motion model at time t2.
配置移動部1Hは、時間変化データ初期配置決定部1Bと、再生操作命令部1Eと、アニメーション人体全身形状モデル生成部1Fと、ストップモーションモデル群生成部1Gとに接続されている。
つまり、配置移動部1Hには、再生操作命令部1Eが送出した再生操作命令と、時間変化データ初期配置決定部1Bが決定した仮想空間における時間変化データの初期配置と、アニメーション人体全身形状モデル生成部1Fが生成したアニメーションされた人体全身形状モデルおよびタイムラインと、ストップモーションモデル群生成部1Gが生成したストップモーションモデル群とが入力される。
配置移動部1Hは、入力されたそれらに基づいて、仮想空間における時間変化データの位置を示す時間変化データ位置情報と、仮想空間におけるアニメーションされた人体全身形状モデルの位置を示す人体全身形状モデル位置情報と、仮想空間におけるストップモーションモデル群の位置を示すストップモーションモデル群位置情報とを生成する。
時間変化データ位置情報とは、例えば、VRデバイスまたはARデバイスのディスプレイに表示される仮想空間のどこに時間変化データの波形を配置すべきかの情報である。
人体全身形状モデル位置情報とは、例えば、VRデバイスまたはARデバイスのディスプレイに表示される仮想空間のどこに、例えば時刻t3のアニメーションされた人体全身形状モデル(人体全身形状モデルの動く像)を配置すべきかの情報である。
ストップモーションモデル群位置情報とは、例えば、VRデバイスまたはARデバイスのディスプレイに表示される仮想空間のどこに、時刻t0のストップモーションモデルと、時刻t1のストップモーションモデルと、時刻t2のストップモーションモデルとを配置すべきかの情報である。
The arrangement movement unit 1H is connected to a time change data initial arrangement determination unit 1B, a reproduction operation instruction unit 1E, an animation human body whole body shape model generation unit 1F, and a stop motion model group generation unit 1G.
That is, to the arrangement moving unit 1H, the reproduction operation instruction sent out by the reproduction operation instruction unit 1E, the initial arrangement of the time change data in the virtual space determined by the time change data initial arrangement determining unit 1B, and the animation human body whole body shape model generation The animated human whole body shape model and timeline generated by the unit 1F and the stop motion model group generated by the stop motion model group generation unit 1G are input.
The arrangement movement unit 1H, based on the input, temporal change data position information indicating the position of time change data in the virtual space, and a human body whole body shape model position indicating the position of the animated human whole body shape model in the virtual space Information and stop motion model group position information indicating the position of the stop motion model group in the virtual space are generated.
The time change data position information is, for example, information on where in the virtual space displayed on the display of the VR device or the AR device, the waveform of the time change data should be arranged.
For example, in the virtual space displayed on the display of the VR device or AR device, for example, an animated human whole body shape model (moving image of the human whole body shape model) should be placed anywhere in the virtual space displayed on the display of the VR device or AR device. It is the information of the day.
The stop motion model group position information includes, for example, the stop motion model at time t0, the stop motion model at time t1, and the stop motion model at time t2 anywhere in the virtual space displayed on the display of the VR device or AR device. It is information of what should be arranged.
図1に示す例では、再生操作命令部1Eが順方向の再生操作命令を送出した場合に、配置移動部1Hは、アニメーションされた人体全身形状モデルと再生開始からの時間経過を示すタイムラインとを右向きに移動させる。
他の例では、再生操作命令部1Eが順方向の再生操作命令を送出した場合に、配置移動部1Hは、時間変化データの波形とストップモーションモデル群生成部1Gが生成したストップモーションモデル群とを左向きに移動させてもよい。
In the example shown in FIG. 1, when the reproduction operation instruction unit 1E transmits a reproduction operation instruction in the forward direction, the arrangement moving unit 1H includes an animated human whole body shape model and a time line indicating time lapse from the start of reproduction. Move to the right.
In another example, when the reproduction operation instruction unit 1E sends a reproduction operation instruction in the forward direction, the arrangement moving unit 1H generates the waveform of the time change data and the stop motion model group generated by the stop motion model group generation unit 1G. May be moved leftward.
図1に示す例では、映像生成部1Iが、配置移動部1Hに接続されている。
つまり、映像生成部1Iには、配置移動部1Hが生成した時間変化データ位置情報と、人体全身形状モデル位置情報と、ストップモーションモデル群位置情報とが入力される。また、映像生成部1Iには、映像提示部200の位置および姿勢の情報が入力される。
映像生成部1Iは、時間変化データ位置情報と、人体全身形状モデル位置情報と、ストップモーションモデル群位置情報と、映像提示部200の位置および姿勢とに基づいて、映像提示部200が利用者に提示する映像を生成する。
In the example shown in FIG. 1, the video generation unit 1I is connected to the arrangement movement unit 1H.
That is, the image generation unit 1I receives the time change data position information generated by the placement and movement unit 1H, the human body whole body shape model position information, and the stop motion model group position information. Also, information on the position and orientation of the video presentation unit 200 is input to the video generation unit 1I.
The video generation unit 1I sends the video presentation unit 200 a message based on the time change data position information, the human whole body shape model position information, the stop motion model group position information, and the position and orientation of the video presentation unit 200. Generate a video to be presented.
図2は映像生成部1Iが生成した映像を説明するための図である。詳細には、図2は、映像生成部1Iが生成した時刻t3の時点の映像を示している。
図2に示す例では、映像生成部1Iが生成した映像に、時間変化データの波形TD1と、時間変化データの波形TD2と、時間変化データの波形TD3と、時間変化データの波形TD4とが含まれている。時間変化データの波形TD1、TD2、TD3、TD4は、生理計測装置によって得られた時系列の生理計測データの波形である。詳細には、時間変化データの波形TD1乃至TD4は、例えば筋電図波形を示している。時間変化データの波形TD1は、例えば大殿筋の筋電波形を示している。時間変化データの波形TD2は、例えば大腿四頭筋の筋電波形を示している。時間変化データの波形TD3は、例えばハムストリングスの筋電波形を示している。時間変化データの波形TD4は、例えば前脛骨筋の筋電波形を示している。
また、映像生成部1Iが生成した映像には、再生開始時(時刻t0)からの時間経過を示すタイムラインTLが含まれている。図2中のタイムラインTLは、再生開始時(時刻t0)から、時間(t3−t0)が経過したことを示している。
時間変化データの波形TD1とタイムラインTLとの交点は、時刻t3の時点の大殿筋の筋電の値を示している。時間変化データの波形TD2とタイムラインTLとの交点は、時刻t3の時点の大腿四頭筋の筋電の値を示している。時間変化データの波形TD3とタイムラインTLとの交点は、時刻t3の時点のハムストリングスの筋電の値を示している。時間変化データの波形TD4とタイムラインTLとの交点は、時刻t3の時点の前脛骨筋の筋電の値を示している。
また、タイムラインTL上には、時刻t3の時点におけるアニメーションされた人体全身形状モデルAMが配置されている。アニメーションされた人体全身形状モデルAMは、時刻t3の時点における人体の姿勢を示している。
FIG. 2 is a diagram for explaining a video generated by the video generation unit 1I. In detail, FIG. 2 shows an image at time t3 generated by the image generation unit 1I.
In the example shown in FIG. 2, the video generated by the video generation unit 1I includes the waveform TD1 of the time change data, the waveform TD2 of the time change data, the waveform TD3 of the time change data, and the waveform TD4 of the time change data. It is done. Waveforms TD1, TD2, TD3, and TD4 of the time change data are waveforms of time-series physiological measurement data obtained by the physiological measurement device. In detail, waveforms TD1 to TD4 of the time change data indicate, for example, electromyogram waveforms. The waveform TD1 of the time change data indicates, for example, a myoelectric waveform of the gluteus maximus muscle. The waveform TD2 of the time change data indicates, for example, an electromyographic waveform of the quadriceps femoris muscle. The waveform TD3 of the time change data shows, for example, a myoelectric waveform of Hamstrings. The waveform TD4 of the time change data indicates, for example, an electromyographic waveform of the tibialis anterior muscle.
In addition, the video generated by the video generation unit 1I includes a timeline TL indicating an elapse of time from the start of reproduction (time t0). The timeline TL in FIG. 2 indicates that time (t3-t0) has elapsed from the start of reproduction (time t0).
The intersection of the waveform TD1 of the time change data and the timeline TL indicates the value of the myoelectric potential of the gluteus maximus at time t3. The intersection of the waveform TD2 of the time change data and the timeline TL indicates the value of the myoelectric value of the quadriceps femoris muscle at the time t3. The intersection of the waveform TD3 of the time change data and the timeline TL indicates the value of the Hamstrings myoelectric potential at the time t3. The intersection of the waveform TD4 of the time change data and the timeline TL indicates the value of the myoelectric value of the tibialis anterior muscle at time t3.
Further, on the timeline TL, an animated human whole body shape model AM at time t3 is arranged. The animated whole human body shape model AM indicates the posture of the human body at time t3.
また、図2に示す例では、映像生成部1Iが生成した映像に、時刻t0のストップモーションモデルSMt0と、時刻t1のストップモーションモデルSMt1と、時刻t2のストップモーションモデルSMt2とが含まれている。
上述したように、ストップモーションモデルSMt0は、アニメーションされた人体全身形状モデル(動作する人体全身形状モデルの動く像)AMを時刻t0に停止させたものに相当する。ストップモーションモデルSMt1は、アニメーションされた人体全身形状モデルAMを時刻t1に停止させたものに相当し、ストップモーションモデルSMt2は、アニメーションされた人体全身形状モデルAMを時刻t2に停止させたものに相当する。
図2に示す例では、仮想空間におけるストップモーションモデルSMt0、SMt1、SMt2の生成間隔(生成間隔t1−t0、t2−t1)が、設定ファイルまたは外部プログラムに基づいて、一定時間間隔(例えば0.3秒)に決定されている。
Further, in the example shown in FIG. 2, the video generated by the video generation unit 1I includes the stop motion model SMt0 at time t0, the stop motion model SMt1 at time t1, and the stop motion model SMt2 at time t2. .
As described above, the stop motion model SMt0 corresponds to an animated human whole body shape model (moving image of a moving human whole body shape model) AM stopped at time t0. The stop motion model SMt1 corresponds to stopping the animated human whole body shape model AM at time t1, and the stop motion model SMt2 corresponds to stopping the animated human whole body shape model AM at time t2. Do.
In the example shown in FIG. 2, the generation intervals (generation intervals t1-t0 and t2-t1) of the stop motion models SMt0, SMt1 and SMt2 in the virtual space are constant time intervals (e.g. 0. 0.) based on the setting file or the external program. 3 seconds).
図3は、映像生成部1Iが生成した時刻t5の時点の映像を説明するための図である。
図3に示す例では、図2に示す例と比較して、映像提示部200の位置が異なっている。また、図3に示す例では、ストップモーションモデル生成時点決定部1Dが、人体動作データ120からルールベースに抽出された時点(例えば、踵の座標を利用し、着地の瞬間のみ抽出された時点(時刻t2、t3、t4))を、仮想空間におけるストップモーションモデルSMt2、SMt3、SMt4の生成時点として決定している。
このように構成することにより、例えば、利用者(コーチや選手)のニーズに基づいたストップモーションモデルを(半)自動で生成可能になり、その観察をより効率的にすることができる。
利用者の注目したい動作局面が運動の科目によって、あるいは研究者によって変わりうること、すなわち同じランニングという科目であっても踵接地の瞬間を観察したい場合と蹴り出しの瞬間を観察したい場合とが存在しうる。
ストップモーションモデルを生成する瞬間は、パラメータとして指定した一定時刻間隔だけでなく、ルールに基づいて指定した瞬間(例えば足関節の鉛直方向軸の座標に基づいてランニング動作における踵接地の瞬間)などを抽出して採用することができる。
これにより運動中における特徴的な動作、例えば疾走動作の踵接地のストップモーションモデルを(半)自動的に生成することができ、かつ、その生成間隔は計測の事後に任意に変更することができる。
FIG. 3 is a diagram for explaining a video at time t5 generated by the video generation unit 1I.
In the example shown in FIG. 3, the position of the video presentation unit 200 is different from that in the example shown in FIG. 2. Further, in the example shown in FIG. 3, the time point when the stop motion model generation time point determination unit 1D is extracted from the human body motion data 120 on a rule basis (for example, the time point when only landing moment is extracted Times t2, t3 and t4) are determined as generation time points of the stop motion models SMt2, SMt3 and SMt4 in the virtual space.
By configuring in this way, for example, it is possible to (semi) automatically generate a stop motion model based on the needs of the user (coach or player), and to make the observation more efficient.
Depending on the subject of exercise, or the researcher, the user's attentional movement can vary depending on the subject, ie, there is a case where one wants to observe the moment of heel contact and one wants to observe the moment of kicking even in the same running subject. It can.
The moment of generating the stop motion model is not only the constant time interval specified as a parameter, but also the moment specified based on a rule (for example, the moment of heel contact in running operation based on the coordinates of the vertical axis of the ankle joint) It can be extracted and adopted.
As a result, it is possible to (semi) automatically generate a characteristic motion during exercise, such as a heel contact stop motion model of a sprinting motion, and its generation interval can be arbitrarily changed after measurement .
図4は、映像生成部1Iが生成した再生完了時点の映像を説明するための図である。
図4に示す例では、図2および図3に示す例と比較して、映像提示部200の位置が異なっている。また、図4に示す例では、動画の再生が完了しているため、映像中に、アニメーションされた人体全身形状モデルAM、つまり、動いている人体全身形状モデルが存在しない。その結果、映像中にタイムラインTLも存在しない。
FIG. 4 is a diagram for explaining the video at the reproduction completion time point generated by the video generation unit 1I.
In the example shown in FIG. 4, the position of the image presentation unit 200 is different compared to the examples shown in FIGS. 2 and 3. Further, in the example shown in FIG. 4, since the reproduction of the moving image is completed, the animated human whole body shape model AM, that is, the moving human whole body shape model does not exist in the image. As a result, there is no timeline TL in the video.
図5は、映像提示部200が利用者に提示する再生開始直前の映像を説明するための図である。詳細には、図5は、ヘッドマウントディスプレイ着用者の視界を示している。
図5に示す例では、図2〜図4に示す例と比較して、映像提示部200の位置が異なっている。また、図5に示す例では、動画の再生がまだ開始していないため、映像中に、アニメーションされた人体全身形状モデルAM、つまり、動いている人体全身形状モデルが存在しない。その結果、映像中にタイムラインTLも存在しない。
上述したように、図5に示す映像は、映像生成部1Iが生成した映像ではなく、映像提示部200が利用者に提示する映像である。従って、図5には、利用者の左眼用の映像(図5の左側の円内の映像)と、利用者の右眼用の映像(図5の右側の円内の映像)とが含まれる。
FIG. 5 is a diagram for explaining a video immediately before the start of reproduction presented to the user by the video presentation unit 200. In particular, FIG. 5 shows the view of the head mounted display wearer.
In the example shown in FIG. 5, the position of the image presentation unit 200 is different compared to the examples shown in FIGS. 2 to 4. Further, in the example shown in FIG. 5, since the reproduction of the moving image has not started yet, there is no animated human whole body shape model AM, that is, a moving human whole body shape model in the image. As a result, there is no timeline TL in the video.
As described above, the video shown in FIG. 5 is not a video generated by the video generation unit 1I, but a video presented by the video presentation unit 200 to the user. Accordingly, FIG. 5 includes the image for the left eye of the user (image in the circle on the left side of FIG. 5) and the image for the right eye of the user (image in the right circle of FIG. 5). Be
図6は、映像提示部200が利用者に提示する再生開始直前(つまり、図5に示す映像と同一時点)の他の映像を説明するための図である。
図6に示す例では、図5に示す例と比較して、映像提示部200の位置が異なっている。また、図6に示す例では、図5に示す例と同様に、映像中に、アニメーションされた人体全身形状モデルAMが存在せず、タイムラインTLも存在しない。
また、図6には、図5と同様に、利用者の左眼用の映像(図6の左側の円内の映像)と、利用者の右眼用の映像(図6の右側の円内の映像)とが含まれる。
FIG. 6 is a diagram for explaining another video immediately before the start of reproduction (that is, at the same time as the video shown in FIG. 5) presented to the user by the video presenting unit 200.
In the example shown in FIG. 6, the position of the image presentation unit 200 is different compared to the example shown in FIG. Further, in the example shown in FIG. 6, as in the example shown in FIG. 5, the animated human whole body shape model AM does not exist in the image, and the timeline TL also does not exist.
Also, in FIG. 6, similarly to FIG. 5, an image for the left eye of the user (image in a circle on the left side of FIG. 6) and an image for the right eye of the user (in the circle on the right side of FIG. And the image).
図7は、映像提示部200が利用者に提示する他の映像を説明するための図である。
図7に示す映像には、図3に示す映像に含まれるストップモーションモデルSMt3が含まれている。図7に示す例では、例えば着地している踵を確認するために、映像提示部200が、ストップモーションモデルSMt3に近づいている。
図5〜図7に示す例では、利用者の頭部の位置姿勢に応じた映像を提示する映像提示部200(HMD)を組み合わせた事で、今まさに目の前で行っている運動を観察するがごとく、利用者は、直感的に、かつ自由な視点を選択しながら観察することができる。これにより利用者は、例えばランニングでは着地の瞬間の膝関節の伸展角度や足首の角度といった、注目したい箇所を自由な視点で観察することができる。
FIG. 7 is a diagram for explaining another video presented by the video presenting unit 200 to the user.
The video shown in FIG. 7 includes the stop motion model SMt3 included in the video shown in FIG. In the example illustrated in FIG. 7, for example, in order to confirm the landing habit, the image presentation unit 200 approaches the stop motion model SMt3.
In the example shown in FIGS. 5 to 7, by combining the image presentation unit 200 (HMD) that presents an image according to the position and orientation of the head of the user, the exercise currently performed just in front of the eyes is observed As a result, the user can observe while selecting an intuitive and free viewpoint. As a result, the user can observe, for example, a portion to be focused on from a free viewpoint, such as the knee joint extension angle and the ankle angle at the moment of landing in running.
図8は人体形状モデル可視化システム1によって実行される処理を説明するためのフローチャートである。
図8に示す例では、ステップS11において、データ登録部1Aが、人体全身形状モデルデータ110と人体動作データ120と時間変化データ130とを取得する。
次いで、ステップS12では、時間変化データ初期配置決定部1Bが、時間変化データ130に基づいて、仮想空間における時間変化データの波形TD1、TD2、TD3、TD4の初期配置(つまり、時間変化データの波形TD1、TD2、TD3、TD4の左端の位置)を決定する。
次いで、ステップS13では、人体全身形状モデル初期配置決定部1Cが、人体全身形状モデルデータ110に基づいて、仮想空間における人体全身形状モデルの初期配置(つまり、アニメーションされた人体全身形状モデルAMが動き始める位置)を決定する。
次いで、ステップS14では、ストップモーションモデル生成時点決定部1Dが、人体全身形状モデルデータ110と人体動作データ120とに基づいて生成されるストップモーションモデルSMt0、SMt1、SMt2の生成時点(時刻t0、t1、t2)を決定する。
FIG. 8 is a flowchart for explaining the process executed by the human body shape model visualization system 1.
In the example illustrated in FIG. 8, in step S11, the data registration unit 1A acquires human body whole-body shape model data 110, human body motion data 120, and time change data 130.
Next, in step S12, based on the time change data 130, the time change data initial arrangement determining unit 1B initially arranges the waveforms TD1, TD2, TD3, and TD4 of time change data in the virtual space (that is, the waveforms of time change data). The position of the left end of TD1, TD2, TD3, and TD4 is determined.
Next, in step S13, the human body whole body shape model initial arrangement determining unit 1C determines the initial arrangement of the human body whole body shape model in the virtual space (that is, the animated human whole body shape model AM moves) based on the human whole body shape model data 110. Determine where to begin.
Next, in step S14, stop motion model generation time point determination unit 1D generates stop motion models SMt0, SMt1, and SMt2 generated based on human body whole-body shape model data 110 and human body motion data 120 (time t0 and t1). , T2).
次いで、ステップS15−1において、再生操作命令部1Eは、利用者の操作または外部プログラムからのコマンドがあったか否かを判定する。利用者の操作または外部プログラムからのコマンドがあった場合には、ステップS15−2に進む。利用者の操作も、外部プログラムからのコマンドもない場合には、利用者の操作または外部プログラムからのコマンドがあるまで、ステップS15−1が繰り返し実行される。
ステップS15−2では、再生操作命令部1Eが、再生操作命令を送出する。
次いで、ステップS16では、アニメーション人体全身形状モデル生成部1Fが、再生操作命令に応じて、人体全身形状モデル初期配置決定部1Cが決定した人体全身形状モデルの初期配置に、データ登録部1Aが取得した人体動作データ120を適用することによって、アニメーションされた人体全身形状モデルAMを生成すると共に、再生開始からの時間経過を示すタイムラインTLを生成する。
次いで、ステップS17では、ストップモーションモデル群生成部1Gが、ストップモーションモデル生成時点決定部1Dが決定した生成時点(時刻t0、t1、t2)に基づいて、ストップモーションモデル群(ストップモーションモデルSMt0、SMt1、SMt2の群)を生成する。
Next, in step S15-1, the reproduction operation command unit 1E determines whether the user's operation or a command from an external program has been received. If there is a user operation or a command from an external program, the process proceeds to step S15-2. If there is neither the user's operation nor the command from the external program, step S15-1 is repeatedly executed until there is the user's operation or the command from the external program.
In step S15-2, the reproduction operation instruction unit 1E sends out a reproduction operation instruction.
Next, in step S16, the animation human body whole body shape model generation unit 1F acquires the data registration unit 1A in the initial arrangement of the human body whole body shape model determined by the human body whole body shape model initial arrangement determination unit 1C according to the reproduction operation command. By applying the human body motion data 120, an animated human body whole-body shape model AM is generated, and a timeline TL indicating time lapse from the start of reproduction is generated.
Next, in step S17, the stop motion model group generation unit 1G determines the stop motion model group (stop motion model SMt0, SMt0, t2 based on the generation time points (time t0, t1, t2) determined by the stop motion model generation time point determination unit 1D. Generate SMt1 and SMt2 groups).
次いで、ステップS18では、配置移動部1Hが、再生操作命令と、仮想空間における時間変化データの波形TD1、TD2、TD3、TD4の初期配置と、アニメーションされた人体全身形状モデルAMおよびタイムラインTLと、ストップモーションモデル群(ストップモーションモデルSMt0、SMt1、SMt2の群)とに基づいて、仮想空間における時間変化データの波形TD1、TD2、TD3、TD4の位置を示す時間変化データ位置情報と、仮想空間におけるアニメーションされた人体全身形状モデルAMの位置を示す人体全身形状モデル位置情報と、仮想空間におけるストップモーションモデル群(ストップモーションモデルSMt0、SMt1、SMt2の群)の位置を示すストップモーションモデル群位置情報とを生成する。
次いで、ステップS19では、映像生成部1Iが、配置移動部1Hが生成する時間変化データ位置情報、人体全身形状モデル位置情報およびストップモーションモデル群位置情報と、利用者に映像を提示する映像提示部200の位置および姿勢とに基づいて、映像提示部200が利用者に提示する映像を生成する。
Next, in step S18, the arrangement moving unit 1H performs the reproduction operation instruction, the initial arrangement of the waveforms TD1, TD2, TD3, and TD4 of the time-varying data in the virtual space, the animated human whole body shape model AM, and the timeline TL. Time-varying data position information indicating positions of waveforms TD1, TD2, TD3, and TD4 of time-varying data in the virtual space, based on the stop motion model group (the group of stop motion models SMt0, SMt1, and SMt2); Human body whole body shape model position information indicating the position of the animated human body whole body shape model AM and stop motion model group position information indicating the position of the stop motion model group (group of stop motion models SMt0, SMt1, and SMt2) in virtual space And It is formed.
Next, in step S19, the video generation unit 1I displays the time change data position information generated by the placement and movement unit 1H, the human body whole-body shape model position information and the stop motion model group position information, and the video presentation unit Based on the position and orientation of 200, the video presenting unit 200 generates a video to be presented to the user.
詳細には、例えば図2に示すように、映像生成部1Iは、再生開始からの時間経過を示すタイムラインTL上に、その時点(図2に示す例では、時刻t3)における時間変化データ(生理計測データ)の波形TD1、TD2、TD3、TD4の値と、その時点におけるアニメーションされた人体全身形状モデルAMとを配置する。また、タイムラインTL上に配置されるアニメーションされた人体全身形状モデルAMは、その時点(時刻t3)における人体の姿勢を示す。
つまり、図2に示す例は、仮想空間における生理計測データと、再生開始からの経過時間を示すタイムラインTLと、アニメーションされた人体全身形状モデルAMとの特有の配置方法を特定している。
そのため、映像提示部200は、利用者に対して、運動および運動に関係する時間変化データをわかりやすく提示することができる。利用者は、運動および運動に関係する時間変化データを容易に把握することができる。
時間変化データの波形TD1、TD2、TD3、TD4として生理計測データを提示することにより、利用者は、タイムラインTLに注目してさえいれば、人体動作と生理情報を同時に容易に注視できるようになる。
In detail, for example, as shown in FIG. 2, the video generation unit 1I generates time change data (time t3 in the example shown in FIG. 2) on the timeline TL indicating time lapse from the start of reproduction. The values of waveforms TD1, TD2, TD3 and TD4 of physiological measurement data) and the animated human whole body shape model AM at that time are arranged. Also, the animated human whole body shape model AM placed on the timeline TL indicates the posture of the human body at that time (time t3).
That is, the example shown in FIG. 2 specifies a specific arrangement method of the physiological measurement data in the virtual space, the timeline TL indicating the elapsed time from the start of reproduction, and the animated human whole body shape model AM.
Therefore, the image presentation unit 200 can present time change data related to exercise and exercise to the user in an easy-to-understand manner. The user can easily grasp time change data related to exercise and exercise.
By presenting the physiological measurement data as waveforms TD1, TD2, TD3 and TD4 of the time change data, the user can easily gaze at human motion and physiological information at the same time as long as he / she pays attention to the timeline TL. Become.
図2に示す例では、アニメーションされた人体全身形状モデルAMが図2の左側から図2の右側に移動する。そのため、図2に示す例では、再生操作命令部1Eが順方向の再生操作命令を送出した場合に、配置移動部1Hは、アニメーションされた人体全身形状モデルAMと再生開始からの時間経過を示すタイムラインTLとを図2の右向きに移動させる。また、配置移動部1Hは、アニメーションされた人体全身形状モデルAMが通過した後で、その位置にストップモーションモデルSMt0、SMt1、SMt2を配置する。つまり、ストップモーションモデルSMt0、SMt1、SMt2は、再生開始直後には配置(表示)されておらず、アニメーションされた人体全身形状モデルAMが通過するやいなや配置(表示)される。
一方、例えば、アニメーションされた人体全身形状モデルAMが「垂直跳び」を行う場合には、仮に、配置移動部1Hが、アニメーションされた人体全身形状モデルAMおよびストップモーションモデルSMt0、SMt1、SMt2を同じ位置に配置すると、それらが重なってしまい、見づらい映像になってしまう。
そこで、例えば、アニメーションされた人体全身形状モデルAMが垂直跳びを行う場合には、配置移動部1Hは、時間変化データの波形TD1、TD2、TD3、TD4と、ストップモーションモデル群(ストップモーションモデルSMt0、SMt1、SMt2の群)とを左向きに移動させる。そのため、アニメーションされた人体全身形状モデルAMの位置が変化しなくても、アニメーションされた人体全身形状モデルAMとストップモーションモデルSMt0、SMt1、SMt2とが重ならない。その結果、見やすい映像にすることができる。
In the example shown in FIG. 2, the animated human whole body shape model AM moves from the left side of FIG. 2 to the right side of FIG. Therefore, in the example shown in FIG. 2, when the reproduction operation instruction unit 1E sends a reproduction operation instruction in the forward direction, the arrangement moving unit 1H indicates an animated human whole body shape model AM and time lapse from the start of reproduction. The timeline TL is moved to the right in FIG. Further, the placement moving unit 1H places the stop motion models SMt0, SMt1, and SMt2 at the positions of the animated whole human body shape model AM after passing through. That is, the stop motion models SMt0, SMt1, and SMt2 are not arranged (displayed) immediately after the start of reproduction, but are arranged (displayed) as soon as the animated whole human body shape model AM passes.
On the other hand, for example, in the case where the animated whole human body shape model AM performs "vertical jump", the arrangement moving unit 1H temporarily makes the animated human whole body shape model AM and the stop motion models SMt0, SMt1, and SMt2 the same. If placed in a position, they will overlap and it will be difficult to see.
Therefore, for example, in the case where the animated whole human body shape model AM performs vertical jumping, the arrangement moving unit 1H includes the waveforms TD1, TD2, TD3, and TD4 of time change data, the stop motion model group (stop motion model SMt0 , SMt1, and SMt2) toward the left. Therefore, even if the position of the animated human whole body shape model AM does not change, the animated human whole body shape model AM and the stop motion models SMt0, SMt1, and SMt2 do not overlap. As a result, it is possible to make the image easy to see.
上述したように、実施形態の人体形状モデル可視化システム1は、運動・生理計測データをわかりやすく可視化すべくXR技術を応用するものである。 As described above, the human body shape model visualization system 1 of the embodiment applies the XR technology to visualize motion / physiological measurement data in an easy-to-understand manner.
本発明の人体形状モデル可視化システム、人体形状モデル可視化方法およびプログラムは、生活・福祉・ヘルスケア分野、スポーツ・健康支援分野などにおいて広く利用することができる。 The human body shape model visualization system, the human body shape model visualization method and program of the present invention can be widely used in the fields of life, welfare, health care, sports, health support and the like.
1…人体形状モデル可視化システム
1A…データ登録部
1B…時間変化データ初期配置決定部
1C…人体全身形状モデル初期配置決定部
1D…ストップモーションモデル生成時点決定部
1E…再生操作命令部
1F…アニメーション人体全身形状モデル生成部
1G…ストップモーションモデル群生成部
1H…配置移動部
1I…映像生成部
110…人体全身形状モデルデータ
120…人体動作データ
130…時間変化データ
150…AND演算部
200…映像提示部
1 Human body shape model visualization system 1A Data registration unit 1B Time change data initial arrangement determination unit 1C Human body whole body shape model initial arrangement determination unit 1D Stop motion model generation time point determination unit 1E Reproduction operation instruction unit 1F Animation human body Whole body shape model generation unit 1G ... Stop motion model group generation unit 1H ... Arrangement movement unit 1I ... Video generation unit 110 ... Human body whole body shape model data 120 ... Human body movement data 130 ... Time change data 150 ... AND operation unit 200 ... Image presentation unit
Claims (11)
前記データ登録部が取得した時間変化データに基づいて、仮想空間における時間変化データの初期配置を決定する時間変化データ初期配置決定部と、
前記データ登録部が取得した人体全身形状モデルデータに基づいて、前記仮想空間における人体全身形状モデルの初期配置を決定する人体全身形状モデル初期配置決定部と、
前記データ登録部が取得した人体全身形状モデルデータと人体動作データとに基づいて生成されるストップモーションモデルの生成時点を決定するストップモーションモデル生成時点決定部と、
再生操作命令を送出する再生操作命令部と、
前記再生操作命令部が送出した再生操作命令に応じて、前記人体全身形状モデル初期配置決定部が決定した人体全身形状モデルの初期配置に、前記データ登録部が取得した人体動作データを適用することによって、アニメーションされた人体全身形状モデルを生成すると共に、再生開始からの時間経過を示すタイムラインを生成するアニメーション人体全身形状モデル生成部と、
前記ストップモーションモデル生成時点決定部が決定した生成時点に基づいて、ストップモーションモデル群を生成するストップモーションモデル群生成部と、
前記再生操作命令部が送出した再生操作命令と、前記時間変化データ初期配置決定部が決定した前記仮想空間における時間変化データの初期配置と、前記アニメーション人体全身形状モデル生成部が生成したアニメーションされた人体全身形状モデルおよびタイムラインと、前記ストップモーションモデル群生成部が生成したストップモーションモデル群とに基づいて、前記仮想空間における時間変化データの位置を示す時間変化データ位置情報と、前記仮想空間におけるアニメーションされた人体全身形状モデルの位置を示す人体全身形状モデル位置情報と、前記仮想空間におけるストップモーションモデル群の位置を示すストップモーションモデル群位置情報とを生成する配置移動部と、
前記配置移動部が生成する時間変化データ位置情報、人体全身形状モデル位置情報およびストップモーションモデル群位置情報と、利用者に映像を提示する映像提示部の位置および姿勢とに基づいて、前記映像提示部が利用者に提示する映像を生成する映像生成部とを備える、
人体形状モデル可視化システム。 A data registration unit for acquiring human body whole body shape model data, human body motion data, and time change data;
A time change data initial arrangement determination unit that determines an initial arrangement of time change data in a virtual space based on the time change data acquired by the data registration unit;
A human body whole body shape model initial arrangement determination unit which determines an initial arrangement of the human body whole body shape model in the virtual space based on the human body whole body shape model data acquired by the data registration unit;
A stop motion model generation time point determination unit that determines a generation time point of a stop motion model generated based on human body whole-body shape model data and human body motion data acquired by the data registration unit;
A reproduction operation instruction unit that sends out a reproduction operation instruction;
Applying the human body motion data acquired by the data registration unit to the initial arrangement of the human body whole body shape model determined by the human body whole body shape model initial arrangement determination unit according to the reproduction operation instruction sent by the reproduction operation instruction unit; An animated human whole body shape model generation unit that generates an animated human whole body shape model and generates a timeline indicating a time lapse from the start of reproduction;
A stop motion model group generation unit that generates a stop motion model group based on the generation time point determined by the stop motion model generation time point determination unit;
The reproduction operation instruction sent by the reproduction operation instruction unit, the initial arrangement of time change data in the virtual space determined by the time change data initial arrangement determination unit, and the animation generated by the animation human body whole body shape model generation unit Time change data position information indicating the position of time change data in the virtual space based on a human body whole body shape model and a time line, and the stop motion model group generated by the stop motion model group generation unit, and in the virtual space An arrangement movement unit that generates human body whole body shape model position information indicating the position of an animated human whole body shape model, and stop motion model group position information indicating the position of the stop motion model group in the virtual space;
The image presentation based on the time change data position information generated by the arrangement moving unit, the human body whole-body shape model position information and the stop motion model group position information, and the position and posture of the image presentation unit presenting the image to the user. A video generation unit for generating a video to be presented to the user by the unit;
Human body shape model visualization system.
前記映像生成部は、再生開始からの時間経過を示すタイムライン上に、その時点における生理計測データの値と、その時点におけるアニメーションされた人体全身形状モデルとを配置し、
タイムライン上に配置されるアニメーションされた人体全身形状モデルは、その時点における人体の姿勢を示す、
請求項1に記載の人体形状モデル可視化システム。 The time change data is time series physiological measurement data obtained by the physiological measurement device,
The video generation unit arranges values of physiological measurement data at that time and an animated whole human body shape model at that time on a time line indicating time lapse from the start of reproduction,
An animated whole human body shape model placed on the timeline shows the posture of the human body at that time,
The human body shape model visualization system according to claim 1.
請求項1または請求項2に記載の人体形状モデル可視化システム。 The stop motion model generation time point determination unit determines a stop motion model generation interval in the virtual space based on at least one of a setting file, an external program, and an interactive operation with the user of the image presentation unit. ,
The human body shape model visualization system according to claim 1 or 2.
請求項1から請求項3のいずれか一項に記載の人体形状モデル可視化システム。 The stop motion model generation time point determination unit determines a time point extracted on a rule basis from human body motion data as a generation time point of a stop motion model in the virtual space.
The human body shape model visualization system according to any one of claims 1 to 3.
請求項1から請求項4のいずれか一項に記載の人体形状モデル可視化システム。 When the reproduction operation instruction unit transmits the reproduction operation instruction in the forward direction, the arrangement movement unit moves the animated human body whole-body shape model and the time line indicating the elapsed time from the start of reproduction to the right, or Moving the waveform of the time change data and the stop motion model group generated by the stop motion model group generation unit in the left direction;
The human body shape model visualization system according to any one of claims 1 to 4.
請求項1から請求項5のいずれか一項に記載の人体形状モデル可視化システム。 The human body whole-body shape model data acquired by the data registration unit may be shape model data created by imitating a person, or shape model data obtained by converting point cloud data obtained by a shape measuring machine. is there,
The human body shape model visualization system according to any one of claims 1 to 5.
請求項1から請求項6のいずれか一項に記載の人体形状モデル可視化システム。 The human body movement data acquired by the data registration unit is time-series data acquired by the human body movement measurement device,
The human body shape model visualization system according to any one of claims 1 to 6.
請求項1に記載の人体形状モデル可視化システム。 The time change data acquired by the data registration unit is time series data acquired by an external program,
The human body shape model visualization system according to claim 1.
前記再生操作命令部が送出する再生操作命令には、順方向の再生操作命令、逆方向の再生操作命令、順方向の微速度再生操作命令、逆方向の微速度再生操作命令、順方向の増速再生操作命令、逆方向の増速再生操作命令、一時停止命令、停止命令およびループ再生命令の少なくともいずれかが含まれる、
請求項1に記載の人体形状モデル可視化システム。 The reproduction operation instruction unit sends out a reproduction operation instruction according to an operation of a user of the video presentation unit and / or according to a command from an external program.
The playback operation command sent out by the playback operation command unit includes a forward playback operation command, a reverse playback operation command, a forward playback time playback operation command, a backward playback speed operation instruction, and an increase in forward direction. And at least one of a fast playback operation instruction, a reverse acceleration playback operation instruction, a pause instruction, a stop instruction, and a loop playback instruction.
The human body shape model visualization system according to claim 1.
前記データ登録ステップにおいて取得された時間変化データに基づいて、仮想空間における時間変化データの初期配置を決定する時間変化データ初期配置決定ステップと、
前記データ登録ステップにおいて取得された人体全身形状モデルデータに基づいて、前記仮想空間における人体全身形状モデルの初期配置を決定する人体全身形状モデル初期配置決定ステップと、
前記データ登録ステップにおいて取得された人体全身形状モデルデータと人体動作データとに基づいて生成されるストップモーションモデルの生成時点を決定するストップモーションモデル生成時点決定ステップと、
再生操作命令を送出する再生操作命令ステップと、
前記再生操作命令ステップにおいて送出された再生操作命令に応じて、前記人体全身形状モデル初期配置決定ステップにおいて決定された人体全身形状モデルの初期配置に、前記データ登録ステップにおいて取得された人体動作データを適用することによって、アニメーションされた人体全身形状モデルを生成すると共に、再生開始からの時間経過を示すタイムラインを生成するアニメーション人体全身形状モデル生成ステップと、
前記ストップモーションモデル生成時点決定ステップにおいて決定された生成時点に基づいて、ストップモーションモデル群を生成するストップモーションモデル群生成ステップと、
前記再生操作命令ステップにおいて送出された再生操作命令と、前記時間変化データ初期配置決定ステップにおいて決定された前記仮想空間における時間変化データの初期配置と、前記アニメーション人体全身形状モデル生成ステップにおいて生成されたアニメーションされた人体全身形状モデルおよびタイムラインと、前記ストップモーションモデル群生成ステップにおいて生成されたストップモーションモデル群とに基づいて、前記仮想空間における時間変化データの位置を示す時間変化データ位置情報と、前記仮想空間におけるアニメーションされた人体全身形状モデルの位置を示す人体全身形状モデル位置情報と、前記仮想空間におけるストップモーションモデル群の位置を示すストップモーションモデル群位置情報とを生成する配置移動ステップと、
前記配置移動ステップにおいて生成される時間変化データ位置情報、人体全身形状モデル位置情報およびストップモーションモデル群位置情報と、利用者に映像を提示する映像提示部の位置および姿勢とに基づいて、前記映像提示部が利用者に提示する映像を生成する映像生成ステップとを備える、
人体形状モデル可視化方法。 A data registration step of acquiring human body whole body shape model data, human body motion data and time change data;
A time change data initial arrangement determination step of determining an initial arrangement of time change data in a virtual space based on the time change data acquired in the data registration step;
A human body whole body shape model initial arrangement determining step of determining an initial arrangement of the human body whole body shape model in the virtual space based on the human body whole body shape model data acquired in the data registration step;
A stop motion model generation time point determination step of determining a generation time point of a stop motion model generated based on human body whole body shape model data and human body motion data acquired in the data registration step;
A reproduction operation instruction step for transmitting a reproduction operation instruction;
The human body movement data acquired in the data registration step is set in the initial arrangement of the human body whole body shape model determined in the human body whole body shape model initial arrangement determination step according to the reproduction operation instruction sent in the reproduction operation instruction step. An animated human whole body shape model generating step of generating an animated human whole body shape model and generating a timeline indicating a time lapse from the start of reproduction by applying;
A stop motion model group generation step of generating a stop motion model group based on the generation point determined in the stop motion model generation point determination step;
The reproduction operation instruction sent in the reproduction operation instruction step, the initial arrangement of time change data in the virtual space determined in the time change data initial arrangement determination step, and the animation human body whole body shape model generation step Time-varying data position information indicating the position of time-varying data in the virtual space based on the animated whole human body shape model and timeline, and the stop motion model group generated in the stop motion model group generation step; A configuration for generating stop motion model group position information indicating the position of a stop motion model group in the virtual space, and human body whole body shape model position information indicating the position of an animated human body whole body shape model in the virtual space And the moving step,
The image based on the time change data position information, the human body whole body shape model position information and the stop motion model group position information generated in the arrangement movement step, and the position and posture of the image presentation unit that presents the image to the user And a video generation step of generating a video to be presented to the user by the presentation unit.
Human body shape model visualization method.
人体全身形状モデルデータと人体動作データと時間変化データとを取得するデータ登録ステップと、
前記データ登録ステップにおいて取得された時間変化データに基づいて、仮想空間における時間変化データの初期配置を決定する時間変化データ初期配置決定ステップと、
前記データ登録ステップにおいて取得された人体全身形状モデルデータに基づいて、前記仮想空間における人体全身形状モデルの初期配置を決定する人体全身形状モデル初期配置決定ステップと、
前記データ登録ステップにおいて取得された人体全身形状モデルデータと人体動作データとに基づいて生成されるストップモーションモデルの生成時点を決定するストップモーションモデル生成時点決定ステップと、
再生操作命令を送出する再生操作命令ステップと、
前記再生操作命令ステップにおいて送出された再生操作命令に応じて、前記人体全身形状モデル初期配置決定ステップにおいて決定された人体全身形状モデルの初期配置に、前記データ登録ステップにおいて取得された人体動作データを適用することによって、アニメーションされた人体全身形状モデルを生成すると共に、再生開始からの時間経過を示すタイムラインを生成するアニメーション人体全身形状モデル生成ステップと、
前記ストップモーションモデル生成時点決定ステップにおいて決定された生成時点に基づいて、ストップモーションモデル群を生成するストップモーションモデル群生成ステップと、
前記再生操作命令ステップにおいて送出された再生操作命令と、前記時間変化データ初期配置決定ステップにおいて決定された前記仮想空間における時間変化データの初期配置と、前記アニメーション人体全身形状モデル生成ステップにおいて生成されたアニメーションされた人体全身形状モデルおよびタイムラインと、前記ストップモーションモデル群生成ステップにおいて生成されたストップモーションモデル群とに基づいて、前記仮想空間における時間変化データの位置を示す時間変化データ位置情報と、前記仮想空間におけるアニメーションされた人体全身形状モデルの位置を示す人体全身形状モデル位置情報と、前記仮想空間におけるストップモーションモデル群の位置を示すストップモーションモデル群位置情報とを生成する配置移動ステップと、
前記配置移動ステップにおいて生成される時間変化データ位置情報、人体全身形状モデル位置情報およびストップモーションモデル群位置情報と、利用者に映像を提示する映像提示部の位置および姿勢とに基づいて、前記映像提示部が利用者に提示する映像を生成する映像生成ステップと
を実行させるためのプログラム。 On the computer
A data registration step of acquiring human body whole body shape model data, human body motion data and time change data;
A time change data initial arrangement determination step of determining an initial arrangement of time change data in a virtual space based on the time change data acquired in the data registration step;
A human body whole body shape model initial arrangement determining step of determining an initial arrangement of the human body whole body shape model in the virtual space based on the human body whole body shape model data acquired in the data registration step;
A stop motion model generation time point determination step of determining a generation time point of a stop motion model generated based on human body whole body shape model data and human body motion data acquired in the data registration step;
A reproduction operation instruction step for transmitting a reproduction operation instruction;
The human body movement data acquired in the data registration step is set in the initial arrangement of the human body whole body shape model determined in the human body whole body shape model initial arrangement determination step according to the reproduction operation instruction sent in the reproduction operation instruction step. An animated human whole body shape model generating step of generating an animated human whole body shape model and generating a timeline indicating a time lapse from the start of reproduction by applying;
A stop motion model group generation step of generating a stop motion model group based on the generation point determined in the stop motion model generation point determination step;
The reproduction operation instruction sent in the reproduction operation instruction step, the initial arrangement of time change data in the virtual space determined in the time change data initial arrangement determination step, and the animation human body whole body shape model generation step Time-varying data position information indicating the position of time-varying data in the virtual space based on the animated whole human body shape model and timeline, and the stop motion model group generated in the stop motion model group generation step; A configuration for generating stop motion model group position information indicating the position of a stop motion model group in the virtual space, and human body whole body shape model position information indicating the position of an animated human body whole body shape model in the virtual space And the moving step,
The image based on the time change data position information, the human body whole body shape model position information and the stop motion model group position information generated in the arrangement movement step, and the position and posture of the image presentation unit that presents the image to the user And a video generation step of generating a video to be presented to a user by the presentation unit.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017227159A JP7066116B2 (en) | 2017-11-27 | 2017-11-27 | Human body shape model visualization system, human body shape model visualization method and program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017227159A JP7066116B2 (en) | 2017-11-27 | 2017-11-27 | Human body shape model visualization system, human body shape model visualization method and program |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2019096228A true JP2019096228A (en) | 2019-06-20 |
| JP7066116B2 JP7066116B2 (en) | 2022-05-13 |
Family
ID=66971814
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2017227159A Active JP7066116B2 (en) | 2017-11-27 | 2017-11-27 | Human body shape model visualization system, human body shape model visualization method and program |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP7066116B2 (en) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2020235237A1 (en) | 2019-05-22 | 2020-11-26 | 住友電気工業株式会社 | Metal porous sheet, fuel cell, and water electrolysis device |
| WO2022019692A1 (en) * | 2020-07-22 | 2022-01-27 | (주) 애니펜 | Method, system, and non-transitory computer-readable recording medium for authoring animation |
| WO2025220566A1 (en) * | 2024-04-16 | 2025-10-23 | 株式会社Orgo | Analysis support device, analysis support method, and analysis support program |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2016080066A1 (en) * | 2014-11-21 | 2016-05-26 | 富士フイルム株式会社 | Time series data display control device, method and program for operating same, and system |
| WO2017096436A1 (en) * | 2015-12-10 | 2017-06-15 | Guided Knowledge Ip Pty Ltd | Frameworks and methodologies configured to enable real-time adaptive delivery of skills training data based on monitoring of user performance via performance monitoring hardware |
-
2017
- 2017-11-27 JP JP2017227159A patent/JP7066116B2/en active Active
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2016080066A1 (en) * | 2014-11-21 | 2016-05-26 | 富士フイルム株式会社 | Time series data display control device, method and program for operating same, and system |
| WO2017096436A1 (en) * | 2015-12-10 | 2017-06-15 | Guided Knowledge Ip Pty Ltd | Frameworks and methodologies configured to enable real-time adaptive delivery of skills training data based on monitoring of user performance via performance monitoring hardware |
Non-Patent Citations (1)
| Title |
|---|
| "自由行動下における連続血圧・姿勢の無拘束同時計測による血圧調節機序の解析", 電子情報通信学会技術研究報告 VOL.96 NO.75, JPN6021032696, 4 May 1996 (1996-05-04), ISSN: 0004576974 * |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2020235237A1 (en) | 2019-05-22 | 2020-11-26 | 住友電気工業株式会社 | Metal porous sheet, fuel cell, and water electrolysis device |
| WO2022019692A1 (en) * | 2020-07-22 | 2022-01-27 | (주) 애니펜 | Method, system, and non-transitory computer-readable recording medium for authoring animation |
| WO2025220566A1 (en) * | 2024-04-16 | 2025-10-23 | 株式会社Orgo | Analysis support device, analysis support method, and analysis support program |
Also Published As
| Publication number | Publication date |
|---|---|
| JP7066116B2 (en) | 2022-05-13 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12015818B2 (en) | Video distribution system for live distributing video containing animation of character object generated based on motion of distributor user, video distribution method, and storage medium storing thereon video distribution program | |
| Krichenbauer et al. | Augmented reality versus virtual reality for 3d object manipulation | |
| Caserman et al. | A survey of full-body motion reconstruction in immersive virtual reality applications | |
| Alexiadis et al. | Evaluating a dancer's performance using kinect-based skeleton tracking | |
| US8624924B2 (en) | Portable immersive environment using motion capture and head mounted display | |
| Chua et al. | Training for physical tasks in virtual environments: Tai Chi | |
| Ablart et al. | Integrating mid-air haptics into movie experiences | |
| US8615383B2 (en) | Immersive collaborative environment using motion capture, head mounted display, and cave | |
| EP3998596B1 (en) | Augmented reality simulator for professional and educational training | |
| CA2662318C (en) | Immersive collaborative environment using motion capture, head mounted display, and cave | |
| US20170221379A1 (en) | Information terminal, motion evaluating system, motion evaluating method, and recording medium | |
| KR20190006553A (en) | Method and system for providing eye tracking based information on user behavior, client devices, servers and computer program products | |
| Gandy et al. | Experiences with an AR evaluation test bed: Presence, performance, and physiological measurement | |
| Tsampounaris et al. | Exploring visualizations in real-time motion capture for dance education | |
| Wibowo et al. | The use of motion capture technology in 3D animation | |
| Tsai | Personal basketball coach: Tactic training through wireless virtual reality | |
| Song et al. | An immersive VR system for sports education | |
| JP7066116B2 (en) | Human body shape model visualization system, human body shape model visualization method and program | |
| Cannavò et al. | AR-MoCap: using augmented reality to support motion capture acting | |
| Lee et al. | Visual search differs but not reaction time when intercepting a 3D versus 2D videoed opponent | |
| Camporesi et al. | The effects of avatars, stereo vision and display size on reaching and motion reproduction | |
| Dzardanova et al. | Affective impact of social presence in immersive 3D virtual worlds | |
| Cannavò et al. | Supporting motion-capture acting with collaborative Mixed Reality | |
| Cannavò et al. | A participative system for tactics analysis in sport training based on immersive virtual reality | |
| CN114283262B (en) | An immersive performance emotion enhancement system based on virtual reality technology |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171221 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201028 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210817 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210824 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211025 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220315 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220413 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7066116 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |