[go: up one dir, main page]

JP2020160568A - 映像同期装置、映像同期方法、プログラム - Google Patents

映像同期装置、映像同期方法、プログラム Download PDF

Info

Publication number
JP2020160568A
JP2020160568A JP2019056698A JP2019056698A JP2020160568A JP 2020160568 A JP2020160568 A JP 2020160568A JP 2019056698 A JP2019056698 A JP 2019056698A JP 2019056698 A JP2019056698 A JP 2019056698A JP 2020160568 A JP2020160568 A JP 2020160568A
Authority
JP
Japan
Prior art keywords
joint
time
norm
movement
motion rhythm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019056698A
Other languages
English (en)
Other versions
JP7067513B2 (ja
Inventor
斯▲ち▼ 孫
Siqi Sun
斯▲ち▼ 孫
康輔 高橋
Kosuke Takahashi
康輔 高橋
弾 三上
Dan Mikami
弾 三上
麻理子 五十川
Mariko Isogawa
麻理子 五十川
草地 良規
Yoshinori Kusachi
良規 草地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2019056698A priority Critical patent/JP7067513B2/ja
Priority to PCT/JP2020/010461 priority patent/WO2020195815A1/ja
Priority to US17/442,077 priority patent/US20220172478A1/en
Publication of JP2020160568A publication Critical patent/JP2020160568A/ja
Application granted granted Critical
Publication of JP7067513B2 publication Critical patent/JP7067513B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/48Matching video sequences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20182Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

【課題】安定して多視点映像を同期できる映像同期装置を提供する。
【解決手段】複数の視点から撮影した各映像内の人体の各関節の座標の時系列データから、各映像の各関節の単位時間当たりの移動量であるノルムを計算するノルム計算部と、ノルムに基づいて、移動開始タイミングと移動停止タイミングからなるモーションリズムを各映像の各関節について検出するモーションリズム検出部と、各映像の各関節のモーションリズムに基づいて映像間の時間ズレの安定度合いを示すマッチングスコアを計算して、マッチングスコアが高い時間ズレを検出する時間ズレ検出部を含む。
【選択図】図1

Description

本発明は、多視点映像を同期する映像同期装置、映像同期方法、プログラムに関する。
非同期な多視点映像の同期に関する従来技術として、例えば非特許文献1がある。非特許文献1では、多視点映像間に成り立つ幾何制約(エピポーラ制約)に基づいて、カメラ間の時間ズレを求めている。非特許文献1では、多視点映像の間の対応点を求める必要がある。
C. Albl, Z. Kukelova, A. Fitzgibbon, J. Heller, M. Smid and T. Pajdla, "On the Two-View Geometry of Unsynchronized Cameras," 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Honolulu, HI, 2017, pp. 5593-5602
カメラをwide baselineに設置した場合(各カメラの視差が大きい場合)、本来画像間で対応する特徴点の見え方が変わってしまい、安定して多視点映像間の対応点を取得することが困難となり、同期に失敗する場合がある。
また、初期時間ズレ(入力として与える時点での映像の時間ズレ)が大きい場合(約二秒以上)、エラー関数による推定結果が局所最小値に陥りやすいので、カメラ間の時間ズレの推定に失敗することが多い。
また、対応点が検出誤差を含む場合、同期の精度が著しく低下する。
そこで本発明では、安定して多視点映像を同期できる映像同期装置を提供することを目的とする。
本発明の映像同期装置は、ノルム計算部と、モーションリズム検出部と、時間ズレ検出部を含む。
ノルム計算部は、複数の視点から撮影した各映像内の人体の各関節の座標の時系列データから、各映像の各関節の単位時間当たりの移動量であるノルムを計算する。モーションリズム検出部は、ノルムに基づいて、移動開始タイミングと移動停止タイミングからなるモーションリズムを各映像の各関節について検出する。時間ズレ検出部は、各映像の各関節のモーションリズムに基づいて映像間の時間ズレの安定度合いを示すマッチングスコアを計算して、マッチングスコアが高い時間ズレを検出する。
本発明の映像同期装置によれば、安定して多視点映像を同期できる。
実施例1の映像同期装置の構成を示すブロック図。 実施例1の映像同期装置の動作を示すフローチャート。 実施例1のノルム計算部の構成を示すブロック図。 実施例1のノルム計算部の動作を示すフローチャート。 実施例1のモーションリズム検出部の構成を示すブロック図。 実施例1のモーションリズム検出部の動作を示すフローチャート。 実施例1の時間ズレ検出部の構成を示すブロック図。 実施例1の時間ズレ検出部の動作を示すフローチャート。 実施例1の移動開始タイミング検出部の動作例を示す図。 実施例1の移動停止タイミング検出部の動作例を示す図。 実施例1の時間ズレ検出部の動作例1を示す図。 実施例1の時間ズレ検出部の動作例2を示す図。
以下、本発明の実施の形態について、詳細に説明する。なお、同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。
<概要>
以下、実施例1の映像同期装置1の処理の概要を示す。実施例1の映像同期装置1は、映像間で特徴点を検出して同期に利用する。本実施例の映像同期装置1は、従来技術を用いて検出した人間の2次元関節座標を特徴点として用いる。従来技術の一例として、Openpose(参考非特許文献1)があげられる。
(参考非特許文献1:Cao, Zhe, et al. "Realtime multi-person 2d pose estimation using part affinity fields." 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2017.)
これらの2次元関節座標を特徴点とし、当該特徴点に関節ラベルを付与することにより、wide baselineなカメラ設置にともない見え方が大きく異なっていても安定して対応が得られ、安定した時間ズレ推定が可能となる。
本実施例の映像同期装置1は、同じ人物を多視点で撮影した各映像については、各関節の動き出しおよび動き終わりが同じタイミングで発生することに着目し、各映像からこのタイミング列(以下ではモーションリズムと呼ぶ)を検出し、それらを合わせることで映像間の同期を行う。従来技術のエピポーラ幾何に基づいた手法は対応点間に厳密に成り立つ幾何拘束を利用しているためノイズに対して敏感であり、初期時間ズレが大きく、対応点が検出誤差を大きく含む場合には、時間ズレの推定に失敗することも多かった。一方、本実施例の映像同期装置1は、モーションリズムというノイズに対して敏感ではない特徴を利用しているため、上記のようなケースでも安定して同期を取ることができる。
<映像同期装置1>
以下、図1を参照して、本実施例の映像同期装置1の構成を説明する。同図に示すように、本実施例の映像同期装置1は、2次元関節座標検出部11と、ノルム計算部12と、モーションリズム検出部13と、時間ズレ検出部14を含む。本実施例の映像同期装置1は、互いに異なる視点の映像を撮影できるカメラ9−1、…、9−M(Mは2以上の整数)からM個の視点の映像を取得するものとする。また、2次元関節座標検出部11については、必ずしも映像同期装置1内部の構成としなくてもよく、別の装置の構成要件としてもよい。
以下、図2を参照して、本実施例の映像同期装置1の動作を説明する。2次元関節座標検出部11は、複数の視点(M個の視点、本実施例では、便宜上M=2とするが、本発明の映像同期装置は、これに限定されない)から、少なくとも人物1人を撮影した映像を取得し、各映像内の人体の各関節の2次元座標の時系列データを検出する(S11)。検出された2次元座標の時系列データについては、関節ごとに関節ラベル(関節の番号)が付与されるものとする。関節の2次元座標の取得については従来技術を利用することができる。たとえば、参考非特許文献1の方法を用いることができる。
ノルム計算部12は、複数の視点(本実施例では2視点)から撮影した各映像内の人体の各関節の座標の時系列データから、各映像の各関節の単位時間当たりの移動量であるノルムを計算する(S12)。このとき、ノルム計算部12は、取得した関節の二次元座標x,yに対して、平滑化フィルタ(例えば、メディアンフィルターとSavitzky-Golayフィルタ)をかければ好適である(後述)。
モーションリズム検出部13は、ノルムに基づいて、所定の検出ルール(後述)に従って、移動開始タイミングと移動停止タイミングからなるモーションリズムを各映像の各関節について検出する(S13)。
時間ズレ検出部14は、各映像の各関節のモーションリズムに基づいて映像間の時間ズレの安定度合いを示すマッチングスコアを計算して、マッチングスコアが高い(より好適には、マッチングスコアが最高の)時間ズレを検出する(S14)。
<詳細な動作>
以下、本実施例の映像同期装置1の各構成要件の動作をさらに詳細に説明する。
<2次元関節座標検出部11>
2次元関節座標検出部11は、多視点(本実施例では2視点)で撮影した映像(少なくとも1人の人物を異なる視点から撮影した映像)を入力とし、各フレームの人物の2次元関節座標を求め、ノルム計算部12に、各映像内の各関節のx,y座標(具体的には、映像番号、フレーム番号、関節の番号、関節のx,y座標の組)を出力する(S11)。
上述したように、人物の2次元関節座標推定の方法はどのような方法でも良く、例えば参考非特許文献1に開示された方法を利用しても良い。全ての映像に共通の関節が少なくとも1つ以上撮影されている必要がある。なお、検出できる関節の数が多い方が、同期精度が上がる可能性があるが、計算コストが増える。検出できる関節の数は二次元関節推定手法(例えば参考非特許文献1)に依存する。14個の関節位置を用いた場合の2次元関節座標検出部11から出力されるデータを以下に例示する。
(映像番号:1,フレーム番号:1,関節番号:1,座標:x:1022,y:878,…,関節番号:14,座標:X:588,Y:820)
(映像番号:2,フレーム番号:1,関節番号:1,座標:x:1050,y:700,…,関節番号:14,座標:X:900,Y:1020)
<ノルム計算部12>
図3に示すように、ノルム計算部12は、平滑化部121と、フレーム毎移動量計算部122を含む。
図4に示すように、平滑化部121は、各画像の各関節のx,y座標を入力とし、各関節のx,y座標に対し、時間軸方向に平滑化を行う(S121)。平滑化部121は、例えば、30fpsの入力映像の場合、11フレーム単位の平滑化窓を、1フレームずつ移動させることによって平滑化を実行すればよい。なお、平滑化に関するパラメータは、誤差を緩和することができ、かつ時間軸方向の関節の座標の変化がはっきり分かるように設定すればよい。
次に、フレーム毎移動量計算部122は、平滑化されたx,y座標を用いて、各フレームについて各関節の単位時間当たり(たとえば、フレーム単位)の移動量(ノルム)を計算する(S122)。時刻t、視点iにおけるj番目の関節のL2ノルムnt i,jを式(1)に示す。なお、(xt i,j,yt i,j)は視点iから撮影した映像に含まれる人体のj番目の関節のt番目のフレームにおける二次元座標値である。フレーム毎移動量計算部122は、少なくとも1フレームの差分を用いてノルムを計算する。αをノルムを計算する際の時間差(フレーム数)であるとする。このαはどのように定めても良い。例えばシミュレーションにおいて様々なαを用いて同期を行い、最も高精度に同期した場合のαを用いても良い。
Figure 2020160568
フレーム毎移動量計算部122は、モーションリズム検出部13に、各映像の各関節のノルムの時系列データ、具体的には、(映像番号、フレーム番号、関節番号、各関節のノルム)を出力する。
<モーションリズム検出部13>
図5に示すように、モーションリズム検出部13は、基準計算部131と、移動開始タイミング検出部132と、移動停止タイミング検出部133と、ノイズ除去部134を含む。
図6に示すように、基準計算部131は、多視点(本実施例では2視点)で撮影した映像(少なくとも1人の人物を異なる視点から撮影した映像)を入力とし、移動開始タイミングと移動停止タイミングの検出基準となる閾値を決めるために用いる人体サイズの基準を計算する(S131)。
以下のステップS132、S133で用いる閾値Thmoveを定めるため、基準計算部131は、映像中の人間のサイズ(人体サイズ)の基準を以下の式(2)によって定める。なお、閾値Thmoveの決め方は下記の方法に限定されない。映像の中で基準となる物体のサイズを規定できれば十分であるため、これを充たすように、任意の方法で計算してよい。
カメラがwide baselineに設置されている場合、各視点における人間の手足の長さは異なる。そのため、体の4つのパーツの長さを計算し、最大のパーツの長さを人間の画像中のサイズとする。まず、t=1,…,Njフレームにおいて、首から左手首の長さをηt i,1,首から右手首の長さをηt i,2,首から左足首の長さをηt i,3,首から右足首の長さをηt i,4とし、それぞれの中央値を求める。その後、四つの長さの最大値を視点iの画像中における人間のサイズの基準とする。
Figure 2020160568
次に、移動開始タイミング検出部132は、各映像の各関節のノルムの時系列を入力とし、注目している時刻および注目している時刻より過去のノルムが閾値Thmoveよりも小さくなる割合が所定値以上で、注目している時刻および注目している時刻より未来のノルムが閾値Thmoveよりも大きくなる割合が所定値以上の時刻を移動開始タイミングとして検出する(S132)。
より詳細には、移動開始タイミング検出部132は、各関節について、以下の条件1かつ条件2を満たすtを、移動開始タイミングとして検出する(図9参照)。なお、以下では視点iにおける関節jの移動開始タイミングを
Figure 2020160568
と表す。
条件1:関節jのノルム時系列{nt i,j}のうち、フレームtからt-Nmoveフレームの間に、ノルムが閾値Thmoveより小さい割合がγ以上ある。
条件2:関節jのノルム時系列{nt i,j}のうち、フレームtからt+Nmoveフレームの間に、ノルムが閾値Thmoveより大きい割合がγ以上ある。
割合γはたとえば0.7に設定できる。シミュレーションにおいて、さまざまなγを用いて移動開始タイミングを検出し、もっとも正しくモーションリズムを検出できるγを用いてもよい。Nmoveは時間軸上のフレーム数を表す。例えば、30fpsのビデオの場合、Nmoveは21フレーム、Thmoveは2/255×sizeiピクセルとすればよい。これらのパラメータは任意の方法で決定できる。例えば明らかに移動開始タイミングとして確認できるようなタイミングを予め目視で定めておき、目視で定めたタイミングを上記方法を用いて検出できるようにパラメータを決定してもよい。
次に、移動停止タイミング検出部133は、各映像の各関節のノルムの時系列を入力とし、注目している時刻および過去のノルムが閾値Thmoveよりも大きくなる割合が所定値以上で、注目している時刻および未来のノルムが閾値Thmoveよりも小さくなる割合が所定値以上の時刻を移動停止タイミングとして検出する(S133)。
移動停止タイミング検出部133は、移動開始タイミングの検出と同様の方法で検出処理を行う(図10参照)。以下に検出の条件を示す。
条件1:関節jのノルム時系列{nt i,j}のうち、フレームtからt-Nmoveフレームの間に、ノルムが閾値Thmoveより大きい割合がγ以上ある。
条件2:関節jのノルム時系列{nt i,j}のうち、フレームtからt+Nmoveフレームの間に、ノルムが閾値Thmoveより小さい割合がγ以上ある。
次に、ノイズ除去部134は、複数の移動開始タイミング、または複数の移動停止タイミングが連続して検出された場合、所定の基準で一つのタイミングを選択して、残りのタイミングをノイズとして除去する(S134)。
ステップS132、S133を実行した場合、移動開始タイミングまたは移動停止タイミングが連続的に複数検出されることがある。この場合、ノイズ除去部134は、それらのタイミングの中から一つ適切なタイミングを選択する。この選択の方法は任意である。例えば、ノイズ除去部134は、連続的に検出されたタイミング群の先頭のタイミングを適切なタイミングとして選択する。具体的には、ノイズ除去部134は、適当なNreduceを定め(例えば映像のフレームレートの7割など)、ある移動開始タイミング(または移動停止タイミング)からNreduceフレーム内に別の移動開始タイミング(または移動停止タイミング)が検出された場合、連続して検出されたタイミングをノイズとして除去する。ノイズ除去部134は、時間ズレ検出部14に各関節のモーションリズム(フレーム数,Ri,j)を出力する。
なお、移動開始タイミングと移動停止タイミングを合わせてモーションリズム
Figure 2020160568
と定義する。
<時間ズレ検出部14>
図7に示すように、時間ズレ検出部14は、移動開始タイミング部分スコア計算部141と、移動停止タイミング部分スコア計算部142と、マッチングスコア計算部143を含む。
図8に示すように、移動開始タイミング部分スコア計算部141は、各関節のモーションリズムを入力とし、移動開始タイミングについて、部分スコアを計算する(S141)。
詳細には、移動開始タイミング部分スコア計算部141は、同期対象となっている各映像の任意の関節を所定の時間ズレの値によって同期した結果と、同期の基準となっている映像における対応する関節との同期誤差が所定の閾値未満となる場合に、所定の時間ズレの値に対して所定の部分スコア(例えば1)を付与し、それ以外の場合に所定の時間ズレの値に対して部分スコアとして0を付与する。
より詳細には、移動開始タイミング部分スコア計算部141は、多視点(本実施例では2視点)の映像の各関節から検出した移動開始タイミングを用いて、各時間ズレΔt(-N,…,N)に対して、式(5)に基づいて部分スコアを計算する。Nは入力ビデオのフレーム数を示す。図11に1番目に検出したタイミングt0とt'0を用いた部分スコア計算イメージを示す。各時間ズレΔtに対して、|t0+Δt-t'0|<thnearの場合、すなわち、同期対象であるビデオ1の同期結果と同期の基準となっているビデオ2との同期誤差が所定の閾値thnear未満となる場合、ある時間ズレΔtの部分スコア=1となる。同じように、全ての移動開始タイミング
Figure 2020160568
に対して、部分スコアを計算する。ここで、thnearはどのような値でも良い。この値は最終的な同期の精度に影響し、大きく設定するほど部分スコアの獲得は容易になる一方、同期の精度は荒くなる。小さく設定するほど同期の精度は向上する一方、部分スコアの獲得が困難になり、同期に失敗する場合がある。ここでは、例えば、1/30×(ビデオのフレームレート)とする。
Figure 2020160568
次に、移動停止タイミング部分スコア計算部142は、各関節のモーションリズムを入力とし、移動停止タイミングについて、部分スコアを計算する(S142)。移動停止タイミングの部分スコアの計算についてはステップS141と同様である。すなわち、移動停止タイミング部分スコア計算部142は、全ての移動停止タイミング
Figure 2020160568
に対して、部分スコアを計算する。
次に、マッチングスコア計算部143は、マッチングスコアを計算し、マッチングスコアが高い時間ズレを検出する(S143)。ここで、マッチングスコアは、部分スコアを各時間ズレについて加算することによって計算される。
詳細には、マッチングスコア計算部143は、各時間ズレに対して、Δtの時間軸上の各フレームに対して、ステップS141,S142で求めた各時刻の部分スコアの合計を求める。部分スコアの合計値が大きいほど、時間ズレの信頼度が高くなる。マッチングスコア計算部143は、例えば部分スコアの合計(=マッチングスコア)が一番大きい時間ズレδi outを出力する。最終出力はこれに限定されず、たとえばマッチングスコア上位3位の時間ズレの平均を求めて、出力してもよい。
さらに具体的にマッチングスコア計算部143の動作を説明する。モーションリズムR1,jとR2,jはそれぞれ映像C1と映像C2から検出したモーションリズムである。二つのビデオが同期した際に、それぞれのモーションリズム
Figure 2020160568
は同じ時間ズレδiになることを仮定する。上述した移動開始タイミングと移動停止タイミングを別々にマッチングする方法以外に、別の方法も考えられる。たとえば、図12に示すように、移動開始タイミングと移動停止タイミングをセットにし、セットをマッチングする方法もある。ただし、モーションリズムの検出に対して、誤検出したタイミングが存在したり、検出漏れを発生したりする場合、上記ステップS141〜S143のほうが精度よくマッチングすることができる場合がある。モーションリズムの検出精度によってマッチング方法を選んでよい。
<発明の効果>
本実施例の映像同期装置1によれば、モーションリズムを導入したことにより、wide baselineの映像でも同期することができ、初期時間ズレが大きい場合や、対応点が検出誤差を含んでいる場合でも安定して同期することができる。
<補記>
本発明の装置は、例えば単一のハードウェアエンティティとして、キーボードなどが接続可能な入力部、液晶ディスプレイなどが接続可能な出力部、ハードウェアエンティティの外部に通信可能な通信装置(例えば通信ケーブル)が接続可能な通信部、CPU(Central Processing Unit、キャッシュメモリやレジスタなどを備えていてもよい)、メモリであるRAMやROM、ハードディスクである外部記憶装置並びにこれらの入力部、出力部、通信部、CPU、RAM、ROM、外部記憶装置の間のデータのやり取りが可能なように接続するバスを有している。また必要に応じて、ハードウェアエンティティに、CD−ROMなどの記録媒体を読み書きできる装置(ドライブ)などを設けることとしてもよい。このようなハードウェア資源を備えた物理的実体としては、汎用コンピュータなどがある。
ハードウェアエンティティの外部記憶装置には、上述の機能を実現するために必要となるプログラムおよびこのプログラムの処理において必要となるデータなどが記憶されている(外部記憶装置に限らず、例えばプログラムを読み出し専用記憶装置であるROMに記憶させておくこととしてもよい)。また、これらのプログラムの処理によって得られるデータなどは、RAMや外部記憶装置などに適宜に記憶される。
ハードウェアエンティティでは、外部記憶装置(あるいはROMなど)に記憶された各プログラムとこの各プログラムの処理に必要なデータが必要に応じてメモリに読み込まれて、適宜にCPUで解釈実行・処理される。その結果、CPUが所定の機能(上記、…部、…手段などと表した各構成要件)を実現する。
本発明は上述の実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。また、上記実施形態において説明した処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されるとしてもよい。
既述のように、上記実施形態において説明したハードウェアエンティティ(本発明の装置)における処理機能をコンピュータによって実現する場合、ハードウェアエンティティが有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記ハードウェアエンティティにおける処理機能がコンピュータ上で実現される。
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。具体的には、例えば、磁気記録装置として、ハードディスク装置、フレキシブルディスク、磁気テープ等を、光ディスクとして、DVD(Digital Versatile Disc)、DVD−RAM(Random Access Memory)、CD−ROM(Compact Disc Read Only Memory)、CD−R(Recordable)/RW(ReWritable)等を、光磁気記録媒体として、MO(Magneto-Optical disc)等を、半導体メモリとしてEEP−ROM(Electronically Erasable and Programmable-Read Only Memory)等を用いることができる。
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記録媒体に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、ハードウェアエンティティを構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。

Claims (6)

  1. 複数の視点から撮影した各映像内の人体の各関節の座標の時系列データから、各前記映像の各前記関節の単位時間当たりの移動量であるノルムを計算するノルム計算部と、
    前記ノルムに基づいて、移動開始タイミングと移動停止タイミングからなるモーションリズムを各前記映像の各前記関節について検出するモーションリズム検出部と、
    各前記映像の各前記関節の前記モーションリズムに基づいて映像間の時間ズレの安定度合いを示すマッチングスコアを計算して、前記マッチングスコアが高い前記時間ズレを検出する時間ズレ検出部を含む
    映像同期装置。
  2. 請求項1に記載の映像同期装置であって、
    前記モーションリズム検出部は、
    前記移動開始タイミングと前記移動停止タイミングの検出基準となる閾値を決めるために用いる人体サイズの基準を計算する基準計算部を含む
    映像同期装置。
  3. 請求項1または2に記載の映像同期装置であって、
    前記モーションリズム検出部は、
    複数の前記移動開始タイミング、または複数の前記移動停止タイミングが連続して検出された場合、所定の基準で一つのタイミングを選択して、残りのタイミングをノイズとして除去するノイズ除去部を含む
    映像同期装置。
  4. 請求項1から3の何れかに記載の映像同期装置であって、
    前記マッチングスコアは、
    同期対象となっている各前記映像の任意の関節を所定の時間ズレの値によって同期した結果と、同期の基準となっている映像における対応する関節との同期誤差が所定の閾値未満となる場合に、所定の時間ズレの値に対して所定の部分スコアを付与し、それ以外の場合に所定の時間ズレの値に対して前記部分スコアとして0を付与し、前記部分スコアを加算することによって計算される
    映像同期装置。
  5. 映像同期装置が実行する映像同期方法であって、
    複数の視点から撮影した各映像内の人体の各関節の座標の時系列データから、各前記映像の各前記関節の単位時間当たりの移動量であるノルムを計算するステップと、
    前記ノルムに基づいて、移動開始タイミングと移動停止タイミングからなるモーションリズムを各前記映像の各前記関節について検出するステップと、
    各前記映像の各前記関節の前記モーションリズムに基づいて映像間の時間ズレの安定度合いを示すマッチングスコアを計算して、前記マッチングスコアが高い前記時間ズレを検出するステップを含む
    映像同期方法。
  6. コンピュータを請求項1から4の何れかに記載の映像同期装置として機能させるプログラム。
JP2019056698A 2019-03-25 2019-03-25 映像同期装置、映像同期方法、プログラム Active JP7067513B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019056698A JP7067513B2 (ja) 2019-03-25 2019-03-25 映像同期装置、映像同期方法、プログラム
PCT/JP2020/010461 WO2020195815A1 (ja) 2019-03-25 2020-03-11 映像同期装置、映像同期方法、プログラム
US17/442,077 US20220172478A1 (en) 2019-03-25 2020-03-11 Video synchronization device, video synchronization method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019056698A JP7067513B2 (ja) 2019-03-25 2019-03-25 映像同期装置、映像同期方法、プログラム

Publications (2)

Publication Number Publication Date
JP2020160568A true JP2020160568A (ja) 2020-10-01
JP7067513B2 JP7067513B2 (ja) 2022-05-16

Family

ID=72610556

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019056698A Active JP7067513B2 (ja) 2019-03-25 2019-03-25 映像同期装置、映像同期方法、プログラム

Country Status (3)

Country Link
US (1) US20220172478A1 (ja)
JP (1) JP7067513B2 (ja)
WO (1) WO2020195815A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023094083A (ja) * 2021-12-23 2023-07-05 富士通株式会社 情報処理プログラム、情報処理方法、および情報処理装置
EP4618018A1 (en) 2024-02-29 2025-09-17 Toyota Jidosha Kabushiki Kaisha Data generation device, data generation method, data generation program, and traffic service providing system

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2593227A (en) * 2020-03-20 2021-09-22 Sony Corp Image processing method and apparatus
US20230169665A1 (en) * 2021-12-01 2023-06-01 Intrinsic Innovation Llc Systems and methods for temporal autocalibration in a camera system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004094943A1 (ja) * 2003-04-22 2004-11-04 Hiroshi Arisawa モーションキャプチャ方法、モーションキャプチャ装置、及びモーションキャプチャ用マーカ
WO2005088962A1 (ja) * 2004-03-16 2005-09-22 Hiroshi Arisawa 追尾装置、及びモーションキャプチャ装置
WO2006112308A1 (ja) * 2005-04-15 2006-10-26 The University Of Tokyo モーションキャプチャシステム、及びモーションキャプチャシステムにおける特徴点の三次元再構成法
WO2018147329A1 (ja) * 2017-02-10 2018-08-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 自由視点映像生成方法及び自由視点映像生成システム
JP2018195883A (ja) * 2017-05-12 2018-12-06 キヤノン株式会社 画像処理システム、制御装置、制御方法、及び、プログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6002361A (en) * 1996-04-30 1999-12-14 Trimble Navigation Limited Direct integrated approach to multipath signal identification
EP2606479A2 (en) * 2010-08-19 2013-06-26 Vladimir Kranz The localization and activation of alarm of persons in danger
CN107534789B (zh) * 2015-06-25 2021-04-27 松下知识产权经营株式会社 影像同步装置及影像同步方法
JP2019139387A (ja) * 2018-02-07 2019-08-22 日本電信電話株式会社 推定装置、推定方法、およびプログラム
JP7209333B2 (ja) * 2018-09-10 2023-01-20 国立大学法人 東京大学 関節位置の取得方法及び装置、動作の取得方法及び装置
JP7307447B2 (ja) * 2018-10-31 2023-07-12 リオモ インク モーションキャプチャーシステム、モーションキャプチャープログラム及びモーションキャプチャー方法
JP7741729B2 (ja) * 2019-08-29 2025-09-18 シチズン時計株式会社 映像生成装置
EP4095794A4 (en) * 2020-01-24 2023-03-01 Fujitsu Limited EXERCISE RECOGNITION METHOD, EXERCISE RECOGNITION PROGRAM AND INFORMATION PROCESSING DEVICE
US11450105B2 (en) * 2020-04-23 2022-09-20 Hanhui Zhang Scalable sport data collecting, sharing and processing system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004094943A1 (ja) * 2003-04-22 2004-11-04 Hiroshi Arisawa モーションキャプチャ方法、モーションキャプチャ装置、及びモーションキャプチャ用マーカ
WO2005088962A1 (ja) * 2004-03-16 2005-09-22 Hiroshi Arisawa 追尾装置、及びモーションキャプチャ装置
WO2006112308A1 (ja) * 2005-04-15 2006-10-26 The University Of Tokyo モーションキャプチャシステム、及びモーションキャプチャシステムにおける特徴点の三次元再構成法
WO2018147329A1 (ja) * 2017-02-10 2018-08-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 自由視点映像生成方法及び自由視点映像生成システム
JP2018195883A (ja) * 2017-05-12 2018-12-06 キヤノン株式会社 画像処理システム、制御装置、制御方法、及び、プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023094083A (ja) * 2021-12-23 2023-07-05 富士通株式会社 情報処理プログラム、情報処理方法、および情報処理装置
EP4618018A1 (en) 2024-02-29 2025-09-17 Toyota Jidosha Kabushiki Kaisha Data generation device, data generation method, data generation program, and traffic service providing system

Also Published As

Publication number Publication date
WO2020195815A1 (ja) 2020-10-01
JP7067513B2 (ja) 2022-05-16
US20220172478A1 (en) 2022-06-02

Similar Documents

Publication Publication Date Title
JP7067513B2 (ja) 映像同期装置、映像同期方法、プログラム
JP6816058B2 (ja) パラメータ最適化装置、パラメータ最適化方法、プログラム
Tuytelaars et al. Synchronizing video sequences
US10019637B2 (en) Method and system for moving object detection with single camera
US10789765B2 (en) Three-dimensional reconstruction method
JP3576987B2 (ja) 画像のテンプレートマッチング方法及び画像処理装置
EP2153409B1 (en) Camera pose estimation apparatus and method for augmented reality imaging
US7352386B1 (en) Method and apparatus for recovering a three-dimensional scene from two-dimensional images
RU2607774C2 (ru) Способ управления в системе захвата изображения, устройство управления и машиночитаемый носитель данных
US7599548B2 (en) Image processing apparatus and image processing method
CN103218799B (zh) 用于相机跟踪的方法和设备
US8879894B2 (en) Pixel analysis and frame alignment for background frames
US8004528B2 (en) Method, systems and computer product for deriving three-dimensional information progressively from a streaming video sequence
US10146992B2 (en) Image processing apparatus, image processing method, and storage medium that recognize an image based on a designated object type
EP2674911B1 (en) Differing region detection system and differing region detection method
US20180114339A1 (en) Information processing device and method, and program
Vo et al. Spatiotemporal bundle adjustment for dynamic 3d human reconstruction in the wild
US20250308196A1 (en) Relocalization method and related device
CN119672766A (zh) 眼镜设备中手关节检测的方法、存储介质、电子设备及产品
JP2019096212A (ja) 手位置検出方法、手位置検出装置、及び手位置検出プログラム
Zakour et al. Adl4d: Towards a contextually rich dataset for 4d activities of daily living
JP2001012946A (ja) 動画像処理装置及び方法
Zhu et al. Occlusion registration in video-based augmented reality
Shabanov et al. Self-supervised depth denoising using lower-and higher-quality RGB-d sensors
US20240221189A1 (en) Computer-readable recording medium storing tracking program, tracking method, and information processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210629

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220411

R150 Certificate of patent or registration of utility model

Ref document number: 7067513

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533