[go: up one dir, main page]

JP2004523027A - 空間的または時間的にオーバーラップしない画像シーケンスの位置合わせのための装置並びに方法 - Google Patents

空間的または時間的にオーバーラップしない画像シーケンスの位置合わせのための装置並びに方法 Download PDF

Info

Publication number
JP2004523027A
JP2004523027A JP2002548680A JP2002548680A JP2004523027A JP 2004523027 A JP2004523027 A JP 2004523027A JP 2002548680 A JP2002548680 A JP 2002548680A JP 2002548680 A JP2002548680 A JP 2002548680A JP 2004523027 A JP2004523027 A JP 2004523027A
Authority
JP
Japan
Prior art keywords
sequences
depiction
relationship
transformation
spatial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002548680A
Other languages
English (en)
Inventor
イラニ、マイカル
カスピ、ヤロン
Original Assignee
イエダ リサーチ アンド ディベロプメント カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by イエダ リサーチ アンド ディベロプメント カンパニー リミテッド filed Critical イエダ リサーチ アンド ディベロプメント カンパニー リミテッド
Publication of JP2004523027A publication Critical patent/JP2004523027A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/38Registration of image sequences
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Studio Circuits (AREA)
  • Image Processing (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

それぞれの第1および第2の時間数列を有する少なくとも第1および第2の描写のシーケンスの間における空間関係および時間関係の少なくとも一方を計算する方法並びにシステムであって、空間関係および時間関係の少なくとも一方を獲得するようにして第1および第2の時間数列を採用することを包含するものである。

Description

【技術分野】
【0001】
本発明は、様々なソースからの視覚情報を結合して統合させる方法論並びにシステムに関する。
【背景技術】
【0002】
画像位置合わせまたは画像重ね合わせの問題は、徹底的に研究されてきたものであり、この問題を解決する方法が成功裡に開発されている。これらの方法の幾つかは、抽出した局所的な画像特徴をマッチングさせることに基づくものである。その他のアプローチは、画像強度を直接にマッチングさせることに基づくものである。しかしながら、これらのすべての方法は、共通の画像特性の抽出を許容するに足る十分なオーバーラップが画像の間に存在し、すなわち画像の間に十分な「類似性」が存在するという1つの基本的な想定を共有している。類似性という用語は、本文書では、最も広い意味において使用される。例えば、グレーレベル類似性、特徴類似性、頻度の類似性、および相互情報のような統計的類似性などである。結果として、先行技術は、画像の間に非常に僅かな類似性しか存在しない場合、または画像の間に空間的なオーバーラップが存在しない場合には、画像間の位置合わせを提供しないのである。
【0003】
しかしながら、画像のシーケンスは、如何なる個別的な画像の場合よりも遥かに多くの情報を包含している。例えば、シーンの画像シーケンスは、そのシーンにおける動的な変化によって生じる時間的な変化、またはカメラの運動によって誘導される時間的な変化を包含するのである。本発明に拠れば、この情報は、シーケンスが空間的にオーバーラップしないかまたは非常に低い類似性しか有さないときでさえも、2つの画像シーケンスの画像間の位置合わせを提供するために採用される。
【0004】
シーケンス対シーケンスの位置合わせに関する最新技術の方法、およびその他の関連技術は、以下で説明されている。
[1] S.AvidanおよびA.Shashua。「基本行列の装填(Threading Fundamental matrices)」。コンピュータビジョンに関する欧州会議、1998年。
[2] P.A.Beardsley、P.H.S.TorrおよびA.Zisserman。「広範な画像シーケンスからの3Dモデルの獲得(3D Model acquisition from extended image sequences)」。コンピュータビジョンに関する第4回欧州会議の会報、LNCS 1065、ケンブリッジ、683−695ページ、1996年。
[3] P.R.BurtおよびR.J.Kolczynsky。「融合による画像キャプチャの改善(Enhanced image capture through fusion)」。コンピュータビジョンに関する国際会議、1993年。
[4] Y.CaspiおよびM.Irani。「シーケンス対シーケンスの位置合わせを目指すステップ(A step towards sequence-to-sequence alignment)」。コンピュータビジョンおよびパターン認識に関するIEEE会議、サウスカロライナ州、ヒルトン・ヘッド・アイランド、2000年6月。
[5] D.Demirdijian、A.ZissermanおよびR.Horaud。「一平面からの立体自動較正(Stereo autocalibration from one plane)」。コンピュータビジョンに関する欧州会議、2000年。
[6] Y.Dufournaud、C.SchmidおよびR.Horaud。「異なった解像度を備えた画像のマッチング(Matching images with different resolutions)」。コンピュータビジョンおよびパターン認識に関するIEEE会議、サウスカロライナ州、ヒルトン・ヘッド・アイランド、2000年6月。
[7] C.E.Pearson(編集)。「応用数学ハンドブック−第2版(Handbook of applied mathematics Second Edition)」。ヴァン・ノストランド・ラインホルト社、ニューヨーク、1983年、898ページ。
[8] F.R.Gantmakher。「行列理論(The theory of matrices)」。第8章、チェルシー出版、ニューヨーク、1959年。
[9] Gene GolubおよびCharles Van Loan。「行列計算(Matrix Computations)」。ジョン・ホプキンス大学出版、ボルチモアおよびロンドン、123−127ページ、1989年。
[10] Richard I.Hartley。「8ポイント・アルゴリズムの防御において(In Defence of the 8-point Algorithm)」。パターン認識およびマシン・インテリジェンス19(6)6月、580−593ページ、1997年。
[11] R.HartleyおよびA.Zisserman。「コンピュータビジョンにおける多数画像の幾何学(Multiple View Geometry in Computer Vision)」。第3章、ケンブリッジ大学出版、ケンブリッジ、2000年。
[12] R.Horaud およびG.Csurka。「立体的な道具の運動を使用する再構築(Reconstruction using motions of a stereo rig)」。コンピュータビジョンに関する国際会議、96−103ページ、1998年。
[13] R.Horaud およびF.Dornaika。「ハンド・アイ較正(Hand-eye calibration)」。ロボット工学研究国際ジャーナル、14(3)195−210、1995年6月。
[14] M.IraniおよびP.Anandan。「直接的な方法に関するもの(About direct methods)」。ビジョン・アルゴリズム・ワークショップ、267−277ページ、コルフ、1999年。
[15] M.Irani、P.AnandanおよびD.Weinshall。「参照フレームから参照平面に対する:マルチ画像の視差幾何学およびアプリケーション(From reference frames to reference planes: Multi-view parallax geometry and applications)」。コンピュータビジョンに関する欧州会議、フライブルク、1998年6月。
[16] M.Irani、B.RoussoおよびS.Peleg。「閉塞的な運動および透明な運動の計算(Computing occluding and transparent motions)」。コンピュータビジョン国際ジャーナル12(1):5−16、1994年1月。
[17] R.Kumar、P.AnandanおよびK.Hanna。「多数画像からの形状の直接的な復元:視差ベースのアプローチ(Direct recovery of shape from Multiple views: parallax based approach)」。パターン認識に関する国際会議、1994年。
[18] Harpreet Sawhney。「平面視差からの3D幾何学(3D geometry from planar parallax)」。コンピュータビジョンおよびパターン認識に関するIEEE会議、1994年6月。
[19] A.ShashuaおよびN.Navab。「相対的なアフィン構造:斜視図からの3D再構築に関する理論およびアプリケーション(Theory and application to 3D reconstruction from perspective views)」。コンピュータビジョンおよびパターン認識に関するIEEE会議、483−489ページ、ワシントン州、シアトル、1994年6月。
[20] G.P.Stein。「多数画像ポイントからのトラッキング:空間および時間の自動的較正(Tracking from multiple view points: Self-calibration of space and time)」。DARPA IUワークショップ、1037−1042ページ、1998年。
[21] P.H.S.TorrおよびA.Zisserman。「構造および運動の評価のための特徴ベースの方法(Feature based methods for structure and motion estimation)」。ビジョン・アルゴリズム・ワークショップ、279−329ページ、コルフ、1999年。
[22] R.Y.TsaiおよびR.K.Lenz。「完全に自律的且つ効率的な3Dロボット工学的ハンド/アイ較正に関する新技術(A new technique for full autonomous and efficient 3D robotics hand/eye calibration)」。ロボット工学およびオートメーションに関するIEEEジャーナル5(3):345−358、1989年6月。
[23] P.ViolaおよびW.Wells 3。「相互情報の最大化による位置合わせ(Alignment by maximization of mutual information)」。コンピュータビジョンに関する国際会議、16−23ページ、1995年。
[24] A.Zisserman、P.A.BeardsleyおよびI.D.Reid。「立体的な道具の距離的較正(Metric calibration of a stereo rig)」。ビジュアル・シーンの描写に関するワークショップ、93−100ページ、1995年。
[25] P.H.S.TorrおよびA.Zisserman。「構造および運動の評価のための特徴ベースの方法(Feature based methods for structure and motion estimation)」。ビジョン・アルゴリズム・ワークショップ、279−290ページ、コルフ、1999年。
[26] Z.Zhang、R.Deriche、O.FaugerasおよびQ.Luong。「未知のエピポーラ幾何学の復元によって2つの未較正の画像をマッチングさせるロバスト技術(A robust technique for matching two uncalibrated images through the recovery of the unknown epipolar geometry)」。人工知能78:87−119、1995年。
本件明細書において言及されるすべての出版物および本文において引用される出版物の開示内容は、引例として本文に組み込まれるものとする。
【発明の開示】
【0005】
本発明は、様々なソースからの視覚情報を結合して統合させる方法論並びにシステムを提供しようと努める。
【0006】
本発明は、先行技術の画像位置合わせ方法における基本的な想定である「干渉性の外観」という要件を、「一貫した時間的挙動」という要件に置き換えるものである。「一貫した時間的挙動」という要件は、例えば一緒に空間的に移動される2台のカメラを使用して2つの画像シーケンスを形成することによって、より容易に満足させることができる。従って、本発明は、オーバーラップしないシーケンスの場合に有益であるだけでなく、標準的な画像位置合わせ技術では本質的に困難である場合にも有益である。
【0007】
本発明の1つの好適な実施例では、2台のカメラは、互いに接近して取り付けられ、それらの映写の中心は、非常に接近していて、一緒に空間的に移動する。この場合、各々のシーケンス内において誘導されるフレーム対フレームの変換は、2つのシーケンスにわたって相関的な挙動を有する。
【0008】
本発明の1つの好適な実施例は、2つのシーケンスの画像の間における空間的変換および時間的変換の両者を解決するために相関的な時間的挙動を採用する。
【0009】
従って、本発明は、以下のものを包含する様々なリアルワールドのアプリケーションに対して有益である。
【0010】
(1)画像融合のためのマルチセンサ位置合わせ。これは、赤外線および可視光線のような異なったセンサ様式のセンサによって獲得される画像の正確な位置合わせを必要とする。そのような画像は、異なったセンサ特性の故に外観が大きく異なっている。
(2)異なったズームで獲得された画像シーケンスの位置合わせ。ここでの問題は、異なった画像解像度では、異なった画像特徴が際立っているということである。広視野シーケンスを狭視野シーケンスと位置合わせすることは、ズームアウトした視野の内側または外側におけるズームインした小さな対象を検出するために有益である。これは、監視用途において有益であり得るものである。
(3)IMAX(登録商標)ムービーの場合のようなオーバーラップしない多数の狭いFOV動画からのワイドスクリーン動画の再生。
【0011】
本件出願の明細書および請求項において使用される「相関的」という用語は、特には以下のようなものを包含すると認識される。数学的な相関関係、統計的な相関関係、およびその他の任意の相互関係である。
【0012】
従って、本発明の1つの好適な実施例に拠れば、それぞれの第1および第2の時間数列を有する少なくとも第1および第2の描写のシーケンスの間における空間関係および時間関係の少なくとも一方を計算する1つの方法が提供されている。この方法は、空間関係および時間関係の少なくとも一方を獲得するために、第1および第2の時間数列を採用することを包含する。
【0013】
更に、本発明の1つの好適な実施例に拠れば、それぞれの第1および第2の時間数列を有する少なくとも第1および第2の描写のシーケンスの間における空間関係および時間関係の少なくとも一方を計算する1つの方法が提供されている。この方法は、空間関係および時間関係の少なくとも一方を獲得するために、第1および第2の時間数列のみを採用することを包含する。
【0014】
更に、本発明の1つの好適な実施例に拠れば、それぞれの第1および第2の時間数列を有する少なくとも第1および第2の描写のシーケンスの間における空間関係および時間関係の少なくとも一方を計算する1つのシステムが提供されている。このシステムは、描写の第1シーケンスおよび第1の時間数列、および描写の第2シーケンスおよび第2の時間数列を受信する入力機能性と、空間関係および時間関係の少なくとも一方を獲得するために、描写の第1シーケンスおよび第1の時間数列の少なくとも一方、および描写の第2シーケンスおよび第2の時間数列の少なくとも一方を採用する計算機能性とを包含する。
【0015】
更に、本発明のもう1つの好適な実施例に拠れば、それぞれの第1および第2の時間数列を有する少なくとも第1および第2の描写のシーケンスの間における空間関係および時間関係の少なくとも一方を計算する1つのシステムが提供されている。このシステムは、第1および第2の時間数列を受信する入力機能性と、空間関係および時間関係の少なくとも一方を獲得するために、第1および第2の時間数列を採用する計算機能性とを包含する。
【0016】
更に、本発明の1つの好適な実施例に拠れば、その方法は、その後、空間関係および時間関係の少なくとも一方を獲得するために採用される、第1および第2の時間数列を計算することをも包含する。
【0017】
好適には、それらの描写は、視覚的な描写と、画像と、少なくとも3次元の対象とを包含する。
【0018】
更になお、本発明の1つの好適な実施例に拠れば、採用するステップは、空間関係および/または時間関係を獲得する。
【0019】
補足的に、本発明の1つの好適な実施例に拠れば、採用ステップは、描写の間における空間的なオーバーラップが存在しない場合に、空間関係および時間関係を獲得する。
【0020】
補足的に或いは代替的に、採用ステップは、描写の間における共通の空間情報が存在しない場合に、空間関係および時間関係を獲得する。
【0021】
更に、本発明の1つの好適な実施例に拠れば、採用するステップは、少なくとも第1および第2のシーケンスの異なったものに所属する描写の個別的なものの間における共通の情報が存在しない場合に、空間関係および時間関係を獲得する。
【0022】
更になお、本発明の1つの好適な実施例に拠れば、採用するステップは、少なくとも第1および第2のシーケンスの異なったものに所属する描写の任意の個別的なものの間における共通の情報が存在しない場合に、空間関係および時間関係を獲得する。
【0023】
補足的に、本発明の1つの好適な実施例に拠れば、空間関係は、描写の少なくとも第1および第2のシーケンスの間における幾何学的変換の少なくとも1つのパラメータを包含する。
【0024】
好適には、空間関係は、2次元射影変換を包含する。
【0025】
代替的には、空間関係は、3次元射影変換を包含する。
【0026】
更に、本発明の1つの好適な実施例に拠れば、空間関係は、基本行列を包含する。
【0027】
更になお、本発明の1つの好適な実施例に拠れば、空間関係は、2次元パラメトリック変換を包含する。
【0028】
補足的に、本発明の1つの好適な実施例に拠れば、空間関係は、少なくとも3次元のパラメトリック変換を包含する。
【0029】
更に、本発明の1つの好適な実施例に拠れば、空間関係は、2次元ノンパラメトリック変換を包含する。
【0030】
補足的に或いは代替的に、空間関係は、少なくとも3次元のノンパラメトリック変換を包含する。
【0031】
更に、本発明の1つの好適な実施例に拠れば、空間関係は、少なくとも第1および第2のシーケンスの異なったものに所属する描写の個別的なものの間における空間関係を包含する。
【0032】
更になお、本発明の1つの好適な実施例に拠れば、空間関係は、少なくとも第1および第2のシーケンスの異なったものに所属する描写の個別的なものの間における空間関係を包含し、描写の個別的なものの少なくとも一方は、補間された描写である。
【0033】
補足的に、本発明の1つの好適な実施例に拠れば、空間関係は、少なくとも第1および第2のシーケンスの異なったものに所属する描写の個別的なものの間における空間関係を包含し、描写の個別的なものの一方は、補間された描写であり、描写の個別的なものの他方は、補間されない描写である。
【0034】
更に、本発明の1つの好適な実施例に拠れば、時間関係は、描写の少なくとも第1および第2のシーケンスの間における時間変換の少なくとも1つのパラメータを包含する。
【0035】
更になお、本発明の1つの好適な実施例に拠れば、時間関係は、描写の少なくとも第1および第2のシーケンスの間における時間シフトを包含する。
【0036】
好適には、時間関係は、時間のアフィン変換、時間のパラメトリック変換、および/または時間のノンパラメトリック変換を包含する。
【0037】
更に、本発明の1つの好適な実施例に拠れば、時間関係は、少なくとも第1および第2のシーケンスの異なったものに所属する描写の個別的なものの間における時間関係を包含する。
【0038】
更になお、本発明の1つの好適な実施例に拠れば、時間関係は、少なくとも第1および第2のシーケンスの異なったものに所属する描写の個別的なものの間における時間関係を包含し、描写の個別的なものの少なくとも一方は、補間された描写である。
【0039】
補足的に、本発明の1つの好適な実施例に拠れば、時間関係は、少なくとも第1および第2のシーケンスの異なったものに所属する描写の個別的なものの間における時間関係を包含する。典型的には、描写の個別的なものの一方は、補間された描写であり、描写の個別的なものの他方は、補間されない描写である。
【0040】
好適には、補間された描写は、時間を補間され、補間された描写は、空間をも補間される。
【0041】
更に、本発明の1つの好適な実施例に拠れば、第1および第2の時間数列は、順序付きシーケンス間の描写対描写の変換を包含する。
【0042】
更になお、本発明の1つの好適な実施例に拠れば、第1および第2の時間数列は、各センサとシーンの間における相対的な運動から生じる順序付きシーケンス間の描写対描写の変換を包含する。
【0043】
好適には、シーケンス間の描写対描写の変換は、2次元射影変換および/または3次元射影変換を包含する。
【0044】
更に、本発明の1つの好適な実施例に拠れば、シーケンス間の描写対描写の変換は、基本行列、2次元パラメトリック変換、少なくとも3次元のパラメトリック変換、2次元ノンパラメトリック変換、少なくとも3次元のノンパラメトリック変換、およびカメラ・行列を包含する。
【0045】
更になお、本発明の1つの好適な実施例に拠れば、採用するステップは、第1および第2の時間数列を相関させることを包含する。
【0046】
補足的に、本発明の1つの好適な実施例に拠れば、採用するステップは、第1時間数列および第2時間数列の特性を等式化することを包含する。
【0047】
更に、本発明の1つの好適な実施例に拠れば、採用するステップは、第1時間数列および第2時間数列の特性を相関させることを包含する。
【0048】
更になお、本発明の1つの好適な実施例に拠れば、採用するステップは、第1時間数列のシーケンス間の描写対描写の変換の少なくとも1つと、少なくとも第1および第2のシーケンスの間における未知の空間関係との順次適用を、少なくとも第1および第2のシーケンスの間における未知の空間関係と、第2時間数列のシーケンス間の描写対描写の変換の少なくとも1つとの順次適用に対して等式化することを包含する。
【0049】
更に、本発明の1つの好適な実施例に拠れば、採用するステップは、第1時間数列のシーケンス間の描写対描写の変換の少なくとも1つと、少なくとも第1および第2のシーケンスの間における未知の空間関係との合成を、少なくとも第1および第2のシーケンスの間における未知の空間関係と、第2時間数列のシーケンス間の描写対描写の変換の少なくとも1つとの合成に対して等式化することを包含する。
【0050】
補足的に、本発明の1つの好適な実施例に拠れば、採用するステップは、第1時間数列のシーケンス間の描写対描写の変換の少なくとも1つと、少なくとも第1および第2のシーケンスの間における未知の空間関係との順次適用を、少なくとも第1および第2のシーケンスの間における未知の空間関係と、第2時間数列のシーケンス間の描写対描写の変換の少なくとも1つとの順次適用に対して等式化することによって、少なくとも第1および第2のシーケンスの間における未知の空間関係を獲得することを包含する。
【0051】
補足的に、本発明の1つの好適な実施例に拠れば、等式化するステップは、所定の倍率に達するまで等式化することを包含する。
【0052】
更に、本発明の1つの好適な実施例に拠れば、シーケンス間の描写対描写の変換は、少なくとも部分的には異なった時点において生じる多数の単純な運動を包含する。
【0053】
好適には、シーケンス間の描写対描写の変換は、少なくとも部分的には異なった時点において生じる多数の単純な運動の多数の組合せを包含する。
【0054】
好適には、シーケンス間の描写対描写の変換は、少なくとも部分的には異なった時点において生じる多数の複雑な運動を包含する。
【0055】
好適には、シーケンス間の描写対描写の変換は、少なくとも部分的には異なった時点において生じる多数の複雑な運動の多数の組合せを包含する。
【0056】
更に、本発明の1つの好適な実施例に拠れば、第1および第2の時間数列は、順序付きシーケンス間の描写対描写の変換を包含し、少なくともその幾分かは、各センサとシーンの間における相対的な運動から生じる。
【0057】
更になお、本発明の1つの好適な実施例に拠れば、採用するステップは、シーケンス間の描写対描写の変換の多数の組合せを使用する。
【0058】
更に、本発明の1つの好適な実施例に拠れば、描写の少なくとも第1および第2のシーケンスの間における空間関係は、時間の全体にわたって固定されているそれぞれの少なくとも第1および第2のシーケンスを獲得する第1および第2のセンサの間における獲得関係から生じる。
【0059】
更になお、本発明の1つの好適な実施例に拠れば、描写の少なくとも第1および第2のシーケンスの間における空間関係は、時間の全体にわたって既知の様式で変化するそれぞれの少なくとも第1および第2のシーケンスを獲得する第1および第2のセンサの間における獲得関係から生じる。
【0060】
好適には、獲得関係は、相対的位置と、相対的方向付けと、相対的な内部センサ・パラメータとを包含する。
【0061】
更に、本発明の1つの好適な実施例に拠れば、獲得関係は既知である。
【0062】
代替的に、獲得関係は既知ではない。
【0063】
補足的に、本発明の1つの好適な実施例に拠れば、少なくとも第1および第2のシーケンスは、概ね同時に獲得される。
【0064】
好適には、少なくとも第1および第2のシーケンスは、概ね異なった時点で獲得される。
【0065】
更に、本発明の1つの好適な実施例に拠れば、少なくとも第1および第2のシーケンスは、同じシーンからの計測値を提示する。
【0066】
補足的に、本発明の1つの好適な実施例に拠れば、少なくとも第1および第2のシーケンスは、同じシーンの異なった部分からの計測値を提示する。
【0067】
補足的に或いは代替的に、少なくとも第1および第2のシーケンスは、同じシーンの異なったオーバーラップする部分からの計測値を提示する。
【0068】
更に、本発明の1つの好適な実施例に拠れば、少なくとも第1および第2のシーケンスは、同じシーンの異なったオーバーラップしない部分からの計測値を提示する。
【0069】
更になお、本発明の1つの好適な実施例に拠れば、少なくとも第1および第2のシーケンスは、異なったシーンからの計測値を提示する。
【0070】
代替的には、シーンは2次元である。
【0071】
好適には、シーンは少なくとも3次元である。
【0072】
更に、本発明の1つの好適な実施例に拠れば、シーンは静止的である。代替的には、シーンは動的である。
【0073】
更に、本発明の1つの好適な実施例に拠れば、それらの計測値は、各々のセンサに関して概ね同じである。
【0074】
更になお、本発明の1つの好適な実施例に拠れば、それらの計測値は、各々のセンサに関して概ね異なっている。
【0075】
好適には、それらの計測値は、照度、熱、放射輝度、電磁放射、色、距離、濃度、音響および速度のうちの少なくとも1つを包含する。
【0076】
更に、本発明の1つの好適な実施例に拠れば、その方法は、シーケンス融合のために空間関係および時間関係の少なくとも一方を採用するステップをも包含する。
【0077】
補足的に、本発明の1つの好適な実施例に拠れば、その方法は、異なったズームで獲得されたシーケンスの位置合わせのために空間関係および時間関係の少なくとも一方を採用するステップをも包含する。
【0078】
更になお、本発明の1つの好適な実施例に拠れば、その方法は、監視のために空間関係および時間関係の少なくとも一方を採用するステップをも包含する。
【0079】
更に、本発明の1つの好適な実施例に拠れば、その方法は、少なくとも部分的にはオーバーラップしない多数の狭い視野の動画からワイドスクリーンの動画を生成するために空間関係および時間関係の少なくとも一方を採用するステップをも包含する。
【0080】
補足的に、本発明の1つの好適な実施例に拠れば、その方法は、画像融合のために空間関係および時間関係の少なくとも一方を採用するステップをも包含する。
【0081】
更に、本発明の1つの好適な実施例に拠れば、その方法は、少なくとも第1および第2のシーケンスの中に含まれた情報を統合するために空間関係および時間関係の少なくとも一方を採用するステップをも包含する。
【0082】
更になお、本発明の1つの好適な実施例に拠れば、その方法は、異なったズームで獲得された画像の位置合わせのために空間関係および時間関係の少なくとも一方を採用するステップをも包含する。
【0083】
補足的に、本発明の1つの好適な実施例に拠れば、その方法は、少なくとも第1および第2のシーケンスの中に含まれた情報を比較するために空間関係および時間関係の少なくとも一方を採用するステップをも包含する。
【0084】
更に、本発明の1つの好適な実施例に拠れば、その方法は、少なくとも第1および第2のシーケンスの中に含まれた情報の間における相違を発見するために空間関係および時間関係の少なくとも一方を採用するステップをも包含する。
【0085】
更になお、本発明の1つの好適な実施例に拠れば、その方法は、異なった時点における同じシーンに関連する少なくとも第1および第2のシーケンスの中に含まれた情報の間における相違を発見するために空間関係および時間関係の少なくとも一方を採用するステップをも包含する。
【0086】
補足的に、本発明の1つの好適な実施例に拠れば、その方法は、少なくとも第1および第2のシーケンスの中に含まれた情報を統合し、それによって、個別的なセンサの限度を超過する情報出力を提供するようにして、空間関係および時間関係の少なくとも一方を採用するステップをも包含する。
【0087】
更に、本発明の1つの好適な実施例に拠れば、採用するステップは、第1時間数列および第2時間数列の特性を比較することを包含する。
【0088】
更になお、本発明の1つの好適な実施例に拠れば、計算機能性は、その後、空間関係および時間関係の少なくとも一方を獲得するために採用される、第1および第2の時間数列を計算する機能性を包含する。
【0089】
補足的に、本発明の1つの好適な実施例に拠れば、そのシステムは、第1および第2の時間数列を計算して、それらを入力機能性に対して供給する時間数列計算機能性をも包含する。
【0090】
本発明は、添付図面と併せて考慮される以下の詳細な説明から更に十分に理解され認識されることになる。
【発明を実施するための最良の形態】
【0091】
ここで、本発明に従って互いに対して固定された2台の移動するカメラによって撮られた画像のシーケンスの間における空間関係および時間関係の解決を説明する、図1Aから図1Dの図面が参照される。
【0092】
図1Aにおいて理解されるように、それぞれに参照番号100および102で示された2台のカメラは、任意の適当な様式で互いに対して固定される。各々のカメラは、一緒に固定されて移動するとき、シーンの部分の画像シーケンスを撮影する。それらのカメラの運動は、1つまたはそれ以上の寸法におけるものであり且つ任意の適当なポイントに対するものである回転および/または並進のような任意の適当な運動であることが可能である。従って、例えば、2台のカメラ100および102は、それらのカメラの一方の光学軸または任意のその他の軸の廻りを回転することが可能である。同様にして、それらのカメラの並進運動もまた、任意の適当な方向において生じることが可能である。
【0093】
本件の事例(図1Aから図1D)では、2台のカメラによって撮影されるシーンの部分は、オーバーラップするものではなく、それぞれに参照番号104および106によって示されている。
【0094】
ここで、図1Bを参照すると、図1Aのシーンの部分104および106は、対応する画像108および110によって描写されることが可能であると理解される。図1Cにおいて理解されるように、画像108および110は、移動するカメラ100および102の一方によってそれぞれに形成された画像のシーケンスに対してそれぞれに所属するものであり、それぞれのシーケンスは、参照番号112および114によって示されている。シーケンス112は、画像122,124および126をも包含するものであると理解される。同様にして、シーケンス114もまた、画像130,132および134を包含する。
【0095】
本発明によって対処される問題は、一方がシーケンス112に所属し、他方がシーケンス114に所属する個別的な画像対(例えば、(108,110)、(122,130)または(122,134))の中に包含される視覚情報が、2つの画像対の間における空間関係も時間関係をも確立しない十分なものであるということである。より一般的に言えば、画像対の一方がシーケンス112に所属し、画像対の他方がシーケンス114に所属する個別的な画像対の中に包含される視覚情報は、2つのシーケンス112および114の間における空間関係も時間関係をも確立しない十分なものなのである。
【0096】
図1Aから図1Dの文脈では、2つの画像は、それらが同じ時点で撮られた場合、同じ「時間関係」にあるものである。
【0097】
画像108および110の未知の空間関係は、図1Bにおいて参照番号116,118および120で示された実行可能な相対的空間関係の3つの具体例を検討することによって、図式的に理解される。各々の具体例において、2つの画像108および110は、すべてが画像108および110の視覚的内容と矛盾しない、異なった空間関係に配置されている。
【0098】
シーケンス112および114の未知の時間関係は、図1Cを検討することによって、図式的に理解される。シーケンス112における画像がシーケンス114における画像と同じ時点で撮られていることは、シーケンス112および114の大雑把な吟味からは明瞭ではないと認識されるのである。
【0099】
本発明は、画像108および110の間における正確な関係、より一般的には図1Dにおいて示されたようなシーケンス112および114の間における正確な空間関係および時間関係を決定するシステム並びに技術を提供する。従って、本発明は、シーケンス112における画像がシーケンス114における画像と時間的に対応することを決定し、時間的に対応する画像の間における空間関係をも更に決定するものであると認識されることが可能である。
【0100】
従って、図1Dでは、シーケンス112における画像A(108)は、シーケンス114における画像b(110)と時間的に対応すると認められるものであると理解される。画像A(108)および画像b(110)の間における正確な空間関係は、図1Dにおいて参照番号150で示されている。同様にして、シーケンス112における画像B(122)は、シーケンス114における画像c(132)と時間的に対応するものであると認められ、シーケンス112における画像C(124)は、シーケンス114における画像d(134)と時間的に対応するものであると認められる。画像B(122)および画像c(132)の間における正確な空間関係は、図1Dにおいて参照番号152で示され、画像C(124)および画像d(134)の間における正確な空間関係は、図1Dにおいて参照番号154で示されている。
【0101】
本発明は、2つのシーケンスにおいて共通の静止的な視覚情報が何も存在しないにも関わらず、2つのシーケンスの各々における画像対画像の動勢が空間的にも時間的にも関連するという認識を採用する。本発明は、2つのシーケンスを時間および空間において相関させるためにそれらの動勢の間における関係を利用するのである。
【0102】
以下で詳細に説明されるであろうように、画像対画像の動勢は、好適には、各々のシーケンス内の画像の間における時間の全体にわたる空間変換によって表現される。従って、画像のシーケンスを時間および空間において位置合わせするという問題が、時間および空間におけるそのような変換のシーケンスの間における関係を決定するという問題にまで縮小されるのである。
【0103】
図1Dの検討からは、本発明を採用することによって、空間的なオーバーラップがそれらの間に存在しないにも関わらず、その後、シーンの2つの部分を互いに対して局在化させるためにそれらのシーケンスが利用され得ることになる、位置合わせシーケンスが実現され得るということが認識される。
【0104】
ここでは、シーンの各部分が大きく異なったズームで2台のカメラによって撮影されている、本発明に従って互いに対して固定された2台の移動するカメラによって撮られた画像のシーケンスの間における空間関係および時間関係の解決を説明する、図2Aから図2Dの図面が参照される。
【0105】
図2Aにおいて理解されるように、それぞれに参照番号200および202で示された2台のカメラは、任意の適当な様式で互いに対して固定される。各々のカメラは、一緒に固定されて移動するとき、シーンの部分の画像シーケンスを撮影する。それらのカメラの運動は、1つまたはそれ以上の寸法におけるものであり且つ任意の適当なポイントに対するものである回転および/または並進のような任意の適当な運動であることが可能である。従って、例えば、2台のカメラは、それらのカメラの一方の光学軸または任意のその他の軸の廻りを回転することが可能である。同様にして、それらのカメラの並進運動もまた、任意の適当な方向において生じることが可能である。
【0106】
本件の事例(図2Aから図2D)では、2台のカメラによって撮影されるシーンの部分は、大きく異なったズームで画像形成されるものであり、結果として、シーンにおける様々な特徴を異なった空間的縮尺で画像形成している。シーンの2つの部分は、必ずしもオーバーラップしている必要がないものであり、それぞれに参照番号204および206によって示されている。
【0107】
ここで、図2Bを参照すると、図2Aのシーンの部分204および206は、対応する画像208および210のそれぞれによって描写されることが可能であると理解される。図2Cにおいて理解されるように、画像208および210は、移動するカメラ200および202の一方によってそれぞれに形成された画像のシーケンスに対してそれぞれに所属するものであり、それぞれのシーケンスは、参照番号212および214によって示されている。シーケンス212は、画像222,224および226をも包含するものであると理解される。同様にして、シーケンス214もまた、画像230,232および234を包含する。
【0108】
ズームイン画像210において画像形成される特徴は、それらのカメラによって採用される異なった空間的縮尺の故に、ズームアウト画像208において画像形成される特徴とは異なっていることが可能であると認識される。従って、例えば、樹木の個々の葉は、画像210では識別されることが可能であるが、そのような葉は、画像208では識別可能なものではないことも可能である。同様にして、木々は、画像208では識別されることが可能であるが、画像210では葉と枝だけが識別可能なのである。
【0109】
本発明によって対処される問題は、一方がシーケンス212に所属し、他方がシーケンス214に所属する個別的な画像対(例えば、(208,210)、(222,230)または(222,234))の中に包含される視覚情報が、2つの画像対の間における空間関係も時間関係をも確立しない十分なものであるということである。より一般的に言えば、画像対の一方がシーケンス212に所属し、画像対の他方がシーケンス214に所属する個別的な画像対の中に包含される視覚情報は、2つのシーケンス212および214の間における空間関係も時間関係をも確立しない十分なものなのである。
【0110】
図2Aから図2Dの文脈では、2つの画像は、それらが同じ時点で撮られた場合、同じ「時間関係」にあるものである。
【0111】
画像208および210の未知の空間関係は、図2Bにおいて参照番号216,218および220で示された実行可能な相対的空間関係の3つの具体例を検討することによって、図式的に理解される。各々の具体例において、2つの画像208および210は、すべてが画像208および210の視覚的内容と矛盾しない、異なった空間関係に配置されている。
【0112】
シーケンス212および214の未知の時間関係は、図2Cを検討することによって、図式的に理解される。シーケンス212における画像がシーケンス214における画像と同じ時点で撮られていることは、シーケンス212および214の大雑把な吟味からは明瞭ではないと認識されるのである。
【0113】
本発明は、画像208および210の間における正確な関係、より一般的には図2Dにおいて示されたようなシーケンス212および214の間における正確な空間関係および時間関係を決定するシステム並びに技術を提供する。従って、本発明は、シーケンス212における画像がシーケンス214における画像と時間的に対応することを決定し、時間的に対応する画像の間における空間関係をも更に決定するものであると認識されることが可能である。
【0114】
従って、図2Dでは、シーケンス212における画像A(208)は、シーケンス214における画像b(210)と時間的に対応すると認められるものであると理解される。画像A(208)および画像b(210)の間における正確な空間関係は、図2Dにおいて参照番号250で示されている。同様にして、シーケンス212における画像B(222)は、シーケンス214における画像c(232)と時間的に対応するものであると認められ、シーケンス212における画像C(224)は、シーケンス214における画像d(234)と時間的に対応するものであると認められる。画像B(222)および画像c(232)の間における正確な空間関係は、図2Dにおいて参照番号252で示され、画像C(224)および画像d(234)の間における正確な空間関係は、図2Dにおいて参照番号254で示されている。
【0115】
本発明は、2つのシーケンスにおいて何らかの共通の静止的な視覚情報が必ずしも存在しないにも関わらず、2つのシーケンスの各々における画像対画像の動勢が空間的にも時間的にも関連するという認識を採用する。本発明は、2つのシーケンスを時間および空間において相関させるためにそれらの動勢の間における関係を利用するのである。
【0116】
以下で詳細に説明されるであろうように、画像対画像の動勢は、好適には、各々のシーケンス内の画像の間における時間の全体にわたる空間変換によって表現される。従って、画像のシーケンスを時間および空間において位置合わせするという問題が、時間および空間におけるそのような変換のシーケンスの間における関係を決定するという問題にまで縮小されるのである。
【0117】
図2Dの検討からは、本発明を採用することによって、広視野の文脈を提供するシーンのズームアウト視野に対して局在化されるようにして、その後、シーンの部分の高解像度の細部を提供するためにそれらのシーケンスが利用され得ることになる、位置合わせシーケンスが実現され得るということが認識される。
【0118】
ここでは、シーンの各部分が異なったセンサ様式を採用する2つのセンサによって画像形成されている、本発明に従って互いに対して固定された2つの移動するセンサによって撮られた画像のシーケンスの間における空間関係および時間関係の解決を説明する、図3Aから図3Dの図面が参照される。
【0119】
図3Aにおいて理解されるように、赤外線(IR)カメラ300および可視光線(VL)カメラ302のような2つのセンサは、任意の適当な様式で互いに対して固定される。各々のセンサは、一緒に固定されて移動するとき、シーンの部分の画像シーケンスを撮影する。それらのセンサの運動は、1つまたはそれ以上の寸法におけるものであり且つ任意の適当なポイントに対するものである回転および/または並進のような任意の適当な運動であることが可能である。従って、例えば、2つのセンサは、それらのセンサの一方の光学軸または任意のその他の軸の廻りを回転することが可能である。同様にして、それらのセンサの並進運動もまた、任意の適当な方向において生じることが可能である。
【0120】
本件の事例(図3Aから図3D)では、2つのセンサによって検出されるシーンの部分は、異なった波長領域において画像形成されるものであり、結果として、シーンにおける様々な特徴を異なった様式で画像形成している。シーンの2つの部分は、必ずしも、オーバーラップしている必要がなく、同じズームである必要もないものであり、参照番号304および306によって示されている。
【0121】
ここで、図3Bを参照すると、図3Aのシーンの部分304および306は、対応する画像308および310によって描写されることが可能であると理解される。図3Cにおいて理解されるように、画像308および310は、移動するセンサ300および302の一方によってそれぞれに形成された画像のシーケンスに対してそれぞれに所属するものであり、それぞれのシーケンスは、参照番号312および314によって示されている。シーケンス312は、画像322,324および326をも包含するものであると理解される。同様にして、シーケンス314もまた、画像330,332および334を包含する。
【0122】
赤外線(IR)画像310において画像形成される特徴は、それらのセンサによって採用される異なったセンサ様式の故に、可視光線(VL)画像308において画像形成される特徴とは異なっていることが可能であると認識される。従って、例えば、高温領域は、画像308では識別されることが可能であるが、熱は、画像310では検出されない。同様にして、バスの視覚的な外観は、画像310では識別されることが可能であるが、可視光線においてのみ現れる特徴は、画像308では捕捉されないのである。
【0123】
本発明によって対処される問題は、一方がシーケンス312に所属し、他方がシーケンス314に所属する個別的な画像対(例えば、(308,310)、(322,330)または(322,334))の中に包含される視覚情報が、2つの画像対の間における空間関係も時間関係をも確立しない十分なものであるということである。より一般的に言えば、画像対の一方がシーケンス312に所属し、画像対の他方がシーケンス314に所属する個別的な画像対の中に包含される視覚情報は、2つのシーケンス312および314の間における空間関係も時間関係も確立するのには十分ではない。
【0124】
図3Aから図3Dの文脈では、2つの画像は、それらが同じ時点で撮られた場合、同じ「時間関係」にあるものである。
【0125】
画像308および310の未知の空間関係は、図3Bにおいて参照番号316,318および320で示された実行可能な相対的空間関係の3つの具体例を検討することによって、図式的に理解される。各々の具体例において、2つの画像308および310は、すべてが画像308および310の視覚的内容と矛盾しない、異なった空間関係に配置されている。
【0126】
シーケンス312および314の未知の時間関係は、図3Cを検討することによって、図式的に理解される。シーケンス312における画像がシーケンス314における画像と同じ時点で撮られていることは、シーケンス312および314の大雑把な吟味からは明瞭ではないと認識されるのである。
【0127】
本発明は、画像308および310の間における正確な関係、より一般的には図3Dにおいて示されたようなシーケンス312および314の間における正確な空間関係および時間関係を決定するシステム並びに技術を提供する。従って、本発明は、シーケンス312における画像がシーケンス314における画像と時間的に対応することを決定し、時間的に対応する画像の間における空間関係をも更に決定するものであると認識されることが可能である。
【0128】
従って、図3Dでは、シーケンス314における画像A(310)は、シーケンス312における画像a(308)と時間的に対応すると認められるものであると理解される。画像A(310)および画像a(308)の間における正確な空間関係は、図3Dにおいて参照番号350で示されている。同様にして、シーケンス314における画像B(330)は、シーケンス312における画像b(322)と時間的に対応するものであると認められ、シーケンス314における画像C(332)は、シーケンス312における画像c(324)と時間的に対応するものであると認められ、シーケンス314における画像D(334)は、シーケンス312における画像d(326)と時間的に対応するものであると認められる。画像B(330)および画像b(322)の間における正確な空間関係は、図3Dにおいて参照番号352で示され、画像C(332)および画像c(324)の間における正確な空間関係は、図3Dにおいて参照番号354で示され、画像D(334)および画像d(326)の間における正確な空間関係は、図3Dにおいて参照番号356で示されている。従って、IR画像シーケンス312において捕捉される高温領域は、実際には、バスのラジエータおよび排気ガスであるということが実現され得ることになる。
【0129】
本発明は、2つのシーケンスにおいて何らかの共通の静止的な視覚情報が必ずしも存在しないにも関わらず、2つのシーケンスの各々における画像対画像の動勢が空間的にも時間的にも関連するという認識を採用する。本発明は、それらのシーケンスによって捕捉される特徴の理解または解釈を必要とすることなく、2つのシーケンスを時間および空間において相関させるためにそれらの動勢の間における関係を利用するのである。
【0130】
以下で詳細に説明されるであろうように、画像対画像の動勢は、好適には、各々のシーケンス内の画像の間における時間の全体にわたる空間変換によって表現される。従って、画像のシーケンスを時間および空間において位置合わせするという問題が、時間および空間におけるそのような変換のシーケンスの間における関係を決定するという問題にまで縮小されるのである。
【0131】
図3Dの検討からは、本発明を採用することによって、両者のシーケンスによって捕捉される情報の全体を表示する複合シーケンスを提供するために、その後、それらのシーケンスが統合され得ることになる、位置合わせシーケンスが実現され得るということが認識される。従って、この具体例では、その複合シーケンスは、個別的なセンサ300および302のものを超過する波長領域にわたって情報を捕捉するのである。
【0132】
ここでは、2つの対応する画像シーケンスを形成している2つの異なった時点で撮られた、シーンの画像シーケンスの間における空間関係および時間関係の解決を説明する、図4Aから図4Dの図面が参照される。それらの画像シーケンスを形成するために使用されるカメラは、両者のシーケンスに関して概ね同一である通路に沿って移動する要素に対して固定されている。
【0133】
図4Aにおいて理解されるように、鉄道線路のような概ね同一の通路に沿って移動するカメラが、ここでは典型的に夏および冬である2つの異なった時点におけるシーンを画像形成する。夏に使用されるカメラは、参照番号400で示されるが、冬に使用されるカメラは、参照番号402で示されている。同じカメラまたは異なったカメラが採用され得るものであると認識される。それらのカメラは、同じセッティングまたは異なったセッティングを有することが可能である。
【0134】
各々のカメラは、そのシーンの画像シーケンスを撮影する。この事例では、2つの異なった時点において画像形成されるシーンは、参照番号404および406によって示されるような2つの異なった外観を有する。参照番号404は、夏に鉄道線路407に沿って移動するようにして、カメラ400を載せた列車の視野を示している。参照番号406は、冬に鉄道線路407に沿って移動するようにして、カメラ402を載せた列車の視野を示している。
【0135】
ここで、図4Bを参照すると、カメラ400および402は、図4Aの参照番号404および406によって示された視野の部分を画像形成するものであり、それぞれの画像408および410を形成していると理解される。図4Cにおいて理解されるように、画像408および410は、移動するカメラ400および402の一方によってそれぞれに形成された画像のシーケンスに対してそれぞれに所属するものであり、それぞれのシーケンスは、参照番号412および414によって示されている。シーケンス412は、画像422,424および426をも包含するものであると理解される。同様にして、シーケンス414もまた、画像430,432および434を包含する。シーケンス412における画像は、シーケンス414における画像と必ずしも時間的に離間される(同じ時間差で撮られる)ものではないと認識される。
【0136】
夏に画像形成される特徴は、冬に画像形成される特徴とは、例えば雪で覆われる故に、異なっていることが可能であると認識される。従って、例えば、シーケンス412において観察される家屋は、シーケンス414では視認され得ない。何故なら、それが雪で覆われているからである。同様にして、シーケンス414において観察される雪もまた、シーケンス412では視認され得ないのである。
【0137】
本発明によって対処される問題は、一方がシーケンス412に所属し、他方がシーケンス414に所属する個別的な画像対(例えば、(408,410)、(422,430)または(422,434))の中に包含される視覚情報が、2つの画像対の間における空間関係も時間関係も確立するには十分ではないことである。より一般的に言えば、画像対の一方がシーケンス412に所属し、画像対の他方がシーケンス414に所属する個別的な画像対の中に包含される視覚情報は、2つのシーケンス412および414の間における空間関係も時間関係も確立するには十分ではない。
【0138】
図4Aから図4Dの文脈では、2つの画像は、それに対してカメラが固定される要素が通路に沿った同じ場所にある場合、同じ「時間関係」にあるものである。シーケンス412における画像422,424,408および426の間における時間差は、シーケンス414における画像430,432,410および434の間における時間差と同じであることが可能であり、或いは同じではないことも可能であると認識される。
【0139】
画像408および410の未知の空間関係は、図4Bにおいて参照番号416,418および420で示された実行可能な相対的空間関係の3つの具体例を検討することによって、図式的に理解される。各々の具体例において、2つの画像408および410は、すべてが画像408および410の視覚的内容と矛盾しない、異なった空間関係に配置されている。
【0140】
シーケンス412および414の未知の時間関係は、図4Cを検討することによって、図式的に理解される。シーケンス412における画像がシーケンス414における画像と同じである鉄道線路407に沿った位置から撮られていることは、シーケンス412および414の大雑把な吟味からは明瞭ではないと認識されるのである。
【0141】
本発明は、画像408および410の間における正確な関係、より一般的には図4Dにおいて示されたようなシーケンス412および414の間における正確な空間関係および時間関係を決定するシステム並びに技術を提供する。従って、本発明は、シーケンス412における画像がシーケンス414における画像と時間的に対応することを決定し、時間的に対応する画像の間における空間関係をも更に決定するものであると認識されることが可能である。
【0142】
従って、図4Dでは、シーケンス412における画像A(422)は、シーケンス414における画像a(430)と時間的に対応すると認められるものであると理解される。画像A(422)および画像a(430)の間における正確な空間関係は、図4Dにおいて参照番号450で示されている。同様にして、シーケンス412における画像B(424)は、シーケンス414における画像b(432)と時間的に対応するものであると認められ、シーケンス412における画像C(408)は、シーケンス414における画像c(410)と時間的に対応するものであると認められ、シーケンス412における画像D(426)は、シーケンス414における画像d(434)と時間的に対応するものであると認められる。画像B(424)および画像b(432)の間における正確な空間関係は、図4Dにおいて参照番号452で示され、画像C(408)および画像c(410)の間における正確な空間関係は、図4Dにおいて参照番号454で示され、画像D(426)および画像d(434)の間における正確な空間関係は、図4Dにおいて参照番号456で示されている。従って、雪の下に埋もれた家屋の場所は、その家屋がそのシーケンスでは視認され得ないにも関わらず、シーケンス414において決定されることが可能である。
【0143】
本発明は、2つのシーケンスにおいて何らかの共通の静止的な視覚情報が必ずしも存在しないにも関わらず、2つのシーケンスの各々における画像対画像の動勢が空間的にも時間的にも関連するという認識を採用する。本発明は、それらのシーケンスによって捕捉される特徴の理解または解釈を必要とすることなく、2つのシーケンスを時間および空間において相関させるためにそれらの動勢の間における関係を利用するのである。
【0144】
以下で詳細に説明するように、画像対画像の動勢は、好適には、各々のシーケンス内の画像の間における時間の全体にわたる空間変換によって表現される。従って、画像のシーケンスを空間的且つ時間的に位置合わせするという問題は、そのような変換のシーケンスの間における関係をいかに決定するかという問題である。
【0145】
図4Dの検討からは、本発明を採用することによって、他のシーケンスを横断する所定のシーケンスにおいてのみ視認され得る対象の場所を決定するために、その後、それらのシーケンスが採用され得ることになる、位置合わせシーケンスが実現され得るということが認識される。その位置合わせシーケンスは、異なったシーケンスの獲得の間における時間間隔の間に生じる人工的な変更のようなシーンにおける変化を検出するために採用されることもまた可能である。
【0146】
更に、空間関係は、少なくとも2つの軌跡が同じ装置または道具上に剛直に装着されて空間を一緒に移動される2台のカメラによってそれらが形成されたかのように相関させられるようにして、概ね異なった軌跡に沿った、異なった時点および/または異なった場所において、少なくとも1台のカメラを移動させることによって形成されることもまた可能であると認識される。
【0147】
図4Aから図4Dは、本発明の方法の出力に関する実行可能な視覚化の1つの具体例を示している。しかしながら、その方法は、この特定の出力或いはこの特定の視覚化に対して限定されるものではない。例えば、その出力は、空間変換および時間変換の形態における数値であることが可能であり、或いは位置合わせされおよび/または統合されるビデオシーケンスの形態における視覚的なものであることも可能であると認識される。
【0148】
数値的な出力が設けられるときには、その出力変換は、様々な実行可能な座標系において設けられることが可能であり、視覚的な出力が設けられるときには、多くの実行可能な視覚化が存在する。
【0149】
ここで、本発明の根底をなす重要な新規の原理を図示している、図5Aから図5Cが参照される。図1Aから図4Dに関連して上述したように、共通の視覚情報を僅かしか有していないかまたは全く有していない画像の間における空間的対応性および時間的対応性を確立する際には困難がある。
【0150】
それらの画像の各々が実質的な共通の視覚情報を有する画像シーケンスの部分を形成することに留意して、本発明は、各々のシーケンス内の画像の間におけるシーケンス間の空間変換を検討し、その後、そのような一連のシーケンス間の空間変換をそれらのシーケンスの全体にわたって相関させることによって、この困難を克服している。
【0151】
シーケンス内の画像に共通する視覚情報は、シーケンス間の空間変換を計算するために使用されるが、これらの変換は、一旦計算されてしまうと、如何なる視覚情報をも包含するものではなく、従って、それらのシーケンスの全体にわたって容易に相関させられることが可能であると認識される。従って、一旦、一連のシーケンス間の変換が見出されると、もはや、画像それ自体の中における視覚情報に戻って参照する必要がないことになるのである。
【0152】
本発明の1つの固有の特徴は、図1Aから図4Dのいずれかにおいて説明されたようにして、それらの運動が空間的且つ時間的に相関させられるカメラによって撮られた画像の一連のシーケンス間の空間変換が、空間的且つ時間的に相関させられるということである。図5Aから図5Cおよび以下の説明は、画像シーケンスの全体にわたる共通の視覚情報の欠落にも関わらず、本発明に従って、空間関係および時間関係を導出するために採用されることが可能であるこれらの相関関係の具体例を提示する。
【0153】
ここでは、特には、2台のカメラが軸に沿って互いに対して180度に配置されるようにして軸504に沿った第1および第2のカメラ500および502の運動によって誘導される、2つのシーケンス内における画像対画像の変換の間の関係を説明する、図5Aが参照される。カメラ500は、画像シーケンス506を捕捉し、カメラ502は、画像シーケンス508を捕捉する。
【0154】
シーケンス506は、特には、画像510,512および514を包含し、シーケンス508は、特には、画像520,522および524を包含する。矢印526で示された方向における軸504に沿ったカメラ500の運動は、画像510の場合よりも画像512では小さく見える家屋を包含するようにして画像形成されるシーンを生じるものであると理解される。この関係は、シーケンス間の画像対画像の空間変換によって表現されるものであり、画像510から画像512への変換の図式的な説明は、参照番号530によって示されている。その変換において示された矢印は、画像512が画像510に変換されるときの画像512の対応するポイントの転位を示している。同様にして、矢印526で示された方向における軸504に沿ったカメラ500の運動は、画像512の場合よりも画像514では小さく見える家屋を包含するようにして画像形成されるシーンを生じるものであると理解される。この関係は、参照番号532によって示されるシーケンス間の画像対画像の空間変換によって表現される。
【0155】
更に、矢印526で示された方向における軸504に沿ったカメラ502の運動は、画像520の場合よりも画像522では大きく見える樹木を包含するようにして画像形成されるシーンを生じるものであると理解される。この関係は、参照番号540によって示されるシーケンス間の画像対画像の空間変換によって表現される。同様にして、矢印526で示された方向における軸504に沿ったカメラ502の運動は、画像522の場合よりも画像524では大きく見える樹木を包含するようにして画像形成されるシーンを生じるものであると理解される。この関係は、参照番号542によって示されるシーケンス間の画像対画像の空間変換によって表現される。
【0156】
一連の変換530および532を一連の変換540および542と比較することから、カメラ500および502は、それらが一緒に移動するとき反対方向に向けられているようなものであると認識される。
【0157】
ここでは、特には、2台のカメラが互いに対して90度に配置され、カメラの一方が運動の軸554に対して実質的に平行に位置合わせされるようにして軸554に沿った第1および第2のカメラ550および552の運動によって誘導される、2つのシーケンス内における画像対画像の変換の間の関係を説明する、図5Bが参照される。カメラ550は、画像シーケンス556を捕捉し、カメラ552は、画像シーケンス558を捕捉する。
【0158】
シーケンス556は、特には、画像560,562および564を包含し、シーケンス558は、特には、画像570,572および574を包含する。矢印576で示された方向における軸554に沿ったカメラ550の運動は、画像560の場合と比べて画像562では左に向かって横方向にシフトされているように見える家屋を包含するようにして画像形成されるシーンを生じるものであると理解される。この関係は、参照番号580によって示されるシーケンス間の画像対画像の空間変換によって表現される。同様にして、矢印576で示された方向における軸554に沿ったカメラ550の運動は、画像562の場合と比べて画像564では左に向かって横方向にシフトされているように見える家屋を包含するようにして画像形成されるシーンを生じるものであると理解される。この関係は、参照番号582によって示されるシーケンス間の画像対画像の空間変換によって表現される。
【0159】
更に、矢印576で示された方向における軸554に沿ったカメラ552の運動は、画像570の場合よりも画像572では大きく見える樹木を包含するようにして画像形成されるシーンを生じるものであると理解される。この関係は、参照番号590によって示されるシーケンス間の画像対画像の空間変換によって表現される。同様にして、矢印576で示された方向における軸554に沿ったカメラ552の運動は、画像572の場合よりも画像574では大きく見える樹木を包含するようにして画像形成されるシーンを生じるものであると理解される。この関係は、参照番号592によって示されるシーケンス間の画像対画像の空間変換によって表現される。
【0160】
一連の変換580および582を一連の変換590および592と比較することから、カメラ550および552は、それらが一緒に移動するとき互いに対して垂直に向けられているようなものであると認識される。
【0161】
ここでは、特には、2台のカメラが軸604に沿った運動の方向に対して垂直である同じ方向に向けられているが異なったズームであるようにして軸604に沿った第1および第2のカメラ600および602の運動によって誘導される、2つのシーケンス内における画像対画像の変換の間の関係を説明する、図5Cが参照される。カメラ600は、画像シーケンス606を捕捉し、カメラ602は、画像シーケンス608を捕捉する。
【0162】
シーケンス606は、特には、画像610,612および614を包含し、シーケンス608は、特には、画像620,622および624を包含する。矢印626で示された方向における軸604に沿ったカメラ600の運動は、画像610の場合と比べて画像612では左に向かって横方向にシフトされているように見える家屋を包含するようにして画像形成されるシーンを生じるものであると理解される。この関係は、参照番号630によって示されるシーケンス間の画像対画像の空間変換によって表現される。同様にして、矢印626で示された方向における軸604に沿ったカメラ600の運動は、画像612の場合と比べて画像614では左に向かって横方向にシフトされているように見える家屋を包含するようにして画像形成されるシーンを生じるものであると理解される。この関係は、参照番号632によって示されるシーケンス間の画像対画像の空間変換によって表現される。
【0163】
更に、矢印626で示された方向における軸604に沿ったカメラ602の運動は、画像620の場合と比べて画像622では左に向かって横方向にシフトされているように見える家屋を包含するようにして画像形成されるシーンを生じるものであると理解される。この関係は、参照番号640によって示されるシーケンス間の画像対画像の空間変換によって表現される。同様にして、矢印626で示された方向における軸604に沿ったカメラ602の運動は、画像622の場合と比べて画像624では左に向かって横方向にシフトされているように見える家屋を包含するようにして画像形成されるシーンを生じるものであると理解される。この関係は、参照番号642によって示されるシーケンス間の画像対画像の空間変換によって表現される。変換640および642によって表現される横方向のシフトは、ズームの違いの故に変換630および632によって表現されるものよりも大きめであると留意される。
【0164】
一連の変換630および632を一連の変換640および642と比較することから、カメラ600および602は、それらが一緒に移動するとき軸604に沿った運動方向に対して垂直である同じ方向に向けられているが異なったズームであるようなものであると認識される。
【0165】
ここで、1種類の変換を採用する計算機能性は、シーケンスの間の空間関係および時間関係における曖昧さを解決するためには十分でないかもしれないが、多数の様々な種類の変換を採用するものは、シーケンスの間の空間関係および時間関係における曖昧さを削減するということを一緒になって示している、図6A、図6Bおよび図6Cが参照される。
【0166】
図6Aを参照すると、異なったカメラで撮られたシーケンスに対してそれぞれに所属する2つの反対方向に向いた横方向運動を示しているシーケンス間の空間変換650および652は、少なくとも2つの異なったカメラの配置を示すことが可能であると理解される。参照番号654によって示される1つのそのような配置は、軸662に沿って方向660に移動している第1および第2のカメラ656および658のそれぞれのものであり、相互に上下さかさまにした構成で配置され、両者ともに、軸662に対して直交するようにして平行に向けられている。
【0167】
参照番号664によって示されるもう1つの実行可能な配置は、カメラ656および658が、互いに対して180度に配置されているものであり、軸662に対して垂直に向けられ、それに沿った方向660において軸662に沿って移動している。
【0168】
図6Bを参照すると、異なったカメラで撮られたシーケンスに対してそれぞれに所属する前後のそれぞれの運動を示しているシーケンス間の空間変換670および672は、少なくとも2つの異なったカメラの配置を示すことが可能であると理解される。参照番号664によって示される1つのそのような配置は、軸682に沿って方向680に移動している第1および第2のカメラ656および658のそれぞれのものであり、軸682に沿って互いに対して180度に配置されている。
【0169】
参照番号684によって示されるもう1つの実行可能な配置は、カメラ656および658が、それに沿って方向680において運動するようにして軸682に沿って互いに対して180度に配置されているものであり、一方のカメラ656は、他方のカメラ658に対して軸682の廻りにおいて回転させられている。
【0170】
図6Cを参照すると、それぞれに異なった移動するカメラで撮られて、異なった種類の変換を包含している2つのシリーズのシーケンス間の空間変換690および692は、図6Aおよび図6Bに関連して上述された形式の曖昧さを解決するために計算機能性によって採用されているものであると理解される。シリーズ690は、その後に変換670(図6B)が続く変換650(図6A)によって構成され、シリーズ692は、その後に変換672(図6B)が続く変換652(図6A)によって構成される。
【0171】
図6A、図6Bおよび図6Cにおいて示された3つのカメラ構成のうちの1つのみが実行可能であり、すなわち図6Aおよび図6Bにおいて参照番号664によって示された構成が実行可能であると理解される。
【0172】
上述の図1Aから図4Dは、本発明の4つの典型的なアプリケーションを提示する。これらの4つのアプリケーションにおいて、本発明は、一方のシーケンスの何らかの画像と他方のシーケンスの何らかの画像との間に、先行技術が画像対画像の位置合わせを可能にするには不十分である類似性しか存在しないにも関わらず、2つの画像シーケンスの画像の間における位置合わせを提供する。画像の「類似性」は、ここでは広い意味で使用されるものであり、特には、グレーレベルの類似性、特徴の類似性、頻度の類似性、および相互情報のような統計的類似性を包含する。従って、先行技術では、類似性を獲得するためには、画像の間における少なくとも部分的なオーバーラップが必要とされている。
【0173】
それらを相互に位置合わせするために画像の間におけるオーバーラップを必要とする先行技術に対比して、本発明は、2つのシーケンスの画像の間における空間変換および時間変換の両者を解決するために、図5Aから図6Cを参照して示されて説明されたようにして2つのシーケンスの間における相関的な時間的挙動を採用する。本発明の1つの特徴は、先行技術では基本的な想定である「干渉性の外観」という要件を、例えば2台のカメラを一緒に空間的に移動させることによって、しばしば、より容易に満足させることができる「一貫した時間的挙動」という要件に置き換える能力である。
【0174】
図1Aから図1Dを参照して示されて上述された本発明の1つのアプリケーションでは、2つのシーケンスは、一緒に空間的に移動する2台のカメラによって同時に形成される。「同時に」という用語は、ここでは、2つのシーケンスが、少なくとも部分的には同じ時間周期の間に形成されることを示している。その同時性は、2つのシーケンスの画像またはフレームが同時に形成されるか或いは同じ速度で形成されることさえも必要としない。「一緒に移動する」ことは、ここでは、2台のカメラが、実用的な目的に関して、シーケンスの全体にわたって同じ映写の中心を有するということを意味する。これは、例えば、両者のカメラを移動する同じ道具に対して固定的に取り付けることによって、実現されることが可能である。実際には、2台のカメラの映写の中心は、正確に同じ場所に位置するものではない。しかしながら、後続の数学的な処置では、両者のカメラの映写の中心は、それらが同じ場所に位置したかのようにして考慮される。更に、その数学的な処置において採用される数学的な原理は、それらのカメラの映写の中心が、明らかに同じ場所には位置しないが、その空間関係が固定されている場所に位置するような状況に対しても適用可能なものであると認識される。補足的に、その数学的な処置において採用される数学的な原理は、それらのカメラの映写の中心が、明らかに同じ場所には位置しないが、少なくとも部分的には既知である空間/時間関係を有する場所に位置するような状況に対しても適用可能なものであると認識される。
【0175】
図2Aから図2Dおよび図3Aから図3Dを参照して示されて上述された本発明のもう1つのアプリケーションでは、2つのシーケンスは、部分的にオーバーラップする画像を包含する。しかしながら、画像の間における類似性は、非常に低いかまたは存在さえしないものであり、すなわち、1つのシーケンスの如何なる画像の詳細も、第2のシーケンスの何らかの画像の中では確認され得ないのである。
【0176】
図2Aから図2Dを参照して示されて上述されたアプリケーションでは、2つのシーケンスは、大きく異なったズームを採用するカメラによって形成される。同様なアプリケーションは、多く異なった倍率または解像度を有するカメラによって形成されるシーケンスに関するものであることも可能である。
【0177】
図3Aから図3Dを参照して示されて上述されたアプリケーションでは、2つのシーケンスは、異なったセンサ様式を採用するカメラによって形成される。典型的なセンサ様式は、静止画フィルムカメラ、デジタルカメラ、ビデオカメラまたはモーションフィルムカメラのような写真式カメラを使用することを包含し、赤外線画像形成機器、レーダー、エックス線、CATスキャン、MRIまたはその他の電磁的画像形成機器、超音波、ソナーおよびサブ・アコースティック地球物理学的監視機器のような音響的画像形成機器、人工衛星リモートセンサ機器を採用することをも包含する。
【0178】
図4Aから図4Dを参照して示されて上述された本発明の更にもう1つのアプリケーションでは、2つのシーケンスは、異なった時点で形成されるが、それぞれの2つのシーケンスを形成する2台のカメラは、概ね同じ通路に沿って移動している。それらのシーケンスは、何らかの空間的オーバーラップを有し得るものではなく、或いは、部分的なオーバーラップを有し得るかもしれないが、それでもなお、先行技術によって必要とされる程度の類似性を欠いている。そのような類似性の欠落は、倍率、ズームおよび解像度のような内部的なカメラ較正における差違から、或いは異なったセンサ様式を採用することから生じることが可能である。この類似性の欠落は、図4Aから図4Dにおいて示されたようにして季節によって生じる変化、或いは2つのシーケンスの間における視認可能性における差違に起因する変化のような、シーンにおける変化から生じることもまた可能である。
【0179】
後続の数学的な処置は、必ずしも2つのシーケンスの中に何らかの共通の静止的な視覚情報が存在しないにも関わらず、2つのシーケンスの各々における画像対画像の動勢が空間的にも時間的にも関連付けられるという認識を採用する。この数学的な処置は、それらのシーケンスによって捕捉される特徴の理解または解釈を必要とすることなく、2つのシーケンスを時間および空間において相関させるために、それらの動勢の間における関係を利用する。
【0180】
以下で詳細に説明されるであろうように、画像対画像の動勢は、好適には、各々のシーケンス内の画像の間における時間の全体にわたる空間変換によって表現される。従って、画像のシーケンスを時間および空間において位置合わせするという問題が、時間および空間におけるそのような変換のシーケンスの間における関係を決定するという問題にまで縮小されるのである。
【0181】
2台のカメラの運動は、2つのシーケンスに関する運動を誘導する。誘導されるそれらの運動は、2つのシーケンスに関して異なっているかもしれないが、相関している。それらのカメラの運動は知られていないが、誘導される運動の間における相関関係は、シーケンスの間を時間および空間において相関させるようにして機能する。
【0182】
画像対画像の動勢を使用して2つの画像を相関させるためには、以下のことが必要とされる:
(1)それらの画像の各々は、画像の時間的シーケンスの部分でなければならない;
(2)2つのシーケンスは、カメラとシーンの間における相対的な運動の間に形成されなければならない;
(3)2台のカメラの光学パラメータは、2つのシーケンスの形成の全体にわたって既知の様式におけるもの以外に変化してはならない。
後続の数学的な処置は、そこに提示される具体例において以下のような要求事項を賦課するものでもある:
(4)2つのシーケンスを形成するカメラは、2つのシーケンスの形成の全体にわたってほぼ同じ映写の中心を有していなければならない。
本発明は、1つの画像シーケンスにおける所定の単一の画像がその他のシーケンスにおける所定の単一の画像との所定の空間的類似性または視覚的類似性を有するように要求するものではない。その結果として、且つそれに加えて、本発明は、これらの画像の間における類似性のレベルが先行技術を採用することによって位置合わせを提供するためには不十分であるときにも、2つの画像シーケンスに所属する2つの画像の間における位置合わせを提供する。本発明は、通常、何らかの先行する内部的または外部的なカメラ較正を如何なる時点においても要求するものではない。
【0183】
以下で説明される本発明の2つの好適な実施例の各々は、以下のような2つの状況のうちの一方に対して適用可能なものである:
(a)シーンの実質的な部分は、平面的であるか、或いは2つの画像シーケンスを形成するカメラから離れている;
(b)シーンは、効果的な3次元のものである。
それらの2つの状況は、それぞれに、図1Aから図4Dに従って上述されたアプリケーションの全てに関係すると認識される。
【0184】
図6Aから図6Cを参照して示されて上述されたように、単純なカメラの運動は、2つのシーケンスの画像の間における空間変換および時間変換を解決するためには十分ではないかもしれない。従って、数個の異なった種類のカメラ運動が、要求されることも可能である。そのようなカメラ運動の3つの具体例が、図5Aから図5Cにおいて示されているのであり、更に有効であるかもしれないその他のカメラ運動の具体例が存在することも可能であると理解される。以下で説明される本発明の1つの実施例は、必要とされる運動の複雑性に関する評価を提供する。
【0185】
ここで、互いに対して固定される2台のカメラ702および704の複雑な運動700を簡略化して示しているものであり、それぞれのカメラが、シーン703の部分の画像シーケンスを形成していて、それらのシーケンスが、それに対応して、706,708,710、および712,714,716であり、2台のカメラによって撮影されたシーンの各部分がオーバーラップしないようにした、図7が参照される。
【0186】
ここで、図7において撮られた画像の2つのシーケンス720および722の部分を概略的に示していて、2つのシーケンスが一定且つ未知であるカメラ間のホモグラフィーによって空間的に関連付けられ、一定且つ未知である時間シフトΔtによって時間的に関連付けられるようにした、図8が参照される。それらのシンボルIi,Ti,T’iおよびHは、以下で定義される。
【0187】
ここで、本発明の1つの好適な実施例の実現に関する好適なステップのシーケンスの機能的ブロック図である、図9が参照される。
【0188】
ステップ900において、2台のカメラ910および920は、2つの画像シーケンス930および940を形成するために採用される。
【0189】
例えば、上述の図1Aから図8のいずれかに従って示されて説明されたようにして、Sは、第1のカメラによって形成された第1の画像シーケンスIiであると想定し、S’は、第2のカメラによって形成された第2の画像シーケンスI’Iであると想定すれば、S=I1,…,In+1およびS’=I’1,…,I’m+1である。
【0190】
2つの入力シーケンスは、それらの間において、未知の時間関係および未知の空間関係を有する。
【0191】
本発明の1つの好適な実施例では、空間関係は、2台のカメラが互いに対して確実に取り付けられるという事実を提示することが可能である。
【0192】
本発明のもう1つの好適な実施例では、2台のカメラは、同じ装置または道具上に剛直に装着されて、空間を一緒に移動される。
【0193】
本発明の更にもう1つの好適な実施例では、空間関係は、それらのカメラが異なった時点ではあるが概ね同一である軌跡内を移動しているという事実を提示することが可能である。
【0194】
本発明の補足的な1つの好適な実施例では、空間関係は、少なくとも1台のカメラを異なった時間および異なった場所の少なくとも一方においてではあるが概ね同一の軌跡内において移動させることによって形成されるものであり、2台のカメラの間に、一定の相対的な位置および一定の相対的な方向付けが存在し、2台のカメラの各々の光学的特性は、画像IiとIi+1の間およびI’iとI’i+1の間において変化するものではない。
【0195】
本発明の更なる1つの好適な実施例では、空間関係は、少なくとも1台のカメラを異なった時間および異なった場所の少なくとも一方においてではあるが概ね同一の軌跡内において移動させることによって形成されるものであり、2台のカメラの間における相対的な位置および相対的な方向付けは、既知の様式で変化することが可能であり、2台のカメラの各々の光学的特性は、画像IiとIi+1の間およびI’iとI’i+1の間において既知の様式で変化することが可能である。
【0196】
本発明の更なる1つの好適な実施例では、空間関係は、少なくとも1台のカメラを概ね異なった軌跡に沿って異なった時間および/または異なった場所において移動させることによって形成されるものであり、少なくとも2つの軌跡は、それらが同じ装置または道具上に剛直に装着されて空間を一緒に移動される2台のカメラによって形成されたかのようにして相関させられる。
【0197】
2つのシーケンスの間における時間関係は、2台のカメラが上述のような空間関係にあった時間を提示する。
【0198】
本発明の1つの好適な実施例では、2つのシーケンスは、2台のカメラの間を同期させるために同期機器を採用することによって形成される。この場合、2つのシーケンスの間における時間関係は、画像Iiおよびそれに対応する画像I’iが一緒に形成されるという事実を提示する。
【0199】
本発明のもう1つの好適な実施例では、2つのシーケンスの間における時間関係は、画像Iiおよびそれに対応する画像I’iがそれらの間における一定の時間遅延を備えて形成されるという事実を提示する。
【0200】
本発明の更にもう1つの好適な実施例では、時間関係は、画像Iiと、対応するI’iおよび画像Ii+1の間に位置するシーケンスS’の中におけるポイントとに対して適用される。
【0201】
本発明の更にもう1つの好適な実施例では、時間関係は、2つの異なったフレーム速度を採用する2台のカメラを採用して形成される2つのシーケンスに対して適用される。
【0202】
本発明の1つの好適な実施例では、2つのシーケンスの間における時間関係は、シーケンスを形成しているそれらのカメラが同じ時間に同じ場所に位置するならば、2つの画像が同じ「時間関係」にあるという事実を提示することが可能である。
【0203】
シーケンスの間における時間関係は、画像の間における時間関係が、バーチャル画像に関してのみ維持されるとしても、すなわち、形成されたものではないが、カメラがその時点で画像を形成していたならば形成され得たであろう画像に関してのみ維持されるとしても、存在することが可能であると認識される。
【0204】
更に、SおよびS’は、必ずしもオリジナル・シーケンスではなく、オリジナル・シーケンスのサブシーケンスによるものであることも可能であり、サブシーケンスは、視野の部分、シーケンスの時間部分、ピクセルのサブサンプリング、およびフレームのサブサンプリングを提示することも可能であると認識される。
シーケンスSおよびS’は、以下で説明されるような幾つかの方法において形成されることが可能である。
【0205】
第1および第2のカメラは、図7において示されたカメラ対のように、異なった3D方向付けを有して、空間を一緒に移動することが可能である。本発明の1つの好適な実施例では、画像Iiのいずれも、画像I’iのいずれかの中に包含される何らかの特徴を有するものではないが、SおよびS’の間には少なくとも部分的な時間のオーバーラップが存在する。
【0206】
本発明のもう1つの好適な実施例では、第1および第2のカメラは、少なくとも部分的にオーバーラップする視野を有するものであり、画像Iiは、対応する画像I’iのオーバーラップ部分の中には含まれない細部を包含し、2台のカメラは、上述の図3Aから図3Dに従って示されて説明されたカメラ対のようにして、空間を一緒に移動する。
【0207】
本発明の更にもう1つの好適な実施例では、シーケンスSおよびシーケンスS’は、少なくともほぼ同じパターンにおいて且つ異なった時点において空間を移動している同じカメラによって形成されることも可能である。
【0208】
更に、本発明のもう1つの好適な実施例では、シーケンスSおよびシーケンスS’は、少なくともほぼ同じパターンにおいて且つ異なった時点において空間を移動する2台のカメラによって形成されることもまた可能である。
【0209】
シーケンスSおよびS’は、静止画フィルムカメラ、デジタルカメラ、ビデオカメラまたはモーションフィルムカメラのような写真式カメラ、赤外線画像形成機器、レーダー、エックス線、CATスキャン、MRIおよびその他の電磁的画像形成機器、超音波、ソナーおよびサブ・アコースティック地球物理学的監視機器のような音響的画像形成機器、人工衛星リモートセンサ機器のようなものである少なくとも空間の2次元画像を形成する任意の画像形成器具によって形成されることが可能であると認識される。更に、2つのシーケンスSおよびS’は、同じ形式であるかまたは異なった形式のものである画像形成器具によって形成されることも可能であると認識される。
【0210】
2つのセンサのいずれも、較正されなければならないものではないと認識される。
【0211】
時間的な対応性は、例えば、ゲン・ロックを採用することによって電子的に達成されることが可能であり、或いは図9の要素960を参照して以下で説明される方法を使用して復元されることも可能である。
【0212】
更になお、以下で説明される時間関係を計算する方法は、サブフレーム時間ユニットにおける時間関係を計算することが可能である。この場合、時間関係は、変換Tiおよび変換T’i+δの間において計算されるものであり、Ti+δは、TiおよびTi+1から補間される。変換のシーケンスTi+δは、バーチャル画像Ii+δに対して適用されるものであり、それらのバーチャル画像は、画像シーケンスS’を形成するカメラによって実際に形成されたものではないが、それらの画像が適切な時点において形成されたならば、そのカメラによって形成され得たであろうものであり、従って、そのシーンの補間された描写である。
【0213】
ここで、図9のステップ990が参照される。ここでは、変換および画像は、時間的に同期されていると想定されることが可能である。
【0214】
Hは、シーケンスSの座標系とシーケンスS’の座標系の間を変換する空間変換関数であると想定する。シーケンスS’に対して変換Hを適用することは、変換されたシーケンスS’がシーケンスSを形成したカメラによって形成されたかのようにして、シーケンスSの座標における画像I’iの内容を生じる。従って:
p’=H(p)であり、p’は、I’iの座標におけるIiの特徴pである。
【0215】
本発明の1つの好適な実施例では、典型的には、2台のカメラがほぼ同じ映写の中心を有するものであり、Hは、3×3の不可避的な行列である。
【0216】
そのようなHは、ここでは、「ホモグラフィー」と呼ばれるものであり、コリメーションおよび2D射影変換という用語もまた、等しく使用されることが可能である。この場合、pおよびp’は、同次座標において付与されるものであり、方程式p’=H(p)はp’@H(p)になり、ここで、@は、所定の倍率にまで達する方程式を示している。
【0217】
本発明のもう1つの好適な実施例では、典型的には、2台のカメラが異なった映写の中心を有していて、同じ道具に対して確実に取り付けられるものであり、Hは、4×4の不可避的なユークリッド的行列または不可避的な射影行列である。
【0218】
しかしながら、2つのシーケンスSおよびS’は、それらの画像に関する十分な共通の特徴またはその他の特性を共有するものではない。従って、画像Iiの共通の特徴からは、Hが計算され得ないことになる。その代りに、Hは、各々のシーケンス内における時間数列の特性の間を相関させることによって計算されるのである。
【0219】
本発明の1つの好適な実施例では、Hは、シーケンスSおよびS’の各々における誘導されたフレーム対フレームの変換から計算される。
【0220】
Tは、フレーム対フレームの変換の第1のシーケンスTiであると想定し、T’は、フレーム対フレームの変換の第2のシーケンスT’iであると想定すれば、T=T1,…,Tn+1およびT’=T’1,…,T’m+1であり、Ii+1@TiIiおよび、I’i+1@T’iI’iである。
【0221】
本発明のもう1つの好適な実施例では、シーケンスSおよびS’を形成する2台のカメラによって撮影されるシーンの大部分は、平面的であるか、或いはそれらのカメラから離れている。この場合、TiおよびT’iは、3×3の非特異的な行列である。
【0222】
Pは、平面的であるかまたは離れているシーンにおける3次元のポイントであると想定し、piおよびp’iは、画像IiおよびI’iのそれぞれにおけるポイントPの射影の同次座標であると想定する。Pは、画像IiおよびI’iの両方またはいずれかにおいても現れる必要がなく、すなわち、画像IiまたはI’iが形成されるときにカメラの視野の中に現れる必要がないということが留意される。 pi+1およびp’i+1は、画像Ii+1およびI’i+1のそれぞれにおけるポイントPの射影の座標であると想定する。
【0223】
そのとき:
Pi+1@Tipi および p’i+1@T’ip’iであり、
p’i@Hpi および p’i+1@Hpi+1である。
従って、方程式(1)は:
HTipi@Hpi+1@p’i+1@T’ip’i@T’iHp’iである。
従って、方程式(2)は:
HTi@T’iHである。
この演算は、「行列の合成」とも呼ばれる。
Hは不可避的であるので、方程式(3)は:
T’i=siHTiH-1であり、sは、フレーム従属的な倍率である。
【0224】
方程式(3)は、それらのすべての画像に対して、すなわち、i=1,…,nである、時間的に対応する変換TiおよびT’iの任意の対に対して当てはまる。この方程式は、所定の倍率に達するまで2つの行列TiおよびT’iの間に相似性の関係が存在することを示している。行列Aは、A=MBM-1であるようにした不可避的な行列Mが存在するならば、行列Bに対して「相似」するものである。「共役行列」という用語が、「相似行列」の代りに使用されることも可能である。
【0225】
eig(A)=[λ1,λ2,λ3]tは、3×3の行列Aの固有値を降順で包含している3×1のベクトルであると想定する。[]tは、横ベクトルを示している。それは、例えば、C.E.Pearson(編集)の「応用数学ハンドブック−第2版(Handbook of applied mathematics Second Edition)」、ヴァン・ノストランド・ラインホルト社、ニューヨーク、1983年において説明されたように、当該分野では周知である。その898ページは、以下の通りである:
AおよびBが相似行列であるならば、それらは、同じ固有値:eig(A)=eig(B)を有するものであり、それらのスケーリングされた行列の固有値がスケーリングされる:eig(sA)=s(eig(A))。
【0226】
これらの2つの事実および方程式(3)を使用して、以下のような方程式(4)が獲得される:
eig(T’i)=si eig(Ti)であり、ここで、siは、方程式(3)によって定義される倍率である。
【0227】
方程式(4)は、eig(Ti)およびeig(T’i)が「平行」であることを含意する。これは、sim(Ti,T’i)によって示され、以下のような方程式(5)によって提示されるようにして、2つの行列TiおよびT’iの間における相似の算定基準を生じる:
【0228】
【数1】
Figure 2004523027
【0229】
ここで、‖‖は、ベクトルのノルムである。
【0230】
シーケンスSおよびS’における時間的に対応する変換TiおよびT’iの各々の対に関しては、固有値eig(Ti)およびeig(T’i)が、先ず初めに計算される。続いて、それらの固有値eig(Ti)およびeig(T’i)に関係する倍率siが、方程式(4)から概算される。方程式(4)は、未知数を1つ備えた1組の3つの方程式であり、最小自乗法の最小化を使用して解くことが可能である。代替的に、入力ホモグラフィーTiおよびT’iは、行列式イコール1を有して、siを計算する必要を回避するようにして、標準化されることも可能である。
【0231】
一旦siが概算されてしまうと、方程式(3)または方程式(2)は、以下のような方程式(6)の形態において書き直されることが可能である:
siHTi−T’iH=0である。
方程式(6)は、Hの未知数成分において線形である。Hの成分を9×1の列ベクトル =[H11H12H13H21H22H23H31H32H33]tで整理し直すと、方程式(6)は、以下のような方程式(7)の形態における の1組の一次方程式として書き直されることが可能である:
【0232】
【数2】
Figure 2004523027
【0233】
ここで、Miは、Ti,T’iおよびsiによって定義される9×9の行列である:
【0234】
【数3】
Figure 2004523027
【0235】
ここで、Iは、3×3の単位行列である。
【0236】
方程式(7)は、対応する変換TiおよびT’iの各々の対が、未知のホモグラフィーH(すなわち、 )における9個の線形制約を付与するということを含意する。
【0237】
すべての変換T1,…,TnおよびT’1,…,T’nからの制約は、以下のような方程式(8)によって規定される における単一組の一次方程式になるようにして組み合せられることが可能である:
【0238】
【数4】
Figure 2004523027
であり、
【0239】
ここで、Aは、9n×9の行列であり:
【0240】
【数5】
Figure 2004523027
【0241】
方程式(8)は、様々な方法で解くことが可能である における一組の等質な線形方程式である。本発明の1つの好適な実施例では、 は、行列A’Aの最小固有値に対応する固有ベクトルを計算することによって解かれる。
【0242】
本発明のもう1つの好適な実施例では、シーケンスSおよびS’が形成されることになったシーンは、平面的なものではなく、離れてもいない。この場合、任意の2つの連続的な画像IiおよびIi+1の間における時間数列は、基本行列Fiによって記述される。
【0243】
基本行列Fiは、対応する画像ポイントpiの間における関係を規定するものであり、従って:
IiにおけるpiおよびIi+1におけるpi+1が対応する画像ポイントであるならば、
pti+1Fipi=0であり、ここで、Fiは、それぞれに階数2の3×3の行列である。
Fは、それぞれにF=F1,…,Fnである基本行列Fiのシーケンスであると想定すれば、任意の2つの連続的な画像I’iおよびI’i+1の間における時間数列は、F’=F’1,…,F’nである基本行列F’iによって記述される。
【0244】
基本行列を計算する多くの方法は、先行技術において周知である。1つのそのような方法は、ビジョン・アルゴリズム・ワークショップの会報、279−290ページ、コルフ、1999年における、「構造および運動の評価のための特徴ベースの方法(Feature based methods for structure and motion estimation)」において、P.H.S.TorrおよびA.Zissermanによって教示されている。もう1つの方法は、人工知能ジャーナル78:87−119、1995年における、「未知のエピポーラ幾何学の復元によって2つの未較正の画像をマッチングさせるロバスト技術(A robust technique for matching two uncalibrated images through the recovery of the unknown epipolar geometry)」において、Z.Zhang、R.Deriche、O.FaugerasおよびQ.Luongによって教示されている。
【0245】
2つのシーケンスSおよびS’は、画像に関する十分な共通の特徴または何らかのその他の特性を共有し得ないかもしれない。従って、シーケンスSおよびS’の間における、空間関係および時間関係は、それぞれのシーケンス内における時間数列F=F1,…,FnおよびF’=F’1,…,F’nの特性の間を相関させることによって計算される。
【0246】
2つのカメラのいずれも、較正されなければならないものではないと認識される。
【0247】
2台のカメラが同じ映写の中心を共有しているので、カメラ間の変換はホモグラフィーHに留まるが、各々のシーケンス内の関係は基本行列によって特徴付けられると認識される。
【0248】
シーケンスSおよびS’が形成されることになったシーンが、平面的なものではなく離れてもいない、本発明の1つの好適な実施例では、Hは、行列FiおよびF’iのシーケンスFおよびF’によって表現されるような時間数列出力の特性から計算される。
【0249】
各々の基本行列Fiは、以下のような方程式(9)によって説明されるように、ホモグラフィー+エピポールに分解されることが可能である:
Fi=[ei]xTiである。ここで、eiは、フレームIiおよびIi+1に関するエピポールであり、行列Tiは、実平面または仮想平面である任意の平面を介するIiからIi+1までの誘導されたホモグラフィーであり、[]xは、クロス乗積行列[v]x = × である。
【0250】
ホモグラフィーT1,…,TnおよびT’1,…,T’n、並びにエピポールe1,…,enおよびe’1,…,e’nは、カメラ間のホモグラフィーHに対して別個の制約を賦課する。これらの制約は、以下で説明されるようにしてHを復元するために別個にまたは一緒に使用されることが可能なのである。
【0251】
(1)ホモグラフィー・ベースの制約:
基本行列F1,…,FnおよびF’1,…,F’nから抽出されるホモグラフィーT1,…,TnおよびT’1,…,T’nは、それぞれに、異なった3次元平面に対応することが可能である。これらのホモグラフィーを使用して、平面的であるかまたは離れているシーンに対して上述のアルゴリズムを適用するためには、時間的に対応するホモグラフィーが3次元世界における同じ平面に対応することを保証するようにして、2つのシーケンスを横断する平面整合性が賦課されなければならないのである。
【0252】
本発明の1つの好適な実施例では、先行技術において周知である「平面+視差」方式が、2つのシーケンスT1,…,TnおよびT’1,…,T’nを横断して且つその中において平面整合性を賦課するために使用される。平面+視差方式は、2つの構成要素:ホモグラフィーおよび残留視差を使用する画像対画像の変換を説明する。ホモグラフィーは、選択された平面に対して関連付けられるものであり、2つの画像の間におけるこの平面上のポイントに関連する。視差構成要素は、平面から離れたポイントの残留転位を説明する。「平面+視差」方式は、実際的な物理的に平面的な実際の表面が、全ての画像IiおよびI’iにおいて視認可能であることを要求する。
【0253】
平面+視差変換を計算する1つの方法は、コンピュータビジョンに関する欧州会議の会報、フライブルク、1998年6月における、「参照フレームから参照平面に対する:マルチ画像の視差幾何学およびアプリケーション(From reference frames to reference planes: Multi-view parallax geometry and applications)」において、M.Irani、P.AnandanおよびD.Weinshallによって教示されている。
【0254】
平面+視差変換を計算するもう1つの方法は、パターン認識に関する国際会議の会報、1994年における、「多数画像からの形状の直接的な復元:視差ベースのアプローチ(Direct recovery of shape from Multiple views: parallax based approach)」において、R.Kumar、P.AnandanおよびK.Hannaによって教示されている。
【0255】
平面+視差変換を計算する更にもう1つの方法は、コンピュータビジョンおよびパターン認識に関するIEEE会議の会報、1994年6月における、「平面視差からの3D幾何学(3D geometry from planar parallax)」において、Harpreet Sawhneyによって教示されている。
【0256】
平面+視差変換を計算するもう1つの方法は、コンピュータビジョンおよびパターン認識に関するIEEE会議、483−489ページ、ワシントン州、シアトル、1994年6月における、「相対的なアフィン構造:斜視図からの3D再構築に関する理論およびアプリケーション(Theory and application to 3D reconstruction from perspective views)」において、A.ShashuaおよびN.Navabによって教示されている。
【0257】
平面+視差変換のホモグラフィー部分は、その後、平面的なもので離れてもいない上述の場合と同じ様式において使用される。
【0258】
本発明のもう1つの好適な実施例では、例えば、コンピュータビジョンに関する欧州会議、1998年における、「基本行列の装填(Threading Fundamental matrices)」において、S.AvidanおよびA.Shashuaによって説明された、先行技術では周知なものでもある「装填」方式が、2つのシーケンスT1,…,TnおよびT’1,…,T’nを横断して且つその中において平面整合性を賦課するために使用される。「装填」方式は、実際の物理的な平面がフレームのいずれにおいても視認可能ではないとしても、各々のシーケンス内において平面整合性を賦課することが可能である。
【0259】
先行技術には、整合的に設定されるカメラ行列を計算するその他の方法もまた存在すると認識される。カメラ行列という用語は、3×3の左側の小行列と1×3のベクトルとから構成される4×3の行列を指し示すものであり、3×3の左側の小行列は3×3のホモグラフィーを示すものであると認識される。カメラ行列の整合性は、3×3のホモグラフィーに対して平面整合性を賦課する。
【0260】
本発明の1つの好適な実施例では、2つのシーケンスの間における平面整合性は、両方のシーケンスにおける同じ実平面を同時に観察するためのものとして知られているフレームにおいて装填方式を開始させることにより、2つのシーケンスSおよびS’の各々に対して装填方式を適用することによって準備される。
【0261】
2台のカメラは、平面の異なった部分を見ることが可能であり、オーバーラップしない視野を許容することになり、その他の画像のいずれかにおいてその平面を見る必要はないものであると認識される。
【0262】
(2)エピポール・ベースの制約:
本発明の1つの好適な実施例では、ホモグラフィーHは、エピポールeiおよびe’iから計算されるものであり、それらもまた、基本行列FiおよびF’iから計算される。2つの画像IiおよびIi+1を仮定すれば、1つのエピポールが、画像Iiの座標系における画像Ii+1に関するカメラの映写の中心の空間的位置を示す。基本行列F1,…,FnおよびF’1,…,F’nは、エピポールe1,…,enおよびe’1,…,e’nのリストを提供するものであり、ここで、エピポールeiは、基本行列Fiの空白スペースであり、エピポールe’iは、基本行列F’iの空白スペースである。
【0263】
エピポールeiおよびe’iは、基本行列FiおよびF’iのそれぞれの空白スペース以外のその他の方法によって計算されることも可能であると認識される。先行技術には、2つの画像におけるエピポールを見出すためのものとして周知である多くのその他の方法が存在する。
【0264】
エピポールeiおよびe’iは、一意的に定義されるものであり、従って、平面整合性の問題は存在しない。2台のカメラが同じ映写の中心を有するので、任意の画像対eiおよびe’iに関して、Hは、以下の方程式を満たす:
ei@Heiである。
これは、以下のような方程式(10aおよび10b)を産み出す:
【0265】
【数6】
Figure 2004523027
【0266】
分母を掛けて各項を整理し直すと、以下のような方程式(11)において記述されるように、対応するエピポールeiおよびe’iのあらゆる対に関するHに対して、2つの新しい線形の制約が産み出される:
【0267】
【数7】
Figure 2004523027
【0268】
従って、時間的に対応するエピポールeiおよびe’iのあるゆる対は、Hに対して線形の制約を賦課する。2つのシーケンスe1,…,enおよびe’1,…,e’nは、2n方程式の同次線形システムを提供するものであり、方程式(11)は、これらの2n方程式の1対なのである。
【0269】
その2n方程式のシステムは、様々な様式においてHに関して解かれることが可能である。
【0270】
本発明の1つの好適な実施例では、 は、最小の固有値に対応する固有ベクトルを計算することによって解かれる。理論的には、対応するエピポールeiおよびe’iが4対あれば十分である。但し、3つのエピポールが同じライン上には存在しないことを条件とする。
【0271】
代替的に、Hは、ホモグラフィーによって賦課される、方程式(8)における一次方程式の組に対して2n方程式のシステムを補足することによって解かれることもまた可能である。
【0272】
ここで、図9のステップ960が参照される。
【0273】
本発明の更にもう1つの好適な実施例では、シーケンスSおよびS’は、時間的に同期されるものではない。すなわち、シーケンスSにおける画像Iiは、シーケンスS’における画像I’i+Δtに対応するものであり、Δtが未知なのである。従って、変換Tiは、T’iに対してではなく、変換T’i+Δtに対して対応する。各々の画像IiおよびI’iに関して、時間スタンピングまたは類似の補足的な情報が利用可能である場合には、同期性が復元されることも可能である。同期性を復元するための補足的な情報が何も存在しない場合には、その同期性は、以下のような方法を使用して復元されることが可能である。
【0274】
変換T1,…,TnおよびT’1,…,T’mに関する2つの非同期シーケンスを仮定すれば、TiおよびT’i+Δtは、時間的に対応する変換である。方程式(4)に拠れば、固有値の3×1のベクトルを意味するeig(Ti)‖eig(T’i+Δt)は、平行であり、すなわち、2つのベクトルの間には0度の角度が存在するのである。従って、方程式(5)の相似性基準sim(Tti,T’t’i+Δt)は、cos(0)に対応して、1に等しいことになる。時間的に対応する変換TiおよびT’i+Δtのすべての対は、この制約を同時に満たすものでなければならない。未知の時間シフトΔtが1組のパラメータΔti=f(i,a1…an)によってモデリングされ得るとき、それらのパラメータは、方程式(12)として以下で提示される目的関数を最大化することによって復元されることが可能である:
【0275】
【数8】
Figure 2004523027
【0276】
例えば、未知のΔtが単純な広域時間シフトであるとき、それは、方程式(12a)として以下で提示される目的関数を最大化することによって復元されることが可能である:
【0277】
【数9】
Figure 2004523027
【0278】
本発明の1つの好適な実施例では、その最大化は、有効時間シフトΔtの有限領域の全体にわたる全数探索によって実行される。
【0279】
代替的に、より大きな時間シフトに対処するためには、階層探索が適用される。より離れたフレームの間における数少ない変換を獲得するためには、より粗い時間レベルが、変換を合成することによって構築される。
【0280】
本発明の更にもう1つの好適な実施例では、シーケンスSにおける画像は、シーケンスS’の画像とは異なった速度で形成される。例えば、シーケンスSが1秒に付き30フレームでNTSCカメラによって形成されるとき、シーケンスS’は、1秒に付き25フレームでPALカメラによって形成される。2つのシーケンスSおよびS’の記録の速度の間における比率は、固定されているものであり、PALカメラおよびNTSCカメラの場合、それは、25:30=5:6である。従って、シーケンスのPAL-NTSC対に関して最大化されるべき目的関数は、以下のような方程式(13)によって示される:
【0281】
【数10】
Figure 2004523027
【0282】
ここで、Tijは、IiからIjへの変換である。
【0283】
PALおよびNTSCのビデオカメラは、各々の画像を視野の対として形成するものであり、第1の視野は、画像の奇数ラインから構成され、第2の視野は、画像の偶数ラインから構成される。それらの視野は、それぞれに1秒に付き60個および50個の視野である、画像またはフレームの2倍の速度で形成される。
【0284】
方程式(12a)に関連して上述された方法は、その視野レベルまで同期性を復元することが可能である。副次的な視野の精度は、離散的な時間シフトにおいて獲得されたSIM(Δt)の値を補間することによって復元されることが可能である。
【0285】
本発明の1つの好適な実施例では、それらの変換は、計算された時間的対応性に従って補間されるものであり、SIM(Δt)は、時間的な精度を高めるために、反復的な様式において再評価される。
【0286】
Hを解くためには、フレーム対フレームの変換TiおよびT’iの十分な個数Nminの対応する対を有することが必要とされる。
【0287】
本発明の1つの好適な実施例では、個数Nminは、類似性の方程式(3)を介して変換TiおよびT’iの単一の対によってHに賦課される制約の個数を吟味することによって評価される。
【0288】
倍率siは、図9の要素950を参照して上述されたようにしてTiおよびT’iから直接に抽出されることが可能であり、従って、方程式(3)から省略されることも可能である。その結果、類似性の方程式(3)を介して変換の単一の対によってHに賦課される制約の個数は、G=HBH−1という形態の方程式によってHに賦課される制約の個数を吟味することによって概算されることが可能であり、ここで、B=TiおよびG=T’iである。GH=HBという形態の行列方程式の一般的な分析は、チェルシー出版からのニューヨーク1959年における、F.R.Gantmakherによる「行列理論(The theory of matrices)」第8章において、見出されることが可能である。
【0289】
以下の符号は、これ以降において使用されるものである:
【0290】
λ1,λ2,λ3によって示されるものは、降順における行列Bの固有値(|λ1|≧|λ2|≧|λ3|)であり;
b1, b2, b3によって示されるものは、単位ノルムを備えた対応する固有ベクトル(‖ b1‖=‖ b2‖=‖ b3‖)であり;
rjによって示されるものは、固有値λjの代数的重複度であり;
Vj={ ∈Rn:B =λj }によって示されるものは、対応する固有のサブ空間である。
λ1?λ2?λ3であるならば、すべての固有値の代数的重複度は、1(rj=1)であり;
λ1=λ2?λ3であるならば、λ1およびλ2の代数的重複度は、2であり、λ3の代数的重複度は、1(r1=r2=2およびr3=1)であることが留意され;
λ1=λ2=λ3であるならば、λ1,λ2およびλ3の代数的重複度は、3(r1=r2=r3=3)であることもまた留意される。
【0291】
共役行列としても知られているBおよびGのような相似行列は、同じ固有値を有するが、異なった固有ベクトルをも有している。相似行列の固有ベクトルは、Hによって関連付けされる。ubが対応する固有値λを備えたBの固有ベクトルであるならば、Hubは、同じ固有値λを備えたGの固有ベクトルであり、G(Hub)=λ(Hub)である。同じことは、固有のサブ空間に対しても当てはまることであり、Vが固有値λに対応するBの固有のサブ空間であるならば、H(V)は、同じ固有値λを備えた固有のサブ空間Gである。従って、BおよびGによってHに対して賦課される制約の個数は、BおよびGの固有のサブ空間の次元に従って調査されるのである。Vは、Bの固有ベクトルubに対応する固有のサブ空間であると想定する。3つの起こり得る事例が有効であり、1つの事例は、Vの起こり得る各々の次元、すなわちdim(V)=1,2,3に関するものである。
【0292】
事例1: dim(V)=1である。
この事例は、典型的には、すべての3つの固有値が明確であるときに生じる。この事例は、幾つかの固有値が2または3の代数的重複度を有する場合にも生じることが可能である。これらのすべての場合において、Vは、単一の固有ベクトルubによって測定される。相似性H(V)は、Gの固有ベクトルugによって測定される。従って、方程式(13)は、以下の通りになる:
Hub=αugであり、ここで、αは、未知の倍率である。
方程式(13)は、Hにおける3つの一次方程式および1つの新しい未知のαを提供するものであり、従って、方程式(13)は、Hに関する2つの新しい線形独立的な制約を提供するのである。
【0293】
事例2: dim(V)=2である。
この事例は、典型的には、以下の2つの場合の一方において生じる。
(a)代数的重複度2を備えた固有値が存在する場合;或いは
(b)代数的重複度3を備えた唯1つの固有値が存在する場合である。
しかしながら、すべての固有ベクトルによって測定される固有のサブ空間は、2という次元性を有する。例えば、純粋なシフト(Δx,Δy)によって定義されるホモグラフィーは、以下のような形態を有する:
【0294】
【数11】
Figure 2004523027
【0295】
この行列は、代数的重複度3を備えた単一の固有値λ1=λ2=λ3=1を有する。それに対応する固有のサブ空間は、次元性2を有する。それは、2つの新しい線形独立的な固有ベクトル[1,0,0]tおよび[0,1,0]tによって測定される。
【0296】
dim(V)=2であるとき、2つの固有ベクトルは、例えば、w.l.o.g,ub1およびub2であるようにして、Vの範囲に広がる。従って、ub1およびub2のあらゆる線形の組合せもまた、同じ固有値を備えたBの固有ベクトルである。同様にして、ug1およびug2のあらゆる線形の組合せもまた、同じ固有値を備えたGの固有ベクトルである。従って、方程式(14)は、以下の通りである:
Huhj=αjug1+βjug2であり、ここで、同αjおよびβjは、未知のスカラー(j=1,2)である。
【0297】
従って、2つの固有ベクトルub1およびub2のそれぞれは、3つの一次方程式および2つの新しい未知数を提供する。結果として、2つの固有ベクトルub1およびub2は、一緒になって、Hに関する2つの新しい線形の制約を提供するのである。
【0298】
事例3: dim(V)=3である。
この事例では、任意のベクトルが、固有ベクトルであり、すべての固有ベクトルが、同じ固有値λを有する。これは、B@G@λIが所定の倍率にまで達する固有変換である場合であり、運動が何も存在しないことを意味する。この場合、BおよびGは、Hに関する補足的な制約を何も提供しない。
【0299】
Hに対して賦課される制約の個数は、単一の固有のサブ空間に関しては、上述のようにカウントされた。BおよびGがHに対して賦課する線形制約の総数をカウントするためには、固有のサブ空間のあらゆる実行可能な組合せが、固有値の代数的重複度に従って分析される。そのような組合せは、3つ存在する:
1. λi≠λj≠λkであり、これは:
Vi≠Vj≠Vkであり;
dim(Vi)=dim(Vj)=dim(Vk)=1であると含意する。
2. λi=λj≠λkであり、これは、Vi=Vj≠Vkであると含意する。
そのような場合は、2つある:
(a) dim(Vi=Vj)=2且つdim(Vk)=1である場合。
(b) dim(Vi=Vj)=1且つdim(Vk)=1である場合。
3. λi=λj=λkである。
この場合には、単一の固有のサブ空間V=Vi=Vj=Vkのみが存在し、それらの次元は、1,2または3であることが可能である。
【0300】
次の表は、上述の事例の各々に関する線形独立的な制約の個数を要約している:
【0301】
【表1】
Figure 2004523027
【0302】
従って、BおよびGが、一般的なフレーム対フレームの変換の場合に典型的である2または3のいずれかの明確な固有値を有するならば、Hを一意的に決定するためには、2つの独立的な変換の対だけで十分である。何故なら、変換の各々の対が、4個から6個の線形独立的な制約を賦課するからである。更に、先行技術に拠れば、8個の独立的な線形制約が、任意の倍率に達するまでHを一意的に決定することを満足させていた。本発明の1つの好適な実施例では、すべての変換の対からのすべての利用可能な制約が、数値的な安定性を増大させている。
【0303】
本発明の1つの好適な実施例では、2台のカメラが、好適には有意の運動を提供する長さである数秒間にわたるものである、2つの入力シーケンスを形成するために採用された。
【0304】
ステップ950を参照すると、フレーム対フレームの入力変換T1,…,TnおよびT’1,…,T’mは、好適には、平面的であるかまたは離れたシーンの場合に、例えば、コンピュータビジョン国際ジャーナル12(1):5−16、1994年1月におけるM.Irani、B.RoussoおよびS.Pelegによる「閉塞的な運動および透明な運動の計算(Computing occluding and transparent motions)」において説明された方法を使用して抽出される。
【0305】
ここで、図9のステップ970が参照される。ステップ970は、変換TiおよびT’iの精度を高めるロバストな統計学の方法を包含する。本発明の1つの好適な実施例では、ステップ970は、以下のような2つの任意選択的な方法を包含する:
(a) 参照番号972によって示される域外値拒絶;および
(b) 参照番号974によって示される座標の繰り込みである。
【0306】
ステップ972において、不正確なフレーム対フレームの変換Tiは、好適には、先行技術において周知である以下で説明されるような2つの域外値検出機構のいずれかを採用することによって除去される:
(1) 本発明の1つの好適な実施例では、各々のシーケンス内の連続的なフレームの間における変換は、両方の方向において計算される。画像空間の中における単位行列からの合成行列TiTiReverseの距離は、ピクセルの最大残留位置合わせミスの見地から計算される。
【0307】
【数12】
Figure 2004523027
【0308】
(2) 代替的には、方程式(5)の相似判定基準が、TiおよびT’iの間における「相似」の度合いを確認するために採用される。不確実な変換の対は、このようにして、除去されることが可能なのである。
ステップ974では、任意選択的に、先行技術において周知である以下で説明されるような2つの座標繰り込みの方法のいずれか1つが使用される:
(a) 入力行列は、例えば、パターン認識およびマシン・インテリジェンス19(6)6月、580−593ページ、1997年における、Richard I.Hartleyによる「8ポイント・アルゴリズムの防御において(In Defence of the 8-point Algorithm)」で説明されるようにして、数値的な安定性を増大させるべく繰り込みされる。
(b) 入力行列は、例えば、ジョン・ホプキンス大学出版、ボルチモアおよびロンドン、123−127ページ、1989年における、Gene GolubおよびCharles Van Loanによる「行列計算(Matrix Computations)」において準備されたヒューリスティックを使用して、Mの列がほぼ同じノルムを有するようにして標準化される。
【0309】
ここで、図9のステップ980が参照される。
【0310】
本発明の1つの好適な実施例では、フレーム対フレームの変換が余りにも小さいとき、それらのシーケンスの時間的なサブサンプリングは、連続的なフレームの間におけるより大きな変換を提供することが可能である。好適には、時間的なサブサンプリングは、時間的に対応するフレームが2つのビデオシーケンスからサンプリングされることを保証するようにして、時間的な同期を復元した後に行なわれる。
【0311】
本発明のもう1つの好適な実施例では、2台のカメラの3次元的な連携運動は、計算結果の精度を高めるようにして、前もって計画される。
【0312】
例えば、本発明の1つの好適な実施例では、入力データは、変換TiおよびT’iのシーケンスである。変換TiおよびT’iは、先行技術において準備された様々なアルゴリズムの1つを使用して、2つのビデオシーケンスから抽出される。入力データの信頼性もまた、入力変換を抽出するために使用された特定のアルゴリズムに依存する。異なった変換TiおよびT’iの精度に対して大雑把な概算を採用すれば、行列Mに関係する変換TiおよびT’iの組合せを分析することが実行可能である(方程式7)。従って、3つの並進運動および3つの回転運動から構成される純粋な6個の運動を分析することによって、導き出される方程式の安定性が予測され得るのである。導き出される方程式のより高い安定性は、シーケンスの間における位置合わせのより高い精度を生じるものであると認識される。例えば、コンピュータビジョン国際ジャーナル12(1):5−16、1994年1月における、M.Irani、B.RoussoおよびS.Pelegによる「閉塞的な運動および透明な運動の計算(Computing occluding and transparent motions)」において説明された方法の場合には、射影パラメータT1,3およびT3,2の精度は、低劣であり、転換パラメータT1,3およびT2,3の精度は、良好であり、その他のパラメータは、相当な精度を有する。従って、画像平面内における回転は、最も確実な方程式の組を形成するものであると予測されるのである。
【0313】
明快に示すために独立した実施例の文脈において説明されている本発明の様々な特徴は、単独の実施例において組み合せて提供されることもまた可能であると認識される。逆に、簡潔に示すために単独の実施例の文脈において説明されている本発明の様々な特徴が、独立して或いは任意の適当な副次的な組合せにおいて提供されることもまた可能なのである。
【0314】
当該分野における熟練者に拠れば、本発明は、以上において詳細に示して説明してきた内容に対して限定されるものではないと認識されるであろう。むしろ、本発明の範囲は、添付の請求項によってのみ規定されるのである。
【図面の簡単な説明】
【0315】
【図1A】互いに対して固定され、それぞれにシーンの部分の画像のシーケンスを撮っていて、シーンの各部分がオーバーラップしないようにして2台のカメラによって撮影された、2台のカメラに関する簡略化した図。
【図1B】図1Aにおいて示されたようにして撮られたシーケンスにおける画像の相対的な空間関係における固有の曖昧さを示す図。
【図1C】図1Aにおいて示されたようにして撮られた画像の2つのシーケンスの各部分と、それらのシーケンスの間における未知の時間関係とを示す図。
【図1D】空間関係および時間関係が本発明に従って決定される、図1Aにおいて示されたようにして撮られた画像のシーケンスの部分を形成する画像対を示す図。
【図2A】互いに対して固定され、それぞれにシーンの部分の画像のシーケンスを撮っていて、シーンの各部分が大きく異なったズームで2台のカメラによって撮影されている、2台のカメラに関する簡略化した図。
【図2B】図2Aにおいて示されたようにして撮られたシーケンスにおける画像の相対的な空間関係における固有の曖昧さを示す図。
【図2C】図2Aにおいて示されたようにして撮られた画像の2つのシーケンスの各部分と、それらのシーケンスの間における未知の時間関係とを示す図。
【図2D】空間関係および時間関係が本発明に従って決定される、図2Aにおいて示されたようにして撮られた画像のシーケンスの部分を形成する画像対を示す図。
【図3A】互いに対して固定され、それぞれにシーンの部分の画像のシーケンスを撮っていて、シーンの各部分が異なったセンサ様式を採用している2つのセンサによって画像形成されている、2つのセンサに関する簡略化した図。
【図3B】図3Aにおいて示されたようにして撮られたシーケンスにおける画像の相対的な空間関係における固有の曖昧さを示す図。
【図3C】図3Aにおいて示されたようにして撮られた画像の2つのシーケンスの各部分と、それらのシーケンスの間における未知の時間関係とを示す図。
【図3D】空間関係および時間関係が本発明に従って決定される、図3Aにおいて示されたようにして撮られた画像のシーケンスの部分を形成する画像対を示す図。
【図4A】2つの異なった時点で撮影され、画像の2つの対応するシーケンスを形成していて、撮影のために使用されたカメラが移動した通路が両方のシーケンスに関して概ね同一である、シーンに関する簡略化した図。
【図4B】図4Aにおいて示されたようにして撮られたシーケンスにおける画像の相対的な空間関係における固有の曖昧さを示す図。
【図4C】図4Aにおいて示されたようにして撮られた画像の2つのシーケンスの各部分と、それらのシーケンスの間における未知の時間関係とを示す図。
【図4D】空間関係および時間関係が本発明に従って決定される、図4Aにおいて示されたようにして撮られた画像のシーケンスの部分を形成する画像対を示す図。
【図5A】2台のカメラが軸に沿って互いに対して180度に配置されている、1つの軸に沿った2台のカメラの運動によって誘導される2つのシーケンスにおける画像対画像の変換の間における関係を示す図。
【図5B】2台のカメラが互いに対して90度に配置されていて、カメラの一方が運動の軸に沿って位置合わせされている、1つの軸に沿った2台のカメラの運動によって誘導される2つのシーケンスにおける画像対画像の変換の間における関係を示す図。
【図5C】2台のカメラが運動の方向に対して垂直である同じ方向に案内されているが異なったズームである、1つの軸に沿った2台のカメラの運動によって誘導される2つのシーケンスにおける画像対画像の変換の間における関係を示す図。
【図6A】シーケンスの間の空間関係および時間関係における曖昧さを解決するためのものとしては十分でないかもしれない1つの変換形式を採用しているが、シーケンスの間の空間関係および時間関係における曖昧さを削減する多数の異なった変換形式をも採用していることを示す図。
【図6B】シーケンスの間の空間関係および時間関係における曖昧さを解決するためのものとしては十分でないかもしれない1つの変換形式を採用しているが、シーケンスの間の空間関係および時間関係における曖昧さを削減する多数の異なった変換形式をも採用していることを示す図。
【図6C】シーケンスの間の空間関係および時間関係における曖昧さを解決するためのものとしては十分でないかもしれない1つの変換形式を採用しているが、シーケンスの間の空間関係および時間関係における曖昧さを削減する多数の異なった変換形式をも採用していることを示す図。
【図7】互いに対して固定され、それぞれにシーンの部分の画像のシーケンスを撮っていて、シーンの各部分がオーバーラップしないようにして2台のカメラによって撮影された、2台のカメラの複雑な運動に関する簡略化した図。
【図8】2つのシーケンスが、一定且つ未知のカメラ間ホモグラフィーによって空間的に関連付けられ、一定且つ未知の時間シフトによって時間的に関連付けられる、図7において示されたようにして撮られた画像の2つのシーケンスの各部分に関する簡略化した図。
【図9】画像の2つのシーケンスを形成して、それらを位置合わせする1つの好適なプロセスに関する簡略化した機能ブロック図。

Claims (177)

  1. それぞれの第1および第2の時間数列を有する少なくとも第1および第2の描写のシーケンスの間における空間関係および時間関係の少なくとも一方を計算する方法であって:
    前記空間関係および時間関係の少なくとも一方を獲得するために、前記第1および第2の時間数列を採用することを含むことを特徴とする前記計算する方法。
  2. それぞれの第1および第2の時間数列を有する少なくとも第1および第2の描写のシーケンスの間における空間関係および時間関係の少なくとも一方を計算する方法であって:
    前記空間関係および時間関係の少なくとも一方を獲得するために、前記第1および第2の時間数列のみを採用することを含むことを特徴とする前記計算する方法。
  3. 前記空間関係および時間関係の少なくとも一方を獲得するために採用される前記第1および第2の時間数列を計算することを更に含むことを特徴とする請求項1または請求項2に記載の方法。
  4. 前記描写が視覚的な描写から成ることを特徴とする請求項1乃至5のいずれかに記載の方法。
  5. 前記描写が画像から成ることを特徴とする請求項1乃至3のいずれかに記載の方法。
  6. 前記描写が少なくとも3次元の対象を含むことを特徴とする先行する請求項1乃至5のいずれかに記載の方法。
  7. 前記採用が前記空間関係を獲得することを特徴とする請求項1乃至6のいずれかに記載の方法。
  8. 前記採用が前記時間関係を獲得することを特徴とする請求項1乃至7のいずれかに記載の方法。
  9. 前記採用が前記空間関係および前記時間関係を獲得することを特徴とする請求項1乃至8のいずれかに記載の方法。
  10. 前記描写の間における空間的なオーバーラップが存在しない場合に、前記採用が空間関係および時間関係の前記少なくとも一方を獲得することを特徴とする請求項1乃至9のいずれかに記載の方法。
  11. 前記描写の間における共通の空間情報が存在しない場合に、前記採用が空間関係および時間関係の前記少なくとも一方を獲得することを特徴とする請求項1乃至10のいずれかに記載の方法。
  12. 前記少なくとも第1および第2のシーケンスの異なったものに所属する前記描写の個別的なものの間における共通の情報が存在しない場合に、前記採用が空間関係および時間関係の前記少なくとも一方を獲得することを特徴とする請求項1乃至11のいずれかに記載の方法。
  13. 前記少なくとも第1および第2のシーケンスの異なったものに所属する前記描写の任意の個別的なものの間における共通の情報が存在しない場合に、前記採用が空間関係および時間関係の前記少なくとも一方を獲得することを特徴とする請求項1乃至12のいずれかに記載の方法。
  14. 前記空間関係が描写の前記少なくとも第1および第2のシーケンスの間における幾何学的変換の少なくとも1つのパラメータを含むことを特徴とする請求項1乃至13のいずれかに記載の方法。
  15. 前記空間関係が2次元射影変換を包含することを特徴とする請求項14に記載の方法。
  16. 前記空間関係が3次元射影変換を包含することを特徴とする請求項14に記載の方法。
  17. 前記空間関係が基本行列を包含することを特徴とする請求項14に記載の方法。
  18. 前記空間関係が2次元パラメトリック変換を包含することを特徴とする請求項14に記載の方法。
  19. 前記空間関係が少なくとも3次元のパラメトリック変換を包含することを特徴とする請求項14に記載の方法。
  20. 前記空間関係が2次元の非パラメトリック変換を包含することを特徴とする請求項14に記載の方法。
  21. 前記空間関係が少なくとも3次元の非パラメトリック変換を包含することを特徴とする請求項14に記載の方法。
  22. 前記空間関係が前記少なくとも第1および第2のシーケンスの異なったものに所属する前記描写の個別的なものの間における空間関係を含むことを特徴とする請求項14乃至21のいずれかに記載の方法。
  23. 前記空間関係が前記少なくとも第1および第2のシーケンスの異なったものに所属する前記描写の個別的なものの間における空間関係を含み、前記描写の前記個別的なものの少なくとも一方が補間された描写であることを特徴とする請求項14乃至21のいずれかに記載の方法。
  24. 前記空間関係が前記少なくとも第1および第2のシーケンスの異なったものに所属する前記描写の個別的なものの間における空間関係を含み、前記描写の前記個別的なものの一方が補間された描写であり、前記描写の前記個別的なものの他方が補間されない描写であることを特徴とする請求項14乃至21のいずれかに記載の方法。
  25. 前記時間関係が描写の前記少なくとも第1および第2のシーケンスの間における時間変換の少なくとも1つのパラメータを含むことを特徴とする請求項1乃至24のいずれかに記載の方法。
  26. 前記時間関係が描写の前記少なくとも第1および第2のシーケンスの間における時間シフトを包含することを特徴とする請求項25に記載の方法。
  27. 前記時間関係が時間のアフィン変換を包含することを特徴とする請求項25に記載の方法。
  28. 前記時間関係が時間のパラメトリック変換を包含することを特徴とする請求項25に記載の方法。
  29. 前記時間関係が時間の非パラメトリック変換を包含することを特徴とする請求項25に記載の方法。
  30. 前記時間関係が前記少なくとも第1および第2のシーケンスの異なったものに所属する前記描写の個別的なものの間における時間関係を含むことを特徴とする請求項25乃至29のいずれかに記載の方法。
  31. 前記時間関係が前記少なくとも第1および第2のシーケンスの異なったものに所属する前記描写の個別的なものの間における時間関係を含み、前記描写の前記個別的なものの少なくとも一方が補間された描写であることを特徴とする請求項25乃至29のいずれかに記載の方法。
  32. 前記時間関係が前記少なくとも第1および第2のシーケンスの異なったものに所属する前記描写の個別的なものの間における時間関係を含み、前記描写の前記個別的なものの一方が補間された描写であり、前記描写の前記個別的なものの他方が補間されない描写であることを特徴とする請求項25乃至29のいずれかに記載の方法。
  33. 前記補間された描写が時間を補間されることを特徴とする請求項23、24、31および32のいずれかに記載の方法。
  34. 前記補間された描写が空間を補間されることを特徴とする請求項23、24、31、32および33のいずれかに記載の方法。
  35. 前記第1および第2の時間数列が順序付きシーケンス間の描写対描写の変換を含むことを特徴とする請求項1乃至34のいずれかに記載の方法。
  36. 前記第1および第2の時間数列が各センサとシーンの間における相対的な運動から生じる順序付きシーケンス間の描写対描写の変換を含むことを特徴とする請求項1乃至35のいずれかに記載の方法。
  37. 前記シーケンス間の描写対描写の変換が2次元射影変換を包含することを特徴とする請求項35および36のいずれかに記載の方法。
  38. 前記シーケンス間の描写対描写の変換が3次元射影変換を包含することを特徴とする請求項35および36のいずれかに記載の方法。
  39. 前記シーケンス間の描写対描写の変換が基本行列を包含することを特徴とする請求項35および36のいずれかに記載の方法。
  40. 前記シーケンス間の描写対描写の変換が2次元パラメトリック変換を包含することを特徴とする請求項35および36のいずれかに記載の方法。
  41. 前記シーケンス間の描写対描写の変換が少なくとも3次元のパラメトリック変換を包含することを特徴とする請求項35および36のいずれかに記載の方法。
  42. 前記シーケンス間の描写対描写の変換が2次元非パラメトリック変換を包含することを特徴とする請求項35および36のいずれかに記載の方法。
  43. 前記シーケンス間の描写対描写の変換が少なくとも3次元の非パラメトリック変換を包含することを特徴とする請求項35および36のいずれかに記載の方法。
  44. 前記シーケンス間の描写対描写の変換がカメラ・行列を包含することを特徴とする請求項35および36のいずれかに記載の方法。
  45. 前記採用が前記第1および第2の時間数列を相関させることを含むことを特徴とする請求項1乃至44のいずれかに記載の方法。
  46. 前記採用が前記第1時間数列および前記第2時間数列の特性を等式化することを含むことを特徴とする請求項1乃至45のいずれかに記載の方法。
  47. 前記採用が前記第1時間数列および前記第2時間数列の特性を相関させることを含むことを特徴とする請求項1乃至46のいずれかに記載の方法。
  48. 前記採用が、前記第1時間数列の前記シーケンス間の描写対描写の変換の少なくとも1つと、前記少なくとも第1および第2のシーケンスの間における未知の前記空間関係との順次適用を、前記少なくとも第1および第2のシーケンスの間における前記未知の空間関係と、前記第2時間数列の前記シーケンス間の描写対描写の変換の少なくとも1つとの順次適用に対して等式化することを含むことを特徴とする請求項35乃至47のいずれかに記載の方法。
  49. 前記採用が、前記第1時間数列の前記シーケンス間の描写対描写の変換の少なくとも1つと、前記少なくとも第1および第2のシーケンスの間における未知の前記空間関係との合成を、前記少なくとも第1および第2のシーケンスの間における前記未知の空間関係と、前記第2時間数列の前記シーケンス間の描写対描写の変換の少なくとも1つとの合成に対して等式化することを含むことを特徴とする請求項35乃至47のいずれかに記載の方法。
  50. 前記採用が、前記第1時間数列の前記シーケンス間の描写対描写の変換の少なくとも1つと、前記少なくとも第1および第2のシーケンスの間における前記未知の空間関係との順次適用を、前記少なくとも第1および第2のシーケンスの間における前記未知の空間関係と、前記第2時間数列の前記シーケンス間の描写対描写の変換の少なくとも1つとの順次適用に対して等式化することによって、前記少なくとも第1および第2のシーケンスの間における未知の前記空間関係を獲得することを特徴とする請求項35乃至47のいずれかに記載の方法。
  51. 等式化が所定の倍率に達するまで等式化することを包含することを特徴とする請求項46乃至50のいずれかに記載の方法。
  52. 前記シーケンス間の描写対描写の変換が少なくとも部分的には異なった時点において生じる多数の単純な運動を包含することを特徴とする請求項35乃至51のいずれかに記載の方法。
  53. 前記シーケンス間の描写対描写の変換が少なくとも部分的には異なった時点において生じる多数の単純な運動の多数の組合せを包含することを特徴とする請求項35乃至52のいずれかに記載の方法。
  54. 前記シーケンス間の描写対描写の変換が少なくとも部分的には異なった時点において生じる多数の複雑な運動を包含することを特徴とする請求項35乃至53のいずれかに記載の方法。
  55. 前記シーケンス間の描写対描写の変換が少なくとも部分的には異なった時点において生じる多数の複雑な運動の多数の組合せを包含することを特徴とする請求項35乃至54のいずれかに記載の方法。
  56. 前記第1および第2の時間数列が順序付きシーケンス間の描写対描写の変換を含み、少なくともその幾分かが各センサとシーンの間における相対的な運動から生じることを特徴とする請求項1乃至55のいずれかに記載の方法。
  57. 前記採用がシーケンス間の描写対描写の変換の多数の組合せを使用することを特徴とする請求項1乃至56のいずれかに記載の方法。
  58. 前記描写の少なくとも第1および第2のシーケンスの間における前記空間関係が、時間の全体にわたって固定されているそれぞれの前記少なくとも第1および第2のシーケンスを獲得する第1および第2のセンサの間における獲得関係から生じることを特徴とする請求項1乃至57のいずれかに記載の方法。
  59. 前記描写の少なくとも第1および第2のシーケンスの間における前記空間関係が、時間の全体にわたって既知の様式で変化するそれぞれの前記少なくとも第1および第2のシーケンスを獲得する第1および第2のセンサの間における獲得関係から生じることを特徴とする請求項1乃至58のいずれかに記載の方法。
  60. 前記獲得関係が、相対的位置と、相対的方向付けと、相対的な内部センサ・パラメータとを含むことを特徴とする請求項58または請求項59に記載の方法。
  61. 前記獲得関係が既知であることを特徴とする請求項58に記載の方法。
  62. 前記獲得関係が既知ではないことを特徴とする請求項58に記載の方法。
  63. 前記少なくとも第1および第2のシーケンスが概ね同時に獲得されることを特徴とする請求項1乃至62のいずれかに記載の方法。
  64. 前記少なくとも第1および第2のシーケンスが概ね異なった時点で獲得されることを特徴とする請求項1乃至63のいずれかに記載の方法。
  65. 前記少なくとも第1および第2のシーケンスが同じシーンからの計測値を提示することを特徴とする請求項1乃至64のいずれかに記載の方法。
  66. 前記少なくとも第1および第2のシーケンスが同じシーンの異なった部分からの計測値を提示することを特徴とする1乃至65請求項のいずれかに記載の方法。
  67. 前記少なくとも第1および第2のシーケンスが同じシーンの異なったオーバーラップする部分からの計測値を提示することを特徴とする請求項1乃至66のいずれかに記載の方法。
  68. 前記少なくとも第1および第2のシーケンスが同じシーンの異なったオーバーラップしない部分からの計測値を提示することを特徴とする請求項1乃至67のいずれかに記載の方法。
  69. 前記少なくとも第1および第2のシーケンスが異なったシーンからの計測値を提示することを特徴とする請求項1乃至68のいずれかに記載の方法。
  70. 前記シーンが2次元であることを特徴とする請求項65乃至69のいずれかに記載の方法。
  71. 前記シーンが少なくとも3次元であることを特徴とする請求項65乃至69のいずれかに記載の方法。
  72. 前記シーンが静止的であることを特徴とする請求項65乃至69のいずれかに記載の方法。
  73. 前記シーンが動的であることを特徴とする請求項65乃至69のいずれかに記載の方法。
  74. 前記計測値が各々のセンサに関して概ね同じであることを特徴とする請求項65乃至73のいずれかに記載の方法。
  75. 前記計測値が各々のセンサに関して概ね異なっていることを特徴とする請求項65乃至73のいずれかに記載の方法。
  76. 前記計測値が、照度、熱、放射輝度、電磁放射、色、距離、濃度、音響および速度のうちの少なくとも1つを包含することを特徴とする請求項65乃至75のいずれかに記載の方法。
  77. シーケンス融合のために前記空間関係および時間関係の少なくとも一方を採用することを更に含むことを特徴とする請求項1乃至76のいずれかに記載の方法。
  78. 異なったズームで獲得されたシーケンスの位置合わせのために前記空間関係および時間関係の少なくとも一方を採用することを更に含むことを特徴とする請求項1乃至77のいずれかに記載の方法。
  79. 監視のために前記空間関係および時間関係の少なくとも一方を採用することを更に含むことを特徴とする請求項1乃至78のいずれかに記載の方法。
  80. 少なくとも部分的にはオーバーラップしない多数の狭い視野の動画からワイドスクリーンの動画を生成するために前記空間関係および時間関係の少なくとも一方を採用することを更に含むことを特徴とする請求項1乃至79のいずれかに記載の方法。
  81. 画像融合のために前記空間関係および時間関係の少なくとも一方を採用することを更に含むことを特徴とする請求項1乃至80のいずれかに記載の方法。
  82. 前記少なくとも第1および第2のシーケンスの中に含まれた情報を統合するために前記空間関係および時間関係の少なくとも一方を採用することを更に含むことを特徴とする請求項1乃至81のいずれかに記載の方法。
  83. 異なったズームで獲得された画像の位置合わせのために前記空間関係および時間関係の少なくとも一方を採用することを更に含むことを特徴とする請求項1乃至82のいずれかに記載の方法。
  84. 前記少なくとも第1および第2のシーケンスの中に含まれた情報を比較するために前記空間関係および時間関係の少なくとも一方を採用することを更に含むことを特徴とする請求項1乃至83のいずれかに記載の方法。
  85. 前記少なくとも第1および第2のシーケンスの中に含まれた情報の間における相違を発見するために前記空間関係および時間関係の少なくとも一方を採用することを更に含むことを特徴とする請求項1乃至84のいずれかに記載の方法。
  86. 異なった時点における同じシーンに関連する前記少なくとも第1および第2のシーケンスの中に含まれた情報の間における相違を発見するために前記空間関係および時間関係の少なくとも一方を採用することを更に含むことを特徴とする請求項1乃至85のいずれかに記載の方法。
  87. 前記少なくとも第1および第2のシーケンスの中に含まれた情報を統合し、それによって、個別的なセンサの限度を超過する情報出力を提供するようにして、前記空間関係および時間関係の少なくとも一方を採用することを更に含むことを特徴とする請求項1乃至86のいずれかに記載の方法。
  88. 前記採用が前記第1時間数列および前記第2時間数列の特性を比較することを含むことを特徴とする請求項1乃至87のいずれかに記載の方法。
  89. それぞれの第1および第2の時間数列を有する少なくとも第1および第2の描写のシーケンスの間における空間関係および時間関係の少なくとも一方を計算するシステムであって:
    前記描写の第1シーケンスおよび前記第1の時間数列の少なくとも一方、および前記描写の第2シーケンスおよび前記第2の時間数列の少なくとも一方を受信する入力機能性と;
    前記空間関係および時間関係の少なくとも一方を獲得するために、前記描写の第1シーケンスおよび前記第1の時間数列の少なくとも一方、および前記描写の第2シーケンスおよび前記第2の時間数列の少なくとも一方を採用する計算機能性とを含むことを特徴とする前記計算するシステム。
  90. それぞれの第1および第2の時間数列を有する少なくとも第1および第2の描写のシーケンスの間における空間関係および時間関係の少なくとも一方を計算するシステムであって:
    前記第1および第2の時間数列を受信する入力機能性と;
    前記空間関係および時間関係の少なくとも一方を獲得するために、前記第1および第2の時間数列を採用する計算機能性とを含むことを特徴とする前記計算するシステム。
  91. 前記計算機能性が、その後、前記空間関係および時間関係の少なくとも一方を獲得するために採用される、前記第1および第2の時間数列を計算する機能性を更に包含することを特徴とする請求項89に記載のシステム。
  92. 前記第1および第2の時間数列を計算して、それらを前記入力機能性に対して供給する時間数列計算機能性を更に含むことを特徴とする請求項90に記載のシステム。
  93. 前記描写が視覚的な描写を含むことを特徴とする請求項89乃至92のいずれかに記載のシステム。
  94. 前記描写が画像を含むことを特徴とする請求項89乃至93のいずれかに記載のシステム。
  95. 前記描写が少なくとも3次元の対象を含むことを特徴とする請求項89乃至94のいずれかに記載のシステム。
  96. 前記計算機能性が前記空間関係を獲得する機能性を包含することを特徴とする請求項89乃至95のいずれかに記載のシステム。
  97. 前記計算機能性が前記時間関係を獲得する機能性を包含することを特徴とする請求項89乃至96のいずれかに記載のシステム。
  98. 前記計算機能性が前記空間関係および前記時間関係を獲得する機能性を包含することを特徴とする請求項89乃至97のいずれかに記載のシステム。
  99. 前記描写の間における空間的なオーバーラップが存在しない場合に、前記計算機能性が空間関係および時間関係の前記少なくとも一方を獲得する機能性を包含することを特徴とする請求項89乃至98のいずれかに記載のシステム。
  100. 前記描写の間における共通の空間情報が存在しない場合に、前記計算機能性が空間関係および時間関係の前記少なくとも一方を獲得する機能性を包含することを特徴とする請求項89乃至99のいずれかに記載のシステム。
  101. 前記少なくとも第1および第2のシーケンスの異なったものに所属する前記描写の個別的なものの間における共通の情報が存在しない場合に、前記計算機能性が空間関係および時間関係の前記少なくとも一方を獲得する機能性を包含することを特徴とする請求項89乃至100のいずれかに記載のシステム。
  102. 前記少なくとも第1および第2のシーケンスの異なったものに所属する前記描写の任意の個別的なものの間における共通の情報が存在しない場合に、前記計算機能性が空間関係および時間関係の前記少なくとも一方を獲得する機能性を包含することを特徴とする請求項89乃至101のいずれかに記載のシステム。
  103. 前記空間関係が描写の前記少なくとも第1および第2のシーケンスの間における幾何学的変換の少なくとも1つのパラメータを含むことを特徴とする請求項89乃至102のいずれかに記載のシステム。
  104. 前記空間関係が2次元射影変換を包含することを特徴とする請求項103に記載のシステム。
  105. 前記空間関係が3次元射影変換を包含することを特徴とする請求項103に記載のシステム。
  106. 前記空間関係が基本行列を包含することを特徴とする請求項103に記載のシステム。
  107. 前記空間関係が2次元パラメトリック変換を包含することを特徴とする請求項103に記載のシステム。
  108. 前記空間関係が少なくとも3次元のパラメトリック変換を包含することを特徴とする請求項103に記載のシステム。
  109. 前記空間関係が2次元の非パラメトリック変換を包含することを特徴とする請求項103に記載のシステム。
  110. 前記空間関係が少なくとも3次元の非パラメトリック変換を包含することを特徴とする請求項103に記載のシステム。
  111. 前記空間関係が前記少なくとも第1および第2のシーケンスの異なったものに所属する前記描写の個別的なものの間における空間関係を含むことを特徴とする請求項103乃至110のいずれかに記載のシステム。
  112. 前記空間関係が前記少なくとも第1および第2のシーケンスの異なったものに所属する前記描写の個別的なものの間における空間関係を含み、前記描写の前記個別的なものの少なくとも一方が補間された描写であることを特徴とする請求項103乃至110のいずれかに記載のシステム。
  113. 前記空間関係が前記少なくとも第1および第2のシーケンスの異なったものに所属する前記描写の個別的なものの間における空間関係を含み、前記描写の前記個別的なものの一方が補間された描写であり前記描写の前記個別的なものの他方が補間されない描写であることを特徴とする請求項103乃至110のいずれかに記載のシステム。
  114. 前記時間関係が描写の前記少なくとも第1および第2のシーケンスの間における時間変換の少なくとも1つのパラメータを含むことを特徴とする請求項89乃至113のいずれかに記載のシステム。
  115. 前記時間関係が描写の前記少なくとも第1および第2のシーケンスの間における時間シフトを包含することを特徴とする請求項114に記載のシステム。
  116. 前記時間関係が時間のアフィン変換を包含することを特徴とする請求項114に記載のシステム。
  117. 前記時間関係が時間のパラメトリック変換を包含することを特徴とする請求項114に記載のシステム。
  118. 前記時間関係が時間の非パラメトリック変換を包含することを特徴とする請求項114に記載のシステム。
  119. 前記時間関係が前記少なくとも第1および第2のシーケンスの異なったものに所属する前記描写の個別的なものの間における時間関係を含むことを特徴とする請求項114乃至118のいずれかに記載のシステム。
  120. 前記時間関係が前記少なくとも第1および第2のシーケンスの異なったものに所属する前記描写の個別的なものの間における時間関係を含み、前記描写の前記個別的なものの少なくとも一方が補間された描写であることを特徴とする請求項114乃至118のいずれかに記載のシステム。
  121. 前記時間関係が前記少なくとも第1および第2のシーケンスの異なったものに所属する前記描写の個別的なものの間における時間関係を含み、前記描写の前記個別的なものの一方が補間された描写であり、前記描写の前記個別的なものの他方が補間されない描写であることを特徴とする、請求項114乃至118のいずれかに記載のシステム。
  122. 前記補間された描写が時間を補間されることを特徴とする、請求項112、113、120および121のいずれかに記載のシステム。
  123. 前記補間された描写が空間を補間されることを特徴とする、請求項112、113、120、121および122のいずれかに記載のシステム。
  124. 前記第1および第2の時間数列が順序付きシーケンス間の描写対描写の変換を含むことを特徴とする請求項89乃至123のいずれかに記載のシステム。
  125. 前記第1および第2の時間数列が各センサとシーンの間における相対的な運動から生じる順序付きシーケンス間の描写対描写の変換を含むことを特徴とする請求項89乃至124のいずれかに記載のシステム。
  126. 前記シーケンス間の描写対描写の変換が2次元射影変換を包含することを特徴とする請求項124および125のいずれかに記載のシステム。
  127. 前記シーケンス間の描写対描写の変換が3次元射影変換を包含することを特徴とする請求項124および125のいずれかに記載のシステム。
  128. 前記シーケンス間の描写対描写の変換が基本行列を包含することを特徴とする請求項124および125のいずれかに記載のシステム。
  129. 前記シーケンス間の描写対描写の変換が2次元パラメトリック変換を包含することを特徴とする請求項124および125のいずれかに記載のシステム。
  130. 前記シーケンス間の描写対描写の変換が少なくとも3次元のパラメトリック変換を包含することを特徴とする請求項124および125のいずれかに記載のシステム。
  131. 前記シーケンス間の描写対描写の変換が2次元ノンパラメトリック変換を包含することを特徴とする請求項124および125のいずれかに記載のシステム。
  132. 前記シーケンス間の描写対描写の変換が少なくとも3次元のノンパラメトリック変換を包含することを特徴とする請求項124および125のいずれかに記載のシステム。
  133. 前記シーケンス間の描写対描写の変換がカメラ・行列を包含することを特徴とする請求項124および125のいずれかに記載のシステム。
  134. 前記計算機能性が前記第1および第2の時間数列を相関させることを含むことを特徴とする請求項89乃至133のいずれかに記載のシステム。
  135. 前記計算機能性が前記第1時間数列および前記第2時間数列の特性を等式化することを含むことを特徴とする請求項89乃至134のいずれかに記載のシステム。
  136. 前記計算機能性が前記第1時間数列および前記第2時間数列の特性を相関させることを含むことを特徴とする請求項89乃至135のいずれかに記載のシステム。
  137. 前記計算機能性が、前記第1時間数列の前記シーケンス間の描写対描写の変換の少なくとも1つと、前記少なくとも第1および第2のシーケンスの間における未知の前記空間関係との順次適用を、前記少なくとも第1および第2のシーケンスの間における前記未知の空間関係と、前記第2時間数列の前記シーケンス間の描写対描写の変換の少なくとも1つとの順次適用に対して等式化することを含むことを特徴とする請求項89乃至136のいずれかに記載のシステム。
  138. 前記計算機能性が、前記第1時間数列の前記シーケンス間の描写対描写の変換の少なくとも1つと、前記少なくとも第1および第2のシーケンスの間における未知の前記空間関係との合成を、前記少なくとも第1および第2のシーケンスの間における前記未知の空間関係と、前記第2時間数列の前記シーケンス間の描写対描写の変換の少なくとも1つとの合成に対して等式化することを含むことを特徴とする請求項89乃至137のいずれかに記載のシステム。
  139. 前記計算機能性が、前記第1時間数列の前記シーケンス間の描写対描写の変換の少なくとも1つと、前記少なくとも第1および第2のシーケンスの間における前記未知の空間関係との順次適用を、前記少なくとも第1および第2のシーケンスの間における前記未知の空間関係と、前記第2時間数列の前記シーケンス間の描写対描写の変換の少なくとも1つとの順次適用に対して等式化することによって、前記少なくとも第1および第2のシーケンスの間における未知の前記空間関係を獲得することを特徴とする請求項89乃至138のいずれかに記載のシステム。
  140. 等式化が所定の倍率に達するまで等式化することを包含することを特徴とする、請求項135乃至139のいずれかに記載のシステム。
  141. 前記シーケンス間の描写対描写の変換が少なくとも部分的には異なった時点において生じる多数の単純な運動を包含することを特徴とする請求項124乃至140のいずれかに記載のシステム。
  142. 前記シーケンス間の描写対描写の変換が少なくとも部分的には異なった時点において生じる多数の単純な運動の多数の組合せを包含することを特徴とする請求項124乃至141のいずれかに記載のシステム。
  143. 前記シーケンス間の描写対描写の変換が少なくとも部分的には異なった時点において生じる多数の複雑な運動を包含することを特徴とする請求項124乃至142のいずれかに記載のシステム。
  144. 前記シーケンス間の描写対描写の変換が少なくとも部分的には異なった時点において生じる多数の複雑な運動の多数の組合せを包含することを特徴とする請求項124乃至143のいずれかに記載のシステム。
  145. 前記第1および第2の時間数列が順序付きシーケンス間の描写対描写の変換を含み、少なくともその幾分かが各センサとシーンの間における相対的な運動から生じることを特徴とする請求項89乃至144のいずれかに記載のシステム。
  146. 前記計算機能性がシーケンス間の描写対描写の変換の多数の組合せを使用することを特徴とする請求項89乃至145のいずれかに記載のシステム。
  147. 前記描写の少なくとも第1および第2のシーケンスの間における前記空間関係が、時間の全体にわたって固定されているそれぞれの前記少なくとも第1および第2のシーケンスを獲得する第1および第2のセンサの間における獲得関係から生じることを特徴とする請求項89乃至146のいずれかに記載のシステム。
  148. 前記描写の少なくとも第1および第2のシーケンスの間における前記空間関係が、時間の全体にわたって既知の様式で変化するそれぞれの前記少なくとも第1および第2のシーケンスを獲得する第1および第2のセンサの間における獲得関係から生じることを特徴とする請求項89乃至143のいずれかに記載のシステム。
  149. 前記獲得関係が、相対的位置と、相対的方向付けと、相対的な内部センサ・パラメータとを含むことを特徴とする請求項147または請求項148に記載のシステム。
  150. 前記獲得関係が既知であることを特徴とする請求項147に記載のシステム。
  151. 前記獲得関係が既知ではないことを特徴とする請求項147に記載のシステム。
  152. 前記少なくとも第1および第2のシーケンスが概ね同時に獲得されることを特徴とする請求項89乃至151のいずれかに記載のシステム。
  153. 前記少なくとも第1および第2のシーケンスが概ね異なった時点で獲得されることを特徴とする請求項89乃至152のいずれかに記載のシステム。
  154. 前記少なくとも第1および第2のシーケンスが同じシーンからの計測値を提示することを特徴とする請求項89乃至153のいずれかに記載のシステム。
  155. 前記少なくとも第1および第2のシーケンスが同じシーンの異なった部分からの計測値を提示することを特徴とする請求項89乃至154のいずれかに記載のシステム。
  156. 前記少なくとも第1および第2のシーケンスが同じシーンの異なったオーバーラップする部分からの計測値を提示することを特徴とする、請求項89乃至155のいずれかに記載のシステム。
  157. 前記少なくとも第1および第2のシーケンスが同じシーンの異なったオーバーラップしない部分からの計測値を提示することを特徴とする、請求項89乃至156のいずれかに記載のシステム。
  158. 前記少なくとも第1および第2のシーケンスが異なったシーンからの計測値を提示することを特徴とする請求項89乃至157のいずれかに記載のシステム。
  159. 前記シーンが2次元であることを特徴とする請求項154乃至158のいずれかに記載のシステム。
  160. 前記シーンが少なくとも3次元であることを特徴とする請求項154乃至158のいずれかに記載のシステム。
  161. 前記シーンが静止的であることを特徴とする請求項154乃至158のいずれかに記載のシステム。
  162. 前記シーンが動的であることを特徴とする請求項154乃至158のいずれかに記載のシステム。
  163. 前記計測値が各々のセンサに関して概ね同じであることを特徴とする請求項154乃至162のいずれかに記載のシステム。
  164. 前記計測値が各々のセンサに関して概ね異なっていることを特徴とする請求項154乃至162のいずれかに記載のシステム。
  165. 前記計測値が、照度、熱、放射輝度、電磁放射、色、距離、濃度、音響および速度のうちの少なくとも1つを包含することを特徴とする請求項154乃至164のいずれかに記載のシステム。
  166. 計算機能性が、シーケンス融合のために前記空間関係および時間関係の少なくとも一方を採用する機能性を包含することをも更に含むことを特徴とする請求項89乃至165のいずれかに記載のシステム。
  167. 計算機能性が、異なったズームで獲得されたシーケンスの位置合わせのために前記空間関係および時間関係の少なくとも一方を採用する機能性を包含することをも更に含むことを特徴とする請求項89乃至166のいずれかに記載のシステム。
  168. 計算機能性が、監視のために前記空間関係および時間関係の少なくとも一方を採用する機能性を包含することをも更に含むことを特徴とする請求項89乃至167のいずれかに記載のシステム。
  169. 計算機能性が、少なくとも部分的にはオーバーラップしない多数の狭い視野の動画からワイドスクリーンの動画を生成するために前記空間関係および時間関係の少なくとも一方を採用する機能性を包含することをも更に含むことを特徴とする請求項89乃至168のいずれかに記載のシステム。
  170. 計算機能性が、画像融合のために前記空間関係および時間関係の少なくとも一方を採用する機能性を包含することをも更に含むことを特徴とする請求項89乃至169のいずれかに記載のシステム。
  171. 計算機能性が、前記少なくとも第1および第2のシーケンスの中に含まれた情報を統合するために前記空間関係および時間関係の少なくとも一方を採用する機能性を包含することをも更に含むことを特徴とする請求項89乃至170のいずれかに記載のシステム。
  172. 計算機能性が、異なったズームで獲得された画像の位置合わせのために前記空間関係および時間関係の少なくとも一方を採用する機能性を包含することをも更に含むことを特徴とする請求項89乃至171のいずれかに記載のシステム。
  173. 計算機能性が、前記少なくとも第1および第2のシーケンスの中に含まれた情報を比較するために前記空間関係および時間関係の少なくとも一方を採用する機能性を包含することをも更に含むことを特徴とする請求項89乃至172のいずれかに記載のシステム。
  174. 計算機能性が、前記少なくとも第1および第2のシーケンスの中に含まれた情報の間における相違を発見するために前記空間関係および時間関係の少なくとも一方を採用する機能性を包含することをも更に含むことを特徴とする請求項89乃至173のいずれかに記載のシステム。
  175. 計算機能性が、異なった時点における同じシーンに関連する前記少なくとも第1および第2のシーケンスの中に含まれた情報の間における相違を発見するために前記空間関係および時間関係の少なくとも一方を採用する機能性を包含することをも更に含むことを特徴とする請求項89乃至174のいずれかに記載のシステム。
  176. 計算機能性が、前記少なくとも第1および第2のシーケンスの中に含まれた情報を統合し、それによって、個別的なセンサの限度を超過する情報出力を提供するようにして、前記空間関係および時間関係の少なくとも一方を採用する機能性を包含することをも更に含むことを特徴とする請求項89乃至175のいずれかに記載のシステム。
  177. 計算機能性が前記第1時間数列および前記第2時間数列の特性を比較することを含むことを特徴とする請求項89176のいずれかに記載のシステム。
JP2002548680A 2000-12-05 2001-12-04 空間的または時間的にオーバーラップしない画像シーケンスの位置合わせのための装置並びに方法 Pending JP2004523027A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US25128900P 2000-12-05 2000-12-05
PCT/IL2001/001120 WO2002047031A2 (en) 2000-12-05 2001-12-04 Apparatus and method for alignment of spatial or temporal non-overlapping image sequences

Publications (1)

Publication Number Publication Date
JP2004523027A true JP2004523027A (ja) 2004-07-29

Family

ID=22951289

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002548680A Pending JP2004523027A (ja) 2000-12-05 2001-12-04 空間的または時間的にオーバーラップしない画像シーケンスの位置合わせのための装置並びに方法

Country Status (7)

Country Link
US (1) US7596281B2 (ja)
EP (1) EP1356431A2 (ja)
JP (1) JP2004523027A (ja)
AU (1) AU2002221023A1 (ja)
CA (1) CA2436607A1 (ja)
IL (1) IL156250A0 (ja)
WO (1) WO2002047031A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2025135656A1 (ko) * 2023-12-20 2025-06-26 삼성전자주식회사 로봇 및 그의 영상 투사 방법

Families Citing this family (135)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7522186B2 (en) * 2000-03-07 2009-04-21 L-3 Communications Corporation Method and apparatus for providing immersive surveillance
US7031497B2 (en) * 2001-11-05 2006-04-18 Koninklijke Philips Electronics N.V. Method for computing optical flow under the epipolar constraint
US7162102B2 (en) * 2001-12-19 2007-01-09 Eastman Kodak Company Method and system for compositing images to produce a cropped image
WO2003060823A2 (en) * 2001-12-26 2003-07-24 Yeda Research And Development Co.Ltd. A system and method for increasing space or time resolution in video
US8110206B2 (en) 2002-09-06 2012-02-07 L'oreal S.A. Cosmetic composition comprising a hydrocarbon oil and a silicone oil
US7923002B2 (en) * 2002-09-06 2011-04-12 L'oreal S.A. Composition for coating keratin fibres comprising a tacky wax
US20050188474A1 (en) * 2002-09-06 2005-09-01 L'oreal Cosmetic keratin fibre care or makeup composition
ATE367142T1 (de) 2002-09-06 2007-08-15 Oreal Verfahren zur dekorativen behandlung der wimpern mit einem überzugsmittel, das ein klebriges wachs enthält
EP1636993A2 (en) * 2003-06-19 2006-03-22 L3 Communications Corp Method and apparatus for providing a scalable multi-camera distributed video processing and visualization surveillance system
CA2473963A1 (en) * 2003-07-14 2005-01-14 Sunnybrook And Women's College Health Sciences Centre Optical image-based position tracking for magnetic resonance imaging
ES2633640T3 (es) 2004-03-22 2017-09-22 L'oreal Composición cosmética que comprende un elastómero de silicona poliglicerolado
KR101042638B1 (ko) * 2004-07-27 2011-06-20 삼성전자주식회사 파노라마 영상 생성을 위한 디지털 촬상장치 및 그 생성방법
US7639896B2 (en) * 2004-08-09 2009-12-29 Carestream Health, Inc. Multimodal image registration using compound mutual information
US20060034485A1 (en) * 2004-08-12 2006-02-16 Shahriar Negahdaripour Point location in multi-modality stereo imaging
US7619658B2 (en) * 2004-11-15 2009-11-17 Hewlett-Packard Development Company, L.P. Methods and systems for producing seamless composite images without requiring overlap of source images
US7535002B2 (en) * 2004-12-03 2009-05-19 Fluke Corporation Camera with visible light and infrared image blending
CN101111748B (zh) * 2004-12-03 2014-12-17 弗卢克公司 具有激光指示器的可见光和ir组合的图像照相机
US8531562B2 (en) 2004-12-03 2013-09-10 Fluke Corporation Visible light and IR combined image camera with a laser pointer
DE102004059182A1 (de) * 2004-12-08 2006-06-14 Siemens Ag Betriebsverfahren für einen Rechner und hiermit korrespondierende Einrichtungen
FR2889952A1 (fr) 2005-07-22 2007-03-02 Oreal Procede de revetement des cils
US8005301B2 (en) * 2006-08-25 2011-08-23 Q5 Innovations Inc. Method of difference sensing through optical coherent change detection
DE102006050379A1 (de) * 2006-10-25 2008-05-08 Norbert Prof. Dr. Link Verfahren und Vorrichtung zur Überwachung eines Raumvolumens sowie Kalibrierverfahren
US8019180B2 (en) * 2006-10-31 2011-09-13 Hewlett-Packard Development Company, L.P. Constructing arbitrary-plane and multi-arbitrary-plane mosaic composite images from a multi-imager
EP2097834B8 (en) * 2006-11-30 2020-06-17 No More Noise AB Correlation between sets of data
US7719568B2 (en) * 2006-12-16 2010-05-18 National Chiao Tung University Image processing system for integrating multi-resolution images
US7856120B2 (en) * 2007-03-30 2010-12-21 Mitsubishi Electric Research Laboratories, Inc. Jointly registering images while tracking moving objects with moving cameras
GB0708600D0 (en) * 2007-05-03 2007-06-13 Ucl Business Plc Registration method
US8199384B2 (en) * 2007-06-11 2012-06-12 Sony Corporation Method of compensating the color tone differences between two images of the same scene
JP2011523538A (ja) 2008-05-20 2011-08-11 ペリカン イメージング コーポレイション 異なる種類の撮像装置を有するモノリシックカメラアレイを用いた画像の撮像および処理
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
FR2932070B1 (fr) 2008-06-10 2012-08-17 Oreal Ensemble de maquillage et/ou de soin des cils
DE102008049921A1 (de) * 2008-09-29 2010-04-15 Mobotix Ag Verfahren zur Videodatenstrom-Erzeugung
FR2938764B1 (fr) 2008-11-24 2012-06-08 Oreal Composition cosmetique solide pour application sur les fibres keratiniques
FR2938763B1 (fr) 2008-11-24 2012-09-28 Oreal Composition cosmetique solide pour application sur les fibres keratiniques
US8326087B2 (en) * 2008-11-25 2012-12-04 Xerox Corporation Synchronizing image sequences
FR2939033B1 (fr) 2008-12-02 2012-08-31 Oreal Composition cosmetique de maquillage et/ou de soin des matieres keratiniques, et procede de maquillage
FR2943225B1 (fr) 2009-03-17 2011-06-03 Oreal Dispositif de conditionnement et d'application d'au moins une composition cosmetique solide
US8314816B2 (en) * 2009-06-08 2012-11-20 Honeywell International Inc. System and method for displaying information on a display element
FR2948798B1 (fr) * 2009-07-31 2011-09-16 Astrium Sas Procede d'estimation de decalages d'images lignes obtenues par un capteur a defilement spatial ou aeroporte
WO2011024370A1 (ja) * 2009-08-24 2011-03-03 日本電気株式会社 画像ダイナミックレンジ圧縮システム、方法及びプログラム
FR2949955B1 (fr) 2009-09-11 2011-12-09 Oreal Procede de maquillage et/ou de soin des matieres keratiniques
WO2011063347A2 (en) 2009-11-20 2011-05-26 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
FR2953715B1 (fr) 2009-12-11 2012-02-17 Oreal Composition filtrante fluide anhydre comprenant une phase huileuse, un filtre triazine particulier et un agent rheologique epaississant ou gelifiant d'huile
FR2954130B1 (fr) 2009-12-18 2012-02-24 Oreal Composition cosmetique comprenant un compose supramoleculaire capable d'etablir des liaisons hydrogene, et un ingredient additionnel particulier
US8559757B1 (en) * 2010-03-23 2013-10-15 Exelis, Inc. Photogrammetric method and system for stitching and stabilizing camera images
SG10201503516VA (en) 2010-05-12 2015-06-29 Pelican Imaging Corp Architectures for imager arrays and array cameras
WO2012027739A2 (en) 2010-08-27 2012-03-01 Milwaukee Electric Tool Corporation Thermal detection systems, methods, and devices
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
WO2012081132A2 (en) 2010-12-17 2012-06-21 L'oreal Cosmetic composition
US9883084B2 (en) 2011-03-15 2018-01-30 Milwaukee Electric Tool Corporation Thermal imager
US9521398B1 (en) 2011-04-03 2016-12-13 Gopro, Inc. Modular configurable camera system
CN103765864B (zh) 2011-05-11 2017-07-04 派力肯影像公司 用于传送和接收阵列照相机图像数据的系统和方法
US9746988B2 (en) * 2011-05-23 2017-08-29 The Boeing Company Multi-sensor surveillance system with a common operating picture
US20130265459A1 (en) 2011-06-28 2013-10-10 Pelican Imaging Corporation Optical arrangements for use with an array camera
JP6112624B2 (ja) 2011-08-02 2017-04-12 ビューズアイキュー インコーポレイテッドViewsIQ Inc. デジタル顕微鏡撮像の装置及び方法
WO2013043761A1 (en) 2011-09-19 2013-03-28 Pelican Imaging Corporation Determining depth from multiple views of a scene that include aliasing using hypothesized fusion
WO2013049699A1 (en) 2011-09-28 2013-04-04 Pelican Imaging Corporation Systems and methods for encoding and decoding light field image files
US8457357B2 (en) * 2011-11-09 2013-06-04 Disney Enterprises, Inc. Relative pose estimation of non-overlapping cameras using the motion of subjects in the camera fields of view
CN103649426B (zh) * 2012-01-27 2016-05-11 斗山英维高株式会社 建筑机械的操作安全性提高装置
EP2817955B1 (en) 2012-02-21 2018-04-11 FotoNation Cayman Limited Systems and methods for the manipulation of captured light field image data
EP2634747A1 (en) * 2012-02-29 2013-09-04 Flir Systems AB A method and system for projecting a visible representation of infrared radiation
US9210392B2 (en) 2012-05-01 2015-12-08 Pelican Imaging Coporation Camera modules patterned with pi filter groups
WO2014005123A1 (en) 2012-06-28 2014-01-03 Pelican Imaging Corporation Systems and methods for detecting defective camera arrays, optic arrays, and sensors
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
US10794769B2 (en) 2012-08-02 2020-10-06 Milwaukee Electric Tool Corporation Thermal detection systems, methods, and devices
KR102111181B1 (ko) 2012-08-21 2020-05-15 포토내이션 리미티드 어레이 카메라를 사용하여 포착된 영상에서의 시차 검출 및 보정을 위한 시스템 및 방법
WO2014032020A2 (en) 2012-08-23 2014-02-27 Pelican Imaging Corporation Feature based high resolution motion estimation from low resolution images captured using an array source
EP4307659A1 (en) 2012-09-28 2024-01-17 Adeia Imaging LLC Generating images from light fields utilizing virtual viewpoints
US9143711B2 (en) 2012-11-13 2015-09-22 Pelican Imaging Corporation Systems and methods for array camera focal plane control
WO2014130849A1 (en) 2013-02-21 2014-08-28 Pelican Imaging Corporation Generating compressed light field representation data
US9374512B2 (en) 2013-02-24 2016-06-21 Pelican Imaging Corporation Thin form factor computational array cameras and modular array cameras
WO2014138697A1 (en) 2013-03-08 2014-09-12 Pelican Imaging Corporation Systems and methods for high dynamic range imaging using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9888194B2 (en) 2013-03-13 2018-02-06 Fotonation Cayman Limited Array camera architecture implementing quantum film image sensors
US9106784B2 (en) 2013-03-13 2015-08-11 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing
US9124831B2 (en) 2013-03-13 2015-09-01 Pelican Imaging Corporation System and methods for calibration of an array camera
WO2014165244A1 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
WO2014153098A1 (en) 2013-03-14 2014-09-25 Pelican Imaging Corporation Photmetric normalization in array cameras
US9578259B2 (en) 2013-03-14 2017-02-21 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
WO2014150856A1 (en) 2013-03-15 2014-09-25 Pelican Imaging Corporation Array camera implementing quantum dot color filters
EP2973476B1 (en) 2013-03-15 2025-02-26 Adeia Imaging LLC Systems and methods for stereo imaging with camera arrays
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US9497429B2 (en) * 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
US9674490B2 (en) * 2013-04-18 2017-06-06 Magna Electronics Inc. Vision system for vehicle with adjustable cameras
US8995789B2 (en) * 2013-06-12 2015-03-31 Microsoft Technology Licensing, Llc Efficient collaging of a large image
US9898856B2 (en) 2013-09-27 2018-02-20 Fotonation Cayman Limited Systems and methods for depth-assisted perspective distortion correction
US9264592B2 (en) 2013-11-07 2016-02-16 Pelican Imaging Corporation Array camera modules incorporating independently aligned lens stacks
WO2015074078A1 (en) 2013-11-18 2015-05-21 Pelican Imaging Corporation Estimating depth from projected texture using camera arrays
US9456134B2 (en) 2013-11-26 2016-09-27 Pelican Imaging Corporation Array camera configurations incorporating constituent array cameras and constituent cameras
US10111714B2 (en) * 2014-01-27 2018-10-30 Align Technology, Inc. Adhesive objects for improving image registration of intraoral images
WO2015134996A1 (en) 2014-03-07 2015-09-11 Pelican Imaging Corporation System and methods for depth regularization and semiautomatic interactive matting using rgb-d images
US9400939B2 (en) * 2014-04-13 2016-07-26 International Business Machines Corporation System and method for relating corresponding points in images with different viewing angles
CN107077743B (zh) 2014-09-29 2021-03-23 快图有限公司 用于阵列相机的动态校准的系统和方法
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
US9787951B2 (en) * 2015-12-18 2017-10-10 Serge Kannon Vehicle proximity warning system
GB201615776D0 (en) 2016-09-16 2016-11-02 Rolls Royce Plc Spatiotemporal registation of image streams
JP7086949B2 (ja) 2016-10-20 2022-06-20 レール ビジョン リミテッド 鉄道アプリケーションの衝突回避において物体および障害物を検出し分類するためのシステムおよび方法
JP6888950B2 (ja) * 2016-12-16 2021-06-18 フォルシアクラリオン・エレクトロニクス株式会社 画像処理装置、外界認識装置
US10692262B2 (en) 2017-01-12 2020-06-23 Electronics And Telecommunications Research Institute Apparatus and method for processing information of multiple cameras
US10300573B2 (en) 2017-05-24 2019-05-28 Trimble Inc. Measurement, layout, marking, firestop stick
US10406645B2 (en) * 2017-05-24 2019-09-10 Trimble Inc. Calibration approach for camera placement
US10341618B2 (en) 2017-05-24 2019-07-02 Trimble Inc. Infrastructure positioning camera system
US10044922B1 (en) 2017-07-06 2018-08-07 Arraiy, Inc. Hardware system for inverse graphics capture
US10666929B2 (en) 2017-07-06 2020-05-26 Matterport, Inc. Hardware system for inverse graphics capture
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
US10657363B2 (en) * 2017-10-26 2020-05-19 Motorola Mobility Llc Method and devices for authenticating a user by image, depth, and thermal detection
US10810455B2 (en) 2018-03-05 2020-10-20 Nvidia Corp. Spatio-temporal image metric for rendered animations
US10757323B2 (en) 2018-04-05 2020-08-25 Motorola Mobility Llc Electronic device with image capture command source identification and corresponding methods
US11061132B2 (en) * 2018-05-21 2021-07-13 Johnson Controls Technology Company Building radar-camera surveillance system
US11100204B2 (en) 2018-07-19 2021-08-24 Motorola Mobility Llc Methods and devices for granting increasing operational access with increasing authentication factors
WO2021055585A1 (en) 2019-09-17 2021-03-25 Boston Polarimetrics, Inc. Systems and methods for surface modeling using polarization cues
MX2022004163A (es) 2019-10-07 2022-07-19 Boston Polarimetrics Inc Sistemas y metodos para la deteccion de estandares de superficie con polarizacion.
DE112020005932T5 (de) 2019-11-30 2023-01-05 Boston Polarimetrics, Inc. Systeme und verfahren zur segmentierung von transparenten objekten mittels polarisationsmerkmalen
US11663736B2 (en) * 2019-12-27 2023-05-30 Snap Inc. Marker-based shared augmented reality session creation
KR20220132620A (ko) 2020-01-29 2022-09-30 인트린식 이노베이션 엘엘씨 물체 포즈 검출 및 측정 시스템들을 특성화하기 위한 시스템들 및 방법들
CN115428028A (zh) 2020-01-30 2022-12-02 因思创新有限责任公司 用于合成用于在包括偏振图像的不同成像模态下训练统计模型的数据的系统和方法
WO2021243088A1 (en) 2020-05-27 2021-12-02 Boston Polarimetrics, Inc. Multi-aperture polarization optical systems using beam splitters
US12020455B2 (en) 2021-03-10 2024-06-25 Intrinsic Innovation Llc Systems and methods for high dynamic range image reconstruction
US12069227B2 (en) 2021-03-10 2024-08-20 Intrinsic Innovation Llc Multi-modal and multi-spectral stereo camera arrays
US12373675B2 (en) 2021-03-19 2025-07-29 Micron Technology, Inc. Systems and methods for training machine learning models for denoising images
US12272030B2 (en) 2021-03-19 2025-04-08 Micron Technology, Inc. Building units for machine learning models for denoising images and systems and methods for using same
US12086703B2 (en) 2021-03-19 2024-09-10 Micron Technology, Inc. Building units for machine learning models for denoising images and systems and methods for using same
US12148125B2 (en) * 2021-03-19 2024-11-19 Micron Technology, Inc. Modular machine learning models for denoising images and systems and methods for using same
WO2022197476A1 (en) * 2021-03-19 2022-09-22 Micron Technology, Inc. Modular machine learning models for denoising images and systems and methods for using same
US12277683B2 (en) 2021-03-19 2025-04-15 Micron Technology, Inc. Modular machine learning models for denoising images and systems and methods for using same
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US12067746B2 (en) 2021-05-07 2024-08-20 Intrinsic Innovation Llc Systems and methods for using computer vision to pick up small objects
US12175741B2 (en) 2021-06-22 2024-12-24 Intrinsic Innovation Llc Systems and methods for a vision guided end effector
US12340538B2 (en) 2021-06-25 2025-06-24 Intrinsic Innovation Llc Systems and methods for generating and using visual datasets for training computer vision models
US12172310B2 (en) 2021-06-29 2024-12-24 Intrinsic Innovation Llc Systems and methods for picking objects using 3-D geometry and segmentation
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers
US12293535B2 (en) 2021-08-03 2025-05-06 Intrinsic Innovation Llc Systems and methods for training pose estimators in computer vision

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4192004A (en) * 1977-09-08 1980-03-04 Buerger Walter R Topological transformation system
US4720633A (en) 1986-01-17 1988-01-19 Electro-Scan Corporation Scanning electron microscope for visualization of wet samples
US4880976A (en) 1987-05-21 1989-11-14 Electroscan Corporation Secondary electron detector for use in a gaseous atmosphere
AU650179B2 (en) 1991-10-07 1994-06-09 Eastman Kodak Company A compositer interface for arranging the components of special effects for a motion picture production
US5657402A (en) 1991-11-01 1997-08-12 Massachusetts Institute Of Technology Method of creating a high resolution still image using a plurality of images and apparatus for practice of the method
US5294978A (en) 1991-12-17 1994-03-15 Eastman Kodak Company Visualization techniques for temporally acquired sequences of images
US5412211A (en) 1993-07-30 1995-05-02 Electroscan Corporation Environmental scanning electron microscope
US5523786A (en) 1993-12-22 1996-06-04 Eastman Kodak Company Color sequential camera in which chrominance components are captured at a lower temporal rate than luminance components
US5517251A (en) 1994-04-28 1996-05-14 The Regents Of The University Of California Acquisition of video images simultaneously with analog signals
US5649032A (en) 1994-11-14 1997-07-15 David Sarnoff Research Center, Inc. System for automatically aligning images to form a mosaic image
US5892554A (en) 1995-11-28 1999-04-06 Princeton Video Image, Inc. System and method for inserting static and dynamic images into a live video broadcast
DE69727047T2 (de) 1996-01-26 2004-06-09 Marconi Uk Intellectual Property Ltd. Entpaketierer und rahmenausgleicher damit
US5852565A (en) * 1996-01-30 1998-12-22 Demografx Temporal and resolution layering in advanced television
US6075905A (en) 1996-07-17 2000-06-13 Sarnoff Corporation Method and apparatus for mosaic image construction
US5789748A (en) 1997-05-29 1998-08-04 Stanford University Low voltage electron beam system
US6078701A (en) 1997-08-01 2000-06-20 Sarnoff Corporation Method and apparatus for performing local to global multiframe alignment to construct mosaic images
US5987164A (en) 1997-08-01 1999-11-16 Microsoft Corporation Block adjustment method and apparatus for construction of image mosaics
US6320624B1 (en) 1998-01-16 2001-11-20 ECOLE POLYTECHNIQUE FéDéRALE Method and system for combining video sequences with spatio-temporal alignment
US6400831B2 (en) * 1998-04-02 2002-06-04 Microsoft Corporation Semantic video object segmentation and tracking
JP2000076423A (ja) 1998-09-01 2000-03-14 Hitachi Software Eng Co Ltd 画像解析装置
JP4207099B2 (ja) 1998-09-29 2009-01-14 ソニー株式会社 画像編集装置及びその方法
US6564263B1 (en) * 1998-12-04 2003-05-13 International Business Machines Corporation Multimedia content description framework
US6340991B1 (en) * 1998-12-31 2002-01-22 At&T Corporation Frame synchronization in a multi-camera system
US6447450B1 (en) 1999-11-02 2002-09-10 Ge Medical Systems Global Technology Company, Llc ECG gated ultrasonic image compounding
US6501794B1 (en) * 2000-05-22 2002-12-31 Microsoft Corporate System and related methods for analyzing compressed media content
JP2002058868A (ja) 2000-06-07 2002-02-26 Square Co Ltd 球技系ゲームのプログラムを記録したコンピュータ読み取り可能な記録媒体およびプログラム、ならびに、球技系ゲーム処理装置およびその方法
US6459482B1 (en) 2000-10-24 2002-10-01 Advanced Micro Devices, Inc. Grainless material for calibration sample

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2025135656A1 (ko) * 2023-12-20 2025-06-26 삼성전자주식회사 로봇 및 그의 영상 투사 방법

Also Published As

Publication number Publication date
CA2436607A1 (en) 2002-06-13
AU2002221023A1 (en) 2002-06-18
WO2002047031A2 (en) 2002-06-13
WO2002047031A3 (en) 2002-12-19
EP1356431A2 (en) 2003-10-29
US20040071367A1 (en) 2004-04-15
IL156250A0 (en) 2004-01-04
US7596281B2 (en) 2009-09-29

Similar Documents

Publication Publication Date Title
JP2004523027A (ja) 空間的または時間的にオーバーラップしない画像シーケンスの位置合わせのための装置並びに方法
US5963664A (en) Method and system for image combination using a parallax-based technique
Irani et al. About direct methods
Nasrollahi et al. Super-resolution: a comprehensive survey
US8194184B2 (en) Method and apparatus for increasing the frame rate of a video signal
Forssén et al. Rectifying rolling shutter video from hand-held devices
JP2004515832A (ja) 画像系列の時空的正規化マッチング装置及び方法
Wolf et al. Wide baseline matching between unsynchronized video sequences
CN108830925B (zh) 一种基于球幕视频流的三维数字化建模方法
Wolf et al. Correspondence-free synchronization and reconstruction in a non-rigid scene
US20190392555A1 (en) System and Method for Generating High-Resolution Stereo Image and Depth Map
Gaspar et al. Synchronization of two independently moving cameras without feature correspondences
Zhu et al. Stereo mosaics from a moving video camera for environmental monitoring
Fulari A Survey on Motion Models Used for Object Detection in Videos
Lee et al. Globally consistent video depth and pose estimation with efficient test-time training
Shi et al. A Review and Comparison on Video Stabilization Alorithms
Ye Image registration and super-resolution mosaicing
Lin et al. Fast and robust image mosaicking for monocular video
Benrhaiem et al. Achieving invariance to the temporal offset of unsynchronized cameras through epipolar point-line triangulation
Hoshino et al. Fast panoramic image mosaicing using one-dimensional flow estimation
Robert Computer-vision for the post-production world: Facts and challenges through the realviz experience
Yue et al. Synthesis of Novel Views of Moving Objects in Airborne Video.
Schuchert et al. An affine optical flow model for dynamic surface reconstruction
Hammarstedt et al. Affine structure from translational motion in image sequences
Morteza Safdarnejad et al. Spatio-Temporal Alignment of Non-Overlapping Sequences From Independently Panning Cameras

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041129

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20041129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20041201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071211

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080507