[go: up one dir, main page]

JP3575622B2 - 正確な立体三次元画像を発生する装置および方法 - Google Patents

正確な立体三次元画像を発生する装置および方法 Download PDF

Info

Publication number
JP3575622B2
JP3575622B2 JP01499194A JP1499194A JP3575622B2 JP 3575622 B2 JP3575622 B2 JP 3575622B2 JP 01499194 A JP01499194 A JP 01499194A JP 1499194 A JP1499194 A JP 1499194A JP 3575622 B2 JP3575622 B2 JP 3575622B2
Authority
JP
Japan
Prior art keywords
viewer
virtual
stereoscopic
computer
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP01499194A
Other languages
English (en)
Other versions
JPH06317762A (ja
Inventor
マイケル・エフ・ディアリング
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sun Microsystems Inc
Original Assignee
Sun Microsystems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Microsystems Inc filed Critical Sun Microsystems Inc
Publication of JPH06317762A publication Critical patent/JPH06317762A/ja
Application granted granted Critical
Publication of JP3575622B2 publication Critical patent/JP3575622B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/22Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
    • G02B30/24Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type involving temporal multiplexing, e.g. using sequentially activated left and right shutters
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/32Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using arrays of controllable light sources; using moving apertures or moving light sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/371Image reproducers using viewer tracking for tracking viewers with different interocular distances; for tracking rotational head movements around the vertical axis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/373Image reproducers using viewer tracking for tracking forward-backward translational head movements, i.e. longitudinal movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/376Image reproducers using viewer tracking for tracking left-right translational head movements, i.e. lateral movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/378Image reproducers using viewer tracking for tracking rotational head movements around an axis perpendicular to the screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/38Image reproducers using viewer tracking for tracking vertical translational head movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/286Image signal generators having separate monoscopic and stereoscopic modes
    • H04N13/289Switching between monoscopic and stereoscopic modes

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

【0001】
【産業上の利用分野】
本発明はコンピュータ・グラフィックス装置の分野に関するものであり、更に詳しく言えば、本発明は頭に追従される表示装置における高解像力3D画像の発生に関するものである。
【0002】
【従来の技術】
人の眼は、光トランスデューサとして機能する網膜へ結びつけられた光学系としてモデル化できる。人の眼は光線で満たされた物理的空間内に存在している。物理的空間内の、透明な表面と不透明な表面の間の境界、または屈折率が異なる透明な表面の間の境界であるあらゆる点に点光源が存在する。人の立体視は、物理的空間内の種々の場所に両眼を置くことにより達成される。
【0003】
頭に追従する立体表示装置が、見る人が3D画像を知覚できるようにするために、人の眼と物理的空間内の光線との相互作用を真似ている。頭に追従する立体表示装置が見る人の頭と眼の物理的空間内の位置を検出し、頭と眼の位置を基にして仮想オブジェクトの立体画像を計算し、立体表示装置の上に立体画像を発生する。
頭に追従する立体表示装置は1度にただ2つの画像を処理して発生することを要する。その結果としてホログラフィック装置よりも処理が大幅に少なくなる。更に、一対の立体画像はホログラムと同じ外観を持つ。頭に追従する立体表示装置では、見る人の頭が傾いた時、または仮想オブジェクトの側面または上を見るために見る人の頭が動く時には、仮想オブジェクトは静止したままであるように見える。頭に追従する立体表示装置の詳細についてはプロシーディングス・オブ・エスピーアイイー(Proceedings of SPIE)1992年2月号所載の「頭に追従する立体表示、技術および応用(Head−Tracking Stereo Display,Techniques and Application)」と題するパレイ(Paley,W.B.)の論文を参照されたい。
【0004】
しかし、頭に追従する従来の立体表示装置は見る人の頭が動いても静止したままであるから、そのような立体表示装置において見る人が利用できる頭の動きの範囲は限られていた。立体表示装置で表示されている虚像の周囲を見る人の頭が動くにつれて、立体表示装置の表示表面に関連する見る人の頭の傾いた位置のために、虚像の一部が切り取られることになる。
【0005】
更に、頭に追従する従来の立体表示装置は、実オブジェクトと仮想オブジェクトに対する自然の配置を見る人が知覚できるようにするために、仮想オブジェクトからの光を実オブジェクトから反射された光に混合することはできない。見る人が立体表示装置に向き合っている間にその見る人が立体画像を知覚したとすると、立体表示装置と見る人の頭の間に位置させられている物理的オブジェクトが立体表示装置からの光を阻止して虚像を遮断する。
【0006】
【発明が解決しようとする課題】
後で説明するように、本発明の頭に追従する立体表示装置は見る人の頭の動かせる範囲を大きくできるようにするために、複雑な3D立体画像を発生する。更に、本発明の頭に追従する立体表示装置は、仮想オブジェクトからの光と実オブジェクトから反射された光を混合して、実オブジェクトと仮想オブジェクトに対する自然の配置を見る人が知覚できるようにする。
【0007】
【課題を解決するための手段】
頭に追従される表示装置において高解像力3D画像を発生するための方法および装置を開示する。本発明の方法と装置は頭に追従する立体表示装置において見る人の頭の広い範囲の運動を可能にする。本発明の方法および装置は、見る人の頭の広い範囲の運動に対して、見る人が実オブジェクトに重畳された仮想オブジェクトを知覚することを可能にする。本発明の方法および装置は見る人の頭の動きを追従し、表示構成と立体視パイプラインを自動的に調整して、頭に追従する立体表示装置において見る人の頭の広い範囲の運動を可能にする。
【0008】
本発明の方法と装置は、見る人が実オブジェクトと仮想オブジェクトを自然構成で知覚することを可能にもする。見る人は、三次元空間内で仮想オブジェクトの前方に位置させられている実オブジェクトを知覚できる。更に、見る人は、三次元空間内で実オブジェクトの前方に位置させられている仮想オブジェクトを知覚できる。本発明の方法と装置は実オブジェクトを仮想座標空間内で表現し、実オブジェクトから反射された光と仮想オブジェクトからの光を混合するために、実オブジェクトのためのzバッファを発生する。
【0009】
本発明の頭に追従する立体表示装置はベースハウジング内に配置される表示装置を採用する。その表示装置は、コンピュータで実現されるグラフィックス表現装置により表現される立体画像を発生する。反射鏡が立体画像を見る人へ送るように、その反射鏡が表示装置の表示表面の周囲を回転するために反射鏡が結合される。コンピュータへ結合されている追従装置が三次元空間内における見る人の頭の動きを検出する。見る人が動くにつれて立体画像をその見る人へ送るために、コンピュータはモータにより反射鏡の角度位置を制御する。見るマトリックスを調整して立体画像を反射鏡により反射させるために、画像表現装置は反射鏡の角度位置を用いる。
【0010】
実オブジェクトからの光と仮想オブジェクトからの光を混合するために、コンピュータは三次元空間内の実オブジェクトの位置と寸法のデータベースを保持する。画像表現装置は実オブジェクトの三次元位置決定を示すzバッファを発生する。実オブジェクトは無色で表現される。立体画像を見る人の眼へ送り、実オブジェクトから反射された光を見る人の眼へ送るために、半透明鏡が位置させられる。虚像により不明瞭にされている実オブジェクトの部分から反射された光が阻止されるように、実オブジェクトから反射された光の見る人の眼への伝送をLCDアレイパネルが選択的に阻止する。
【0011】
【実施例】
この明細書においては、見る人の頭の動く範囲を大きくすることを可能にし、実オブジェクトと仮想オブジェクトとの自然構成を見る人が知覚できるようにするために、複雑な3D立体画像を発生する方法および装置を開示する。説明のための以下の記述においては、本発明を完全に理解できるようにするために、特定の応用、特定の数、特定の装置および特定の構成について述べる。しかし、それらの特定の詳細なしに本発明を実施できることが当業者には明らかであろう。他の場合には、本発明を不必要にあいまいにしないようにするために、周知の装置は線図的な態様またはブロック線図の態様で示されている。
【0012】
まず、本発明の教示に従ってグラフィックス画像を発生し、ユーザーの入力に応答する、コンピュータをベースとする装置の例が示されている図1を参照する。3つの主な部品で構成されているコンピュータ10が示されている。それらの部品のうちの第1の部品は、適切に構成されたフォームの情報をコンピュータ10の別の部分と通信し合うために用いられる入力/出力(I/O)回路12である。それに加えて、コンピュータ10はI/O回路12へ結合される中央処理装置(CPU)14とメモリ16も含む。それらの素子はほとんどの汎用コンピュータにおいて典型的に見出されるものである。コンピュータ10は広い種類のコンピュータ装置を代表することを意図するものである。
【0013】
コンピュータ10へ付加的な記憶性能を提供するためにI/O回路12へ結合されている磁気ディスク20が示されている。周知のように、磁気ディスク20はその他のコンピュータプログラム、キャラクタ、ルーチン等を記憶できる。それらはCPU14によりアクセスおよび実行できる。データを記憶するための磁気テープドライブのような付加装置をコンピュータへ結合でき、かつ別のコンピュータ装置へ結合されるネットワークをコンピュータへ結合できる。
【0014】
本発明の教示に従って予め処理された3D立体画像を分配するための付加記憶性能を提供するために、I/O回路12へ結合されたCD ROM20が示されている。また、I/O回路12へ結合されたLCDパネル制御器28が示されている。LCDパネル制御器28は、LCDパネル・アレイの画素の透明度を制御するために、コンピュータ10からビットマップデータを受ける。
【0015】
I/O回路12へ結合されたモータ制御装置30が示されている。このモータ制御回路30はコンピュータ10がサーボモータを制御できるようにするためのものである。あるいは、モータ制御回路30はコンピュータ10がステッピングモータを制御できるようにする。後で説明するように、モータ制御装置30により制御されるサーボモータまたはステッピングモータは、虚像を発生するためにコンピュータ10が回転反射鏡の位置決めを制御できるようにする。
【0016】
本発明の教示によるCPU14により発生された画像を表示するために用いられるラスタ表示装置24が、I/O回路12へ結合されているのが示されている。表示装置24として広範囲のラスタ(または画素マップされた)表示装置を利用できる。ここで説明している実施例においては、表示装置24は立体CRTを含む。後で詳しく説明するように、CPU14により表示装置24を介して発生される表示画像は、反射鏡を介して見る人により知覚される。したがって、CPU14は画像を構成している画素の左右の位置を知覚するように表示画像を発生する。見る人が画像を正しく知覚できるようにするために反射鏡は左右の位置を再び逆にする。
【0017】
データとコマンドをコンピュータ10へ入力するために周知のように用いられるキーボード18が、I/O回路12へ結合されているのが示されている。シャッター制御される一対の立体眼鏡120がI/O回路12へ結合されているのが示されている。このシャッター制御される立体眼鏡120には超音波を受けるための超音波受波器122が埋め込まれる。このシャッター制御される立体眼鏡にはシャッター制御されるレンズを制御するための赤外線制御されるスイッチも埋め込まれる。
【0018】
3D6軸マウス130がI/O回路12へ結合されているのが示されている。この3Dマウス130は、超音波を受けるための3個一組の超音波受波器132を含む。3Dマウス130およびシャッター制御される立体眼鏡120の3D位置が3D6軸超音波頭追従器140により検出される。一実施例においては、この頭追従器は立体CRT24へ装着される。3D6軸超音波頭追従器140には、超音波受波器122と132より受けられる超音波を発生する超音波送波器142が埋め込まれる。
【0019】
次に、図1に示されているメモリ16に含まれている主プログラムの1つの構成が示されている図2を参照する。とくに、表示装置14の画素マップとして機能するフレーム・バッファ36が示されている。このフレーム・バッファ36は表示装置14のためのビデオメモリを表す。フレーム・バッファ36中の各記憶場所は、立体CRT24における佐眼画素または右眼画素に対応する。したがって、フレーム・バッファ36は、立体CRT24における画素に対応する既知座標を持つ点の二次元アレイを構成する。ある画像を1つのバッファから表示している間に、別の画像を別のバッファからアクセスできるように、フレーム・バッファ36は二重バッファとして構成することが好ましい。
【0020】
メモリ16は、この明細書において開示されるように、本発明の教示に従って諸機能を実行するCPU10により実行される各種のプログラムも含む。また、メモリ16は、コンピュータ装置においてその他の周知の機能およびオペレーションを制御または実行するための別のプログラムも含む。
【0021】
一実施例においては、見る人はシャッター制御される立体眼鏡を掛け、3D6軸マウス130を操作できる。3D6軸マウス130とシャッター制御される立体眼鏡120の3D位置は3D6軸頭追従器140により検出される。超音波が超音波受波器122,132と超音波送波器の間を伝わる時間を用いて、3Dマウス130とシャッター制御される立体眼鏡120の3D位置を三角測量する。3Dマウス130は見る人により知覚される虚像を操作するために用いられる。
【0022】
頭に追従する立体表示装置においては、立体視表示パイプラインが2つの4×4透視マトリックス(実効的には各眼に対して1つの単眼パイプライン)により指定される。それらのマトリックスは視野の全体的な物理的構成についての情報を暗黙理に含む。結果としての各マトリックスはねじれ成分を含む。
【0023】
視野の物理的構成は3D空間内の表示面の位置と、見る人の眼の動的な位置とにより決定される。それらのパラメータが既知である場合には、ビューマトリックスはあるスケールファクター内で一意である。各眼に対するビューマトリックスは、見る人の眼に先端部があり、表示面内の表示ウィンドウの4つの隅により底部が定められるピラミッドに対応する。表示面が完全に平坦であると仮定するならば、前方クリッピング面と後方クリッピング面は表示面の平面に平行である。
【0024】
この実施例においては、コンピュータ・グラフィックス・アプリケーションが物理的座標と仮想座標(VC)の間の関係をマトリックスPにより指定する。マトリックスPにより暗示される相対的な位置、相対的な向き、およびスケールは、仮想世界と物理的な世界をどのようにして重ね合わせるかを指定する。(このスケール・ファクターはgとして示されている。)立体表示装置の物理的構成と見る人の眼の検出された実時間位置が、最終的な4×4のビューマトリックスに対して必要な情報の残りに寄与する。最終的な4×4のビューマトリックスは、コンピュータ10において実現されるグラフィックス表現装置に対するパラメータとして用いられる。
【0025】
本発明の教示を実現するために、立体CRT24はそれの表示面へ記録される物理的座標系を持つものとみなされる。この物理的座標系のことを以後表示プレート座標(DPC)と呼ぶことにする。
【0026】
次に、DPC座標系の例が示されている図3を参照する。DPCの原点は立体CRT24の表示面の可視部分の左下隅にある。x軸は右へ水平に延長する。y軸は上へ垂直に延長する。z軸は仮想表示面に対して垂直であって、正座標が見る人へ向かって出る。
【0027】
仮想表示面50上におけるウィンドウが、そのウィンドウの左下隅と右上隅をz=0平面上の2個のDPC点LとHとして指定することにより定められる。見る人の各眼はDPC空間内に別々の座標を持つ。1つの眼点の座標の例がEで示されている。前方および後方のクリッピング平面がz軸に沿う距離FとBにより与えられる。
【0028】
DPCでの可視点を[−1+1][−1+1][−1+1]の拡張された単位立方体へマップする、列ベクトル・マトリックス・フォーマットで表現される、1つの眼に対するビューマトリックスは次の通りである。
【0029】
【数1】
Figure 0003575622
【0030】
上の式は立体CRT24のような表示装置、および投写表示パネルや立体LCDパネルへ適用される。見る人の眼の間の距離である眼間距離はビューマトリックスPには直接表されていないことに注目すべきである。
【0031】
頭に追従する表示装置においては、表示面における視差は必ずしも水平ではない。見る人が垂直に向けられている眼で表示を観察するならば、スクリーンにおける視差は完全に垂直である。スクリーンにおける視差の量は、与えられた頭距離およびオフセットに対しても一致しない。見る人の頭がスクリーンの一方の側へ30度回されると、スクリーン表面における視差はスクリーンが正方形の表面であるときよりも小さい。
【0032】
従来のコンピュータ・グラフィックスにおいては、見る投写点は「眼点(eyepoint)」または「視点(viewpoint)」と呼ばれ、見る人の眼に一致することを意図するものである。しかし、正確に表示するために、視点位置は生理学的に正確に識別せねばならない。一般的な光学用語においては、レンズ系の視点は第1の節点である。人の眼に対する第1の節点の識別について説明するために19 年 月 日に出願された「頭に追従する表示装置を用いる高解像力仮想現実装置のための方法および装置(Method And Apparatus for High Resolution Virtual Reality Systems Using Head Tracked Display)」という名称の関連する米国特許出願serial no.
を参照されたい。
【0033】
眼の節点に対する正確な視点位置は、見る人の各眼の向けられた向きについての情報を獲得するために眼追従装置により達成される。その情報と頭の位置および眼の位置の組合わせを用いて、眼の第1の節点をDPC空間内に正確に配置できる。また、見る向きについての情報を用いて、網膜の窩部分に対応する表示面スペースの領域を識別するために使用でき、高い空間的精密さで表現できる値打ちがある。
【0034】
あるいは、眼の第1の節点位置の不確定性による誤差を、見る人の視線が向けられるであろう向きを予測することにより最少にできる。見る人の視線が向けられるであろう向きは仮想表示面50における立体ウィンドウの中心にできる。3Dマウス130が採用されると、最もきつい構度要求がマウスを仮想オブジェクトへ「接触すること」を反映する傾向があるから、見る人の視線は対話する虚像の「ホットスポット」の向きに向けられる傾向がある。見る人の視線の向きを3Dマウス130の先端部に選択することは、眼の回転による誤差が補償される。更に、コンピュータ10において実行される画像表現ソフトウエアが、仮想表示面50で表示される立体画像の「ホットスポット」に対するDPC座標を維持する。
【0035】
本発明のここで説明している実施例は、DPC空間内の見る人の頭のダイナミック位置と向きを獲得するために、超音波追従装置を採用する。しかし、本発明の方法は用いられる追従技術に依存しないことに注目すべきである。超音波追従装置140の位置から見る人の眼までの固定ベクトルを用いて、見る人の眼の回転中心を実時間で得るために、頭の位置と向きについてのデータが用いられる。
【0036】
見る人の頭の眼間距離を、個々の距離の間で±2cmだけ変化できる。ここで説明している実施例においては、与えられた見る人の眼間距離を考慮に入れるために、超音波追従装置140から見る人の眼までの固定ベクトルは見る人に固有である。固定ベクトルは見る人の頭への頭に追従する表示装置の位置合わせも考慮する。
【0037】
コンピュータが発生した画像を見る人が三次元の物理的オブジェクトとして知覚するためには、表示フレーム繰り返し率を運動統合のために十分なものである必要がある。立体画像発生では、低いフレーム繰り返し率で表示されるオブジェクトが変形しかつねじれるように見える、誘導される立体運動という付加現象が存在する。それの詳細については、パーガモン・プレス(Pergamon Press)発行のVision Res.1974年第14巻609〜613ページ所載の「誘導される立体運動(Induced Stereo movement)」と題するタイラー(Tyler C.W.)の論文を参照されたい。
【0038】
図4aは仮想オブジェクトの頭に追従する立体画像を発生するための回転反射鏡装置51を示す。回転反射鏡装置51は見る人が、仮想オブジェクトまたは複数の仮想オブジェクトの種々の透視図の周囲を動くこと、および知覚することを可能にする。円筒形ハウジング58内に立体CRT24が埋め込まれる。この立体CRT24の中心は円筒形ハウジング58の軸線にほぼ沿って配置される。立体CRT24の表示面55が円筒形ハウジング58の上端部を通って突き出る。回転台56へ反射鏡54が結合される。一実施例においては、反射鏡54は立体CRT24の表示面55に関して45度の角度を成す。
【0039】
一実施例においては、ステッピングモータ(図示せず)が回転台56を円筒形ハウジング58の中心軸を中心として回転させる。ステッピングモータはモータ制御装置30へ結合される。モータ制御装置30はコンピュータ10から制御情報を受けるために結合される。コンピュータ10はステッピングモータに回転台56の角度位置を制御させることにより、反射鏡54の角度位置を制御する。
【0040】
図4bは仮想オブジェクト210の頭に追従する3D立体画像を発生するための回転反射鏡装置51を示す。見る人200はシャッター制御される眼鏡120を掛けている。シャッター制御される眼鏡120の3D位置が超音波追従装置140により検出される。超音波は伝わる距離が限られ、超音波追従装置140とシャッター制御される眼鏡120の間の視線経路を必要とするから、一実施例においては、この超音波追従装置140は回転台56へ取り付けられる。別の実施例においては、範囲が拡張され、視線経路を必要としない追従装置が立体CRT24へ取り付けられる。
【0041】
一実施例においては、コンピュータ10は超音波送波器142とマイクロフォン122の間を超音波が伝わる時間を検出する。この伝播時間を基にしてmkオペレータ10はシャッター制御される眼鏡120の3D位置を三角測量する。コンピュータ10は、空気温度とその他の要因を与えられて音速を修正し、シャッター制御される眼鏡120の3D位置を三角測量する。
【0042】
コンピュータ10は、シャッター制御される眼鏡120の3D位置を追従することにより、見る人200の頭の3D位置に追従する。見る人200が回転歯車装置の周囲を動くにつれて、反射鏡54が見る人に向き合う角度位置を維持するように、コンピュータ10は反射鏡54の回転角度を調整する。
【0043】
コンピュータ10とモータ制御装置30は、回転台56の動きを見る人200の頭の大きい動きに制限する安定制御プロセスを実現する。一実施例においては、コンピュータ10とモータ制御装置30は、制御を安定させるためにダイナミック・カルマン瀘波を実現する。
【0044】
見る人200の動きに追従するためにコンピュータ10が反射鏡54の回転角を調整するにつれて、コンピュータ制御は反射鏡54に短時間における見る人200の頭の平均位置に追従させる。
【0045】
コンピュータ10で実現される画像表現装置は立体CRT24で立体画像を発生する。立体CRT24の表示面55における立体画像は反射鏡54により反射される。反射鏡54は立体画像を、シャッター制御される眼鏡120を掛けている見る人200へ向けて反射する。見る人200は反射された立体画像を仮想オブジェクト210として知覚する。反射鏡54が半透明鏡であれば、その仮想オブジェクト210は見る人200にとっては透明であるように見える。反射鏡54が中実反射鏡であれば、仮想オブジェクト210は見る人には中実であるようにみえる。
【0046】
見る人200にとっては、反射鏡54の後ろに位置させられている立体CRT24の反射により仮想オブジェクト210が発生されたように見える。見る人200の動きに追従するためにコンピュータ10が反射鏡54を回転させるにつれて、それに従って立体CRT24の反射がDPC空間内を動く。反射鏡54が回転するにつれて立体CRT24の反射が垂直軸57を中心として回転するように見える。
【0047】
図4c,図4dは、見る人200の動きに追従するために反射鏡54が回転するにつれて、立体CRT24の反射60の変化する位置をを示す。回転台56と、立体CRT24と、回転反射鏡54とを含む回転反射鏡装置51の平面図が示されている。また、反射鏡54を介して見る人200により知覚される立体CRT24の反射された表示面50も示されている。
【0048】
図4cは、回転反射鏡装置51に関連する、見る人200の例としての位置に対する立体CRT24の反射60の位置を示す。図4dは、回転反射鏡装置51に関連する、見る人200の別の例としての位置に対する立体CRT24の反射60の位置を示す。
【0049】
コンピュータ10は、回転台56の回転角度から立体CRT24の反射60の位置を決定する。コンピュータ10は、立体CRT24の反射60の表示面55の位置に立体CRT24の表示面を位置させるために、見る人200の眼に対応するビューマトリックスを調整する。したがって、仮想オブジェクトが仮想空間へマップさせられるにつれて、DPC空間は立体CRT24の反射60の表示面50へ位置合わせさせられる。更に、コンピュータ10は立体CRT24の表示面においては結合される立体画像の座標の上下反転を行って、反射鏡54における立体画像の反射を補償する。
【0050】
図5は、実オブジェクトに重ね合わされる頭に追従する3D立体画像を発生するための回転反射鏡の別の実施例を示す。図示の例においては、回転反射鏡装置は外科手術を受ける患者230の上に重ね合わされている虚像を見る人200が知覚できるようにする。その虚像は、コンピュータ支援断層写真(CAT)走査から得られる外科手術患者の3D画像である。
【0051】
天井に装置されているトラック74へ立体CRT70が回転可能に結合される。天井に装置されているトラック74は、立体CRT70の位置を天井面に平行な2つの次元に沿って移動させることを可能にする。立体CRT70へ半透明鏡72が装着される。一実施例においては、半透明鏡72は立体CRT70の表示面に関して45度の角度を成す。コンピュータ10はステッピングモータ(図示せず)を作動させて、垂直軸75により定められている軸線を中心として立体CRT70と反射鏡72を回転させる。
【0052】
見る人220はシャッター制御される立体眼鏡120を掛ける。超音波追従装置140はシャッター制御される眼鏡120の3D位置を検出する。一実施例においては、超音波追従装置140は立体CRT70へ装着される。コンピュータ10は、シャッター制御される眼鏡120の3D位置を検出することにより、見る人220の頭の3D位置に追従する。見る人220が動くにつれて、反射鏡72を見る人220に向き合った状態に維持させるために、コンピュータ10はステッピングモータを作動させて立体CRT70の回転角度を調整する。
【0053】
見る人220の動きに追従するために、立体CRT70および反射鏡72の回転角度をコンピュータ10が調整するにつれて、コンピュータにより調整される制御が、見る人220の頭の短時間平均位置を反射鏡72に効果的に追従させる。
【0054】
コンピュータ10で実現される画像表現装置は立体CRT70に立体画像を発生させる。立体CRT24の表示面における立体画像は反射鏡72により反射される。反射鏡72は、シャッター制御される眼鏡120を掛けている見る人220へ向けて立体画像を反射させる。見る人220は反射された立体画像をCAT走査の虚像として知覚する。反射鏡72は半透明鏡であるから、その虚像は見る人には透明であるように見える。
【0055】
見る人220にとっては、CAT走査の虚像は、反射鏡72の反射により発生されるように見える。見る人220の動きに追従させるためにコンピュータ10が立体CRT70と反射鏡72を回転させるにつれて、立体CRT70の反射はそれに従ってDPC空間内を動く。
【0056】
コンピュータ10は、垂直軸75を中心とする立体CRT70の回転角度と、その軸のx−y運動とから立体CRT70の反射の3D位置を決定する。立体CRT70の反射の表示面の位置に立体CRT70の表示面を位置させるために、コンピュータ10は見る人220の眼に対応するビューマトリックスを調整する。虚像が仮想空間内へマップさせられるにつれて、DPC空間は立体CRT70の表示面へ位置合わせさせられる。更に、反射鏡72における立体画像の反射を補償するために、コンピュータ10は立体CRT70の表示面における立体画像の座標の上下反転を行う。
【0057】
図6は、仮想オブジェクトと実オブジェクトの配置を見る人が知覚できるようにする頭に追従する立体表示装置を示す。立体CRT24で発生された立体画像が反射鏡310により反射されるように、立体CRT24は反転された位置に装置されている様子が示されている。反射鏡310は半透明鏡である。見る人300はシャッター制御される立体眼鏡120を掛けている。超音波追従装置140(図示せず)が立体CRT24へ装着される。
【0058】
見る人300にとっては、立体CRT24における立体画像は、反射鏡310の背後に位置させられている立体CRT24の反射により発生されるように見える。その結果、立体CRT24の表示面を立体CRT24の反射の表示面の位置に位置させるために、コンピュータ10は見る人300の眼に対応してビューマトリックスを調整する。したがって、虚像が仮想空間へマップさせられるにつれて、DPC空間は立体CRT24の反射の表示面の位置に位置合わせさせられる。また、反射鏡310における立体画像の反射を補償するために、コンピュータ10は立体CRT24の表示面における立体画像の座標の上下反転を行う。
【0059】
コンピュータ10は、見る人300の3D位置を検出するために超音波追従装置140を使用する。その後で、コンピュータ10における画像表示装置は立体画像を立体CRT24上に発生して、仮想オブジェクトを半透明鏡310の背後に表示する。シャッター制御される立体眼鏡120を掛けている見る人300は、半透明鏡310の背後に位置させられている1つまたは複数の虚像として反射された立体画像を知覚する。半透明鏡310は、それの背後に位置させられている実オブジェクト330も見る人300に知覚させる。
【0060】
実オブジェクト330の3Dジオメトリと、実オブジェクト330の物理的位置とを示す物理的オブジェクト・データベースを保持する。実オブジェクト330は物理的オブジェクト・データベースにおいては黒すなわち無色のオブジェクトとしてモデル化される。物理的オブジェクト330のためのzバッファ値を発生するために、コンピュータ10の画像表示装置は仮想空間内に物理的オブジェクト330を表示する。
【0061】
物理的オブジェクトが、DPC空間内で見る人300の視点から仮想オブジェクトの前方に位置させられるものとすると、コンピュータ10の画像表示装置のzバッファが、実オブジェクトにより不明瞭にされる仮想オブジェクトの部分に対する立体CRT24から光を放出させない。このようにして、見る人300は仮想オブジェクトを実オブジェクトの背後にあるものとして知覚する。
【0062】
他方、物理的オブジェクトが、DPC空間内で見る人300の視点から仮想オブジェクトの前方に位置させられるものとすると、物理的オブジェクトの、仮想オブジェクトの背後にある部分を不明瞭にするためにLCDアレイパネル320が採用される。そのLCDアレイパネル320は半透明鏡310の上に位置させられる。コンピュータ10はLCDアレイパネル320を構成するLCD画素のアレイを制御する。コンピュータ10は、半透明鏡320を通って見る人300へ達する光をLCDアレイパネル320に選択的に阻止させる。コンピュータ10は、物理的オブジェクトのうち、仮想オブジェクトの背後にある部分をLCDアレイパネル320に阻止させる。その結果、見る人300は仮想オブジェクトを実オブジェクトの前方にあるものと知覚する。
【0063】
図7は図6の頭に追従する立体表示装置により発生された仮想オブジェクトと実オブジェクトの配置を示す。仮想オブジェクト350と、実オブジェクト360と、仮想オブジェクト370とは見る人300により知覚される。コンピュータ10は立体CRT24上に立体画像を発生することにより仮想オブジェクト350と370を発生する。前記したようにそれらの立体画像は半透明鏡310により反射される。実オブジェクト360は見る人300に関して半透明鏡310の背後に位置させられる。実オブジェクト360により反射された光は半透明鏡310を透過して、見る人300により知覚される。コンピュータ10は、実オブジェクト360から反射された光をLCDアレイパネル320に選択的に阻止させる。
【0064】
物理的オブジェクト・データベースは実オブジェクト360の3Dジオメトリを示し、かつ実オブジェクト360のDPC空間内の物理的位置を示す。実オブジェクト360は物理的オブジェクト・データベース内の黒いオブジェクトとしてモデル化される。物理的オブジェクト360に対するzバッファ値を発生するために、コンピュータ10の画像表示装置は物理的オブジェクト360を仮想空間内に表示する。
【0065】
実オブジェクト360は見る人300の視点から仮想オブジェクト370の前方に位置させられる。図示のように、コンピュータ10の画像表示装置のzバッファが、実オブジェクト360により不明瞭にされる仮想オブジェクト370の部分に対する立体CRT24から光を放出させない。このようにして、見る人300は仮想オブジェクト370を実オブジェクト360の背後にあるものとして知覚する。
【0066】
実オブジェクト360はDPC空間内で見る人300の視点から仮想オブジェクト350の背後に位置させられる。図示のように、コンピュータ10は、物理的オブジェクト360のうち、仮想オブジェクト350の背後にある部分に対応するLCDアレイパネル320の画素に、物理的オブジェクト360からの光を選択的に阻止させる。立体CRT24における立体画像からの光は半透明鏡310により反射される。その結果、見る人300は仮想オブジェクト350を実オブジェクト360の背後に位置させられているものと知覚する。
【0067】
実オブジェクト360のモデルが正しい距離、正しい寸法、および正しい向きで、かつ完全に黒い色でDPC空間内に表示されているものとすると、反射鏡310の背後に位置させられている実オブジェクト360は仮想オブジェクト370の前方にあるように見える。実オブジェクト360をDPC空間内に表示すると、立体CRT24から(最低黒レベルを超えて)放出させない。その結果、見る人の視線の実オブジェクト360に対応する部分から来る変化する光だけが実オブジェクト360からの光である。
【0068】
仮想オブジェクト350は実オブジェクト360の前方にあるように見えるが、透明なオブジェクトとして実オブジェクト360の画像を遮断できない。透明度の範囲は反射鏡310の構成によって制限される。仮想オブジェクト350は最高の輝度で表示される時に最低の透明度を示す。透明度は反射鏡310からの反射光と、その反射鏡を透過する光との割合に依存する。仮想オブジェクト350は、より低い輝度で表示される時に、特定の任意の反射鏡に対するより高い透明度を示す。
【0069】
LCDアレイパネル320は、見る人300により知覚される透過光の量対反射光の量をコンピュータ10が制御することを可能にする。LCDアレイパネル320は半透明鏡310のうち、見る人300から遠い側に位置させられる。LCDアレイパネル320は、実オブジェクト360から見る人300へ直接送られる光の量を制御する。LCDアレイパネル320は、画素を基にして光の転移を制御する。
【0070】
LCDアレイパネル320は光の転移を2つのモードで制御する。2進モードにおいては、実オブジェクト360からの光の全てを画素を基にして転移させ、または実オブジェクト360からの光の全てを画素を基にして転移させない。「アルファ」モードにおいては、実オブジェクト360からの光のある割合が転移される。転移させられる光の割合は画素当たり部分量へセットされる(LCDノダイナミズム範囲、更新率など)。2進モードはアルファモードの極端なものであって、制御値「アルファ」が0または1の値のみを取ることができるモードである。
【0071】
2進モードにおいては、仮想オブジェクト350は実オブジェクト360を遮断できる。これを行うために、アルファ・フレーム・バッファ記憶ビットが、LCDアレイパネル320の各画素に対してコンピュータ10により保持される。仮想オブジェクト350を表示する場合には、仮想オブジェクト350に対応するアルファ値が1へセットされる(すなわち、物理的オブジェクトの光がLCDアレイパネル320を透過しない)。実オブジェクト360の「黒」モデルに対応するアルファ値は0へセットされる。
【0072】
仮想オブジェクト350および実オブジェクト360に対してzバッファリングがコンピュータ10により行われると、各画素において最も近いオブジェクト型(実または仮想)が、アルファ・ビットを先に概略説明したように正しい値へセットする。アルファ画像がLCDアレイパネル320で表示されて、適切な光弁作用を行わせる。ある態様の透明性が、「スクリーン−ドア(screen−door)」透明性法により実オブジェクトと仮想オブジェクトに対して表示される。
【0073】
アルファモードにおいては、LCDアレイパネル320の各画素を透過する光の量を制御することにより透明性が達成される。コンピュータ10はフレーム・バッファ内の適切な部分アルファ値をセットしてLCDアレイパネル320の透明性を制御する表示方法を実行する。アルファモードは、見る人300が実オブジェクト360(中実または透明)の前方の透明な仮想オブジェクト350を知覚できるようにする。アルファモードは、見る人300が仮想オブジェクト350(中実または透明)の前方の透明な実オブジェクト350(ガラスのような)を知覚できるようにもする。
【0074】
αのために選択された値は、与えられたオブジェクトに対して一定にでき、または実オブジェクトの実光学特性、または仮想オブジェクトのシミュレートされた光学特性に従って計算される複雑な関数とすることができる。見る人300が実拡大鏡を用いて拡大された仮想オブジェクトを知覚するような、複雑な作用を行うことができる。あるいは、コンピュータ10が適切な光学的シミュレーションおよび作用を行うように、実オブジェクトをデジタル化して、コンピュータ10へ転送できる。コンピュータ10は物理的オブジェクトをドッペルゲンガー仮想オブジェクトで完全に置き換える。したがって、図6の装置においては、ある物理的オブジェクトは純粋な黒い仮想オブジェクトの片割れを有し、対応するアルファ値を1へ制御ゲートすることによりある物理的オブジェクトを黒くない仮想コピーで置き換えられる。
【図面の簡単な説明】
【図1】本発明の教示に従ってグラフィックス画像を発生し、ユーザー入力に応答するためのコンピュータを基にした装置を示す。
【図2】図1に示されているメモリに含まれている主プログラムと記憶域の配置を示す。
【図3】立体CRTの表示面の可視部分の左下隅に原点を持つ表示プレート座標系の例を示す。
【図4】見る人が動き回ることができるようにし、かつ仮想オブジェクトの種々の透視場面を知覚できるようにするために、仮想オブジェクトの頭に追従する立体画像を発生するための回転反射鏡装置のある状態における図である。
【図5】実オブジェクトに重ね合わされた頭に追従する3D立体画像を発生するための回転反射鏡装置の別の実施例を示す。
【図6】実オブジェクトが仮想オブジェクトを自然に不明瞭にし、仮想オブジェクトが実オブジェクトを自然に不明瞭にするように、見る人が仮想オブジェクトと実オブジェクトの配置を近くできるようにする頭に追従する立体表示装置を示す。
【図7】図6の頭に追従する立体表示装置により発生された仮想オブジェクトと実オブジェクトの配置を示す。
【符号の説明】
10 コンピュータ
12 I/O回路
14 CPU
16 メモリ
20 磁気ディスク
24 表示装置
28 LCDパネル制御装置
30 モータ制御装置
36 フレーム・バッファ
51 回転反射鏡装置
54,310 反射鏡
55 表示面
56 回転台
70 立体CRT
72,310 半透明鏡
120 シャッター制御される眼鏡
132 超音波受波器
140 頭追従装置
142 超音波送波器
320 LCDアレイパネル

Claims (6)

  1. コンピュータ手段により表現される立体画像を発生するための表示面を有する表示装置と、
    上記表示装置の表示面の周囲を回転するように結合され立体画像を見る人へ送るように該立体画像を反射する反射器手段と、
    上記反射器手段が見る人の動きに追従するように、コンピュータ手段の制御の下に該反射器手段を上記表示面の周囲に沿って回転させることにより、上記立体画像を見る人へ連続して送る手段と、
    を備える立体三次元画像を発生する装置。
  2. 請求項1記載の装置において、上記表示装置と反射器手段が見る人に追従し、上記立体画像を見る人へ送るように、該表示装置と反射器手段をコンピュータ手段の制御の下に二次元平面に沿って動かすための手段を備える装置。
  3. 請求項1記載の装置において、
    上記立体画像はコンピュータ手段上の仮想座標空間に表示される仮想オブジェクトとして表現されるものであり、
    前記装置は、さらに、
    実オブジェクトをこの仮想座標空間に上記仮想オブジェクトとともに表示するために、上記反射器手段を半透明鏡で構成するとともにこの半透明鏡の背後に上記実オブジェクトを配置させた構成と、
    上記実オブジェクトの上記仮想座標空間における3次元位置決めを示すzバッファを生成する構成と、
    上記実オブジェクトが上記仮想オブジェクトの前方に位置させられるものとした場合に、上記zバッファに基づき、上記前方に位置させられるものとした実オブジェクトにより隠される、上記表示装置の発生する立体画像の仮想オブジェクトの部分からの光を放出させないようにする手段と、
    上記実オブジェクトが上記仮想オブジェクトの後方に位置させられるものとした場合に、上記zバッファに基づき、上記後方に位置させられるものとした実オブジェクトの上記仮想オブジェクトに隠される部分からの光を阻止する手段と、
    を備えた立体三次元画像を発生する装置。
  4. コンピュータ手段により表現される立体画像を表示装置の表示面に発生する過程と、
    上記表示装置の表示面の周囲を回転するように結合されている反射器手段から反射された立体画像を見る人へ送るように立体画像を該反射器手段で反射する過程と、
    上記反射器手段が見る人の動きに追従することにより上記立体画像を見る人へ連続して送るように、コンピュータ手段の制御の下に該反射器手段を上記表示面の周囲に沿って回転させる過程と、
    を備える立体三次元画像を発生する方法。
  5. 請求項4記載の方法において、上記表示装置と反射器手段が見る人を追従し、上記立体画像を見る人へ送るように、該表示装置と反射器手段をコンピュータ手段の制御の下に二次元平面に沿って動かす過程を更に備える方法。
  6. 請求項4記載の方法において、
    上記立体画像はコンピュータ手段上の仮想座標空間に表示される仮想オブジェクトとして表現されるものであり、
    前記コンピュータは、さらに、
    実オブジェクトをこの仮想座標空間に上記仮想オブジェクトとともに表示するために、上記反射器手段を半透明鏡で構成するとともにこの半透明鏡の背後に上記実オブジェクトを配置させた構成と、
    上記実オブジェクトの上記仮想座標空間における3次元位置決めを示すzバッファを生成する構成と、
    上記実オブジェクトが上記仮想オブジェクトの前方に位置させられるものとした場合に 、上記zバッファに基づき、上記前方に位置させられるものとした実オブジェクトにより隠される、上記表示装置の発生する立体画像の仮想オブジェクトの部分からの光を放出させないようにする手段と、
    上記実オブジェクトが上記仮想オブジェクトの後方に位置させられるものとした場合に、上記zバッファに基づき、上記後方に位置させられるものとした実オブジェクトの上記仮想オブジェクトに隠される部分からの光を阻止する手段と、
    を備えた立体三次元画像を発生する方法。
JP01499194A 1993-01-14 1994-01-14 正確な立体三次元画像を発生する装置および方法 Expired - Lifetime JP3575622B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US08/004,706 US5394202A (en) 1993-01-14 1993-01-14 Method and apparatus for generating high resolution 3D images in a head tracked stereo display system
US004706 1993-01-14

Publications (2)

Publication Number Publication Date
JPH06317762A JPH06317762A (ja) 1994-11-15
JP3575622B2 true JP3575622B2 (ja) 2004-10-13

Family

ID=21712123

Family Applications (1)

Application Number Title Priority Date Filing Date
JP01499194A Expired - Lifetime JP3575622B2 (ja) 1993-01-14 1994-01-14 正確な立体三次元画像を発生する装置および方法

Country Status (5)

Country Link
US (1) US5394202A (ja)
EP (2) EP0607000B1 (ja)
JP (1) JP3575622B2 (ja)
KR (2) KR100327874B1 (ja)
DE (2) DE69432994T2 (ja)

Families Citing this family (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0702494B1 (en) * 1994-09-19 2001-12-05 Matsushita Electric Industrial Co., Ltd. Three-dimensional image display apparatus
AUPN003894A0 (en) * 1994-12-13 1995-01-12 Xenotech Research Pty Ltd Head tracking system for stereoscopic display apparatus
US6005607A (en) 1995-06-29 1999-12-21 Matsushita Electric Industrial Co., Ltd. Stereoscopic computer graphics image generating apparatus and stereoscopic TV apparatus
US5831638A (en) * 1996-03-08 1998-11-03 International Business Machines Corporation Graphics display system and method for providing internally timed time-varying properties of display attributes
US6480204B1 (en) * 1996-04-30 2002-11-12 Sun Microsystems, Inc. Transparent sunpad for home shopping
AUPO024696A0 (en) 1996-06-04 1996-06-27 Xenotech Research Pty Ltd Video display system
US6302542B1 (en) * 1996-08-23 2001-10-16 Che-Chih Tsao Moving screen projection technique for volumetric three-dimensional display
JP3651204B2 (ja) 1996-12-18 2005-05-25 トヨタ自動車株式会社 立体画像表示装置、立体画像表示方法及び記録媒体
US5781229A (en) * 1997-02-18 1998-07-14 Mcdonnell Douglas Corporation Multi-viewer three dimensional (3-D) virtual display system and operating method therefor
US6394557B2 (en) 1998-05-15 2002-05-28 Intel Corporation Method and apparatus for tracking an object using a continuously adapting mean shift
SG77682A1 (en) * 1998-05-21 2001-01-16 Univ Singapore A display system
SG87768A1 (en) * 1998-05-21 2002-04-16 Univ Singapore Compact reach-in display system for two-handed user interaction with virtual objects
KR100741330B1 (ko) * 1998-07-29 2007-07-23 서브미디어, 엘엘씨 이동하는 관찰자에게 영상을 표시하는 디스플레이 장치
JP4100531B2 (ja) * 1998-08-11 2008-06-11 株式会社東京大学Tlo 情報提示方法及び装置
US6538649B2 (en) 1998-12-01 2003-03-25 Intel Corporation Computer vision control variable transformation
US6396476B1 (en) 1998-12-01 2002-05-28 Intel Corporation Synthesizing computer input events
US6363160B1 (en) 1999-01-22 2002-03-26 Intel Corporation Interface using pattern recognition and tracking
US6747665B1 (en) 1999-05-10 2004-06-08 Ge Medical Systems Global Technology Company, Llc Semi-transparent medical image overlays
US6554431B1 (en) * 1999-06-10 2003-04-29 Sony Corporation Method and apparatus for image projection, and apparatus controlling image projection
US6647131B1 (en) 1999-08-27 2003-11-11 Intel Corporation Motion detection using normal optical flow
US7142281B2 (en) 2000-06-02 2006-11-28 Georae Ltd. Method and system for providing a three dimensional image
KR20010113117A (ko) * 2000-06-16 2001-12-28 최재학 3차원 영상 표시 장치
US6931596B2 (en) 2001-03-05 2005-08-16 Koninklijke Philips Electronics N.V. Automatic positioning of display depending upon the viewer's location
US20040254454A1 (en) * 2001-06-13 2004-12-16 Kockro Ralf Alfons Guide system and a probe therefor
DE60130264T2 (de) * 2001-06-13 2008-05-21 Volume Interactions Pte. Ltd. Führungssystem
US20030117395A1 (en) 2001-08-17 2003-06-26 Byoungyi Yoon Method and system for calculating a photographing ratio of a camera
JP4007801B2 (ja) 2001-11-30 2007-11-14 オリンパス株式会社 コード読取装置及びカード型記録媒体
US6646072B2 (en) * 2002-01-23 2003-11-11 Equistar Chemicals, Lp Process for making polyolefin compositions containing exfoliated clay
US20030222977A1 (en) * 2002-06-03 2003-12-04 Kazutora Yoshino Intelligent system and 3D virtual object generator
JP2004199496A (ja) * 2002-12-19 2004-07-15 Sony Corp 情報処理装置および方法、並びにプログラム
US20050237622A1 (en) * 2003-07-28 2005-10-27 Kazutora Yoshino Color 3D image display
DE10335644B9 (de) * 2003-08-04 2006-06-01 Carl Zeiss Mikroskopiesystem
US20060192869A1 (en) * 2005-02-28 2006-08-31 Kazutora Yoshino Multi-dimensional input, transfer, optional memory, and output method
JP4522129B2 (ja) * 2004-03-31 2010-08-11 キヤノン株式会社 画像処理方法および画像処理装置
US20060158455A1 (en) * 2005-01-18 2006-07-20 Kazutora Yoshino Real clear 3D multi-user communicator
JP2006276391A (ja) * 2005-03-29 2006-10-12 Yasui & Co 拡大観察装置
JP4274154B2 (ja) * 2005-05-31 2009-06-03 富士ゼロックス株式会社 立体表示装置
KR100932977B1 (ko) 2005-07-05 2009-12-21 삼성모바일디스플레이주식회사 입체 영상 표시 장치
KR100913173B1 (ko) * 2005-07-05 2009-08-19 삼성모바일디스플레이주식회사 3d 그래픽 처리장치 및 이를 이용한 입체영상 표시장치
US8279221B2 (en) 2005-08-05 2012-10-02 Samsung Display Co., Ltd. 3D graphics processor and autostereoscopic display device using the same
JP4111231B2 (ja) * 2006-07-14 2008-07-02 富士ゼロックス株式会社 立体表示システム
JP4764305B2 (ja) * 2006-10-02 2011-08-31 株式会社東芝 立体画像生成装置、方法およびプログラム
US20100020254A1 (en) * 2008-07-23 2010-01-28 Zheng Jason Geng Multi-panel virtual image display
TWI370418B (en) * 2008-10-27 2012-08-11 Ind Tech Res Inst Computer system and controlling method thereof
WO2010112062A1 (fr) * 2009-03-30 2010-10-07 Renault S.A.S. Dispositif de projection d'un objet virtuel sur un ecran
TWM368805U (en) * 2009-07-03 2009-11-11 Teng Luo Technology Co Ltd Device for displaying 3D images
EP2478492B1 (en) * 2009-09-16 2019-03-20 Sydac Pty Ltd Visual presentation system
GB2481366B (en) * 2010-06-03 2014-05-28 Sony Comp Entertainment Europe Entertainment device and entertainment methods
US8704879B1 (en) 2010-08-31 2014-04-22 Nintendo Co., Ltd. Eye tracking enabling 3D viewing on conventional 2D display
FR2976681B1 (fr) * 2011-06-17 2013-07-12 Inst Nat Rech Inf Automat Systeme de colocalisation d'un ecran tactile et d'un objet virtuel et dispostif pour la manipulation d'objets virtuels mettant en oeuvre un tel systeme
DE102011112618A1 (de) * 2011-09-08 2013-03-14 Eads Deutschland Gmbh Interaktion mit einem dreidimensionalen virtuellen Szenario
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
JP6138566B2 (ja) * 2013-04-24 2017-05-31 川崎重工業株式会社 部品取付作業支援システムおよび部品取付方法
CN103631024A (zh) * 2013-11-29 2014-03-12 北京赢康科技开发有限公司 立体显示系统
FI20145396A7 (fi) 2014-04-29 2015-10-30 Satavision Oy Virtuaalivitriini
US10520728B2 (en) * 2017-10-17 2019-12-31 Visteon Global Technologies, Inc. Embedded optimization algorithm of parameters to drive deployment mechanism for displays
CN111868608B (zh) 2018-03-23 2023-06-06 索尼半导体解决方案公司 显示装置
JP2021081684A (ja) * 2019-11-22 2021-05-27 株式会社ウェイブ 対話システム、対話方法及び対話プログラム
JP7567582B2 (ja) * 2021-03-15 2024-10-16 株式会社Jvcケンウッド 立体映像表示装置、立体映像表示方法およびプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4649425A (en) * 1983-07-25 1987-03-10 Pund Marvin L Stereoscopic display
US4634384A (en) * 1984-02-02 1987-01-06 General Electric Company Head and/or eye tracked optically blended display system
US4639081A (en) * 1985-08-15 1987-01-27 Kabushiki Kaisha Toshiba Gimballed three-dimensional display system
US4722056A (en) * 1986-02-18 1988-01-26 Trustees Of Dartmouth College Reference display systems for superimposing a tomagraphic image onto the focal plane of an operating microscope
US4922336A (en) * 1989-09-11 1990-05-01 Eastman Kodak Company Three dimensional display system
EP0554346A4 (en) * 1990-10-22 1993-12-01 Logitech Inc Ultrasonic position locating method and apparatus therefor
DE4207284C2 (de) * 1992-03-07 1996-08-22 Stefan Reich Räumliche Bilddarbietung
US5287437A (en) * 1992-06-02 1994-02-15 Sun Microsystems, Inc. Method and apparatus for head tracked display of precomputed stereo images

Also Published As

Publication number Publication date
EP0996093A1 (en) 2000-04-26
DE69432994T2 (de) 2004-04-22
US5394202A (en) 1995-02-28
DE69425913D1 (de) 2000-10-26
DE69432994D1 (de) 2003-09-04
KR100327874B1 (ko) 2002-06-20
DE69425913T2 (de) 2001-04-26
KR940018769A (ko) 1994-08-18
KR100311066B1 (ko) 2001-10-18
JPH06317762A (ja) 1994-11-15
EP0607000A2 (en) 1994-07-20
EP0996093B1 (en) 2003-07-30
EP0607000A3 (en) 1995-11-15
EP0607000B1 (en) 2000-09-20

Similar Documents

Publication Publication Date Title
JP3575622B2 (ja) 正確な立体三次元画像を発生する装置および方法
JP3318680B2 (ja) 画像生成方法及び画像生成装置
US4984179A (en) Method and apparatus for the perception of computer-generated imagery
Deering High resolution virtual reality
US11577159B2 (en) Realistic virtual/augmented/mixed reality viewing and interactions
US5287437A (en) Method and apparatus for head tracked display of precomputed stereo images
US10083538B2 (en) Variable resolution virtual reality display system
US10089790B2 (en) Predictive virtual reality display system with post rendering correction
Azuma A survey of augmented reality
US5742331A (en) Three-dimensional image display apparatus
US20040135744A1 (en) Virtual showcases
US20160267720A1 (en) Pleasant and Realistic Virtual/Augmented/Mixed Reality Experience
JP3900446B2 (ja) 画像表示方法及び装置
US20130128012A1 (en) Simulated head mounted display system and method
JP2008500624A (ja) 仮想3次元空間内で動作するシステム及び方法と視覚化システムを介してオペレーションを選択するシステム
JP3026716B2 (ja) 立体型表示装置
Argelaguet et al. Visual feedback techniques for virtual pointing on stereoscopic displays
EP0928117A2 (en) Method and apparatus for providing volumetric projection
Schmandt Interactive three-dimensional computer space
WO2002015110A1 (en) Virtual showcases
JPH06337756A (ja) 3次元位置指定方法および仮想空間立体視装置
Kenyon et al. Visual requirements for virtual‐environment generation
Wegman Affordable environments for 3D collaborative data visualization
EP1325460A1 (en) Virtual showcases
Fuhrmann et al. Distributed Software-Based Volume Visualization in a Virtual Environment.

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040615

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040701

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070716

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080716

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080716

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090716

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090716

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100716

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110716

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110716

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120716

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120716

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130716

Year of fee payment: 9

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term