[go: up one dir, main page]

JP2016031439A - 情報処理装置及び情報処理方法、コンピューター・プログラム、並びに画像表示システム - Google Patents

情報処理装置及び情報処理方法、コンピューター・プログラム、並びに画像表示システム Download PDF

Info

Publication number
JP2016031439A
JP2016031439A JP2014153351A JP2014153351A JP2016031439A JP 2016031439 A JP2016031439 A JP 2016031439A JP 2014153351 A JP2014153351 A JP 2014153351A JP 2014153351 A JP2014153351 A JP 2014153351A JP 2016031439 A JP2016031439 A JP 2016031439A
Authority
JP
Japan
Prior art keywords
head
user
image
abnormality
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014153351A
Other languages
English (en)
Inventor
長谷川 雄一
Yuichi Hasegawa
雄一 長谷川
愉希夫 大渕
Yukio Obuchi
愉希夫 大渕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2014153351A priority Critical patent/JP2016031439A/ja
Priority to US15/318,116 priority patent/US20170111636A1/en
Priority to EP15734264.3A priority patent/EP3175324A1/en
Priority to PCT/JP2015/003033 priority patent/WO2016017062A1/en
Publication of JP2016031439A publication Critical patent/JP2016031439A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/04Diagnosis, testing or measuring for television systems or their details for receivers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/12Adjusting pupillary distance of binocular pairs
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/002Eyestrain reduction by processing stereoscopic signals or controlling stereoscopic devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】ヘッド・マウント・ディスプレイに表示する画像がユーザーの位置しない酔いを引き起こすかどうかを検出する。
【解決手段】異常検出部901は、単位時間毎の頭部の各方向の移動量Δx、Δy、Δz、頭部の各軸回りの回転量Δφ、Δθ、Δψ、頭部の動きの絶対値|P|とノルム||P||、並びに、頭部の回転の絶対値|r|とノルム||r||をを時々刻々算出し、各々に設定された閾値と大小比較して、ユーザーが意図していない酔いを引き起こしそうな画像を検出する。異常検出に応じて、表示切換えやヘッド・マウント・ディスプレイの頭部からの取り外しなどを指示する。
【選択図】 図9

Description

本明細書で開示する技術は、ユーザーの頭部又は顔部に固定された画面に表示する画像情報を処理する情報処理装置及び情報処理方法、コンピューター・プログラム、並びに画像表示システムに関する。
画像を観察するユーザーの頭部又は顔部に固定される画像表示装置、すなわち、ヘッド・マウント・ディスプレイが知られている。ヘッド・マウント・ディスプレイは、例えば左右の眼毎の画像表示部を持ち、また、ヘッドフォンと併用し、視覚及び聴覚を制御できるように構成されている。頭部に装着した際に外界を完全に遮るように構成すれば、視聴時の仮想現実感が増す。また、ヘッド・マウント・ディスプレイは、左右の眼に違う映像を映し出すことも可能であり、左右の眼に対して視差のある画像を表示すれば3D画像を提示することができる。
この種のヘッド・マウント・ディスプレイは、虚像を眼の網膜上に結像させて、ユーザーに観察させる。ここで、虚像は、物体が焦点距離よりレンズに近い位置にある場合に、その物体側に形成される。例えば、瞳孔の前方に25ミリメートルだけ離間して広視野角の虚像光学系を配置し、この広視野角光学系のさらに前方に約0.7インチの有効画素範囲の大きさを持つ表示パネルを配置して、表示画像の拡大虚像をユーザーの瞳に結像する、広視野角のヘッド・マウント・ディスプレイについて提案がなされている(例えば、特許文献1を参照のこと)。
また、ユーザーは、この種のヘッド・マウント・ディスプレイを用いて、広視野画像の一部を切り出した画像を観察することができる。例えば、頭部にジャイロ・センサーなどからなる頭部動作追跡装置を取り付け、ユーザーの頭部の動きに追従させた広視野画像を実感できるようにしたヘッド・マウント・ディスプレイについて提案がなされている(例えば、特許文献2、特許文献3を参照のこと)。ジャイロ・センサーが検出した頭部の動きを打ち消すように、広視野画像中で表示領域を移動させることで、頭部の動きに追従した画像を再現することができ、ユーザーは広い空間を見渡しているような体験をする。
ところで、仮想画像を表示する画像表示システムにおいては、ユーザーの動きとは一致しない、予期しない画像を視聴すると、ユーザーはVR(Virtual Reality)酔いなどの、健康被害を受けるおそれがあることが知られている。
例えば、3次元コンピューター・グラフィックスによりレンダリングされたビデオ・ゲームを大画面ディスプレイでプレイしたり、立体視可能な3次元テレビで3D映画を長時間視聴し続けたりすると、ユーザーは気持ち悪くなることがある。また、広視野角のヘッド・マウント・ディスプレイでは、自由視点画像などを比較的短時間でも酔いを生じ易い。
本明細書で開示する技術の目的は、ユーザーの頭部又は顔部に固定された画面などに表示する画像を処理して、視聴中に生じる酔いを防止することができる、優れた情報処理装置及び情報処理方法、コンピューター・プログラム、並びに画像表示システムを提供することにある。
本願は、上記課題を参酌してなされたものであり、請求項1に記載の技術は、
ユーザーの頭部又は顔部に固定される表示装置に表示される画像中の異常を検出する異常検出部と、
を具備する情報処理装置である。
本願の請求項2に記載の技術によれば、請求項1に記載の情報処理装置の前記異常検出部は、前記表示装置が前記ユーザーの頭部の位置及び姿勢に追従した画像を表示しているときに、前記ユーザーが意図しない酔いを引き起こす異常を検出するように構成されている。
本願の請求項3に記載の技術によれば、請求項1又は2のいずれかに記載の情報処理装置は、前記ユーザーの頭部の位置及び姿勢情報を取得する頭部位置姿勢情報取得部をさらに備えている。そして、前記異常検出部は、前記ユーザーの頭部の位置及び姿勢情報に基づいて異常を検出するように構成されている。
本願の請求項4に記載の技術によれば、請求項3に記載の情報処理装置の前記異常検出部は、前記ユーザーの頭部の位置及び姿勢情報を所定の閾値と比較して異常を検出するように構成されている。
本願の請求項5に記載の技術によれば、請求項3に記載の情報処理装置は、前記表示装置に表示する画像にメタデータとして付随する動き情報を取得する動き情報取得部をさらに備えている。そして、前記異常検出部は、前記動き情報に基づいて、前記ユーザーの頭部の位置及び姿勢情報から異常を検出するように構成されている。
本願の請求項6に記載の技術によれば、請求項5に記載の情報処理装置の前記異常検出部は、前記ユーザーの頭部の位置及び姿勢情報を、前記動き情報として取得した閾値と比較して異常を検出するように構成されている。
本願の請求項7に記載の技術によれば、請求項1に記載の情報処理装置の前記異常検出部は、前記表示装置に表示される画像を解析して異常を検出するように構成されている。
本願の請求項8に記載の技術によれば、請求項7に記載の情報処理装置の前記異常検出部は、画像の面内のオプティカル・フローの平均値を所定の閾値と比較して、異常を検出するように構成されている。
本願の請求項9に記載の技術によれば、請求項1に記載の情報処理装置の前記異常検出部は、異常を検出したことに応じて、前記表示装置に異常検出信号を出力するように構成されている。
本願の請求項10に記載の技術によれば、請求項1に記載の情報処理装置の前記異常検出部は、異常を検出したことに応じて、前記表示装置に対して、異常な画像に応じた表示制御を指示する異常検出信号を出力するように構成されている。
本願の請求項11に記載の技術によれば、請求項1に記載の情報処理装置前記異常検出部は、異常を検出したことに応じて、前記表示装置がユーザーの頭部又は顔部に固定された状態の解除を指示する異常検出信号を出力するように構成されている。
また、本願の請求項12に記載の技術は、
ユーザーの頭部又は顔部に固定される表示装置に表示される画像中の異常を検出する異常検出部ステップと、
を有する情報処理方法である。
また、本願の請求項13に記載の技術は、
ユーザーの頭部又は顔部に固定される表示装置に表示される画像中の異常を検出する異常検出部、
としてコンピューターを機能させるようにコンピューター可読形式で記述されたコンピューター・プログラムである。
本願の請求項13に係るコンピューター・プログラムは、コンピューター上で所定の処理を実現するようにコンピューター可読形式で記述されたコンピューター・プログラムを定義したものである。換言すれば、本願の請求項に係るコンピューター・プログラムをコンピューターにインストールすることによって、コンピューター上では協働的作用が発揮され、本願の請求項1に係る情報処理装置と同様の作用効果を得ることができる。
また、本願の請求項14に記載の技術は、
ユーザーの頭部又は顔部に固定される表示装置と、
前記表示装置に表示される画像中の異常を検出する異常検出部と、
を具備する画像表示システムである。
但し、ここで言う「システム」とは、複数の装置(又は特定の機能を実現する機能モジュール)が論理的に集合した物のことを言い、各装置や機能モジュールが単一の筐体内にあるか否かは特に問わない。
本明細書で開示する技術によれば、ユーザーの頭部又は顔部に固定された画面などに表示する画像を処理して、視聴中に生じる酔いを防止することができる、優れた情報処理装置及び情報処理方法、コンピューター・プログラム、並びに画像表示システムを提供することができる。
なお、本明細書に記載された効果は、あくまでも例示であり、本発明の効果はこれに限定されるものではない。また、本発明が、上記の効果以外に、さらに付加的な効果を奏する場合もある。
本明細書で開示する技術のさらに他の目的、特徴や利点は、後述する実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
図1は、本明細書で開示する技術を適用した画像表示システム100の構成例を模式的に示した図である。 図2は、画像表示システム100の変形例を模式的に示した図である。 図3は、ヘッド・マウント・ディスプレイを頭部に装着しているユーザーを正面から眺めた様子を示した図である。 図4は、図3に示したヘッド・マウント・ディスプレイを着用したユーザーを上方から眺めた様子を示した図である。 図5は、ヘッド・マウント・ディスプレイを利用した画像表示システム100の変形例を示した図である。 図6は、図5に示した画像表示システム100の機能的構成例を示した図である。 図7は、ユーザーの頭部の動きに追従した画像を表示装置400で表示する仕組みを説明するための図である。 図8は、広視野画像からユーザーの頭部の位置姿勢に適合した表示画角の画像を切り出す処理手順を示した図である。 図9は、異常な画像を自動検出する機能的構成例を示した図である。 図10は、ユーザーの頭部の座標系を示した図である。 図11は、異常な画像を自動検出する他の機能的構成例を示した図である。 図12は、異常な画像を自動検出するさらに他の機能的構成例を示した図である。 図13は、画像の面内に生じるオプティカル・フローを例示した図である。
以下、図面を参照しながら本明細書で開示する技術の実施形態について詳細に説明する。
図1には、本明細書で開示する技術を適用した画像表示システム100の構成例を模式的に示している。図示の画像表示システム100は、頭部動作追跡装置200と、描画装置300と、表示装置400で構成される。
頭部動作追跡装置200は、表示装置400が表示する画像を観察するユーザーの頭部に装着して用いられ、所定の送信周期でユーザーの頭部の位置姿勢情報を描画装置200に出力する。図示の例では、頭部動作追跡装置200は、センサー部201と、位置姿勢演算部202と、得られた姿勢情報を描画装置300に送信する通信部203を備えている。
センサー部201は、例えば、ジャイロ・センサーと加速度センサーと地磁気センサーなど複数のセンサー素子を組み合わせて構成されている。ここでは、3軸ジャイロ・センサー、3軸加速度センサー、3軸地磁気センサーの合計9軸を検出可能なセンサーとする。位置姿勢演算部202は、センサー部201による9軸の検出結果に基づいて、ユーザーの頭部の位置姿勢情報を演算する。通信部203は、求められた姿勢情報を描画装置300に送信する。
図1に示す画像表示システム100では、頭部動作追跡装置200と描画装置300間はBluetooth(登録商標)通信などの無線通信により相互接続されているものとする。勿論、無線通信ではなく、USB(Universal Serial Bus)のような高速な有線インフェース経由で頭部動作追跡装置200と描画装置300間を接続するようにしてもよい。
描画装置300は、表示装置400で表示する画像のレンダリング処理を行なう。描画装置300は、例えばスマートフォンやタブレットなどのAndroid(登録商標)搭載端末、あるいはパーソナル・コンピューター、ゲーム機として構成されるが、これらの装置に限定される訳ではない。
図1に示す例では、描画装置300は、頭部動作追跡装置200から姿勢情報を受信する通信部301と、姿勢情報に基づいて画像のレンダリング処理を行なう描画処理部302と、レンダリングした画像を表示装置400に送信する第2の通信部303と、画像データの供給源となる画像ソース304を備えている。
通信部301は、Bluetooth(登録商標)通信などを介して、頭部動作追跡装置200から姿勢情報を受信する。上述したように、姿勢情報は回転マトリックスで表現されている。
画像ソース304は、例えば、画像コンテンツを記録するHDD(Hard Disc Drive)やSSD(Solid State Drive)などの記憶装置、ブルーレイ(登録商標)などの記録メディアを再生するメディア再生装置、ディジタル放送信号を選局受信する放送チューナー、インターネットのサーバーなどから画像コンテンツを受信する通信インターフェースなどからなる。あるいは、表示装置400が没入型のヘッド・マウント・ディスプレイとして構成される場合、その外側カメラ(後述)で撮影したビデオ・シースルー画像を画像ソース304とすることもできる。
描画処理部302は、画像ソース304の画像データから、表示装置400側で表示する画像をレンダリングする。描画処理部302は、例えば画像ソース304から供給される全天球型の原画像や4Kなどの広画角の原画像から、通信部301で受信した姿勢情報に対応した表示画角を切り出した画像をレンダリングする。
描画装置300と表示装置400間は、例えばHDMI(登録商標)(High Definition Multimedia Interface)やMHL(Mobile High−definition Link)などの有線ケーブルにより接続されている。あるいは、wirelessHDやMiracastのような無線通信で接続してもよい。第2の通信部303は、いずれかの通信路を用いて、描画処理部302でレンダリングされた画像データを非圧縮のまま表示装置400に送信する。
表示装置400は、描画装置300から画像を受信する通信部401と、受信した画像を表示する表示部402を備えている。表示装置400は、例えば、画像を観察するユーザーの頭部又は顔部に固定されるヘッド・マウント・ディスプレイとして構成される。
通信部401は、例えばHDMI(登録商標)やMHLなどの通信路を介して、描画装置300から非圧縮の画像データを受信する。表示部402は、受信した画像データを画面に表示する。
表示装置400がヘッド・マウント・ディスプレイとして構成される場合、例えば、表示部402は、ユーザーの左右の眼にそれぞれ固定された左右の画面を備え、左眼用画像及び右眼用画像を表示する。表示部402の画面は、例えば有機EL(Electro−Luminescence)素子や液晶ディスプレイなどのマイクロ・ディスプレイなどの表示パネル、あるいは、網膜直描ディスプレイなどのレーザー走査方式ディスプレイで構成される。また、表示部402の表示画像を拡大投影して、ユーザーの瞳に所定の画角からなる拡大虚像を結像する虚像光学部を備えている。
描画装置300側では、例えば全天球型の原画像や4Kなどの広画角の原画像から、ユーザーの頭部の位置姿勢情報に対応した表示画角を切り出した画像をレンダリングする。表示装置400側では、ユーザーの頭部の姿勢角を打ち消すように原画像中の表示領域が移動することになる。したがって、頭部の動きに追従した画像を再現することができ、ユーザーは大画面を見渡す体験をすることができる。また、表示装置400は、画像の動きに合わせて音声の出力も変化させるようにしてもよい。
図2には、画像表示システム100の変形例を模式的に示している。図1に示した例では、画像表示システム100は、頭部動作追跡装置200、描画装置300、表示装置400という3台の独立した装置で構成されるが、図2に示す例では、描画装置300の機能が表示装置400内に搭載されている。図1に示したように、頭部動作追跡装置200を表示装置400に外付けされるオプション製品として構成すれば、表示装置400の小型・軽量化、低廉化になる。
図3並びに図4には、表示装置400の外観構成を示している。図示の例では、表示装置400は、画像を観察するユーザーの頭部又は顔部に固定して用いられるヘッド・マウント・ディスプレイとして構成される。但し、図3はヘッド・マウント・ディスプレイを頭部に装着しているユーザーを正面から眺めた様子を示し、図4はヘッド・マウント・ディスプレイを着用したユーザーを上方から眺めた様子を示している。
ヘッド・マウント・ディスプレイは、ユーザーが頭部又は顔部に装着した際にユーザーの眼を直接覆い、画像視聴中のユーザーに没入感を与えることができる。また、表示画像は、外側(すなわち他人)からは見えないので、情報表示に際してプライバシーが守られ易い。光学シースルーのタイプとは相違し、没入型のヘッド・マウント・ディスプレイを着用したユーザーは現実世界の風景を直接眺めることはできない。ユーザーの視線方向の風景を撮影する外側カメラを装備していれば、その撮像画像を表示することにより、ユーザーは間接的に現実世界の風景を眺める(すなわち、ビデオ・シースルーで風景を表示する)ことができる。
図3に示すヘッド・マウント・ディスプレイは、帽子形状に類似した構造体であり、着用したユーザーの左右の眼を直接覆うように構成されている。ヘッド・マウント・ディスプレイ本体の内側の左右の眼に対向する位置には、ユーザーが観察する表示パネルが配設されている。表示パネルは、例えば有機EL素子や液晶ディスプレイなどのマイクロ・ディスプレイや、網膜直描ディスプレイなどのレーザー走査方式ディスプレイで構成される。
ヘッド・マウント・ディスプレイ本体の左右の両端付近にそれぞれマイクロフォンが設置されている。左右ほぼ対称的にマイクロフォンを持つことで、中央に定位した音声(ユーザーの声)だけを認識することで、周囲の雑音や他人の話声と分離することができ、例えば音声入力による操作時の誤動作を防止することができる。
また、ヘッド・マウント・ディスプレイ本体の外側には、ユーザーが指先などを使ってタッチ入力することができるタッチパネルが配設されている。図示の例では、左右一対のタッチパネルを備えているが、単一又は3以上のタッチパネルを備えていてもよい。
また、ヘッド・マウント・ディスプレイは、図4に示すように、ユーザーの顔面と対向する側面に、左眼用及び右眼用の表示パネルを持つ。表示パネルは、例えば有機EL素子や液晶ディスプレイなどのマイクロ・ディスプレイや網膜直描ディスプレイなどのレーザー走査方式ディスプレイで構成される。表示パネルの表示画像は、虚像光学部を通過するにより拡大虚像としてユーザーの左右の目でそれぞれ観察される。また、眼の高さや眼幅にはユーザー毎に個人差があるため、着用したユーザーの眼と左右の各表示系とを位置合わせする必要がある。図4に示す例では、右眼用の表示パネルと左眼用の表示パネルの間に眼幅調整機構を装備している。
図5には、ヘッド・マウント・ディスプレイを利用した画像表示システム100の変形例を示している。図示の画像表示システム100は、ユーザーが頭部又は顔部に装着して用いる表示装置(ヘッド・マウント・ディスプレイ)400と、図5には図示を省略した頭部動作追跡装置200と、マルチコプターなどの移動体装置600に搭載された撮影装置500で構成される。移動体装置600は、ユーザーがコントローラー700を介して無線で遠隔操作するラジコンでもよいし、他のユーザーが操縦する移動体や自律的に運転する移動体であってもよい。
また、ヘリコプターなどのラジコンに搭載した無線カメラで撮影した一人称視点(パイロット視点)画像を見ながら操縦する、FPV(First Person Viewing)技術も知られている。例えば、撮影装置を搭載した移動体と、操作者が操作して移動体を遠隔制御するウェアラブルPCからなる移動体制御装置について提案がなされている(例えば、特許文献4を参照のこと)。移動体側では、移動体の動作を制御する信号を受信して自己の動作を制御するとともに、搭載している撮影装置を制御する信号を受信して撮影動作を制御して、撮影装置の出力する映像信号と音声信号をウェアラブルPCに送信する。一方、ウェアラブルPC側では、操作者の操作に応じて、移動体の動作を制御する信号を生成し、また、操作者の音声に応じて撮影装置の動作を制御する信号を生成して、移動体に無線送信するとともに、撮影装置の出力信号を無線受信して映像信号を再生し、これをモニタ画面に表示する。
図6には、図5に示した画像表示システム100の機能的構成例を示している。図示の画像表示システム100は、ユーザーの頭部に取り付けられた頭部動作追跡装置200と、ユーザーの頭部又は顔部に着用される表示装置400、移動体(図6では図示を省略)に搭載された撮影装置500という3台の装置で構成される。
頭部動作追跡装置200は、表示装置400が表示する画像を観察するユーザーの頭部に装着して用いられ、所定の送信周期でユーザーの頭部の位置姿勢情報を表示装置400に出力する。図示の例では、頭部動作追跡装置200は、センサー部201と、位置姿勢演算部202と、通信部203を備えている。
センサー部201は、例えば、ジャイロ・センサーと加速度センサーと地磁気センサーなど複数のセンサー素子を組み合わせて構成され、ユーザーの頭部の姿勢角を検出する。ここでは、3軸ジャイロ・センサー、3軸加速度センサー、3軸地磁気センサーの合計9軸を検出可能なセンサーとする。位置姿勢演算部202は、センサー部201による9軸の検出結果に基づいて、ユーザーの頭部の位置姿勢情報を演算する。
頭部動作追跡装置200と表示装置400間はBluetooth(登録商標)通信などの無線通信により相互接続されているものとする。あるいは、無線通信ではなく、USB(Universal Serial Bus)のような高速な有線インフェース経由で頭部動作追跡装置200と表示装置400間を接続するようにしてもよい。位置姿勢演算部202で求められたユーザーの頭部の位置姿勢情報は、通信部203を介して表示装置400に送信される。
撮影装置500は、全方位カメラ501と、通信部502を備え、移動体装置600に搭載して用いられる。
全方位カメラ501は、例えば複数のカメラを、それぞれ主軸方向を外側に向けて放射状に配置して構成され、全方位を撮影範囲とする。なお、本実施形態に係る画像表示システム100に適用可能な全方位カメラの具体的な構成例については、例えば本出願人に既に譲渡されている特願2014−128020号明細書を参照されたい。但し、本明細書で開示する技術は、特定の全方位カメラの構成に限定されない。
撮影装置500と表示装置400間はWi−Fi(Wireless Fidelity)などの無線通信により相互接続されているものとする。全方位カメラ501で撮影した画像情報は、通信部502を介して表示装置400に送信される。
表示装置400は、例えばヘッド・マウント・ディスプレイとして構成される。図6に示す例では、頭部動作追跡装置200は表示装置400とは独立した装置として構成されているが(例えば、頭部動作追跡装置200は、ヘッド・マウント・ディスプレイのオプション製品として製造販売される)、頭部動作追跡装置200と表示装置400を一体としてヘッド・マウント・ディスプレイを構成することもできる。
表示装置400は、第1の通信部301と、第2の通信部303と、描画処理部302と、表示部402を備えている。
表示装置400がヘッド・マウント・ディスプレイとして構成される場合、例えば、表示部402は、ユーザーの左右の眼にそれぞれ固定された左右の画面を備え、左眼用画像及び右眼用画像を表示する。表示部402の画面は、例えば有機EL(Electro−Luminescence)素子や液晶ディスプレイなどのマイクロ・ディスプレイなどの表示パネル、あるいは、網膜直描ディスプレイなどのレーザー走査方式ディスプレイで構成される。また、表示部402の表示画像を拡大投影して、ユーザーの瞳に所定の画角からなる拡大虚像を結像する虚像光学部(図示しない)を備えている。
第1の通信部301は、頭部動作追跡装置200から、通信部203を介してユーザーの頭部の位置姿勢情報を受信する。また、第2の通信部303と、撮影装置500から、通信部502を介して、全方位カメラ501で撮影した画像情報受信する。
描画処理部302は、全方位画像からユーザーの頭部の位置姿勢情報に対応した表示画角を切り出した画像をレンダリングする。表示部402では、ユーザーの頭部の姿勢角を打ち消すように原画像中の表示領域が移動し、頭部の動きに追従した画像を再現することができ、ユーザーは大画面を見渡す体験をすることができる。
図7には、上述した画像表示システム100において、ユーザーの頭部の動きに追従した画像を表示装置400で表示する仕組みを図解している。
ユーザーの視線の奥行き方向がzw軸、水平方向がyw軸、垂直方向がxw軸であり、ユーザーの基準軸xwwwの原点位置はユーザーの視点位置とする。したがって、ロールθzはユーザーの頭部のzw軸回りの運動、チルトθyはユーザーの頭部のyw軸回りの運動、パンθzはユーザーの頭部のxw軸回りの運動に相当する。
頭部動作追跡装置200は、ユーザーの頭部のロール、チルト、パンの各方向の動き(θz,θy,θz)や頭部の平行移動からなる姿勢情報を検出して、描画装置300に出力する。
描画装置300は、ユーザーの頭部の姿勢に追従するように、例えば全方位画像や4Kなどの広画角の原画像701から切り出す領域702の中心を移動させ、その中心位置で所定の画角で切り出した領域702の画像をレンダリングする。描画装置300は、ユーザーの頭部運動のロール成分に応じて領域702−1を回転させたり、ユーザーの頭部運動のチルト成分に応じて領域702−2を移動させたり、ユーザーの頭部運動のパン成分に応じて領域702−3を移動させたりして、頭部動作追跡装置200が検出した頭部の動きを打ち消すように表示領域を移動させる。表示装置400側では、ユーザーの頭部の動きに追従するように原画像501中で表示領域が移動する画像を提示することができる。
図8には、広視野画像からユーザーの頭部の位置姿勢に適合した表示画角の画像を切り出す処理手順を示している。
描画装置300内では、画像ソース304から広視野画像が入力される(F801)。一方、頭部動作追跡装置200内では、センサー部201がユーザーの頭部の姿勢角を検出し、位置姿勢演算部202がセンサー部201による検出結果に基づいてユーザーの頭部の姿勢角qhを演算する(F802)。そして、算出した頭部姿勢角qhを、通信部203を介して描画装置300に送信する。
描画装置300側では、通信部301で、頭部動作追跡装置200からユーザーの頭部姿勢角qhを受信すると、描画処理部302が、ユーザーの頭部姿勢角qhに応じた表示画角を広視野画像から切り出して、画像をレンダリングする(F803)。画像をレンダリングする際、拡大縮小や変形を行なうようにしてもよい。ユーザーの視点位置と視野角に応じて表示画角を変化させた画像のことを「自由視点画像」と呼ぶことにする。そして、描画装置300は、描画処理部302がレンダリングした自由視点画像を、通信部301を介して表示装置400に送信し、表示装置400で表示が行なわれる(F804)。
図7及び図8に示したように、本実施形態に係る画像表示システム100では、頭部追跡装置200が検出するユーザーの頭部の位置姿勢情報に従って視野角を計算し、この視野角に適合する表示画角を元の広視野画像から切り出していく。
ところで、画像表示システム100において、自由視点画像や広視野画像を視聴していると、ユーザーが意図していない、酔いを引き起こしそうな画像を避けることができない。とりわけ、表示装置400がヘッド・マウント・ディスプレイのようにユーザーの頭部又は顔部に固定して利用される場合、比較的短時間でも酔いを生じ易い。
そこで、本明細書で開示する技術では、酔いを引き起こしそうな異常な画像を自動検出して、適切な酔い防止動作を実現するようにしている。
図9には、異常な画像を自動検出する機能的構成例を示している。図示の異常検出機能は、例えば描画処理部302内に組み込むことができる。
異常検出部901は、頭部動作追跡装置200から頭部の位置姿勢情報を入力して、図7及び図8に示した処理手順でレンダリングした自由視点画像が、ユーザーが意図していない酔いを引き起こしそうな画像であるかどうかを検出する。
ここで、図10に示すように、表示装置400を頭部又は顔部に固定したユーザーの頭部(若しくは眼)の3次元位置(x,y,z)、並びに、姿勢(ヨー角φ、ピッチ角θ、ロール角ψ)を定義する。異常検出部901は、単位時間毎の頭部の各方向の移動量Δx、Δy、Δz、並びに、単位時間毎の頭部の各軸回りの回転量Δφ、Δθ、Δψを時々刻々算出し、下式(1)に示すように、各方向について設定した閾値xth、yth、zth並びに各軸について設定した閾値φth、θth、ψthとそれぞれ大小比較する。そして、いずれか1つ、又は所定数以上の成分が閾値を超えると、異常検出部901は、ユーザーが意図していない酔いを引き起こしそうな自由視点画像になることを検出する。
各方向並びに各軸回りに個別に設定した閾値と大小比較することに加えて、単位時間毎の頭部の動きP=(Δx,Δy,Δz)並びに単位時間毎の頭部の回転r=(Δφ,Δθ,Δψ)を時々刻々算出し、下式(2)に示すように、単位時間における頭部の動きの絶対値|P|とノルム||P||、並びに、単位時間における頭部の回転の絶対値|r|とノルム||r||をそれぞれについて設定した閾値Pth、rthと大小比較する。そして、異常検出部901は、いずれか一方又は両方が閾値を超えると、異常検出部901は、ユーザーが意図していない酔いを引き起こしそうな自由視点画像になることを検出する。
例えば、無理やりセンサー部201を動かされたり、センサー部201又は位置姿勢演算部202が誤動作を起こしたりしたときには、異常検出部901は、上式(1)又は(2)に基づいて、異常な自由視点画像になることを検出する。
異常検出部901は、異常な自由視点画像になることを検出すると、表示装置400(若しくは、表示部402)に対して検出信号902を出力して、適切な酔い防止動作を実行するように指示する。但し、酔い防止動作の詳細については、後述に譲る。
また、図11には、異常な画像を自動検出する他の機能的構成例を示している。図示の異常検出機能は、例えば描画処理部302内に組み込むことができる。
異常検出部1101は、頭部動作追跡装置200から頭部の位置姿勢情報を入力して、図7及び図8に示した処理手順でレンダリングした自由視点画像が、ユーザーが意図していない酔いを引き起こしそうな画像であるかどうかを検出する。図9に示した構成例との相違は、動き情報を取得する動き情報取得部1102を備えている点である。
動き情報取得部1102が取得する動き情報は、自由視点画像など描画処理部302が処理する元のコンテンツの画像の動きに関する情報であり、例えばコンテンツに付随するメタデータとして提供される。
動き情報は、例えば、単位時間毎の各方向の移動量Δx、Δy、Δz、並びに、単位時間毎の各軸回りの回転量Δφ、Δθ、Δψの閾値xth、yth、zth、φth、θth、ψthからなる。閾値の情報をコンテンツのメタデータとして提供することにより、コンテンツの制作者は異常と検出すべき閾値をコンテンツの視聴者側に指示することができという利点がある。例えば、コンテンツの制作者が動きの激しい画像として視聴して欲しい場合には、大きな値に設定した閾値を、動き情報としてコンテンツのメタデータに格納すればよい。
また、動き情報として提供する閾値を時間の関数xth(t)、yth(t)、zth(t)、φth(t)、θth(t)、ψth(t)、Pth(t)、rth(t)としてもよい。この場合、異常検出部1101は、下式(3)、(4)に示すように、頭部動作追跡装置200で計測され頭部の位置姿勢情報を、時間の関数である各閾値と大小比較して、画像の異常検出を行なう。
閾値を時間の関数xth(t)、yth(t)、zth(t)、φth(t)、θth(t)、ψth(t)、Pth(t)、rth(t)とすることで、コンテンツの制作者が、例えばシーン毎に異常と検出すべき閾値をコンテンツの視聴者側に指示することができという利点がある。例えば、コンテンツの制作者が動きの激しい画像として視聴して欲しいシーンに対しては、大きな値に設定した閾値を、動き情報としてコンテンツのメタデータに格納すればよい。
異常検出部1101は、異常な自由視点画像になることを検出すると、表示装置400(若しくは、表示部402)に対して検出信号1103を出力して、適切な酔い防止動作を実行するように指示する。但し、酔い防止動作の詳細については、後述に譲る。
また、図12には、異常な画像を自動検出するさらに他の機能的構成例を示している。図示の異常検出機能は、例えば描画処理部302内に組み込むことができる。
画像情報取得部1202は、表示装置400に表示する画像を画像ソース304などから取得する。例えば、ブルーレイ・ディスク・プレイヤーで再生した画像をする。そして、異常検出部1201は、画像情報取得部1202が取得した画像を解析して、ユーザーが意図していない酔いを引き起こしそうな画像であるかどうかを検出する。
図13に示すように、動画像は、画素毎にまちまちのオプティカル・フローを持つ。異常検出部1201は、面内のオプティカル・フローの平均値F=(FX,FY)を時々刻々計算し、下式(5)に示すように、オプティカル・フローの平均値Fの各成分FX、FYの絶対値、オプティカル・フローFの絶対値とノルムを、各々について設定した閾値とそれぞれ大小比較する。
そして、いずれか1つ又は所定数以上が閾値を超えると、異常検出部1201は、表示装置400に異常な画像が表示されると検出し、表示装置400(若しくは、表示部402に対して検出信号1203を出力して、適切な酔い防止動作を実行するように指示する。
なお、図12に示した異常な画像を検出する機能的構成を、図9又は図11に示した機能的構成と組み合わせて、画像表示システム100を運用するようにしてもよい。
画像の異常が検出されたことに応じて、表示装置400で行なう酔い防止動作を以下に例示する。
(1)表示部402をブラックアウトする。
(2)異常を検出した旨のメッセージ画面を表示する。
(3)動画像の表示を一時停止する。
(4)自由視点画像における頭部の位置姿勢の追従を一時停止する。
(5)ビデオ・シースルー表示する。
(6)表示装置400の電源をオフにする。
(7)表示装置400をユーザーの頭部又は顔部に固定した状態を解除する。
上記のうち(1)〜(6)は、画像の異常検出に応答して、表示部402における表示を制御して、ユーザーが意図しない酔いを防止する。(1)〜(4)並びに(6)は、頭部動作に追従した画像を表示する表示装置全般(大画面ディスプレイや、スマートフォンやタブレットなどの多機能端末を含む)に対し適用することができる。これに対し、(5)は、表示装置400がヘッド・マウント・ディスプレイとして構成される場合(図3、図4を参照のこと)、ユーザーの視線方向の風景を外側カメラで撮影して、ビデオ・シースルー表示する方法である。ユーザーは、意図しない酔いを起こすような画像を回避するだけでなく、間接的に現実世界の風景を眺めて、危険を回避することができる。
また、上記のうち(1)〜(6)は信号処理によりユーザーが意図しない酔いを防止するのに対し、(7)は機械的な動作を利用した方法である。表示装置400がヘッド・マウント・ディスプレイとして構成される場合(図3、図4を参照のこと)、例えば、ヘッド・マウント・ディスプレイの装着が外れる、あるいはヘッド・マウント・ディスプレイ全体ではなく表示部のみが外れるといった機構により実現することができる。例えば、表示面を可動部材により開閉可能に支持し、開成状態に依りユーザーの周辺視野を確保できる第2の状態となるヘッド・マウント・ディスプレイについて提案がなされており(例えば、特許文献5を参照のこと)、本明細書で開示する技術に適用することができる。
上述したように、本明細書で開示する技術によれば、ユーザーは、ヘッド・マウント・ディスプレイなどの表示装置を頭部又は顔部に固定して画像を視聴している際に、意図していない酔いを引き起こしそうな画像を見ることを避けることができ、VR酔いを大きく軽減することができる。
特開2012−141461号公報 特開平9−106322号公報 特開2010−256534号公報 特開2001−209426号公報 特開2013−200325号公報
以上、特定の実施形態を参照しながら、本明細書で開示する技術について詳細に説明してきた。しかしながら、本明細書で開示する技術の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。
本明細書で開示する技術は、自由視点画像や広視野画像を没入型のヘッド・マウント・ディスプレイで視聴する際に好適に適用することができるが、勿論、透過型のヘッド・マウント・ディスプレイにも適用することができる。
本明細書では、両眼式でビデオ・シースルー方式のヘッド・マウント・ディスプレイに適用した実施形態を中心に説明してきたが、本明細書で開示する技術は、単眼式のヘッド・マウント・ディスプレイや光学シースルー方式のヘッド・マウント・ディスプレイにも同様に適用することができる。
また、本明細書で開示する技術は、ヘッド・マウント・ディスプレイではなく、スマートフォンやタブレットなどの情報端末の画面を頭部や顔部に固定して自由視点画像を視聴する場合、さらには大画面ディスプレイで広視野角画像を視聴する場合にも、同様に適用することができる。
要するに、例示という形態により本明細書で開示する技術について説明してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本明細書で開示する技術の要旨を判断するためには、特許請求の範囲を参酌すべきである。
なお、本明細書の開示の技術は、以下のような構成をとることも可能である。
(1)ユーザーの頭部又は顔部に固定される表示装置に表示される画像中の異常を検出する異常検出部と、
を具備する情報処理装置。
(2)前記異常検出部は、前記表示装置が前記ユーザーの頭部の位置及び姿勢に追従した画像を表示しているときに、前記ユーザーが意図しない酔いを引き起こす異常を検出する、
上記(1)に記載の情報処理装置。
(3)前記ユーザーの頭部の位置及び姿勢情報を取得する頭部位置姿勢情報取得部をさらに備え、
前記異常検出部は、前記ユーザーの頭部の位置及び姿勢情報に基づいて異常を検出する、
上記(1)又は(2)のいずれかに記載の情報処理装置。
(4)前記異常検出部は、前記ユーザーの頭部の位置及び姿勢情報を所定の閾値と比較して異常を検出する、
上記(3)に記載の情報処理装置。
(5)前記表示装置に表示する画像にメタデータとして付随する動き情報を取得する動き情報取得部をさらに備え、
前記異常検出部は、前記動き情報に基づいて、前記ユーザーの頭部の位置及び姿勢情報から異常を検出する、
上記(3)に記載の情報処理装置。
(6)前記異常検出部は、前記ユーザーの頭部の位置及び姿勢情報を、前記動き情報として取得した閾値と比較して異常を検出する、
上記(5)に記載の情報処理装置。
(7)前記異常検出部は、前記表示装置に表示される画像を解析して異常を検出する、
上記(1)に記載の情報処理装置。
(8)前記異常検出部は、画像の面内のオプティカル・フローの平均値を所定の閾値と比較して、異常を検出する、
上記(7)に記載の情報処理装置。
(9)前記異常検出部は、異常を検出したことに応じて、前記表示装置に異常検出信号を出力する、
上記(1)に記載の情報処理装置。
(10)前記異常検出部は、異常を検出したことに応じて、前記表示装置に対して、異常な画像に応じた表示制御を指示する異常検出信号を出力する、
上記(1)に記載の情報処理装置。
(11)前記異常検出部は、異常を検出したことに応じて、前記表示装置がユーザーの頭部又は顔部に固定された状態の解除を指示する異常検出信号を出力する、
上記(1)に記載の情報処理装置。
(12)ユーザーの頭部又は顔部に固定される表示装置に表示される画像中の異常を検出する異常検出ステップと、
を有する情報処理方法。
(13)ユーザーの頭部又は顔部に固定される表示装置に表示される画像中の異常を検出する異常検出部、
としてコンピューターを機能させるようにコンピューター可読形式で記述されたコンピューター・プログラム。
(14)ユーザーの頭部又は顔部に固定される表示装置と、
前記表示装置に表示される画像中の異常を検出する異常検出部と、
を具備する画像表示システム。
100…画像表示システム
200…頭部動作追跡装置、201…センサー部
202…位置姿勢演算部、203…通信部
300…描画装置、301…第1の通信部、302…描画処理部
303…第2の通信部、304…画像ソース
400…表示装置、401…通信部、402…表示部
500…撮影装置、501…全方位カメラ、502…通信部
600移動体装置、700…コントローラー
901…異常検出部
1101…異常検出部、1102…動き情報取得部
1201…異常検出部、1203…画像情報取得部

Claims (14)

  1. ユーザーの頭部又は顔部に固定される表示装置に表示される画像中の異常を検出する異常検出部と、
    を具備する情報処理装置。
  2. 前記異常検出部は、前記表示装置が前記ユーザーの頭部の位置及び姿勢に追従した画像を表示しているときに、前記ユーザーが意図しない酔いを引き起こす異常を検出する、
    請求項1に記載の情報処理装置。
  3. 前記ユーザーの頭部の位置及び姿勢情報を取得する頭部位置姿勢情報取得部をさらに備え、
    前記異常検出部は、前記ユーザーの頭部の位置及び姿勢情報に基づいて異常を検出する、
    請求項1又は2のいずれかに記載の情報処理装置。
  4. 前記異常検出部は、前記ユーザーの頭部の位置及び姿勢情報を所定の閾値と比較して異常を検出する、
    請求項3に記載の情報処理装置。
  5. 前記表示装置に表示する画像にメタデータとして付随する動き情報を取得する動き情報取得部をさらに備え、
    前記異常検出部は、前記動き情報に基づいて、前記ユーザーの頭部の位置及び姿勢情報から異常を検出する、
    請求項3に記載の情報処理装置。
  6. 前記異常検出部は、前記ユーザーの頭部の位置及び姿勢情報を、前記動き情報として取得した閾値と比較して異常を検出する、
    請求項5に記載の情報処理装置。
  7. 前記異常検出部は、前記表示装置に表示される画像を解析して異常を検出する、
    請求項1に記載の情報処理装置。
  8. 前記異常検出部は、画像の面内のオプティカル・フローの平均値を所定の閾値と比較して、異常を検出する、
    請求項7に記載の情報処理装置。
  9. 前記異常検出部は、異常を検出したことに応じて、前記表示装置に異常検出信号を出力する、
    請求項1に記載の情報処理装置。
  10. 前記異常検出部は、異常を検出したことに応じて、前記表示装置に対して、異常な画像に応じた表示制御を指示する異常検出信号を出力する、
    請求項1に記載の情報処理装置。
  11. 前記異常検出部は、異常を検出したことに応じて、前記表示装置がユーザーの頭部又は顔部に固定された状態の解除を指示する異常検出信号を出力する、
    請求項1に記載の情報処理装置。
  12. ユーザーの頭部又は顔部に固定される表示装置に表示される画像中の異常を検出する異常検出部ステップと、
    を有する情報処理方法。
  13. ユーザーの頭部又は顔部に固定される表示装置に表示される画像中の異常を検出する異常検出部、
    としてコンピューターを機能させるようにコンピューター可読形式で記述されたコンピューター・プログラム。
  14. ユーザーの頭部又は顔部に固定される表示装置と、
    前記表示装置に表示される画像中の異常を検出する異常検出部と、
    を具備する画像表示システム。
JP2014153351A 2014-07-28 2014-07-28 情報処理装置及び情報処理方法、コンピューター・プログラム、並びに画像表示システム Pending JP2016031439A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014153351A JP2016031439A (ja) 2014-07-28 2014-07-28 情報処理装置及び情報処理方法、コンピューター・プログラム、並びに画像表示システム
US15/318,116 US20170111636A1 (en) 2014-07-28 2015-06-17 Information processing apparatus, information processing method, computer program, and image display system
EP15734264.3A EP3175324A1 (en) 2014-07-28 2015-06-17 Information processing for motion sickness prevention in an image display system
PCT/JP2015/003033 WO2016017062A1 (en) 2014-07-28 2015-06-17 Information processing for motion sickness prevention in an image display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014153351A JP2016031439A (ja) 2014-07-28 2014-07-28 情報処理装置及び情報処理方法、コンピューター・プログラム、並びに画像表示システム

Publications (1)

Publication Number Publication Date
JP2016031439A true JP2016031439A (ja) 2016-03-07

Family

ID=53510959

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014153351A Pending JP2016031439A (ja) 2014-07-28 2014-07-28 情報処理装置及び情報処理方法、コンピューター・プログラム、並びに画像表示システム

Country Status (4)

Country Link
US (1) US20170111636A1 (ja)
EP (1) EP3175324A1 (ja)
JP (1) JP2016031439A (ja)
WO (1) WO2016017062A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017138832A (ja) * 2016-02-04 2017-08-10 株式会社コロプラ 仮想空間の提供方法、およびプログラム
WO2018155233A1 (ja) 2017-02-23 2018-08-30 ソニー株式会社 画像処理装置、画像処理方法、および画像システム
JP2018154204A (ja) * 2017-03-16 2018-10-04 ヤフー株式会社 保護装置、保護方法および保護プログラム
JP2019033484A (ja) * 2017-08-09 2019-02-28 中強光電股▲ふん▼有限公司 ニアアイ表示装置およびその表示映像の校正方法
WO2019093278A1 (ja) * 2017-11-10 2019-05-16 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法、及びプログラム
JP2021092883A (ja) * 2019-12-09 2021-06-17 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP2022000697A (ja) * 2017-11-02 2022-01-04 キヤノン株式会社 表示装置、表示装置の制御方法
JP2022189598A (ja) * 2021-06-11 2022-12-22 株式会社デンソーテン 情報処理装置、情報処理システムおよびxrコンテンツの再生方法
JP2025095216A (ja) * 2023-12-14 2025-06-26 本田技研工業株式会社 車両用映像表示装置
JP7784586B1 (ja) * 2025-04-30 2025-12-11 ナブテスコ株式会社 映像処理システム

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6367166B2 (ja) * 2015-09-01 2018-08-01 株式会社東芝 電子機器及び方法
US20170115489A1 (en) * 2015-10-26 2017-04-27 Xinda Hu Head mounted display device with multiple segment display and optics
KR102561860B1 (ko) * 2016-10-25 2023-08-02 삼성전자주식회사 전자장치 및 그 제어방법
EP3322186A1 (en) * 2016-11-14 2018-05-16 Thomson Licensing Method and device for transmitting data representative of an image
IL252056A (en) 2017-05-01 2018-04-30 Elbit Systems Ltd Head-mounted display device, system and method
JP2019040555A (ja) * 2017-08-29 2019-03-14 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
CN108040179B (zh) * 2017-12-25 2021-02-09 Oppo广东移动通信有限公司 屏幕切换方法及相关产品
JP7059662B2 (ja) * 2018-02-02 2022-04-26 トヨタ自動車株式会社 遠隔操作システム、及びその通信方法
JP2019152980A (ja) * 2018-03-01 2019-09-12 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US10558038B2 (en) * 2018-03-16 2020-02-11 Sharp Kabushiki Kaisha Interpupillary distance adjustment mechanism for a compact head-mounted display system
CN109192158A (zh) * 2018-09-21 2019-01-11 重庆惠科金渝光电科技有限公司 显示面板的控制方法、显示面板及存储介质
GB2575932B (en) * 2018-10-26 2020-09-09 Kagenova Ltd Method and system for providing at least a portion of content having six degrees of freedom motion
GB2574487A (en) * 2018-10-26 2019-12-11 Kagenova Ltd Method and system for providing at least a portion of content having six degrees of freedom motion
US11011142B2 (en) * 2019-02-27 2021-05-18 Nintendo Co., Ltd. Information processing system and goggle apparatus
CN110232711B (zh) * 2019-06-05 2021-08-13 中国科学院自动化研究所 面向海产品抓取的双目视觉实时感知定位方法、系统、装置
JP6655751B1 (ja) * 2019-07-25 2020-02-26 エヌ・ティ・ティ・コミュニケーションズ株式会社 映像表示制御装置、方法およびプログラム
US11333888B2 (en) 2019-08-05 2022-05-17 Facebook Technologies, Llc Automatic position determination of head mounted display optics
US10991343B2 (en) * 2019-08-05 2021-04-27 Facebook Technologies, Llc Automatic image alignment with head mounted display optics
US11023041B1 (en) * 2019-11-07 2021-06-01 Varjo Technologies Oy System and method for producing images based on gaze direction and field of view
JP2024115563A (ja) * 2021-07-12 2024-08-27 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07216621A (ja) * 1994-02-09 1995-08-15 Sega Enterp Ltd 頭部装着用具
JPH11161190A (ja) * 1997-11-25 1999-06-18 Seiko Epson Corp 頭部装着型表示装置
JP2002016783A (ja) * 2000-06-29 2002-01-18 Canon Inc 画像処理装置及び方法と画像形成装置
JP2004172671A (ja) * 2002-11-15 2004-06-17 Toshiba Corp 動画像加工方法及び装置
JP2004219664A (ja) * 2003-01-14 2004-08-05 Sumitomo Electric Ind Ltd 情報表示システム及び情報表示方法
JP2009246584A (ja) * 2008-03-31 2009-10-22 Nagoya Institute Of Technology 音声・ビデオ出力方式、音声・ビデオ出力方式実現プログラム及び音声・ビデオ出力装置
JP2010050645A (ja) * 2008-08-20 2010-03-04 Olympus Corp 画像処理装置、画像処理方法及び画像処理プログラム
JP2010257266A (ja) * 2009-04-27 2010-11-11 Sharp Corp コンテンツ出力システム、サーバー装置、コンテンツ出力装置、コンテンツ出力方法、コンテンツ出力プログラム、及びコンテンツ出力プログラムを記憶した記録媒体
WO2012063542A1 (ja) * 2010-11-09 2012-05-18 富士フイルム株式会社 拡張現実感提供装置
WO2013150789A1 (ja) * 2012-04-05 2013-10-10 パナソニック株式会社 動画解析装置、動画解析方法、プログラム、及び集積回路

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09106322A (ja) 1995-10-09 1997-04-22 Data Tec:Kk ヘッドマウントディスプレイにおける姿勢角検出装置
JP2001209426A (ja) 2000-01-26 2001-08-03 Nippon Telegr & Teleph Corp <Ntt> 移動体制御装置
US20070121423A1 (en) * 2001-12-20 2007-05-31 Daniel Rioux Head-mounted display apparatus for profiling system
JP4285287B2 (ja) * 2004-03-17 2009-06-24 セイコーエプソン株式会社 画像処理装置、画像処理方法およびそのプログラム、記録媒体
JP2006128780A (ja) * 2004-10-26 2006-05-18 Konica Minolta Photo Imaging Inc デジタルカメラ
US20070012143A1 (en) * 2005-07-13 2007-01-18 Tracy Gary E Socket for socket wrench
US7884860B2 (en) * 2006-03-23 2011-02-08 Panasonic Corporation Content shooting apparatus
JP4525692B2 (ja) * 2007-03-27 2010-08-18 株式会社日立製作所 画像処理装置、画像処理方法、画像表示装置
KR101265956B1 (ko) * 2007-11-02 2013-05-22 삼성전자주식회사 블록 기반의 영상 복원 시스템 및 방법
JP2010256534A (ja) 2009-04-23 2010-11-11 Fujifilm Corp 全方位画像表示用ヘッドマウントディスプレイ装置
KR101686168B1 (ko) * 2010-03-10 2016-12-22 주식회사 티엘아이 스트레오스코픽 동영상 파일의 구성 방법
JP5779968B2 (ja) * 2010-05-19 2015-09-16 リコーイメージング株式会社 天体自動追尾撮影方法及びカメラ
US9632315B2 (en) * 2010-10-21 2017-04-25 Lockheed Martin Corporation Head-mounted display apparatus employing one or more fresnel lenses
US8594381B2 (en) * 2010-11-17 2013-11-26 Eastman Kodak Company Method of identifying motion sickness
JP2012141461A (ja) 2010-12-29 2012-07-26 Sony Corp ヘッド・マウント・ディスプレイ
US9615064B2 (en) * 2010-12-30 2017-04-04 Pelco, Inc. Tracking moving objects using a camera network
JP5868618B2 (ja) * 2011-06-14 2016-02-24 オリンパス株式会社 情報処理装置、画像処理システム及びプログラム
WO2012172719A1 (ja) * 2011-06-16 2012-12-20 パナソニック株式会社 ヘッドマウントディスプレイおよびその位置ずれ調整方法
JP5938977B2 (ja) 2012-03-23 2016-06-22 ソニー株式会社 ヘッドマウントディスプレイ及び手術システム
JP6051835B2 (ja) * 2012-12-18 2016-12-27 大日本印刷株式会社 映像出力装置、映像出力方法、及びプログラム
JP6003632B2 (ja) 2012-12-27 2016-10-05 富士通株式会社 移動局装置及び通信方法
US9978180B2 (en) * 2016-01-25 2018-05-22 Microsoft Technology Licensing, Llc Frame projection for augmented reality environments
US9978181B2 (en) * 2016-05-25 2018-05-22 Ubisoft Entertainment System for virtual reality display

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07216621A (ja) * 1994-02-09 1995-08-15 Sega Enterp Ltd 頭部装着用具
JPH11161190A (ja) * 1997-11-25 1999-06-18 Seiko Epson Corp 頭部装着型表示装置
JP2002016783A (ja) * 2000-06-29 2002-01-18 Canon Inc 画像処理装置及び方法と画像形成装置
JP2004172671A (ja) * 2002-11-15 2004-06-17 Toshiba Corp 動画像加工方法及び装置
JP2004219664A (ja) * 2003-01-14 2004-08-05 Sumitomo Electric Ind Ltd 情報表示システム及び情報表示方法
JP2009246584A (ja) * 2008-03-31 2009-10-22 Nagoya Institute Of Technology 音声・ビデオ出力方式、音声・ビデオ出力方式実現プログラム及び音声・ビデオ出力装置
JP2010050645A (ja) * 2008-08-20 2010-03-04 Olympus Corp 画像処理装置、画像処理方法及び画像処理プログラム
JP2010257266A (ja) * 2009-04-27 2010-11-11 Sharp Corp コンテンツ出力システム、サーバー装置、コンテンツ出力装置、コンテンツ出力方法、コンテンツ出力プログラム、及びコンテンツ出力プログラムを記憶した記録媒体
WO2012063542A1 (ja) * 2010-11-09 2012-05-18 富士フイルム株式会社 拡張現実感提供装置
WO2013150789A1 (ja) * 2012-04-05 2013-10-10 パナソニック株式会社 動画解析装置、動画解析方法、プログラム、及び集積回路

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017138832A (ja) * 2016-02-04 2017-08-10 株式会社コロプラ 仮想空間の提供方法、およびプログラム
WO2018155233A1 (ja) 2017-02-23 2018-08-30 ソニー株式会社 画像処理装置、画像処理方法、および画像システム
US10969861B2 (en) 2017-02-23 2021-04-06 Sony Corporation Image processing device, image processing method, and image system
JP2018154204A (ja) * 2017-03-16 2018-10-04 ヤフー株式会社 保護装置、保護方法および保護プログラム
JP2019033484A (ja) * 2017-08-09 2019-02-28 中強光電股▲ふん▼有限公司 ニアアイ表示装置およびその表示映像の校正方法
US11474595B2 (en) 2017-11-02 2022-10-18 Canon Kabushiki Kaisha Display device and display device control method
JP2022000697A (ja) * 2017-11-02 2022-01-04 キヤノン株式会社 表示装置、表示装置の制御方法
US11125997B2 (en) 2017-11-10 2021-09-21 Sony Interactive Entertainment Inc. Information processing apparatus, information processing method, and program
JPWO2019093278A1 (ja) * 2017-11-10 2020-04-23 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法、及びプログラム
WO2019093278A1 (ja) * 2017-11-10 2019-05-16 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法、及びプログラム
JP2021092883A (ja) * 2019-12-09 2021-06-17 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP7467094B2 (ja) 2019-12-09 2024-04-15 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP2022189598A (ja) * 2021-06-11 2022-12-22 株式会社デンソーテン 情報処理装置、情報処理システムおよびxrコンテンツの再生方法
JP7643946B2 (ja) 2021-06-11 2025-03-11 株式会社デンソーテン 情報処理装置、情報処理方法および情報処理プログラム
JP2025095216A (ja) * 2023-12-14 2025-06-26 本田技研工業株式会社 車両用映像表示装置
JP7784586B1 (ja) * 2025-04-30 2025-12-11 ナブテスコ株式会社 映像処理システム

Also Published As

Publication number Publication date
WO2016017062A1 (en) 2016-02-04
US20170111636A1 (en) 2017-04-20
EP3175324A1 (en) 2017-06-07

Similar Documents

Publication Publication Date Title
JP2016031439A (ja) 情報処理装置及び情報処理方法、コンピューター・プログラム、並びに画像表示システム
US10692300B2 (en) Information processing apparatus, information processing method, and image display system
JP5923926B2 (ja) ヘッド・マウント・ディスプレイ及びヘッド・マウント・ディスプレイの制御方法
US11350156B2 (en) Method and apparatus for implementing video stream overlays
EP3008548B1 (en) Head-mountable apparatus and systems
JP6479199B2 (ja) 情報処理装置
EP3729166B1 (en) Head-mountable apparatus and methods
JPWO2016017245A1 (ja) 情報処理装置及び情報処理方法、並びに画像表示システム
JP5834177B2 (ja) 立体画像表示システム及び立体視メガネ
JP2015125502A (ja) 画像処理装置及び画像処理方法、表示装置及び表示方法、コンピューター・プログラム、並びに画像表示システム
US20240196045A1 (en) Video display system, observation device, information processing method, and recording medium
WO2019086893A1 (en) Content generation apparatus and method
US20150237338A1 (en) Flip-up stereo viewing glasses
US12205502B2 (en) Information processing apparatus and information processing method
JP6867566B2 (ja) 画像表示装置及び画像表示システム
JP7733481B2 (ja) 情報処理装置および画像生成方法
WO2017056597A1 (ja) 情報処理装置
WO2018115843A1 (en) Head mountable display system
JP2012222698A (ja) 視認切替用メガネ、表示制御装置、制御プログラムおよびコンピュータ読み取り可能な記録媒体
WO2018096315A1 (en) Virtual reality

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190827

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191023

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200407