[go: up one dir, main page]

JP6520119B2 - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JP6520119B2
JP6520119B2 JP2014529404A JP2014529404A JP6520119B2 JP 6520119 B2 JP6520119 B2 JP 6520119B2 JP 2014529404 A JP2014529404 A JP 2014529404A JP 2014529404 A JP2014529404 A JP 2014529404A JP 6520119 B2 JP6520119 B2 JP 6520119B2
Authority
JP
Japan
Prior art keywords
image
display
displayed
observer
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014529404A
Other languages
English (en)
Other versions
JPWO2014024649A1 (ja
Inventor
孝文 森藤
孝文 森藤
緒形 昌美
昌美 緒形
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2014024649A1 publication Critical patent/JPWO2014024649A1/ja
Application granted granted Critical
Publication of JP6520119B2 publication Critical patent/JP6520119B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/22Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
    • G02B30/24Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type involving temporal multiplexing, e.g. using sequentially activated left and right shutters
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/167Synchronising or controlling image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/011Head-up displays characterised by optical features comprising device for correcting geometrical aberrations, distortion
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0143Head-up displays characterised by optical features the two eyes not being equipped with identical nor symmetrical optical devices
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/337Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using polarisation multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本技術は、画像処理装置および画像処理方法に関する。
近年、使用者の頭部に装着されるヘッドマウントディスプレイ(HMD:Head-Mounted Display)が知られている。このヘッドマウントディスプレイは、原理的には、小型の表示素子に表示された画像を、拡大光学系で拡大して、観察者眼に導く構成である。つまり、ヘッドマウントディスプレイは、表示素子に表示された画像を光学的に拡大し、拡大された虚像として使用者に観察させるように構成されている。
この種のヘッドマウントディスプレイとして、観察者が、上述の虚像と共に、外界の像をも観察可能に構成された光学透過ヘッドマウントディスプレイが知られている。この光学透過ヘッドマウントディスプレイは、表示素子に表示された画像を、光学系により、外界の像に重畳して観察者眼に導く構成である。
この光学透過ヘッドマウントディスプレイで再現される虚像の視認性は、この虚像が表示される環境に依存する。例えば、この虚像の表示状態が実世界の状況と矛盾することで快適な観察が損なわれ、あるいは、この虚像の表示位置によりその視認性が損なわれるなどの問題がある。
例えば、特許文献1には、視聴者が注目する被写体を考慮し、全体の奥行きを調整すること、が記載されている。また、例えば、特許文献2には、視線検出を利用して眼の輻輳に応じて、虚像の視差を調整すること、が記載されている。
特開平05−328408号公報 特開平10−188034号公報
上述の特許文献1、特許文献2に記載される技術にあっては、虚像を表示する位置やサイズは考慮されていない。また、上述の特許文献1、特許文献2に記載される技術にあっては、立体(3D)画像を虚像として表示する場合については、何等考慮されていない。
本技術の目的は、表示画像を外界の像に良好に重畳表示することにある。
本技術の概念は、
表示素子に表示された表示画像を外界の像に重畳して観察者眼に導く光学系と、
上記外界の像から検出された画像重畳領域に上記表示画像が表示されるように、上記表示素子上における上記表示画像の表示サイズおよび表示位置を制御する表示制御部とを備える
画像表示装置にある。
本技術においては、表示素子に表示された画像が、光学系により、外界の像に重畳されて、観察者眼に導かれる。例えば、光学系が拡大光学系の場合、表示素子に表示された画像は、光学的に拡大され、拡大された虚像として観察者に観察される。
表示制御部により、外界の像に重畳表示される表示画像の表示サイズおよび表示位置が制御される。この場合、外界の像から検出された画像重畳領域に表示画像が表示されるように、表示素子上における表示画像の表示サイズおよび表示位置が制御される。
例えば、画像重畳領域は、外界の像を撮像して得られる撮像画像データに基づいて検出される。この場合、例えば、外界の像に含まれるフラットな領域が画像重畳領域として検出される。この画像重畳領域の検出は、例えば、クラウド上で行われる、ようにされてもよい。
例えば、表示制御部は、表示画像を表示素子に表示するための画像データを画像重畳領域の情報に基づいて処理(幾何変換処理)することで、表示画像の表示サイズおよび表示位置を制御する、ようにされてもよい。この場合、表示画像の表示サイズおよび表示位置を電子的に制御するものであり、制御が容易となる。
このように本技術においては、外界の像から検出された画像重畳領域、例えばフラット領域に表示画像が表示されるように表示制御が行われる。そのため、観察者は、外界の像に重畳表示される表示画像の視認が容易となる。
なお、本技術において、例えば、表示制御部は、外界の像の画像重畳領域の状況に応じて、表示画像の表示状態を変更する、ようにされてもよい。例えば、表示制御部は、表示画像を表示するための画像データを、画像重畳領域の状況に応じて、観察者が観察する表示画像から外界の像の成分が取り除かれるように補正する、ようにされてもよい。この場合、外界の像の状況に依らずに、表示画像の視認性を高めることが可能となる。
また、本技術において、例えば、表示制御部は、外界の像から画像重畳領域が検出されないとき、表示画像の表示の仕方を変更する、ようにされてもよい。例えば、表示が停止される。また、例えば、ユーザに重畳位置を選択させ、その位置に重畳表示される。また、例えば、プリセットされた重畳位置に重畳表示される。また、例えば、前回表示されていた重畳位置に重畳表示される。また、例えば、非検出の継続時間に応じて、表示位置、あるいは表示のオンオフが変更される。
また、本技術において、例えば、表示制御部は、周期的に検出される画像重畳領域で決まる表示素子上の表示サイズおよび表示位置を時間方向に平滑化して、制御に係る表示サイズおよび表示位置を取得する、ようにされてもよい。この場合、周期的に、例えばフレーム毎に検出される画像重畳領域の位置や大きさの変化が大きい場合にあっても、外界の像上に表示画像を安定して重畳表示することが可能となる。
また、本技術において、例えば、表示制御部は、外界の像に変化があることが検出されるとき、表示画像の表示の仕方を変更する、ようにされてもよい。例えば、表示が停止される。また、例えば、ユーザに重畳位置を選択させ、その位置に重畳表示される。また、例えば、プリセットされた重畳位置に重畳表示される。また、例えば、前回表示されていた重畳位置に重畳表示される。また、例えば、変化検出の継続時間に応じて、表示位置、あるいは表示のオンオフが変更される。
また、本技術において、例えば、光学系は、第1の表示素子に表示された左眼画像を外界の像に重畳して観察者の左眼に導く第1の光学系と、第2の表示素子に表示された右眼画像を外界の像に重畳して観察者の右眼に導く第2の光学系とを有し、表示制御部は、左眼画像および右眼画像により観察者が知覚する立体画像の奥行き位置が、外界の像の立体画像が重畳される領域の奥行き位置より手前になるように、左眼画像および右眼画像の視差を制御する、ようにされてもよい。この場合、表示画像(立体画像)を奥行きの矛盾が生じないように外界の像に重畳表示することが可能となる。
また、本技術の他の概念は、
表示素子に表示された表示画像を外界の像に重畳して観察者に導く光学系と、
上記外界の像のうち上記観察者の視線が集中している領域に上記表示画像が表示されるように制御する第1の制御モードと、上記外界の像のうち上記観察者の視線が集中している領域以外の領域に上記表示画像が表示されるように制御する第2の制御モードとを有する表示制御部とを備える
画像表示装置にある。
本技術においては、表示素子に表示された画像が、光学系により、外界の像に重畳されて、観察者眼に導かれる。例えば、光学系が拡大光学系の場合、表示素子に表示された画像は、光学的に拡大され、拡大された虚像として観察者に観察される。
表示制御部により、外界の像に重畳表示される表示画像の表示が、第1の制御モードあるいは第2の制御モードで制御される。第1の制御モードでは、外界の像のうち観察者の視線が集中している領域に表示画像が表示されるように制御される。第2の制御モードでは、外界の像のうち観察者の視線が集中している領域以外の領域に表示画像が表示されるように制御される。
このように本技術においては、外界の像に重畳表示される表示画像の表示を、第1の制御モードあるいは第2の制御モードで制御できる。すなわち、外界の像のうち観察者の視線が集中している領域に表示画像を表示できる他、外界の像のうち観察者の視線が集中している領域以外の領域にも表示画像を表示でき、作業の邪魔にならないように表示画像を表示させることが可能となる。
なお、本技術において、例えば、表示制御部は、観察者が移動中でないとき第1の制御モードで制御し、観察者が移動中であるとき第2の制御モードで制御する、ようにされてもよい。この場合、観察者が移動中でない状況にあっては、自動的に第1の制御モードに切り替わり、外界の像のうち観察者の視線が集中している領域に表示画像が表示される状態となる。つまり、この場合、観察者は表示画像を集中して観察するためにモード切り替えを行うことを必要とせず、使い勝手の向上が図られる。
また、本技術において、例えば、表示制御部は、外界の像の表示画像が重畳される領域の状況に応じて、上記画像の表示状態を変更する、ようにされてもよい。例えば、表示制御部は、表示画像を表示するための画像データを、その領域状況に応じて、観察者が観察する表示画像から外界の像の成分が取り除かれるように補正する、ようにされてもよい。この場合、外界の像の状況に依らずに、表示画像の視認性を高めることが可能となる。
また、本技術において、例えば、光学系は、第1の表示素子に表示された左眼画像を外界の像に重畳して観察者の左眼に導く第1の光学系と、第2の表示素子に表示された右眼画像を外界の像に重畳して観察者の右眼に導く第2の光学系とを有し、表示制御部は、左眼画像および右眼画像により観察者が知覚する立体画像の奥行き位置が、外界の像の立体画像が重畳される領域の奥行き位置より手前になるように、左眼画像および右眼画像の視差を制御(調整)する、ようにされてもよい。この場合、表示画像(立体画像)を奥行きの矛盾が生じないように外界の像に重畳表示することが可能となる。
また、本技術の他の概念は、
表示素子に表示された表示画像を外界の像に重畳して観察者眼に導く光学系と、
上記表示画像が重畳される上記外界の像の領域状況に応じて、該表示画像の表示状態を変更する表示制御部とを備える
画像表示装置にある。
本技術においては、表示素子に表示された画像が、光学系により、外界の像に重畳されて、観察者眼に導かれる。例えば、光学系が拡大光学系の場合、表示素子に表示された画像は、光学的に拡大され、拡大された虚像として観察者に観察される。
表示制御部により、表示画像が重畳される外界の像の領域状況に応じて、この表示画像の表示状態が変更される。例えば、外界の像の領域状況は、外界の像を撮像して得られた撮像画像データに基づいて取得される。この外界の像の領域状況の取得は、例えば、クラウド上で行われる、ようにされてもよい。例えば、表示制御部は、表示画像を表示するための画像データを、その領域状況に応じて、観察者が観察する表示画像から外界の像の成分が取り除かれるように補正する、ようにされてもよい。
このように本技術においては、表示画像が重畳される外界の像の領域状況に応じて、この表示画像の表示状態が変更されるものである。そのため、観察者が観察する表示画像から外界の像の成分を取り除くことが可能となり、外界の像の状況に依らずに、表示画像の視認性を高めることが可能となる。
また、本技術の他の概念は、
第1の表示素子に表示された左眼画像を外界の像に重畳して観察者の左眼に導く第1の光学系と、
第2の表示素子に表示された右眼画像を外界の像に重畳して観察者の右眼に導く第2の光学系と、
上記左眼画像および上記右眼画像により上記観察者が知覚する立体画像の奥行き位置が、上記外界の像の該立体画像が重畳される領域の奥行き位置より手前になるように、上記左眼画像および上記右眼画像の視差を制御する表示制御部とを備える
画像表示装置にある。
本技術においては、第1の表示素子に表示された左眼画像が、第1の光学系により、外界の像に重畳されて、観察者の左眼に導かれる。また、第2の表示素子に表示された右眼画像が、第2の光学系により、外界の像に重畳されて、観察者の右眼に導かれる。例えば、光学系が拡大光学系の場合、左眼画像、右眼画像は、光学的に拡大され、拡大された虚像として観察者に観察される。
表示制御部により、左眼画像および右眼画像の視差が制御される。この場合、左眼画像および右眼画像により観察者が知覚する立体画像の奥行き位置が、外界の像のこの立体画像が重畳される領域の奥行き位置より手前になるように、左眼画像および右眼画像の視差が制御(調整)される。
このように本技術においては、表示画像(立体画像)が重畳される外界の像の領域の奥行き位置に基づいて、表示画像(立体画像)の奥行き位置がその領域の奥行き位置より手前になるように、左眼画像および右眼画像の視差が制御されるものである。そのため、表示画像(立体画像)を奥行きの矛盾が生じないように外界の像に重畳表示することが可能となる。
本技術によれば、表示画像を外界の像に良好に重畳表示することが可能となる。
実施の形態としての光学透過ヘッドマウントディスプレイ(両眼)の概略的な構成例を示す図である。 外界の像の各画素の奥行き位置を示す視差マップと表示画像(立体画像)の各画素の奥行き位置を示す視差マップを説明するための図である。 表示画像の表示制御に係る表示サイズおよび表示位置の時間方向の平滑化処理を説明するための図である。 表示画像(立体画像)の奥行き位置において奥行き感に不整合が生じる場合を説明する図である。 表示画像(立体画像)の奥行き位置において奥行き感に不整合が生じない場合を説明する図である。 奥行き感に不整合が生じないように表示画像(立体画像)の奥行き位置を調整する際の処理例を説明するための図である。 奥行き感に不整合が生じないように表示画像(立体画像)の奥行き位置を調整する際の処理例を説明するための図である。 外界の像のうち観察者の視線が集中している領域以外の領域に表示画像(立体画像)を表示する場合を説明するための図である。 外界の像のうち青空部分に表示画像(立体画像)が重畳表示される例を示す図である。 外界の像から検出された画像重畳領域、例えばフラット領域に表示画像が表示される場合を説明するための図である。 表示制御部における表示制御の処理手順の一例を示すフローチャートである。 光学透過ヘッドマウントディスプレイの各構成要素の配置例を模式的に示す図である。 光学透過ヘッドマウントディスプレイの他の構成例を示す図である。 光学透過ヘッドマウントディスプレイの他の構成例を示す図である。 光学透過ヘッドマウントディスプレイの他の構成例を示す図である。
以下、発明を実施するための形態(以下、「実施の形態」とする)について説明する。なお、説明を以下の順序で行う。
1.実施の形態
2.変形例
<1.実施の形態>
[光学透過ヘッドマウントディスプレイの構成例]
図1は、実施の形態としての光学透過のヘッドマウントディスプレイ(HMD)100の概略的な構成例を示している。この構成例は両眼HMDである。このHMD100は、左側のメガネレンズ部101Lと、右側のメガネレンズ部101Rを有している。メガネレンズ部101Lとメガネレンズ部101Rは、接続部材102により一体的に接続されている。
メガネレンズ部101L,101Rは、それぞれ、メガネレンズとHOE(ホログラム光学素子:Holographic Optical Element)シートとが一体化されたものである。このHOEシートは、外界光と表示光とを合成するハーフミラーのような機能と、表示画像を拡大する凹面や自由曲面の機能を併せ持っている。
メガネレンズ部101L,101Rには、それぞれ、赤外線センサ103L,103Rが取り付けられている。赤外線センサ103Lは、例えば、メガネレンズ部101Lの水平方向の中心位置(左眼光学系の水平方向の中心位置)に取り付けられている。また、赤外線センサ103Rは、例えば、メガネレンズ部101Rの水平方向の中心位置(右眼光学系の水平方向の中心位置)に取り付けられている。
赤外線センサ103L,103Rのセンサ出力は、強膜反射法による眼球位置推定のために使用される。強膜反射法は、角膜(黒目)と強膜(白目)においての反射率が異なることを利用した手法である。この場合、赤外線センサは、観察者眼側に照射する微弱赤外線を水平方向にスキャンし、その反射光を検出する。角膜(黒目)と強膜(白目)における反射光の強さが大きく異なるので、センサ出力から観察者の眼球位置を推定することが可能となる。
また、メガネレンズ部101Lには、ジャイロセンサ104が取り付けられている。ジャイロセンサ104のセンサ出力は、外界の像が変化しているか否か、および、観察者(ユーザ)が移動中か否か、を判断するために使用される。また、このジャイロセンサ104のセンサ出力は、観察者がメガネレンズ部101L,101Rを通して観察する外界の像に変化があるか否かを検出するために使用される。
また、メガネレンズ部101Lには、水平方向の中心位置(左眼光学系の水平方向の中心位置)に、カメラ105Lが取り付けられている。カメラ105Lは、観察者の左眼がメガネレンズ部101Lを通して観察する外界の像(左眼像)を撮像して、撮像画像データを出力する。同様に、メガネレンズ部101Rには、水平方向の中心位置(右眼光学系の水平方向の中心位置)に、カメラ105Rが取り付けられている。カメラ105Rは、観察者の右眼がメガネレンズ部101Rを通して観察する外界の像(右眼像)を撮像して、撮像画像データを出力する。
カメラ105L,105Rの出力は、立体画像が重畳表示される外界の像の領域の奥行き位置の情報を得るために使用される。また、このカメラ105L,105Rの出力は、観察者がメガネレンズ部101L,101Rを通して観察する外界の像に変化があるか否かを検出するために使用することもできる。また、このカメラ105L,105Rの出力は、立体画像が重畳表示される外界の像の領域の状況を示す情報(輝度情報、色情報など)を得るために使用される。また、このカメラ105L,105Rの出力は、外界の像から画像重畳領域、この実施の形態においてはフラット領域を検出するために使用される。
また、HMD100は、ディスプレイドライバ111L,111Rと、ディスプレイ112L,112Rを有している。ディスプレイ112L,112Rは、それぞれ、例えばLCD(Liquid Crystal Display)により構成される。ディスプレイ112Lは、左眼画像データに基づいてディスプレイドライバ111Lにより駆動され、観察者にステレオ立体画像を知覚させるための左眼画像を表示する。ディスプレイ112Rは、右眼画像データに基づいてディスプレイドライバ111Rにより駆動され、観察者にステレオ立体画像を知覚させるための右眼画像を表示する。
また、HMD100は、眼球位置推定部121と、視線推定部122と、奥行き・構造推定部123と、表示制御部124と、表示用画像生成部125を有している。眼球位置推定部121は、赤外線センサ103L,103Rからのセンサ出力に基づいて、観察者の左眼、右眼の眼球位置を推定する。視線推定部122は、眼球位置推定部121における左眼、右眼の眼球位置の推定結果に基づいて、観察者の視線を推定する。
奥行き・構造推定部123は、カメラ105L,105Rからの撮像画像データに基づいて、外界の像の各画素の奥行き位置を示す視差マップを算出する。図2(a)は外界の像の左眼像、右眼像の一例を示し、図2(b)はその左眼像、右眼像に対応した視差マップの一例を示している。なお、この例は、各画素の視差を画素データとして画像表示したものであり、明るい部分ほど奥行き位置としては手前を示す。図2(c)は、画面全体の視差のヒストグラムの一例を示している。
また、奥行き・構造推定部123は、表示画像データである左眼、右眼の画像データに基づいて、表示画像(立体画像)の各画素の奥行き位置を示す視差マップを算出する。図2(d)は左眼画像、右眼画像の一例を示し、図2(e)はその左眼画像、右眼画像に対応した視差マップの一例を示している。なお、この例も、各画素の視差を画素データとして画像表示したものであり、明るい部分ほど奥行き位置としては手前を示す。図2(f)は、画面全体の視差のヒストグラムの一例を示している。
また、奥行き・構造推定部123は、カメラ105L,105Rからの撮像画像データに基づいて、外界の像から画像重畳領域を検出する。奥行き・構造推定部123は、例えば、水平方向および垂直方向に低周波数成分のみの領域(フラット領域)を、画像重畳領域として検出する。勿論、この画像重畳領域は、表示画像を重畳表示するための領域となるので、水平、垂直に十分な大きさを持つ領域である。この場合、外界の像から、この画像重畳領域が一個だけでなく、複数個検出されることもある。
また、奥行き・構造推定部123は、検出された画像重畳領域に基づいて、表示画像の表示サイズおよび表示位置を決定する。ここで、奥行き・構造推定部123は、上述の画像重畳領域の検出を周期的に、例えばフレーム毎に行うことから、表示画像の表示サイズおよび表示位置もフレーム毎に決定する。
奥行き・構造推定部123は、表示画像の表示サイズおよび表示位置の安定化のために、このようにフレーム毎に決定される表示サイズおよび表示位置を時間方向に平滑化し、表示制御に係る表示サイズおよび表示位置を決定する。図3は、表示位置に対する時間方向の平滑化処理の一例を示している。座標のフィルタリング(平均、IIR、多数決など)が行われ、時間的な安定化が図られる。例えば、平均のフィルタリングの場合には、以下の数式(1)に基づいて、実際に使用する表示領域の座標(x,y)が求められる。
また、奥行き・構造推定部123は、上述のように決定された表示制御に係る表示サイズおよび表示位置に基づいて、表示画像(立体画像)の奥行き位置を決定する。この場合、奥行き・構造推定部123は、表示画像の奥行き位置が、外界の像の表示画像が重畳表示される領域の奥行き位置より手前となるように、表示画像の奥行き位置を決定する。
このように奥行き位置を決定するのは、実世界である外界の像に対して表示画像(立体画像)を重畳表示する際に奥行き感に不整合が生じることを回避するためである。図4は、不整合が生じる場合を模式的に示している。外界の像の物体Aの奥行き位置が手前で、表示画像の物体Bの奥行き位置が奥側にある場合、そのまま重畳表示すると、物体Aが物体Bによって分断され、奥行き感が不自然になる。このように奥行き感に不整合が発生している場合には、観察者に疲労感を感じさせる等の問題がある。
図5は、表示画像(立体画像)の奥行き位置を、外界の像の表示画像が重畳表示される領域の奥行き位置より手前とすることで、奥行き感の不整合を回避することを模式的に示している。外界の像の物体Aの奥行き位置が手前で、表示画像の物体Bの奥行き位置が奥側にある場合に、物体Bの奥行き位置を、物体Aの奥行き位置よりも手前とすることで、物体Aが物体Bによって分断されても、自然な奥行き感となる。このように奥行き感を整合させることで、観察者は疲労感なく自然に観察することが可能となる。
奥行き・構造推定部123は、具体的には、左眼画像、右眼画像に付与すべき視差を決定する。奥行き・構造推定部123は、外界の像の、上述したように決定された表示サイズおよび表示位置の表示画像が重畳表示される領域の視差の平均をHaとする。また、奥行き・構造推定部123は、上述したように決定された表示サイズの表示画像の全体の視差の平均をHbとする。なお、このHbは、上述したサイズ調整前の表示画像の全体の視差の平均(図2(f)参照)をn倍(nは表示サイズの倍率)することで得られる。
例えば、図6(a)に示すように、外界の像に表示画像を重畳表示する場合を考える。この場合、図6(b)に示すように、外界の像の左眼像、右眼像の視差マップのうち、表示画像の左眼画像、右眼画像が重畳表示される領域(矩形枠で図示)の視差が用いられ、図6(c)に示すように、その平均がHaとされる。
なお、図6(b)には、矩形枠が二重に示されているが、内側が上述したように決定された表示サイズおよび表示位置に一致しており、外側の矩形枠はそれに対して周辺にのりしろが付加されたものである。Haを得る際の領域としては外側の矩形枠が用いられる。これは、表示画像(立体画像)の奥行き位置を外界の像の奥行き位置よりも手前とするために、後述するように、左眼画像と右眼画像の相対位置が変更されて視差調整が行われることがあるからである。
図6(d)は、サイズ調整前の表示画像の全体の視差のヒストグラム(図2(f)と同じ)を示している。図6(e)は、表示サイズをn倍に縮小した場合における表示画面全体の視差のヒストグラムを示し、その視差の平均Hbは、サイズ調整前の表示画面全体の視差の平均のn倍となる。
奥行き・構造推定部123は、上述したように求められた外界の像に係る視差平均Haと、表示画像に係る視差平均Hbとを比較する。そして、奥行き・構造推定部123は、表示画像(立体画像)の奥行き位置が、外界の像の対応する領域の奥行き位置から一定距離以上離れた手前にあるか否か、つまり視差平均Hbの視差平均Haに対する視差平均差がこの条件を満たすH0以上にあるか否かを判定する。
奥行き・構造推定部123は、視差平均差がH0より小さいときは、この視差平均差をH0以上とする視差平均Hbが得られるように、左眼画像、右眼画像のいずれかあるいは双方の水平方向の表示位置を調整する。図7(a)は、表示位置調整前の視差平均Ha,Hbの一例を示しており、視差平均差がH0に満たない場合を示している。この場合、左眼画像、右眼画像のいずれかあるいは双方の水平方向の表示位置を調整されることで、例えば、図7(b)に示すように、視差平均差がH0以上の状態となる。
なお、上述では、視差平均Hbの視差平均Haに対する視差平均差がH0以上となるように左眼画像、右眼画像のいずれかあるいは双方の水平方向の表示位置を調整するように説明した。この代わりに、例えば、図7(c)に示すように、外界の像の視差のヒストグラムの90%となる視差と、表示画像の視差のヒストグラムの10%となる視差との差が所定の閾値以上となるように、左眼画像、右眼画像のいずれかあるいは双方の水平方向の表示位置を調整することも考えられる。
表示制御部124は、視線推定部122の視線推定結果、ジャイロセンサ104のセンサ出力および奥行き・構造推定部123で決定された表示画像の表示サイズおよび表示位置の情報などに基づいて、表示画像の表示を制御する。なお、図示は省略しているが、この表示制御部124には、ユーザ操作信号も供給される。
表示制御部124は、ユーザ操作によって、表示画像の表示が指示された場合、基本的には、奥行き・構造推定部123で決定された表示サイズおよび表示位置で表示されるように、表示画像の表示を制御する。
表示制御部124は、奥行き・構造推定部123で画像重畳領域であるフラットな領域が検出されないとき、つまり、奥行き・構造推定部123から表示サイズおよび表示位置の情報が供給されないとき、表示条件を変更する。
例えば、表示制御部124は、表示画像の表示が停止されるように制御する。また、例えば、表示条件制御部124は、ユーザに重畳位置を選択させ、その位置に表示画像が表示されるように制御する。また、例えば、表示条件制御部124は、プリセットされた重畳位置に表示画像が表示されるように制御する。また、例えば、表示条件制御部124は、前回表示されていた重畳位置に表示画像が表示されるように制御する。
また、例えば、表示制御部124は、非検出の継続時間に応じて、表示画像の表示位置、あるいはその表示のオンオフを制御する。この場合、例えば、継続時間が第1の時間までは前回表示位置に表示されるように制御し、継続時間が第1の時間を超えて第2の時間まではプリセット位置に表示されるように制御し、継続時間が第2の時間を超える場合は表示が停止されるように制御する。
また、表示制御部124は、ジャイロセンサ104に基づいて、外界の像に変化があるか否かを検出し、変化があることが検出されるとき、表示条件を変更する。例えば、表示条件制御部124は、表示画像の表示が停止されるように制御する。また、例えば、表示条件制御部124は、ユーザに重畳位置を選択させ、その位置に表示画像が表示されるように制御する。また、例えば、表示条件制御部124は、プリセットされた重畳位置に表示画像が表示されるように制御する。また、例えば、表示条件制御部124は、前回表示されていた重畳位置に表示画像が表示されるように制御する。
また、例えば、表示制御部124は、変化の継続時間に応じて、表示画像の表示位置、あるいはその表示のオンオフを制御する。この場合、例えば、継続時間が第1の時間までは前回表示位置に表示されるように制御し、継続時間が第1の時間を超えて第2の時間まではプリセット位置に表示されるように制御し、継続時間が第2の時間を超える場合は表示が停止されるように制御する。
また、表示制御部124は、視線推定部122からの視線推定結果に基づいて、表示条件を変更する。表示条件制御部124は、ユーザ(観察者)のモード設定に応じて、以下のように制御する。ユーザは、「自動制御モード」、「第1の制御モード」または「第2の制御モード」に設定できる。
「第1の制御モード」に設定されているとき、表示制御部124は、視線が集中している領域、つまり視線と合致する領域に表示画像が表示されるように制御する。また、「第2の制御モード」に設定されているとき、表示制御部124は、視線が集中している領域以外の領域、つまり視線外の領域に表示画像が表示されるように制御する。
また、「自動制御モード」に設定されているとき、表示制御部124は、ユーザ(観察者)が移動中であるか否かにより、以下のように制御する。すなわち、表示制御部124は、ユーザが移動中でない場合、「第1の制御モード」の設定時と同様に、視線が集中している領域に表示画像が表示されるように制御する。また、表示制御部124は、ユーザが移動中である場合、「第2の制御モード」の設定時と同様に、視線が集中している領域以外に表示画像が表示されるように制御する。なお、表示制御部124は、観察者が移動しているか否かを、ジャイロセンサ104のセンサ出力に基づいて、判断する。
また、表示用画像生成部125は、表示制御部124の制御のもと、表示画像を表示する際には、奥行き・構造推定部123で決定された表示サイズおよび表示位置で表示画像が表示されるように、表示用の左眼、右眼の画像データを生成する。この場合、外部から供給される左眼、右眼の画像データに対して縮小処理、移動処理(幾何変換処理)を行って、表示用の左眼、右眼の画像データを得る。また、表示用画像生成部125は、表示制御部124の制御のもと、表示画像が表示される外界の像の領域状況に応じて表示画像の表示状態が変更されるように、表示用の左眼、右眼の画像データを補正する。この場合、観察者が観察する表示画像から外界の像の要素(成分)が取り除かれるように、補正される。
表示用画像生成部125における画像データの補正例を説明する。外界の像をIrealとし、表示画像をIdispとする。Idisp,IrealをそれぞれN×N画素毎のブロックに分割する。そして、外界の像Irealの座標(i,j)の画素をIreal(i,j)とし、表示画像Idispの座標(i,j)の画素をIdisp(i,j)とする。
表示用画像生成部125は、座標(s,t)のブロックの各画素のデータに関しては、以下の数式(2)に示すように、補正する。ここで、αは、補正係数であって、ユーザ(観察者)は、その値を必要に応じて調整できる。また、clip(x)は、xをある値域(例えば、0〜255)に飽和演算する関数である。なお、詳細説明は省略するが、この画素データ補正は、赤、緑、青の色データ毎に行われる。
なお、かっこ内の第2項は、以下の数式(3)に示すように、周辺ブロックの補正値を平滑化して用いてもよい。
図1に示すHMD100の動作を説明する。表示用画像生成部125で生成された左眼画像データは、ディスプレイドライバ111Lに供給される。このディスプレイドライバ111Lによりディスプレイ112Lが駆動され、このディスプレイ112Lに左眼画像が表示される。また、表示用画像生成部125で生成された右眼画像データは、ディスプレイドライバ111Rに供給される。このディスプレイドライバ111Rによりディスプレイ112Rが駆動され、このディスプレイ112Rに右眼画像が表示される。
ディスプレイ112Lに表示された左眼画像からの光は、メガネレンズ部101Lで外界の像に重畳されて観察者の左眼に届く。これにより、外界の像(左眼像)に重畳表示された左眼画像が、観察者の左眼で観察される。同様に、ディスプレイ112Rに表示された右眼画像からの光は、メガネレンズ部101Rで外界の像に重畳されて観察者の右眼に届く。これにより、外界の像(右眼像)に重畳表示された右眼画像が、観察者の右眼で観察される。このように観察者の左眼、右眼にそれぞれ外界の像に重畳表示された左眼画像、右眼画像が観察されることで、観察者には、外界の像に重畳表示された表示画像が立体(3D)画像として知覚される。
メガネレンズ部101Lの水平方向の中心位置(左眼光学系の水平方向の中心位置)に取り付けられている赤外線センサ103Lのセンサ出力は眼球位置推定部121に供給される。また、メガネレンズ101Rの水平方向の中心位置(右眼光学系の水平方向の中心位置)に取り付けられている赤外線センサ103Rのセンサ出力は眼球位置推定部121に供給される。
眼球位置推定部121では、赤外線センサ103L,103Rからのセンサ出力に基づいて、観察者の左眼、右眼の眼球位置が推定される。そして、視線推定部122では、眼球位置推定部121における左眼、右眼の眼球位置の推定結果に基づいて、観察者の視線が推定される。この視線推定結果は、表示制御部124に供給される。
メガネレンズ部101Lに取り付けられているジャイロセンサ104のセンサ出力は、表示制御部124に供給される。メガネレンズ部101Lの水平方向の中心位置(左眼光学系の水平方向の中心位置)に取り付けられているカメラ105Lの出力(左眼撮像画像データ)は、奥行き・構造推定部123に供給される。
また、メガネレンズ部101Rの水平方向の中心位置(右眼光学系の水平方向の中心位置)に取り付けられているカメラ105Rの出力(右眼撮像画像データ)は、奥行き・構造推定部123に供給される。この奥行き・構造推定部123には、さらに、表示画像データである左眼、右眼の画像データが供給される。
奥行き・構造推定部123では、カメラ105L,105Rからの撮像画像データに基づいて、外界の像から画像重畳領域としてフラットな領域が検出される。そして、奥行き・構造推定部123では、この検出されたフラットな領域に基づいて、表示画像の表示サイズおよび表示位置が決定される。この場合、例えば、フレーム毎に決定される表示サイズおよび表示位置が時間方向に平滑化されて安定化される。
また、奥行き・構造推定部123では、カメラ105L,105Rからの撮像画像データに基づいて外界の像の各画素の奥行き位置を示す視差マップが算出され、表示画像データである左眼、右眼の画像データに基づいて表示画像(立体画像)の各画素の奥行き位置を示す視差マップを算出される。そして、奥行き・構造推定部123では、上述のように決定された表示制御に係る表示サイズおよび表示位置と、上述のように算出された視差マップに基づいて、表示画像(立体画像)の奥行き位置が決定される。この場合、外界の像の表示画像が重畳表示される領域の奥行き位置より手前となるように、表示画像の奥行き位置が決定される。
奥行き・構造推定部123では、表示画像(立体画像)の奥行き位置が、外界の像の対応する領域の奥行き位置から一定距離以上離れた手前にあるという条件を満たすか否かが判断される。そして、満たさない場合、奥行き・構造推定部123では、左眼画像、右眼画像のいずれかあるいは双方の水平方向の表示位置が調整され、その条件を満たすように視差調整が行われる。このように奥行き・構造推定部123で決定された表示制御に係る表示サイズおよび表示位置の情報は、表示制御部124に供給される。
表示制御部124では、視線推定部122の視線推定結果、ジャイロセンサ104のセンサ出力および奥行き・構造推定部123で決定された表示サイズおよび表示位置の情報に基づいて、表示画像の表示が制御される。この場合、表示制御部124では、表示画像を表示する際には、基本的には、奥行き・構造推定部123で決定された表示サイズおよび表示位置で表示画像が表示されるように制御することが行われる。
また、表示制御部124では、奥行き・構造推定部123で画像重畳領域であるフラットな領域が検出されないとき、表示の仕方が変更される。また、表示制御部124では、ジャイロセンサ104に基づいて、外界の像に変化があることが検出されるとき、表示の仕方が変更される。
また、表示制御部124では、視線推定部122からの視線推定結果に基づいて、表示の仕方が変更される。この制御は、ユーザ(観察者)のモード設定に応じて行われる。ユーザは、例えば、「自動制御モード」、「第1の制御モード」または「第2の制御モード」に設定可能とされる。
「第1の制御モード」に設定されている場合、視線が集中している領域に表示画像が表示されるように制御される。また、「第2の制御モード」に設定されている場合、視線が集中している領域以外の領域に表示画像が表示されるように制御される。また、「自動モード」に設定されている場合、観察者が移動中である場合には視線が集中している領域以外に表示画像が表示されるように制御され、観察者が移動中でない場合には視線が集中している領域に表示画像が表示されるように制御される。
このように、「第2の制御モード」とすることで、外界の像のうち観察者の視線が集中している領域以外の領域に表示画像(立体画像)を表示することが可能となり、作業の邪魔にならないように表示画像を表示できる。この場合、観察者は、いわゆる「ながら見」の状態で表示画像を見ることになる。図8は、この場合の表示例を示している。この表示例においては、観察者の視線が台所のコンロ部分に集中しているので、表示画像はこのコンロ部分から外れた壁部分に表示されている。
表示用画像生成部125には、表示画像データである左眼、右眼の画像データが供給される。また、この表示用画像生成部125には、カメラ105L,105Rからの撮像画像データが供給される。表示用画像生成部125では、表示制御部124の制御のもと、決定された表示サイズおよび表示位置で表示画像が表示されるように、表示画像を表示するための左眼、右眼の画像データが生成される。
この場合、外部から供給される左眼、右眼の画像データに対して縮小処理、移動処理が行われて、表示用の左眼、右眼の画像データを得ることが行われる。この場合、表示サイズおよび表示位置は電子的に変更されるものである。なお、表示画像の表示が停止される場合には、左眼、右眼の画像データの生成が停止される。
また、表示用画像生成部125では、表示画像が表示される外界の像の領域状況に応じて表示画像の表示状態が変更されるように、左眼、右眼の画像データが補正される(数式(2)参照)。このように画像データが補正されることで、外界の像の状況に依らずに、表示画像の視認性を高めることが可能となる。
例えば、図9は、外界の像のうち青空部分に表示画像(立体画像)が重畳表示される例を示している。このような場合、画像データが補正されていない場合、表示画像は、青空の影響で、観察者には青みがかった状態で観察される。しかし、本実施の形態にように画像データが補正されることで、青空の影響が軽減され、観察者は表示画像を良好な状態で見ることが可能となる。
表示用画像生成部125で生成された表示用の左眼画像データはディスプレイドライバ111Lに供給され、ディスプレイ112Lにこの左眼画像データによる左眼画像が表示される。また、表示用画像生成部125で生成された表示用の右眼画像データはディスプレイドライバ111Rに供給され、ディスプレイ112Rにこの右眼画像データによる右眼画像が表示される。
これにより、上述したように、観察者の左眼、右眼にそれぞれ外界の像に重畳表示された左眼画像、右眼画像が観察され、観察者には、外界の像に、適切な位置およびサイズで重畳表示された表示画像(立体画像)が、外界の像より手前の奥行き位置に知覚される。
この場合、基本的には、外界の像から検出された画像重畳領域、例えばフラット領域に表示画像が表示されることから、観察者は、外界の像に重畳表示される表示画像の視認が容易となる。例えば、外界の像が図10(a)に示すようであり、表示画像が図10(b)に示すようである場合を考える。
この場合、図10(a)に示すように、中央上側の壁部分のフラット領域が画像重畳領域として検出される。図10(b)に示す表示画像は、このフラット領域に表示されるように、図10(c)に示すように、表示サイズおよび表示位置が加工される。そして、図10(d)に示すように、外界の像に表示画像が重畳表示される。
図11のフローチャートは、図1に示すHMD100の表示制御部124における表示制御の処理手順の一例を示している。表示制御部124は、ステップST1において、例えばユーザのパワーオン操作に伴って、動作を開始する。そして、表示制御部124は、ステップST2において、表示画像の表示位置を、例えばプリセット値に初期化する。なお、このように初期化された表示位置に対して、表示サイズは一意に決められている。
次に、表示制御部124は、ステップST3において、画像表示か否かを判断する。表示制御部124は、例えば、ユーザにより画像表示の設定操作がなされるときは、画像表示であると判断する。画像表示であるとき、表示制御部124は、ステップST4において、ユーザのモード設定値を判断する。
モード設定値が「第2の制御モード」であるとき、表示制御部124は、ステップST5において、外界の像のうち視線外の領域を表示対象とする。また、モード設定値が「第1の制御モード」であるとき、表示制御部124は、ステップST6において、外界の像のうち視線と合致する領域を表示対象とする。
また、モード設定値が「自動モード」であるとき、表示制御部124は、ステップST7において、ユーザが移動中であるか否かを判断する。ユーザが移動中であるとき、表示制御部124は、ステップST5において、外界の像のうち視線外の領域を表示対象とする。一方、ユーザが移動中でないとき、表示制御部124は、ステップST6において、外界の像のうち視線と合致する領域を表示対象とする。
表示制御部124は、ステップST5、ステップST6の動作の後、ステップST8の処理に移る。このステップST8において、表示制御部124は、表示対象のうちフラットな領域を表示位置とする。なお、表示対象にフラットな領域が複数個あるときは、例えば、最大面積の領域を表示位置とする。これにより、表示画像の表示サイズおよび表示位置が決まる。
次に、表示制御部124は、ステップST9において、外界の像が変化しているか否かを判断する。変化しているときには、ステップST10において、変化の継続時間を判断する。継続時間が“th1”未満であるとき、表示制御部124は、ステップST11において、表示位置を変更しない。また、継続時間が“th1”以上、かつ“th2”未満であるとき、表示制御部124は、ステップST12において、表示位置をプリセット位置とする。また、継続時間が“th2”以上であるとき、表示制御部124は、ステップST13において、表示画像の表示を停止する。
表示制御部124は、ステップST13の処理の後、ステップST2の処理に戻り、上述したと同様の処理を行う。また、表示制御部124は、ステップST11、ステップST12の処理の後、ステップST14の処理に移る。このステップST14において、表表示制御部124は、表示位置(表示サイズ)を時間方向に平滑化する。これにより、表示位置(表示サイズ)が急激に変化しても滑らかに変化させることができる。
次に、表示制御部124は、ステップST15において、表示画像(立体画像)の奥行き位置を、外界の像の奥行き位置に合わせて調整する。上述したように、外界の像のフラットな領域に表示画像を表示する場合、奥行き・構造推定部123からの表示サイズ、表示位置に従って表示用の左眼、右眼の画像データを生成させることで、その調整がなされる。なお、表示画像をプリセット位置に表示させる場合には、そのプリセット位置における外界の像の奥行き位置に応じて、左眼、右眼の表示画像の表示位置を水平方向に移動調整する。
次に、表示制御部124は、ステップST16において、外界の像の表示領域の状況に合わせて、表示用の左眼、右眼の画像データを補正する。そして、表示制御部124は、ステップST17において、画像表示を行う。つまり、表示用画像生成部125から
ディスプレイドライバ111L,111Rにそれぞれ表示用の左眼、右眼の画像データ
を供給し、ディスプレイ112L,112Rに左眼画像、右眼画像を表示する。
その後、表示制御部124は、ステップST18において、画像終了か否かを判断する。表示制御部124は、例えば、ユーザにより画像表示の解除操作がなされるときは、画像終了であると判断する。画像終了であるとき、表示制御部124は、ステップST19において、画像表示を終了して、表示制御の処理を終了する。一方、画像終了でないとき、表示制御部124は、ステップST3に戻り、上述したと同様の処理を繰り返す。
上述の図11のフローチャートに示す処理手順の一例は、説明を簡単にするため、表示対象にフラット領域が必ず存在するものとしている。しかし、ステップST5、ステップST6で表示対象とされた領域にフラット領域が存在しない場合も考えられる。その場合、上述したように、表示制御部124は、例えば、フラット領域の非検出の継続時間に応じて、表示画像の表示位置、あるいはその表示のオンオフを制御するようにされる。
なお、図1に示すHMD100の各構成要素の全てをHMD本体が備える構成だけでなく、その一部を有線または無線で接続されるコントロールボックスに配置する構成、さらには、その一部を、ネットワークを介して接続されるクラウド上に配置する構成も考えられる。
図12は、HMD100の各構成要素の配置例を模式的に示している。図12(a)は、HMD100の各構成部の全てがHMD本体に配置されることを示している。また、図12(b)は、HMD100の各構成要素の一部がコントロールボックスに配置されることを示している。この場合、例えば、眼球位置推定部121、視線推定部122、奥行き・構造推定部123、表示制御部124および表示用画像生成部125はコントロールボックスに配置され、残りがHMD本体に配置される。
また、図12(c)は、HMD100の各構成要素の一部がクラウド上に配置されることを示している。この場合、例えば、眼球位置推定部121、視線推定部122、奥行き・構造推定部123、表示制御部124および表示用画像生成部125はクラウド上に配置され、残りがHMD本体に配置される。
また、図12(d)は、HMD100の各構成要素の一部がコントロールおよびクラウド上に配置されることを示している。この場合、例えば、眼球位置推定部121、視線推定部122および示用画像生成部125はコントロールボックスに配置され、奥行き・構造推定部123および表示制御部124はクラウド上に配置され、残りがHMD本体に配置される。
上述したように、図1に示すHMD100においては、外界の像から検出された画像重畳領域、例えばフラット領域に表示画像が表示されるように表示制御が行われるため、観察者(ユーザ)は、外界の像に重畳表示される表示画像の視認が容易となる。
また、図1に示すHMD100においては、外界の像に重畳表示される表示画像の表示を、「第1の制御モード」あるいは「第2の制御モード」で制御できる。すなわち、外界の像のうち観察者(ユーザ)の視線が集中している領域に表示画像を表示できる他、外界の像のうち観察者の視線が集中している領域以外の領域にも表示画像を表示でき、作業の邪魔にならないように表示画像を表示させることが可能となる。
また、図1に示すHMD100においては、「自動モード」に設定することで、観察者が(ユーザ)移動中でないとき「第1の制御モード」で制御され、観察者(ユーザ)が移動中であるとき「第2の制御モード」で制御される。そのため、観察者が移動中でない状況にあっては、自動的に「第1の制御モード」に切り替わり、外界の像のうち観察者の視線が集中している領域に表示画像が表示される状態となる。つまり、この場合、観察者は表示画像を集中して観察するためにモード切り替えを行うことを必要とせず、使い勝手の向上が図られる。
また、図1に示すHMD100においては、表示画像が重畳される外界の像の領域状況に応じて、この表示画像の表示状態が変更される。そのため、観察者(ユーザ)が観察する表示画像から外界の像の成分を取り除くことが可能となり、外界の像の状況に依らずに、表示画像の視認性を高めることが可能となる。
また、図1に示すHMD100においては、表示画像(立体画像)が重畳される外界の像の領域の奥行き位置に基づいて、表示画像(立体画像)の奥行き位置がその領域の奥行き位置より手前になるように、左眼画像および右眼画像の視差が制御される。そのため、表示画像(立体画像)を奥行きの矛盾が生じないように外界の像に重畳表示することが可能となる。
<2.変形例>
なお、上述実施の形態においては、奥行き・構造推定部123は、カメラ105L,105Rからの撮像画像データに基づいて、外界の像の各画素の奥行き位置を示す視差マップを算出している。しかし、図13に示すように、例えば、接続部材102の部分に測距離センサ106を設け、そのセンサ出力に基づいて、奥行き・構造推定部123が外界の像の各画素の奥行き位置を示す視差マップを算出する構成のHMD100Aも考えられる。
また、上述実施の形態においては、表示用の左眼、右眼の画像データを、カメラ105L,105Rで撮像されて得られた外界の像の左眼、右眼の撮像画像データとは異なるものとしている。しかし、図14に示すように、表示用の左眼、右眼の画像データとして、の左眼、右眼の撮像画像データを使用する構成のHMD100Bも考えられる。
また、上述実施の形態においては両眼のHMDの例を示したが、本技術は、単眼のHMDにも同様に適用できる。図15は、単眼のHMD100Cの構成例を示している。この図15において、図1と対応する部分には同一符号を付し、その詳細説明は省略する。
このHMD100Cは、単眼HMDであることから、図1に示すHMD100が2個のメガネレンズ部101L,101Rを有しているのに対して、1個のメガネレンズ部101を有している。メガネレンズ部101の水平方向の中心位置(光学系の水平方向の中心位置)に、図1に示すHMD100における赤外線センサ103L,103Rと同様に機能する、赤外線センサ103が取り付けられている。この赤外線センサ103のセンサ出力は、眼球位置推定部114に送られる。
また、メガネレンズ部101に、ジャイロセンサ104が取り付けられている。ジャイロセンサ104のセンサ出力は、外界の像が変化しているか否か、および、観察者(ユーザ)が移動中か否か、を判断するために使用される。このジャイロセンサ104のセンサ出力は、表示制御部124に送られる。
また、メガネレンズ部101には、水平方向の中心位置(光学系の水平方向の中心位置)に、カメラ105が取り付けられている。カメラ105は、図1に示すHMD100におけるカメラ105L,105Rと同様に機能し、観察者の左眼または右眼がメガネレンズ部101を通して観察する外界の像を撮像して、撮像画像データを出力する。この撮像画像データは、構造推定部123Cに送られる。
眼球位置推定部121では、赤外線センサ103からのセンサ出力に基づいて、観察者眼(左眼または右眼)の眼球位置が推定される。そして、視線推定部122では、眼球位置推定部121における眼球位置の推定結果に基づいて、観察者の視線が推定される。この視線推定結果は、表示制御部124に供給される。
構造推定部123Cでは、カメラ105からの撮像画像データに基づいて、外界の像から画像重畳領域としてフラットな領域が検出される。そして、構造推定部123では、この検出されたフラットな領域に基づいて、表示画像の表示サイズおよび表示位置が決定される。この場合、例えば、フレーム毎に決定される表示サイズおよび表示位置が時間方向に平滑化されて安定化される。このように構造推定部123Cで決定された表示制御に係る表示サイズおよび表示位置の情報は、表示制御部124に供給される。
表示制御部124では、視線推定部122の視線推定結果、ジャイロセンサ104のセンサ出力および構造推定部123Cで決定された表示サイズおよび表示位置の情報に基づいて、表示画像の表示が制御される。この場合、表示制御部124では、表示画像を表示する際には、基本的には、構造推定部123Cで決定された表示サイズおよび表示位置で表示画像が表示されるように制御することが行われる。
また、表示制御部124では、構造推定部123Cで画像重畳領域であるフラットな領域が検出されないとき、表示の仕方が変更される。また、表示制御部124では、ジャイロセンサ104に基づいて、外界の像に変化があることが検出されるとき、表示の仕方が変更される。
また、表示制御部124では、視線推定部122からの視線推定結果に基づいて、表示の仕方が変更される。この制御は、ユーザ(観察者)のモード設定に応じて行われる。ユーザは、例えば、「自動制御モード」、「第1の制御モード」または「第2の制御モード」に設定可能とされる。
「第1の制御モード」に設定されている場合、視線が集中している領域に表示画像が表示されるように制御される。また、「第2の制御モード」に設定されている場合、視線が集中している領域以外の領域に表示画像が表示されるように制御される。また、「自動モード」に設定されている場合、観察者が移動中である場合には視線が集中している領域以外に表示画像が表示されるように制御され、観察者が移動中でない場合には視線が集中している領域に表示画像が表示されるように制御される。
表示用画像生成部125には、画像データが供給される。また、この表示用画像生成部125には、カメラ105からの撮像画像データが供給される。表示用画像生成部125では、表示制御部124の制御のもと、決定された表示サイズおよび表示位置で表示画像が表示されるように、表示画像を表示するための表示用の画像データが生成される。
この場合、外部から供給される画像データに対して縮小処理、移動処理が施されて、表示用の画像データが生成される。なお、表示画像の表示が停止される場合には、画像データの生成が停止される。また、表示用画像生成部125では、表示画像が表示される外界の像の領域状況に応じて表示画像の表示状態が変更されるように、表示用の画像データが補正される(数式(2)参照)。
図15に示すHMD100Cのその他は、詳細説明は省略するが、図1に示すHMD100と同様に構成され、同様に動作し、同様の効果を得ることができる。
また、上述実施の形態では、赤外線センサのセンサ出力を利用して眼球位置を推定、さらには視線を推定する例を示した。しかし、観察者(ユーザ)の視線推定を行う構成は、この構成に限定されない。例えば、例えばEOG(Electro-Oculogram)法や顔認識技術等を応用することも考えられる。
また、上述実施の形態においては、本技術を光学透過ヘッドマウントディスプレイに適用した例を示している。しかし、本技術は、光学透過ヘッドマウントディスプレイへの適用に限定されるものではなく、その他の透過型表示装置にも同様に適用できる。この場合、虚像を表示することは必須ではない。
また、本技術は、以下のような構成をとることもできる。
(1)表示素子に表示された表示画像を外界の像に重畳して観察者眼に導く光学系と、
上記外界の像から検出された画像重畳領域に上記表示画像が表示されるように、上記表示素子上における上記表示画像の表示サイズおよび表示位置を制御する表示制御部とを備える
画像表示装置。
(2)上記画像重畳領域は、上記外界の像を撮像して得られた撮像画像データに基づいて検出される
前記(1)に記載の画像表示装置。
(3)上記表示制御部は、
上記表示画像を上記表示素子に表示するための画像データを上記画像重畳領域の情報に基づいて処理することで、上記表示画像の表示サイズおよび表示位置を制御する
前記(1)または(2)に記載の画像表示装置。
(4)上記表示制御部は、
上記外界の像の上記画像重畳領域の状況に応じて、上記表示画像の表示状態を変更する
前記(1)から(3)のいずれかに記載の画像表示装置。
(5)上記表示制御部は、
上記表示画像を表示するための画像データを、上記画像重畳領域の状況に応じて、観察者が観察する表示画像から上記外界の像の要素が取り除かれるように補正する
前記(4)に記載の画像表示装置。
(6)上記表示制御部は、
上記外界の像から上記画像重畳領域が検出されないとき、上記表示画像の表示の仕方を変更する
前記(1)から(5)のいずれかに記載の画像表示装置。
(7)上記表示制御部は、
周期的に検出される画像重畳領域で決まる上記表示素子上の表示サイズおよび表示位置を時間方向に平滑化して、上記制御に係る表示サイズおよび表示位置を取得する
前記(1)から(6)のいずれかに記載の画像表示装置。
(8)上記表示制御部は、
上記外界の像に変化があることが検出されるとき、上記表示画像の表示の仕方を変更する
前記(1)から(7)のいずれかに記載の画像表示装置。
(9)上記光学系は、第1の表示素子に表示された左眼画像を外界の像に重畳して観察者の左眼に導く第1の光学系と、第2の表示素子に表示された右眼画像を外界の像に重畳して観察者の右眼に導く第2の光学系とを有し、
上記表示制御部は、
上記左眼画像および上記右眼画像により上記観察者が知覚する立体画像の奥行き位置が、上記外界の像の該立体画像が重畳表示される領域の奥行き位置より手前になるように、上記左眼画像および上記右眼画像の視差を制御する
前記(1)から(8)のいずれかに記載の画像表示装置。
(10)光学系により表示素子に表示された表示画像を外界の像に重畳して観察者眼に導くステップと、
上記外界の像から検出された画像重畳領域に上記表示画像が表示されるように、上記表示素子上における上記表示画像の表示サイズおよび表示位置を制御するステップとを備える
画像表示方法。
(11)表示素子に表示された表示画像を外界の像に重畳して観察者に導く光学系と、
上記外界の像のうち上記観察者の視線が集中している領域に上記表示画像が表示されるように制御する第1の制御モードと、上記外界の像のうち上記観察者の視線が集中している領域以外の領域に上記表示画像が表示されるように制御する第2の制御モードとを有する表示制御部とを備える
画像表示装置。
(12)上記表示制御部は、
上記観察者が移動中でないとき上記第1の制御モードで制御し、上記観察者が移動中であるとき上記第2の制御モードで制御する
前記(11)に記載の画像表示装置。
(13)上記表示制御部は、
上記外界の像の上記表示画像が重畳される領域の状況に応じて、上記画像の表示状態を変更する
前記(11)または(12)に記載の画像表示装置。
(14)上記光学系は、第1の表示素子に表示された左眼画像を外界の像に重畳して観察者の左眼に導く第1の光学系と、第2の表示素子に表示された右眼画像を外界の像に重畳して観察者の右眼に導く第2の光学系とを有し、
上記表示制御部は、
上記左眼画像および上記右眼画像により上記観察者が知覚する立体画像の奥行き位置が、上記外界の像の該立体画像が重畳表示される領域の奥行き位置より手前になるように、上記左眼画像および上記右眼画像の視差を制御する
前記(11)から(13)のいずれかに記載の画像表示装置。
(15)光学系により表示素子に表示された表示画像を外界の像に重畳して観察者眼に導くステップと、
上記外界の像のうち上記観察者の視線が集中している領域に上記表示画像を表示する制御と、上記外界の像のうち上記観察者の視線が集中している領域以外の領域に上記表示画像を表示する制御とを選択的に行うステップとを備える
画像表示方法。
(16)表示素子に表示された表示画像を外界の像に重畳して観察者眼に導く光学系と、
上記表示画像が重畳される上記外界の像の領域状況に応じて、該表示画像の表示状態を変更する表示制御部とを備える
画像表示装置。
(17)上記表示制御部は、
上記外界の像を撮像して得られた撮像画像データに基づいて、上記外界の像の領域状況を取得する
前記(16)に記載の画像表示装置。
(18)光学系により表示素子に表示された表示画像を外界の像に重畳して観察者眼に導くステップと、
上記表示画像が重畳される上記外界の像の領域状況に応じて、該表示画像の表示状態を変更するステップとを備える
画像表示方法。
(19)第1の表示素子に表示された左眼画像を外界の像に重畳して観察者の左眼に導く第1の光学系と、
第2の表示素子に表示された右眼画像を外界の像に重畳して観察者の右眼に導く第2の光学系と、
上記左眼画像および上記右眼画像により上記観察者が知覚する立体画像の奥行き位置が、上記外界の像の該立体画像が重畳表示される領域の奥行き位置より手前になるように、上記左眼画像および上記右眼画像の視差を制御する表示制御部とを備える
画像表示装置。
(20)第1の光学系により第1の表示素子に表示された左眼画像を外界の像に重畳して観察者の左眼に導くステップと、
第2の光学系により第2の表示素子に表示された右眼画像を外界の像に重畳して観察者の右眼に導くステップと、
上記左眼画像および上記右眼画像により上記観察者が知覚する立体画像の奥行き位置が、上記外界の像の該立体画像が重畳表示される領域の奥行き位置より手前になるように、上記左眼画像および上記右眼画像の視差を制御するステップとを備える
画像表示方法。
100,100A〜100C・・・ヘッドマウントディスプレイ
101,101L,101R・・・メガネレンズ部
102・・・接続部材
103,103L,103R・・・赤外線センサ
104・・・ジャイロセンサ
105,105L,104R・・・カメラ
106・・・測距センサ
111,111L,111R・・・ディスプレイドライバ
112,112L,112R・・・ディスプレイ
121・・・眼球位置推定部
122・・・視線推定部
123・・・奥行き・構造推定部
123C・・・構造推定部
124・・・表示制御部
125・・・表示用画像生成部

Claims (3)

  1. 第1の表示素子に表示された左眼画像を外界の像に重畳して観察者の左眼に導く第1の
    光学系と、
    第2の表示素子に表示された右眼画像を外界の像に重畳して観察者の右眼に導く第2の
    光学系と、
    前記左眼画像および前記右眼画像により前記観察者が知覚する立体画像全体の奥行き位
    置が、前記外界の像における、前記立体画像が重畳表示される領域の奥行き位置より手前
    になるように、前記左眼画像および前記右眼画像を生成する画像生成部と、
    前記外界の像の奥行を検出する奥行検出部と、
    前記外界の像に含まれるフラット領域を検出するフラット領域検出部を備え、
    前記立体画像の奥行き位置は、前記奥行検出部の検出結果に基づいて決定され、
    前記立体画像が前記フラット領域に重畳されて表示されるように、前記立体画像の表示サイズを前記フラット領域の大きさに合わせて調整し、前記立体画像の表示位置を前記フラット領域の位置に合わせて調整する表示制御部をさらに備える
    画像処理装置。
  2. 前記フラット領域検出部は、前記外界の像を撮像して得られた画像データに基づいて、前記外界の像に含まれるフラット領域を検出する
    請求項1に記載の画像処理装置。
  3. 第1の表示素子に表示された左眼画像を外界の像に重畳して観察者の左眼に導く第1の光学系と、
    第2の表示素子に表示された右眼画像を外界の像に重畳して観察者の右眼に導く第2の光学系を備える画像処理装置における画像処理方法であって、
    前記左眼画像および前記右眼画像により前記観察者が知覚する立体画像全体の奥行き位置が、前記外界の像における、前記立体画像が重畳表示される領域の奥行き位置より手前になるように、前記左眼画像および前記右眼画像を生成し、
    前記立体画像の奥行き位置、前記外界の像の奥行きの検出結果に基づいて決定
    前記立体画像が外界の像に含まれるフラット領域に重畳されて表示されるように、前記立体画像の表示サイズを前記フラット領域の大きさに合わせて調整し、前記立体画像の表示位置を前記フラット領域の位置に合わせて調整する
    画像処理方法。
JP2014529404A 2012-08-06 2013-07-17 画像処理装置および画像処理方法 Expired - Fee Related JP6520119B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012173556 2012-08-06
JP2012173556 2012-08-06
PCT/JP2013/069387 WO2014024649A1 (ja) 2012-08-06 2013-07-17 画像表示装置および画像表示方法

Publications (2)

Publication Number Publication Date
JPWO2014024649A1 JPWO2014024649A1 (ja) 2016-07-25
JP6520119B2 true JP6520119B2 (ja) 2019-05-29

Family

ID=50067884

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014529404A Expired - Fee Related JP6520119B2 (ja) 2012-08-06 2013-07-17 画像処理装置および画像処理方法

Country Status (4)

Country Link
US (2) US9618759B2 (ja)
JP (1) JP6520119B2 (ja)
CN (1) CN104509108A (ja)
WO (1) WO2014024649A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12073516B2 (en) 2019-10-03 2024-08-27 Sony Group Corporation Information processing device and method for displaying AR object at accurate position

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015159847A1 (ja) * 2014-04-18 2015-10-22 シャープ株式会社 シースルー型表示装置およびその表示方法
JP6294780B2 (ja) 2014-07-17 2018-03-14 株式会社ソニー・インタラクティブエンタテインメント 立体画像提示装置、立体画像提示方法、およびヘッドマウントディスプレイ
JP6443666B2 (ja) * 2014-12-01 2018-12-26 日本精機株式会社 車両用表示システム
KR101590777B1 (ko) * 2014-12-16 2016-02-11 경북대학교 산학협력단 스테레오 비젼에서의 시차 보정장치 및 그 방법
WO2016107964A1 (en) * 2014-12-31 2016-07-07 Nokia Corporation Stereo imaging
CN104967837A (zh) 2015-06-30 2015-10-07 西安三星电子研究有限公司 用于调整三维显示效果的设备和方法
US10757399B2 (en) * 2015-09-10 2020-08-25 Google Llc Stereo rendering system
US20170115489A1 (en) * 2015-10-26 2017-04-27 Xinda Hu Head mounted display device with multiple segment display and optics
KR101766756B1 (ko) * 2015-11-20 2017-08-10 경북대학교 산학협력단 스테레오 비전 시스템의 렉티피케이션 장치 및 그 방법
KR20180061956A (ko) * 2016-11-30 2018-06-08 삼성전자주식회사 눈 위치 예측 방법 및 장치
CN109725418B (zh) * 2017-10-30 2020-10-16 华为技术有限公司 显示设备、用于调整显示设备的图像呈现的方法及装置
US11057601B2 (en) * 2017-11-17 2021-07-06 Gfycat, Inc. Superimposing a prerecorded media file into a video
US11057667B2 (en) * 2017-11-17 2021-07-06 Gfycat, Inc. Selection of a prerecorded media file for superimposing into a video
JP7008521B2 (ja) * 2018-01-31 2022-01-25 株式会社ジャパンディスプレイ 表示装置及び表示システム
US10523912B2 (en) * 2018-02-01 2019-12-31 Microsoft Technology Licensing, Llc Displaying modified stereo visual content
US10845872B2 (en) * 2018-02-09 2020-11-24 Ricoh Company, Ltd. Eye-gaze tracker, eye-gaze tracking method, and recording medium
JP2020043387A (ja) 2018-09-06 2020-03-19 キヤノン株式会社 画像処理装置、画像処理方法、プログラム、及び、記憶媒体
US10945042B2 (en) 2018-11-19 2021-03-09 Gfycat, Inc. Generating an interactive digital video content item
CN111580273B (zh) * 2019-02-18 2022-02-01 宏碁股份有限公司 视频穿透式头戴显示器及其控制方法
US11315328B2 (en) * 2019-03-18 2022-04-26 Facebook Technologies, Llc Systems and methods of rendering real world objects using depth information
US11315483B2 (en) * 2019-04-18 2022-04-26 Google Llc Systems, devices, and methods for an infrared emitting display
US11786694B2 (en) 2019-05-24 2023-10-17 NeuroLight, Inc. Device, method, and app for facilitating sleep
CN115152203A (zh) 2020-02-21 2022-10-04 麦克赛尔株式会社 信息显示装置
WO2022230247A1 (ja) * 2021-04-27 2022-11-03 ソニーグループ株式会社 情報処理装置、プログラム及び情報処理方法

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05328408A (ja) 1992-05-26 1993-12-10 Olympus Optical Co Ltd ヘッド・マウンテッド・ディスプレイ
JP3744984B2 (ja) * 1995-10-04 2006-02-15 キヤノン株式会社 情報表示装置
JP3802630B2 (ja) 1996-12-28 2006-07-26 オリンパス株式会社 立体画像生成装置および立体画像生成方法
JP3450792B2 (ja) * 1999-03-25 2003-09-29 キヤノン株式会社 奥行き画像計測装置及び方法、並びに複合現実感提示システム
JP3492942B2 (ja) * 1999-06-30 2004-02-03 株式会社東芝 装着型情報呈示装置および方法および記憶媒体
US6522474B2 (en) * 2001-06-11 2003-02-18 Eastman Kodak Company Head-mounted optical apparatus for stereoscopic display
JP4009851B2 (ja) * 2002-05-20 2007-11-21 セイコーエプソン株式会社 投写型画像表示システム、プロジェクタ、プログラム、情報記憶媒体および画像投写方法
EP1571839A1 (en) * 2004-03-04 2005-09-07 C.R.F. Società Consortile per Azioni Head-mounted system for projecting a virtual image within an observer's field of view
CN100359363C (zh) * 2004-05-06 2008-01-02 奥林巴斯株式会社 头戴式显示装置
CN1922651A (zh) * 2004-06-10 2007-02-28 松下电器产业株式会社 穿戴型信息提示装置
JP2006121231A (ja) * 2004-10-19 2006-05-11 Olympus Corp プロジェクタ
JP2006154890A (ja) * 2004-11-25 2006-06-15 Olympus Corp 情報端末装置及びシステム
JP2006267604A (ja) * 2005-03-24 2006-10-05 Canon Inc 複合情報表示装置
KR101108435B1 (ko) * 2005-05-31 2012-02-16 서강대학교산학협력단 의사윤곽 제거 방법 및 이 방법이 적용되는 디스플레이장치
JP4901539B2 (ja) * 2007-03-07 2012-03-21 株式会社東芝 立体映像表示システム
CN201145774Y (zh) * 2008-01-23 2008-11-05 胡超 轻便式立体显示装置
RU2546546C2 (ru) * 2008-12-01 2015-04-10 Аймакс Корпорейшн Способы и системы для представления трехмерных изображений движения с адаптивной к содержимому информацией
JP5136442B2 (ja) 2009-01-27 2013-02-06 ブラザー工業株式会社 ヘッドマウントディスプレイ
JP2010237522A (ja) 2009-03-31 2010-10-21 Brother Ind Ltd 画像提示システム及びこの画像提示システムに用いられるヘッドマウントディスプレイ
US20110075257A1 (en) * 2009-09-14 2011-03-31 The Arizona Board Of Regents On Behalf Of The University Of Arizona 3-Dimensional electro-optical see-through displays
JP2011091789A (ja) 2009-09-24 2011-05-06 Brother Industries Ltd ヘッドマウントディスプレイ
KR20110057629A (ko) * 2009-11-24 2011-06-01 엘지전자 주식회사 Ui 제공 방법 및 디지털 방송 수신기
JP2011216937A (ja) * 2010-03-31 2011-10-27 Hitachi Consumer Electronics Co Ltd 立体画像表示装置
CN102314315B (zh) * 2010-07-09 2013-12-11 株式会社东芝 显示装置、图像数据生成装置、图像数据生成程序及显示方法
JP5464130B2 (ja) 2010-11-18 2014-04-09 日本電気株式会社 情報表示システム、装置、方法及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12073516B2 (en) 2019-10-03 2024-08-27 Sony Group Corporation Information processing device and method for displaying AR object at accurate position

Also Published As

Publication number Publication date
US20150261003A1 (en) 2015-09-17
US10670880B2 (en) 2020-06-02
US9618759B2 (en) 2017-04-11
WO2014024649A1 (ja) 2014-02-13
US20170276956A1 (en) 2017-09-28
JPWO2014024649A1 (ja) 2016-07-25
CN104509108A (zh) 2015-04-08

Similar Documents

Publication Publication Date Title
JP6520119B2 (ja) 画像処理装置および画像処理方法
JP6644371B2 (ja) 映像表示装置
US11122249B2 (en) Dynamic covergence adjustment in augmented reality headsets
JP6717377B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP5963422B2 (ja) 撮像装置、表示装置、コンピュータプログラムおよび立体像表示システム
CN108663799B (zh) 一种vr图像的显示控制系统及其显示控制方法
EP2701390B1 (en) Apparatus for adjusting displayed picture, display apparatus and display method
US10382699B2 (en) Imaging system and method of producing images for display apparatus
EP3029935A1 (en) Holographic displaying method and device based on human eyes tracking
US20110228051A1 (en) Stereoscopic Viewing Comfort Through Gaze Estimation
CN108632599B (zh) 一种vr图像的显示控制系统及其显示控制方法
US10666923B2 (en) Wide-angle stereoscopic vision with cameras having different parameters
JP2013205526A (ja) 表示装置および表示制御方法
JP2007052304A (ja) 映像表示システム
JP2019029876A (ja) 画像処理装置、カメラ装置及び出力制御方法
JP2019025082A (ja) 画像処理装置、カメラ装置及び画像処理方法
US20130215237A1 (en) Image processing apparatus capable of generating three-dimensional image and image pickup apparatus, and display apparatus capable of displaying three-dimensional image
JP2013005238A (ja) 3次元画像処理装置及び3次元画像処理方法、表示装置、並びにコンピューター・プログラム
TWI589150B (zh) 3d自動對焦顯示方法及其系統
EP2434766A2 (en) Adaptation of 3d video content
JPH11155154A (ja) 立体映像処理装置
US20120120051A1 (en) Method and system for displaying stereoscopic images
KR101747929B1 (ko) 입체영상의 화질을 개선하기 위한 장치 및 방법
KR20120133710A (ko) 비대칭 양안 카메라 모듈을 이용한 입체 3d 영상 생성 장치 및 그 방법
JP2013024910A (ja) 観察用光学機器

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180517

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190124

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190415

R151 Written notification of patent or utility model registration

Ref document number: 6520119

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees