[go: up one dir, main page]

JP5450791B2 - 立体表示装置及び立体撮影装置、並びに利き目判定方法及びこれに用いる利き目判定プログラム並びに記録媒体 - Google Patents

立体表示装置及び立体撮影装置、並びに利き目判定方法及びこれに用いる利き目判定プログラム並びに記録媒体 Download PDF

Info

Publication number
JP5450791B2
JP5450791B2 JP2012505443A JP2012505443A JP5450791B2 JP 5450791 B2 JP5450791 B2 JP 5450791B2 JP 2012505443 A JP2012505443 A JP 2012505443A JP 2012505443 A JP2012505443 A JP 2012505443A JP 5450791 B2 JP5450791 B2 JP 5450791B2
Authority
JP
Japan
Prior art keywords
image
dominant eye
unit
stereoscopic
viewpoint image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012505443A
Other languages
English (en)
Other versions
JPWO2011114567A1 (ja
Inventor
聡司 柳田
充史 三沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2012505443A priority Critical patent/JP5450791B2/ja
Publication of JPWO2011114567A1 publication Critical patent/JPWO2011114567A1/ja
Application granted granted Critical
Publication of JP5450791B2 publication Critical patent/JP5450791B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は立体表示装置及び立体撮影装置並びに利き目判定方法に係り、特に立体表示装置を使用してユーザの利き目を判定する技術に関する。
従来、操作部品を立体的に画面に表示し、操作者がタッチパネルにタッチすると、立体表示装置で立体視表示された操作部品への操作指示をそのタッチ位置を示す座標データに基づいて検出し、立体視合成部で形成される操作部品の視差像を変更し、立体表示装置に立体視表示される操作部品の形体を変化させる装置が提案されている(特許文献1)。例えば、操作部品が押しボタン型のスイッチの画像の場合、タッチパネルでそのスイッチの画像にタッチしてオン/オフさせると、オン/オフに応じてスイッチの画像を立体視表示又は平面表示に変更し、これにより操作性を向上させるようにしている。
また、立体視差画像を表示部に表示し、タッチパネル上で操作が行われる前に平面画像に切り替えることによって、操作性の向上を図ることが可能な操作パネル装置が提案されている(特許文献2)。
一方、運転者の両目の視線方向を検出し、その検出結果と、その検出期間に車両が進行した道路状況に応じた正常な運転状態における標準的な視線移動パターンとを比較し、両目の視線方向のうち、どちらが視線移動パターンに近いかを判定し、視線移動パターンにより近い方の視線方向を利き目であると判断するようにした視線方向検出装置が提案されている(特許文献3)。
特開平10−105735号公報 特開2004−280496号公報 特開2006−293909号公報
図28の(A)に示すように立体表示物をタッチして操作するとき、立体表示物をタッチしたと思っている場所は、実際には左視点画像(図28の(B))か、右視点画像(図28の(C))のいずれか一方の視点画像上の立体表示物に対応する箇所を触っている。左視点画像上の対応箇所と右視点画像上の対応箇所のどちらが立体表示物上でタッチした場所に近いかと言うと、それはユーザの利き目に依存する。右目が利き目の人は、立体表示物(3D画像)をタッチしたと思った場所と右視点画像(2D画像)の場所とが一致もしくは非常に近いことが分かっている。同様に、左目が利き目の人は、左視点画像(2D画像)の場所が一致もしくは非常に近いことが分かっている。
特許文献1に記載の発明は、立体表示物をタッチパネルで操作する際、上記のようにユーザの利き目によりタッチ位置に位置ずれが生じることについては何ら考慮されていない。
特許文献2に記載の発明は、タッチパネル上で操作が行われる前に平面画像(2D画像)に切り替えるため、立体視画像上でタッチパネルを操作することは想定していない。
一方、特許文献3には、運転者の両目の視線方向を検出する視線方向検出手段等を使用して運転者の利き目を判断する記載があるが、視線方向検出手段等が必要であり、簡単に利き目を判断することができない。
本発明はこのような事情に鑑みてなされたもので、立体表示装置を利用して簡単にユーザの利き目を判定することができ、また、その判定結果を利用することでユーザが意図した立体表示画面上の位置座標を取得することができ、タッチパネル等の座標位置入力用デバイスでの操作性の向上を図ることができる立体表示装置及び立体撮影装置、並びに利き目判定方法及びこれに用いる利き目判定プログラム並びにその記録媒体を提供することを目的とする。
前記目的を達成するために本発明に係る立体表示装置は、左視点画像及び右視点画像からなる立体視画像を表示する立体表示部と、前記立体表示部の表示面上の所望の位置座標を入力する座標入力部と、ユーザの利き目を判定するための左視点画像及び右視点画像からなる利き目判定画像であって、左視点画像と右視点画像とでそれぞれ異なる基準座標を表す利き目判定画像を前記立体表示部に表示させる表示制御部と、前記立体表示部に表示された利き目判定画像に対して前記座標入力部を介してユーザにより入力された位置座標を取得する取得部と、前記左視点画像及び右視点画像からなる各利き目判定画像の各々の基準座標と前記取得された位置座標とに基づいて前記取得された位置座標が左視点画像の基準座標及び右視点画像の基準座標のいずれに近いかに応じて前記座標入力部を介して前記位置座標を入力したユーザの利き目を判定する判定部とを備え、前記表示制御部は、前記利き目判定画像として前記立体表示部に操作用のアイコン画像を表示させ、前記座標入力部は、前記立体表示部の表示面上に設けられたタッチパネルであることを特徴とする。
前記目的を達成するために本発明の第1の態様に係る立体表示装置は、左視点画像及び右視点画像からなる立体視画像を表示する立体表示部と、前記立体表示部の表示面上の所望の位置座標を入力する座標入力部と、ユーザの利き目を判定するための左視点画像及び右視点画像からなる利き目判定画像であって、左視点画像と右視点画像とでそれぞれ異なる基準座標を表す利き目判定画像を前記立体表示部に表示させる表示制御部と、前記立体表示部に表示された利き目判定画像に対して前記座標入力部を介してユーザにより入力された位置座標を取得する取得部と、前記左視点画像及び右視点画像からなる各利き目判定画像の各々の基準座標と前記取得された位置座標とに基づいて前記取得された位置座標が左視点画像の基準座標及び右視点画像の基準座標のいずれに近いかに応じて前記座標入力部を介して前記位置座標を入力したユーザの利き目を判定する判定部と、を備えたことを特徴としている。
前記立体表示部に立体視表示された利き目判定画像に対して前記座標入力部を介してユーザにより位置座標を入力すると、その入力された位置座標が前記座標入力部を介して取得される。この取得された位置座標と各利き目判定画像の各々の基準座標とに基づいて、「前記取得された位置座標が左視点画像の基準座標及び右視点画像の基準座標のいずれに近いか」に応じてユーザの利き目を判定するようにしている。これは、「左視点画像及び右視点画像からなる利き目判定画像上で入力した位置座標は、これらの左視点画像及び右視点画像の基準座標のうち、ユーザの利き目側の視点画像の基準座標に近くなる」という事実に基づいている。
本発明の第2の態様に係る立体表示装置は第1の態様に係る立体表示装置において、前記表示制御部は、前記利き目判定画像として前記立体表示部に操作用のアイコン画像を表示させることを特徴としている。これによれば、通常のアイコン画像のクリックの操作が行われると、ユーザに利き目判定を全く意識させずに内部で自動的に利き目判定を行うことができ、その判定結果を他の制御に活かすことができる。
本発明の第3の態様に係る立体表示装置は第1の態様に係る立体表示装置において、前記表示制御部は、前記利き目判定画像として前記立体表示部にスタートボタン、ログインボタン等のボタン画像を表示させることを特徴としている。ユーザは、前記立体表示部に表示されるボタン画像を利き目判定を意識せずにタッチ操作するため、第3の態様に係る立体表示装置は、ユーザに利き目判定を意識させずに内部で自動的に利き目判定を行うことができる。尚、ボタン画像としては、例えばスタートボタンやログインボタンのように必ずタッチするものが好ましい。
本発明の第4の態様に係る立体表示装置は第1の態様に係る立体表示装置において、前記表示制御部は、前記利き目判定画像として前記立体表示部に操作用のつまみを含むスライドバー画像を表示させることを特徴としている。前記スライドバーのつまみにタッチする位置によりユーザの利き目判定を行うことができる。
本発明の第5の態様に係る立体表示装置は第1の態様に係る立体表示装置において、前記表示制御部は、前記利き目判定画像として前記立体表示部に線画を表示させ、前記判定部は、前記線画を示す左視点画像及び右視点画像からなる各利き目判定画像の各々の輪郭線の座標と、前記線画をなぞることにより前記座標入力部により連続して取得された座標との平均距離に基づいて前記線画をなぞったユーザの利き目を判定することを特徴としている。前記立体表示部に表示される線画をなぞると、なぞった軌跡が左視点画像の線画に近いか、右視点画像の線画に近いかによりユーザの利き目を判定するようにしている。尚、線画としては、なぞりやすい絵、図形等が好ましい。
本発明の第6の態様に係る立体表示装置は第1の態様に係る立体表示装置において、前記表示制御部は、前記利き目判定画像として前記立体表示部に未完成の絵又は図形を表示させ、前記判定部は、前記未完成の絵又は図形を示す左視点画像及び右視点画像からなる各利き目判定画像の各々の基準座標と、前記座標入力部により前記未完成の絵又は図形が完成するように追加された絵又は図形の位置座標とに基づいて前記追加したユーザの利き目を判定することを特徴としている。左視点画像及び右視点画像の未完成の絵又は図形に対して追加される絵又は図形の位置座標が、左視点画像に近いか、又は右視点画像に近いかによりユーザの利き目を判定するようにしている。
本発明の第7の態様に係る立体表示装置は第1乃至第6の態様のいずれかに係る立体表示装置において、前記判定部は、前記座標入力部を介して前記位置座標を入力したユーザの利き目を判定することができなかった場合には右目を利き目として判定することを特徴としている。即ち、利き目の判定ができなかった場合には、右目を利き目とする人が左目を利き目とする人よりも多いため、右目を利き目として判定し、少しでも判定ミスを低減するようにしている。
本発明の第8の態様に係る立体表示装置は第1乃至第7の態様のいずれかに係る立体表示装置において、ユーザの利き目の情報を装置内部に保存登録する保存登録部を備えたことを特徴としている。ユーザの利き目の情報を装置内に登録することができ、これにより毎回利き目の判定を行う必要がなくなる。
本発明の第9の態様に係る立体表示装置は第8の態様に係る立体表示装置において、前記保存登録部は、前記判定部による判定結果に基づいて自動的に利き目の情報を保存登録することを特徴としている。
本発明の第10の態様に係る立体撮像装置は第8又は第9の態様に係る立体表示装置において、前記保存登録部は、ユーザからの指示入力により該ユーザの利き目の情報を受け付ける利き目情報入力部を有し、前記利き目情報入力部により受け付けたユーザの利き目の情報を保存登録することを特徴としている。
第9又は第10の態様によれば、ユーザの利き目の情報を自動的に登録し、又はユーザが自分で利き目を判断して登録することができる。
本発明の第11の態様に係る立体表示装置は第8乃至第10の態様のいずれかに係る立体表示装置において、前記立体表示部に表示された立体視画像上の所望の対象画像の位置座標を前記座標入力部を介して受け付ける位置入力部を備え、前記位置入力部により受け付けた位置座標を、前記立体視画像の左視点画像及び右視点画像のうちの前記保存登録部に登録されたユーザの利き目の情報に対応する利き目側の視点画像上の座標位置として取り扱うことを特徴としている。これにより、ユーザが意図した位置座標と装置側が判断する視点画像上の位置座標とのずれを低減することができ、前記座標入力部の操作性の向上を図ることができる。
本発明の第12の態様に係る立体表示装置は第1乃至第11の態様のいずれかに係る立体表示装置において、前記座標入力部は、前記立体表示部の表示面上に設けられたタッチパネルであることを特徴としている。
本発明の第13の態様に係る立体表示装置は第8乃至第12の態様のいずれかに係る立体表示装置において、前記立体表示部に左視点画像及び右視点画像からなる立体視画像を表示させる3D表示モードと、前記立体視画像を構成する左視点画像及び右視点画像のうちのいずれか一方の視点画像を表示させる2D表示モードとを切り替える表示モード切替部を備え、前記表示制御部は、前記表示モード切替部により2D表示モードへの切替時に、前記保存登録部に登録されたユーザの利き目の情報に基づいて前記左視点画像及び右視点画像のうちのユーザの利き目側の視点画像を前記立体表示部に表示させることを特徴としている。
これにより、立体視画像(3D画像)から左視点画像又は右視点画像のいずれかの視点画像(2D画像)への表示切替時の見易さを向上させることができる。
本発明の第14の態様に係る立体表示装置は第13の態様に係る立体表示装置において、前記座標入力部は、前記立体表示部の表示面上に設けられたタッチパネルであり、前記表示モード切替部は、前記タッチパネルによりタッチが検知されるごとに前記2D表示モードと3D表示モードとを交互に切り替えることを特徴としている。これにより、2D表示モードと3D表示モードとの切り替えを簡単に行うことができる。
本発明の第15の態様に係る立体表示装置は第13の態様に係る立体表示装置において、前記表示モード切替部は、前記タッチパネルによりタッチが検知されると、前記2D表示モードに切り替え、前記タッチパネルによりタッチが検知されないと、又は一定時間以上タッチが検知されないと、前記3D表示モードに切り替えることを特徴としている。これにより、タッチパネルに触れ続けている場合、又は一定時間以上の間隔を空けずに連続的にタッチパネルを操作している場合には、利き目側の視点画像(2D画像)のみが表示されるため、操作性が向上する。
本発明の第16の態様に係る立体表示装置は第8乃至第15の態様のいずれかに係る立体表示装置において、前記立体表示部に表示させる左視点画像及び右視点画像からなる立体視画像の左右の視差量を検出する視差量検出部と、前記視差量検出部により検出された視差量のうち、予め設定された視差量又はユーザにより指定された二重に見える領域の視差量を越える視差量を有する領域を抽出する領域抽出部と、前記領域抽出部により抽出された領域の立体視画像を、前記保存登録部に登録されたユーザの利き目の情報に対応する利き目側の視点画像のみに置き換える画像置換え部と、を備えたことを特徴としている。
立体視画像内で視差量の大きい領域が二重に見える場合がある。二重に見えるよりは、2D画像の方が良いため、二重に見える領域を利き目側の視点画像(2D画像)に置き換えるようにしている。ここで、2D画像に置き換える領域は、予め設定された視差量を越える領域として自動抽出するようにしてもよいし、ユーザが二重に見える領域を前記座標入力部で指定するようにしてもよい。
本発明の第17の態様に係る立体撮像装置は第8乃至第16の態様のいずれかに係る立体表示装置を備えた立体撮影装置において、2次元画像を撮影する2D撮影モードと、左視点画像と右視点画像からなる立体視画像を撮影する3D撮影モードとを切り替える撮影モード切替部と、前記撮影モード切替部により前記2D撮影モードに切り替えられると、前記左視点画像及び右視点画像のうち前記保存登録部に登録されたユーザの利き目の情報に対応する利き目側の視点画像を前記立体表示部にスルー画像として表示させる制御部と、を備えたことを特徴としている。
これによれば、立体撮影装置による2D撮影モードによる2D画像の撮影がしやすくなるとともに、利き目の方が疲れにくく、撮影者は情報量を多く取得することができる。
本発明の第18の態様は、立体表示部と、前記立体表示部の表示面上の所望の位置座標を入力する座標入力部とを有する立体表示装置を使用した利き目判定方法であって、ユーザの利き目を判定するための左視点画像及び右視点画像からなる利き目判定画像であって、左視点画像と右視点画像とでそれぞれ異なる基準座標を表す利き目判定画像を前記立体表示部に表示させる工程と、前記立体表示部に表示された利き目判定画像に対して前記座標入力部を介してユーザにより入力された位置座標を取得する工程と、前記左視点画像及び右視点画像からなる各利き目判定画像の各々の基準座標と前記取得された位置座標とに基づいて前記取得された位置座標が左視点画像の基準座標及び右視点画像の基準座標のいずれに近いかに応じて前記座標入力部を介して前記位置座標を入力したユーザの利き目を判定する工程と、を含むことを特徴としている。
本発明の第19の態様は、第18の態様に係る利き目判定方法を前記立体表示装置に実行させるプログラムを提供する。
本発明の第20の態様は、第19の態様に係る利き目判定プログラムのコンピュータ読取可能なコードを記録した記録媒体を提供する。
本発明によれば、立体表示部に立体視表示された利き目判定用の利き目判定画像に対してユーザが所望の位置座標を指示入力するだけで、簡単にユーザの利き目を判定することができる。また、この判定結果を利用することで、立体視画像上の所望の位置座標を入力する場合に、ユーザが意図した位置座標を取得することができ、タッチパネル等の座標入力部での操作性の向上を図ることができる。
図1は本発明に係る立体表示装置の第1の実施の形態を示すブロック図であり; 図2は利き目判定処理と利き目情報の保存・登録を示すフローチャートであり; 図3は利き目判定画像とその利き目判定画像にタッチする様子を示す図であり; 図4は左視点差分DL,右視点差分DRの算出方法を説明するために用いた図であり; 図5は本発明に係る立体表示装置の第2の実施の形態を示すブロック図であり; 図6はユーザがタッチした立体視画像上の位置座標を決定する処理手順を示すフローチャートであり; 図7は立体視画像上でタッチした位置が左視点画像上の位置か右視点画像上の位置かを示す図であり; 図8は本発明に係る立体表示装置の第3の実施の形態を示すブロック図であり; 図9は立体視画像(3D画像)の表示状態から左視点画像又は右視点画像の2D画像に切り替える場合の処理手順を示すフローチャートであり; 図10は立体視画像(3D画像)の表示状態からユーザの利き目側の視点画像(2D画像)への表示切替を示す図であり; 図11は本発明の第4の実施の形態を示すフローチャートであり; 図12は本発明の第4の実施の形態による立体視画像(3D画像)とユーザの利き目側の視点画像(2D画像)との表示切替を示す図であり; 図13は本発明に係る立体撮影装置の実施の形態(第5の実施の形態)を示すブロック図であり; 図14は本発明の第5の実施の形態によりスルー画を表示する立体撮影装置を示す図であり; 図15は立体撮影装置で立体視画像又は2D画像を撮影する場合の処理手順を示すフローチャートであり; 図16は本発明に係る立体表示装置の第6の実施の形態を示すブロック図であり; 図17は立体撮影装置により奥行き方向に離れた物体(被写体)を撮影する様子を示す図であり; 図18は本発明の第6の実施の形態を示すフローチャートであり; 図19は視差が大きくなる左視点画像の一部の画像を、右視点画像の対応する一部の画像に置き換える様子を示す図であり; 図20は利き目判定画像としてボタン画像を使用し、その利き目判定画像にタッチする様子を示す図であり; 図21は利き目判定画像として1軸のスライドバー画像を使用する場合の表示画面を示す図であり; 図22は利き目判定画像として1軸タイプのスライドバー画像を使用し、その利き目判定画像にタッチする様子を示す図であり; 図23は利き目判定画像として2軸タイプのスライドバー画像を使用する場合の立体表示部の表示画面を示す図であり; 図24は利き目判定画像としてウサギを示す線画を使用する場合の立体表示部の表示画面を示す図であり; 図25は利き目判定画像として未完成の絵(耳のないウサギの画像)を使用する場合の立体表示部の表示画面を示す図であり; 図26は立体表示部の表示画面に表示されている利き目判定画像に不足する画像(耳の画像)を追加する様子を示す図であり; 図27は本発明の第7の実施の形態を示すフローチャートであり; 図28は立体視画像上でタッチしたと思っている場所と、左右の視点画像上で実際にタッチされた位置との関係を示す図である。
以下、添付図面に従って本発明に係る立体表示装置及び立体撮影装置、並びに利き目判定方法及びこれに用いる利き目判定プログラム並びに記録媒体の実施の形態について説明する。
<第1の実施の形態>
図1は本発明に係る立体表示装置の第1の実施の形態を示すブロック図である。図1に示すように、この立体表示装置1は、主としてメモリー部10、表示制御部12、立体表示部14、スピーカー部16、入出力部18、記録媒体記録部20、タッチパネル22、及び利き目判定処理部24から構成されている。
メモリー部10は、フラッシュメモリー、RAM等を含み、本発明に係る利き目判定プログラム、ファームウエア、左視点画像及び右視点画像からなる利き目判定用の利き目判定画像、各利き目判定画像の基準座標、及びユーザの利き目情報を記憶するとともに、立体表示部14に表示する表示用の画像データ等を一時記憶するメモリーとして機能する。なお上記利き目判定プログラム等は、HDDやCD/DVD/BD等の光磁気記録媒体に記憶されたものを用いるようにしてもよい。
表示制御部12は、立体表示部14に利き目判定用の利き目判定画像、立体視画像(3D画像)、利き目側の視点画像(2D画像)、通常の2D画像、その他、GUI用の画像等を表示させる部分であり、中央処理装置(CPU)などが考えられる。
立体表示部14は、2視点画像(左視点画像、右視点画像)をパララックスバリアによりそれぞれ所定の指向性をもった指向性画像として表示できる液晶モニタである。尚、立体表示部14としては、レンチキュラレンズを使用するものや、偏光メガネ、液晶シャッタメガネなどの専用メガネをかけることで左視点画像と右視点画像とを個別に見ることができるものなどが適用できる。
スピーカー部16は、音声付き画像(静止画、動画)の再生時に音声データに基づいて音声を発生する。入出力部18は、パソコン等の外部機器との間で画像データ等の情報を入出力するインターフェースである。記録媒体記録部20は、メモリカード等の着脱自在な記録媒体30に対して画像データ等の読み書きを行う。
タッチパネル22は、立体表示部14の表示面上に設けられており、ユーザがタッチパネル22上の任意の位置にタッチすると、そのタッチした位置の2次元座標データが利き目判定処理部24及び立体タッチ位置座標決定部26に送出される。
利き目判定処理部24は、利き目判定処理時にタッチパネル22から取得されるタッチした位置の座標データに基づいてタッチパネル22をタッチしたユーザの利き目を判定する。尚、この利き目判定の詳細につては後述する。
図2は利き目判定処理と利き目情報の保存・登録を示すフローチャートである。以下、図2に示すフローチャートにしたがって本発明に係る利き目判定方法・利き目判定プログラム等について説明する。
[ステップS10]
利き目設定・判定を開始する。利き目の判定は、実際には立体表示装置1を立ち上げた時などに、スタートボタンの操作や日付け設定などを行うときに、ユーザがタッチパネル操作を行う処理の中で自動的に行われるのが理想であるが、利き目設定・判定のメニューを選択することで開始するようにしてもよい。
[ステップS12]
表示制御部12は、利き目設定・判定が開始されると、まず立体表示部14に利き目の情報をユーザが入力か否かを選択する画面を表示させる。ここで、タッチパネル22でユーザが利き目の情報を入力する場合(「Yes」の場合)には、ステップS14に遷移し、ユーザが入力しない場合(「No」の場合)には、ステップS16に遷移する。
[ステップS14]
表示制御部12は、立体表示部14に「利き目は右ですか?左ですか?」を表示させ、ユーザに利き目の選択を促す。ユーザが自分の利き目を選択すると、その選択した利き目の情報を読み込み、メモリー部10又は記録媒体30に保存して終了する。
[ステップS16]
表示制御部12は、立体表示部14に前回の利き目判定結果もしくは、保存済みの利き目の情報を使うかを選択する画面を表示させる。前回又は保存済みの利き目の情報を使う場合には、ステップS18に遷移し、使わない場合にはステップS20に遷移する。
[ステップS18]
利き目情報をメモリー部10又は記録媒体30から読み込み終了する。
[ステップS20]
表示制御部12は、立体表示部14に利き目判定を行うか否かを選択させる画面を表示させる。利き目判定を行わない場合にはステップS22に遷移し、利き目の判定を行う場合にはステップS24に遷移する。
[ステップS22]
利き目の設定を行わずに終了する。
[ステップS24]
図3に示すように表示制御部12は、立体表示部14に利き目判定画像と、「十字の中心を押してください」という文字を表示させる。
この利き目判定画像は、左視点画像及び右視点画像からなる立体視画像であり、この実施形態では、丸に十字が入ったマーク画像である。尚、利き目判定画像及び各画像の基準座標(十字の中心座標)は、メモリー部10に保存されている。また、利き目判定画像は、この実施形態のものに限らず、視差を持つ画像であり、ユーザの押す場所が指定できるものであれば如何なるものでもよい。
例えば、立体表示部14に表示される操作用の1ないし複数のアイコン画像を利き目判定画像として利用するようにしてもよい。これによれば、アイコン画像のタッチ操作、クリック操作等が行われているときに、内部で自動的に利き目判定を行うことができる。
[ステップS26]
利き目判定処理部24は、立体表示部14の画面上の利き目判定画像が押されたか否か(タッチパネル22がタッチされたか否か)を検知する。所定時間以上、押されない場合(「No」の場合)には、ステップS28に遷移し、押された場合(「Yes」の場合)には、ステップS30に遷移する。
[ステップS28]
利き目判定処理部24は、利き目判定画像が押されたことが検知できないと判断すると、利き目を右目として判定し、その判定結果を読み込んでメモリー部10又は記録媒体30に保存して終了する。これは、右目を利き目とする人が左目を利き目とする人よりも多いため、右目を利き目とすることで、少しでも判定ミスを低減するためである。
[ステップS30]
利き目判定処理部24は、利き目判定画像の押された位置座標をタッチパネル22を介して取得し、この位置座標と利き目判定画像の左視点画像及び右視点画像の各基準位置とに基づいてユーザの利き目を判定する。
即ち、図4及び下記の[数1]式、[数2]に示すように左視点差分DL,右視点差分DRを算出する。
[数1]
左視点差分DL=|((1)左視点画像の押された座標)-((2)左視点画像の十字の中心)|

[数2]
右視点差分DR=|((1)右視点画像の押された座標)-((2)右視点画像の十字の中心)|

そして、DL<DRの場合は、左目を利き目と判定し、DR≦DLの場合は、右目を利き目と判定する。尚、DR=DLの場合には、利き目の判定は不能であるが、この場合には、ステップS28と同様に、利き目を右目として判定する。
このようにして判定したユーザの利き目の情報をメモリー部10又は記録媒体30に保存して終了する。
本方法を使用すると、立体表示部14に表示された利き目判定画像をタッチするだけで、利き目の判別ができ、その結果を登録することができる。
<第2の実施の形態>
図5は本発明に係る立体表示装置の第2の実施の形態を示すブロック図である。尚、図1に示した第1の実施の形態と共通する部分には同一の符号を付し、その詳細な説明は省略する。
図5に示すように第2の実施の形態の立体表示装置2は、第1の実施の形態のものに比べて立体タッチ位置座標決定部26が追加されている点で相違する。
立体タッチ位置座標決定部26は、ユーザの利き目の情報とタッチパネル22から取得されるタッチした位置の座標データとに基づいてユーザがタッチした立体視画像上の位置座標を決定する。
図6はユーザがタッチした立体視画像上の位置座標を決定する処理手順を示すフローチャートであり、以下、図6に示すフローチャートにしたがって説明する。
[ステップS40]
立体表示装置2による立体視表示を開始する。尚、立体視表示の開始時には、前述したようにメモリー部10又は記録媒体30にユーザの利き目情報が登録されているものとする。
[ステップS42]
立体タッチ位置座標決定部26は、メモリー部10又は記録媒体30から予め登録されたユーザの利き目情報を読み込む。
[ステップS44]
表示制御部12は、メモリー部10又は記録媒体30から立体視画像を読み込み、又は外部機器から入出力部18を介して立体視画像を読み込み、読み込んだ立体視画像を立体表示部14に表示させる。
[ステップS46]
ユーザは、表示された立体視画像を操作する際にタッチパネル22をタッチするが、立体タッチ位置座標決定部26は、ユーザが立体表示部14の画面(タッチパネル22)をタッチしたか否かを判定する。そして、タッチされたことが検知されると、ステップS48に遷移する。
[ステップS48]
タッチされたタッチパネル22上の座標(x,y)を、表示されている立体視画像のうちのユーザの利き目側の視点画像上の座標として読み込み、メモリー部10に保存する。
即ち、図7に示すように利き目が右目の場合、立体表示部14に表示された立体視画像(左視点画像及び右視点画像)上の任意の位置がタッチされると、そのタッチ座標(x,y)は、右視点画像上の座標として扱う。これにより、ユーザが立体視画像上でタッチしたと思った場所と、実際にタッチ位置として検知される視点画像上の場所とのずれがなくなり、又はずれを低減することができ、タッチパネル22による立体視画像の操作性が向上する。
例えば、ある被写体にタッチし、その被写体をズーム表示させる場合に、ズーム中心を正しく指示することができ、また、ソフトボタンや各種アイコン等が立体視表示されている場合に、ソフトボタン等の誤操作を防止することができる。
<第3の実施の形態>
図8は本発明に係る立体表示装置の第3の実施の形態を示すブロック図である。尚、図1に示した第1の実施の形態と共通する部分には同一の符号を付し、その詳細な説明は省略する。
図8に示すように第3の実施の形態の立体表示装置3は、第1の実施の形態のものに比べて3D・2D表示モード切替部28が追加されている点で相違する。
3D・2D表示モード切替部28は、立体視画像(3D画像)からその3D画像の左視点画像又は右視点画像の2D画像への切替時に、左視点画像又は右視点画像のいずれの視点画像を表示させるかをユーザの利き目情報に基づいて切替指示するものである。
図9は立体視画像(3D画像)の表示状態から左視点画像又は右視点画像の2D画像に切り替える場合の処理手順を示すフローチャートであり、以下、図9に示すフローチャートにしたがって説明する。
[ステップS50]
立体表示装置3による立体視表示を開始する。尚、立体視表示の開始時には、メモリー部10又は記録媒体30にユーザの利き目情報が登録されているものとする。
[ステップS52]
3D・2D表示モード切替部28は、メモリー部10又は記録媒体30から予め登録されたユーザの利き目情報を読み込む。
[ステップS54]
表示制御部12は、メモリー部10又は記録媒体30から立体視画像を読み込み、又は外部機器から入出力部18を介して立体視画像を読み込み、読み込んだ立体視画像(3D画像)を立体表示部14に表示させる。
[ステップS56]
ユーザは、図示しない表示モード切替えボタン又はタッチパネル22などを押して、立体視画像(3D画像)から左視点画像又は右視点画像の2D画像への切替え指示を行うことができる。表示制御部12は、ユーザによる3D画像から2D画像への切替指示の有無を判別し、2D画像への切替指示がない場合(「No」の場合)にはステップS54に遷移させ、2D画像への切替指示がある場合(「Yes」の場合)にはステップS58に遷移させる。
[ステップS58]
3D・2D表示モード切替部28は、3D画像から2D画像に切り替える場合には、ステップS52で読み込んだユーザの利き目情報に基づいてそのユーザの利き目側の視点画像(2D画像)を立体表示部14に表示させ、又は表示制御部12に対して左視点画像又は右視点画像のうちのいずれの視点画像を表示させるかの指示を与え、ユーザの利き目側の視点画像のみを立体表示部14に表示させる。
図10に示すように利き目が右目であるとすると、立体表示部14に表示された立体視画像(3D画像)から左視点画像又は右視点画像の2D画像に切り替える場合、利き目側の視点画像である右視点画像(2D画像)を表示させる。
[ステップS60]
表示制御部12は、ユーザによる2D画像から3D画像への切替指示の有無を判別し、3D画像への切替指示がない場合(「No」の場合)にはステップS58に遷移させ、3D画像への切替指示がある場合(「Yes」の場合)にはステップS54に遷移させる。
本方法を使用すると、立体視画像(3D画像)の表示状態から2D画像に表示切替をするときに、表示モードの切り替わりに伴う違和感を低減することができ、見易さを向上させることができる。
<第4の実施の形態>
図11は本発明の第4の実施の形態を示すフローチャートである。尚、立体表示装置の構成は、図8に示した第3の実施の形態のものと同一であり、後述するように処理内容のみが相違する。以下、図11に示すフローチャートにしたがって説明する。
[ステップS70]
立体表示装置による立体視表示を開始する。尚、立体視表示の開始時には、メモリー部10又は記録媒体30にユーザの利き目情報が登録されているものとする。
[ステップS72]
3D・2D表示モード切替部28は、メモリー部10又は記録媒体30から予め登録されたユーザの利き目情報を読み込む。
[ステップS74]
タッチパネル22にタッチし続けているときに2D表示する第1のモードにするか、タッチパネル22をタッチするごとに3D表示と2D表示とを切り替える第2のモードにするかを判別する。この判別は、立体表示部14に表示されたメニュー画面等で毎回ユーザによるモードの選択操作に基づいて判別する方法や、事前にいずれか一方のモードを選択登録し、その登録されたモードに基づいて判別する方法が考えられる。
タッチし続けているときに2D表示する第1のモードが選択された場合(「Yes」の場合)には、ステップS72に遷移し、タッチパネル22をタッチするごとに3D表示と2D表示とを切り替える第2のモードが選択された場合(「No」の場合)には、ステップS84に遷移する。
[ステップS76]
表示制御部12は、メモリー部10又は記録媒体30から立体視画像を読み込み、又は外部機器から入出力部18を介して立体視画像を読み込み、読み込んだ立体視画像(3D画像)を立体表示部14に表示させる。
[ステップS78]
表示制御部12は、立体視画像(3D画像)の表示中にユーザがタッチパネル22にタッチしているか否かを判別する。タッチパネル22にタッチしている場合(「Yes」の場合)には、ステップS80に遷移し、タッチしていない場合(「No」の場合)には、ステップS76に遷移する。
[ステップS80]
3D・2D表示モード切替部28は、3D画像から2D画像に切り替える場合には、ステップS72で読み込んだユーザの利き目情報に基づいてそのユーザの利き目側の視点画像(2D画像)を立体表示部14に表示させ、又は表示制御部12に対して左視点画像又は右視点画像のうちのいずれの視点画像を表示させるかの指示を与え、ユーザの利き目側の視点画像のみを立体表示部14に表示させる。
[ステップS82]
表示制御部12は、ユーザの利き目側の視点画像(2D画像)の表示中にユーザがタッチパネル22にタッチしているか否かを判別する。タッチパネル22にタッチしている場合(「Yes」の場合)には、ステップS80に遷移し、タッチしていない場合(「No」の場合)には、ステップS76に遷移する。
これにより、ユーザがタッチパネル22を連続操作している期間中は、2D画像の表示が維持され、操作時の画面の見易さ、操作性が向上する。尚、ステップS82での「タッチしていない」の判断は、タッチパネル22によりタッチが検知されない場合に限らず、一定時間以上タッチが検知されない場合としてもよい。これによれば、一連のタッチパネルの操作中に3D画像に切り替わるのを防止することができる。
[ステップS84]
表示制御部12は、ステップS76と同様にメモリー部10又は記録媒体30から立体視画像を読み込み、又は外部機器から入出力部18を介して立体視画像を読み込み、読み込んだ立体視画像(3D画像)を立体表示部14に表示させる。
[ステップS86]
表示制御部12は、立体視画像(3D画像)の表示中にユーザがタッチパネル22にタッチ(クリック)したか否かを判別する。タッチパネル22をクリックした場合(「Yes」の場合)には、ステップS88に遷移し、クリックしていない場合(「No」の場合)には、ステップS84に遷移する。
[ステップS88]
表示制御部12は、立体視画像(3D画像)の表示中にタッチパネル22がワンタッチ(ワンクリック)されると、立体表示部14に表示された立体視画像(3D画像)からユーザの利き目側の視点画像(2D画像)の表示に切り替える。
図12に示すように利き目が右目であるとすると、タッチパネル22のワンタッチにより立体視画像(3D画像)から利き目側の右視点画像(2D画像)を表示させることができる。
[ステップS90]
表示制御部12は、ユーザの利き目側の視点画像(2D画像)の表示中にユーザがタッチパネル22にタッチ(クリック)したか否かを判別する。タッチパネル22をクリックした場合(「Yes」の場合)には、ステップS84に遷移し、クリックしない場合(「No」の場合)には、ステップS88に遷移する。
本方法を使用すると、タッチパネル22へのタンタッチ(ワンクリック)で、立体視画像(3D画像)と利き目側の視点画像(2D画像)とを交互に切り替え表示させることができ、操作性が向上する。
<第5の実施の形態>
図13は本発明に係る立体撮影装置の実施の形態(第5の実施の形態)を示すブロック図である。尚、図1に示した第1の実施の形態と共通する部分には同一の符号を付し、その詳細な説明は省略する。
図13に示す立体撮影装置5は、図1に示した立体表示装置1を持つ装置であり、図1に示した立体表示装置1の他に、立体撮影部32及び2Dスルー画表示視点選択部34を備えている。
立体撮影部32は、例えば2視点画像(左視点画像及び右視点画像)を同時に撮影することができる左右一対の撮影部であり、この立体撮影部32により撮影された左視点画像及び右視点画像は、適宜画像処理されたのち記録媒体30に記録される。
立体表示部14は、図14に示すように立体撮影装置5の背面に設けられており、立体視画像の再生時の表示用デバイスとして機能するとともに、撮影時には立体撮影部32により連続して撮影される動画としての3D画像又は2D画像(スルー画)を表示し、ビューファインダとして機能する。
また、この立体撮影装置5は、立体視画像(3D画像)を撮影する3D撮影モードと、左視点画像又は右視点画像の2D画像を撮影する2D撮影モードとを有し、これらの撮影モードを選択するための撮影モード切替部を備えている。
2Dスルー画表示視点選択部34は、立体視画像(3D画像)のスルー画から左視点画像又は右視点画像の2D画像のスルー画への切替時に、左視点画像又は右視点画像のいずれの視点画像のスルー画を表示させるかを、ユーザの利き目情報に基づいて切替指示するものである。
図15は上記立体撮影装置5により立体視画像又は2D画像を撮影する場合の処理手順を示すフローチャートであり、以下、図15に示すフローチャートにしたがって説明する。
[ステップS100]
立体撮影装置5によりスルー画の撮影を開始する。尚、撮影開始時には、メモリー部10又は記録媒体30にユーザの利き目情報が登録されているものとする。
[ステップS102]
2Dスルー画表示視点選択部34は、メモリー部10又は記録媒体30から予め登録されたユーザの利き目情報を読み込む。
[ステップS104]
立体撮影装置5は、3D撮影モードから2D撮影モードへの撮影モード切替ボタンが押されたか否かを判別する。2D撮影モードに切り替えるボタンが押された場合(「Yes」の場合)には、ステップS106に遷移させ、押されていない場合(「No」の場合)には、ステップS108に遷移させる。
[ステップS106]
2Dスルー画表示視点選択部34は、ステップS102で読み込んだユーザの利き目情報に基づいてそのユーザの利き目側の視点画像(2D画像)を立体撮像部32により撮影させるとともに、そのスルー画を立体表示部14に表示させる。
図14に示すように利き目が右目であるとすると、立体表示部14にスルー画として右視点画像(2D画像)を表示させる。ここで、シャッタレリーズボタンが押下されると、ユーザの利き目側の視点画像(2D画像)のみが撮影され、記録媒体30に記録される。
[ステップS108]
立体撮影装置5は、立体撮影部32により立体視画像(左右の2視点画像)を連続的に撮影し、この撮影した立体視画像(3D画像)をスルー画として立体表示部14に表示させる。ここで、シャッタレリーズボタンが押下されると、立体視画像(3D画像)が撮影され、記録媒体30に記録される。
本方法によれば、2D撮影モード時にスルー画を表示する場合にユーザの利き目側の視点画像(2D画像)を立体表示部14に表示することができ、2D画像の撮影のし易さが向上する。また、ユーザは利き目で物を見る方が、違和感がないため疲れにくく、情報量を多く取得することができる利点がある。
尚、本方法は、静止画の撮影モードに限らず、動画の撮影モード時における3D画像と2D画像の切り替え時の表示にも適用することができる。
<第6の実施の形態>
図16は本発明に係る立体表示装置の第6の実施の形態を示すブロック図である。尚、図1に示した第1の実施の形態と共通する部分には同一の符号を付し、その詳細な説明は省略する。
図16に示すように第6の実施の形態の立体表示装置6は、第1の実施の形態のものに比べて画像置換え部36が追加されている点で相違する。
図17に示すように立体撮影装置5により奥行き方向に離れた物体(被写体)を撮影すると、極端に近い物体は視差量が大きく、立体視できずに二重に見えるだけになり、立体視画像としては品位が下がる。
そこで、本発明の第6の実施の形態では、視差が指定画素以上の被写体を自動指定し、もしくはユーザが二重に見える被写体を指定した場合、その被写体部分の立体視画像を利き目側の視点画像に置き替えることで、立体視画像の品質を向上させる。
即ち、図16に示す画像置換え部36は、立体視画像(3D画像)の左右の視差量を検出する視差量検出部と、検出された視差量のうち予め設定された視差量(指定画素数)、又はユーザにより指定された二重に見える領域の視差量を越える被写体領域を抽出する領域抽出部とを有し、抽出された被写体領域の立体視画像を、メモリー部10又は記録媒体30から予め登録されたユーザの利き目の情報に対応する利き目側の視点画像のみに置き換えるようにしている。
図18は本発明の第6の実施の形態を示すフローチャートであり、以下、図18に示すフローチャートにしたがって説明する。
[ステップS110]
立体表示装置6による立体視表示を開始する。尚、立体視表示の開始時には、メモリー部10又は記録媒体30にユーザの利き目情報が登録されているものとする。
[ステップS112]
画像置換え部36は、メモリー部10又は記録媒体30から予め登録されたユーザの利き目情報を読み込む。
[ステップS114]
表示制御部12は、自動で置換え部分を選択するか置換えモードか否か(手動で置換え部分を指定する置換えモードか)の指示入力を受け付ける画面を立体表示部14に表示させ、ユーザの入力を促す。自動で置換え部分を選択する置換えモードが選択された場合((「Yes」の場合)には、ステップS116に遷移し、手動で置換え部分を指定する置換えモードが選択された場合(「No」の場合)には、ステップS122に遷移する。
[ステップS116]
画像置換え部36の領域抽出部は、立体視画像から視差量が予め設定された視差量以上となる場所を求める。予め設定される視差量としては、例えばデフォルトで10画素と設定しておき、このデフォルト値をユーザが任意に設定できるようにしてもよい。これは、ユーザにより立体視できる融合限界が異なるからである。
[ステップS118]
画像置換え部36は、ステップS112で読み込んだユーザの利き目情報に基づいて、前記求めた場所のユーザの利き目側でない視点画像を、ユーザの利き目側の視点画像(2D画像)に置き替える。
図19に示すように円柱部分の左右の視点画像の視差が予め設定された視差量よりも大きく、またユーザの利き目が右目であるとすると、左視点画像の円柱部分の画像を右視点画像の円柱部分の画像に置き替える。
[ステップS120]
表示制御部12は、ステップS118で置換え済みの立体視画像を立体表示部14に表示させる。これにより二重に見える場所がなくなり、立体視画像の品質を向上させることができる。
本方法は、「二重に見えるよりは、2D画像の方が良い」という考えに基づいている。
[ステップS122]
立体表示装置6は、手動で置換え部分を指定する置換えモードが選択された場合には、ユーザによるタッチパネル22での指示により二重に見える範囲の入力を受け付ける。
[ステップS124]
画像置換え部36は、ステップS122で受け付けた範囲(入力場所)の立体視画像を、ステップS112で読み込んだユーザの利き目情報に基づいて、前記入力場所のユーザの利き目側でない視点画像を、ユーザの利き目側の視点画像(2D画像)に置き替える。尚、ユーザがタッチパネル22上で二重に見える範囲を指定した場合に、その指定された範囲と同じ視差量を有する範囲を抽出し、この抽出した範囲のユーザの利き目側でない視点画像を、ユーザの利き目側の視点画像(2D画像)に置き替えるようにしてもよい。
[ステップS126]
表示制御部12は、ステップS124で置換え済みの立体視画像を立体表示部14に表示させる。これによりユーザにより範囲指定された二重に見える場所がなくなり、立体視画像の品質を向上させることができる。
尚、この実施の形態では、立体表示装置6上のタッチパネル22をユーザが任意に入力する位置座標の座標入力用デバイスとして使用する場合について説明したが、これに限らず、立体表示装置6上にカーソルを2D表示させ、このカーソルを十字キー等により移動させるとともにOKボタンを押すことにより位置座標を入力させるものや、ユーザの指先位置を検出する空間センサなどを座標入力用デバイスとして適用してもよい。
[利き目判定画像及びタッチ入力の変形例]
<変形例1>
図20は利き目判定画像とその利き目判定画像にタッチする様子を示す図であり、図3に示した丸に十字が入ったマーク画像の代わりに、操作用のボタン画像を使用する変形例1に関して示している。
図20に示す変形例1では、利き目判定画像として、スタートボタンやログインボタン等の操作用のボタンを示す画像(ボタン画像)を立体表示部14に表示させる。このボタン画像は、所定の視差をもった左視点画像及び右視点画像から構成され、また、各画像の基準座標(ボタン画像の中心座標)を有している。
表示制御部12(図1参照)は、立体表示部14に利き目判定画像としてのボタン画像と、「ボタンを押してください」という文字を表示させる。尚、スタートボタンやログインボタンのように必ず押すことになるボタン画像の場合には、「ボタンを押してください」という文字を表示させる必要はなく、ボタン名等を表示させればよい。
ユーザが立体表示部14に立体視表示されたボタン画像を押すと、そのボタン画像の押下に対応する処理(スタートやログイン)が行われるとともに、利き目判定処理部24は、ボタン画像の押された位置座標をタッチパネル22を介して取得し、この位置座標とボタン画像の左視点画像及び右視点画像の各基準位置とに基づいてユーザの利き目を判定する。この利き目判定方法は、図4及び[数1]式、[数2]に基づいて説明した方法と同様に行うことができる。
本方法によれば、立体表示部14に表示された通常使用されるボタン画像をタッチするだけで、利き目の判別が機器側で自動的に行われ、その結果を登録することができる。
尚、利き目判定の精度を上げるために、複数のボタン画像(同種のボタン画像又は異種のボタン画像のいずれでもよい)のタッチ操作によりそれぞれ判定した利き目判定結果の多数決により最終的な利き目判定を行うようにしてもよい。
<変形例2>
図21及び図22は利き目判定画像の変形例2を示す図であり、図21は立体表示部14の表示画面を示し、図22は表示画面に表示されている利き目判定画像にタッチしている様子を示している。
図21及び図22に示す変形例2では、利き目判定画像として、5つの1軸タイプのスライドバーを示す画像(スライドバー画像)を立体表示部14に表示させる。これらのスライドバー画像は、立体視画像の視差量、明るさ、コントラスト、ホワイトバランス及び音量をそれぞれ調整するスライドバー画像からなり、各スライドバー画像は、所定の視差をもった左視点画像及び右視点画像から構成され、また、各画像の基準座標(スライドバー画像のつまみの中心座標)を有している。
表示制御部12(図1参照)は、立体表示部14に利き目判定画像としての上記のスライドバー画像と、「各種調整をしてください」という文字を表示させる。
ユーザがスライドバー画像のつまみにタッチし、つまみを移動させる(ドラッグする)と、そのつまみの位置に対応する調整が行われるとともに、利き目判定処理部24は、スライドバー画像のつまみに最初にタッチされた位置座標をタッチパネル22を介して取得し、この位置座標とスライドバー画像のつまみの位置(タッチ前のつまみの左視点画像及び右視点画像の各基準位置)とに基づいてユーザの利き目を判定する。この利き目判定方法は、図4及び[数1]式、[数2]に基づいて説明した方法と同様に行うことができる。
本方法によれば、立体表示部14に表示された調整用のスライドバー画像をタッチ操作するだけで、利き目の判別が機器側で自動的に行われ、その結果を登録することができる。
尚、複数のスライドバー画像がタッチ操作された場合には、各タッチ操作に基づいて判定した利き目判定結果の多数決により最終的な利き目判定を行うようにしてもよい。
<変形例3>
図23は利き目判定画像の変形例3を示す図であり、2軸タイプのスライドバー画像に関して示している。
図23に示す変形例3では、利き目判定画像として、2軸タイプのスライドバーを示す画像(スライドバー画像)を立体表示部14に表示させる。このスライドバー画像は、つまみの左右方向の位置により立体視画像のコントラストを調整し、上下方向の位置により立体視画像の明るさを調整するものであり、所定の視差をもった左視点画像及び右視点画像から構成され、また、各画像の基準座標(スライドバー画像のつまみの中心座標)を有している。
ユーザがスライドバー画像のつまみにタッチし、つまみを2次元面内で移動させる(ドラッグする)と、そのつまみの位置に対応する調整が行われるとともに、利き目判定処理部24は、スライドバー画像のつまみに最初にタッチされた2次元の位置座標をタッチパネル22を介して取得し、この位置座標とスライドバー画像のつまみの位置(タッチ前のつまみの左視点画像及び右視点画像の各基準位置)とに基づいてユーザの利き目を判定する。この利き目判定方法は、図4及び[数1]式、[数2]に基づいて説明した方法と同様に行うことができる。
尚、上記変形例3の2軸タイプのスライドバー画像の代わりに、立体視可能なジョイスティック画像を使用するようにしてもよい。
<変形例4>
図24は利き目判定画像の変形例4を示す図であり、この例ではウサギを示す線画に関して示している。
図24に示す変形例4では、利き目判定画像として、立体視可能な線画を立体表示部14に表示させる。この線画は、 ユーザにその輪郭をなぞってもらうためのものであり、所定の視差をもった左視点画像及び右視点画像から構成され、また、各画像における線画の輪郭線の座標を有している
ユーザが立体表示部14に表示された線画をなぞると、利き目判定処理部24は、なぞった軌跡の座標をタッチパネル22を介して取得し、なぞった軌跡の座標と線画の輪郭線の座標(左視点画像及び右視点画像の各輪郭線の座標)とに基づいてユーザの利き目を判定する。この利き目判定方法は、なぞった軌跡の座標と、線画の左視点画像の輪郭線の座標との最短距離の平均距離、及び線画の右視点画像の輪郭線の座標との最短距離の平均距離を求め、これらの平均距離のうちの小さい方(即ち、なぞった軌跡が左視点画像の線画に近いか、右視点画像の線画に近いか)によりユーザの利き目を判定する。
尚、線画としては、なぞりやすい絵や円などの簡単な図形が好ましい。また、線画の全ての輪郭線をなぞらなくてもユーザの利き目判定を行うことができる。
<変形例5>
図25及び図26は利き目判定画像の変形例5を示す図であり、図25は立体表示部14の表示画面を示し、図26は表示画面に表示されている利き目判定画像に不足する画像を追加する様子を示している。
図25及び図26に示す変形例5では、利き目判定画像として、未完成の絵又は図形(図25では、耳のないウサギの画像)を立体表示部14に表示させる。この耳のないウサギの画像は、ユーザに不足するパーツ(耳)を描画してもらうためのものであり、所定の視差をもった左視点画像及び右視点画像から構成され、また、各画像における頭部(耳が描画される部分)の輪郭線の座標を有している。
表示制御部12(図1参照)は、立体表示部14に利き目判定画像として、耳のないウサギの画像を表示させるとともに、「ウサギの耳を書き加えてください」という文字を表示させる。
ユーザが立体表示部14に表示された耳のないウサギの画像に対して、タッチパネル22上で指(又はタッチペン)によりウサギの耳を描画すると、表示制御部12は、描画されたウサギの耳を立体表示部14に2D表示させ、一方、利き目判定処理部24は、描画されたウサギの耳の軌跡(特に耳の付け根部分)の座標をタッチパネル22を介して取得し、描画されたウサギの耳の座標と、ウサギの頭部の左視点画像及び右視点画像の輪郭線の座標とに基づいてユーザの利き目を判定する。
即ち、図26に示すように描画されたウサギの耳の付け根が、ウサギの頭部の左視点画像の輪郭線に一致している(又は近い)か、又は右視点画像の輪郭線に一致している(又は近い)かによりユーザの利き目を判定する。
尚、この例では、ユーザがウサギの耳を描画するようにしているが、これに限らず、予めウサギの耳の画像(パーツ画像)を用意しておき、そのパーツ画像をドラッグしてウサギの頭部に付けるようにしてもよい。また、未完成の絵は耳のないウサギの絵に限らず、任意のものでよく、また、絵に限らず、図形(例えば、多角形の一辺が欠けているもの)を使用してもよい。
本方法によれば、描画を楽しみながら利き目の判別が機器側で自動的に行われ、その結果を登録することができる。
<第7の実施形態>
図27は本発明の第7の実施の形態を示すフローチャートであり、以下、図27に示すフローチャートにしたがって説明する。
[ステップS130]
立体表示装置6による利き目設定・判定を開始させる。
[ステップS132]
利き目設定・判定が開始されると、まず、表示制御部12(図1参照)は、利き目判定方法を選択させるメニューを立体表示部14に表示させ、ユーザに所望の利き目判定方法を選択させる。利き目判定方法のメニューとして、図20のボタン画像を使用した利き目判定方法、図21のスライドバー画像を使用した利き目判定方法、未完成の絵(図25の耳のないウサギの絵)を使用した利き目判定方法、デフォルトの利き目判定方法(例えば、図3に示した利き目判定画像を使用した利き目判定方法)等が提示され、適宜選択できるようになっている。
[ステップS134]
デフォルトの利き目判定方法が選択された場合には、そのデフォルトの利き目判定方法の処理に遷移させる。また、利き目判定を行わない場合には、利き目判定を行わずに終了させる。
[ステップS136]
ステップS132において、図20のボタン画像を使用した利き目判定方法が選択された場合には、表示制御部12は、立体表示部14に利き目判定画像としてボタン画像を表示するとともに、「ボタンを押してください」という文字を表示させる。
[ステップS138]
ユーザによりボタン画像が押されると、利き目判定処理部24は、ボタン画像の押された位置座標をタッチパネル22を介して取得し、この位置座標がボタン画像の左視点画像の基準位置に近いか、又は右視点画像の基準位置に近いかによりユーザの利き目判定を行い、利き目判定結果を保存して終了する。
[ステップS140]
ステップS132において、図21のスライドバー画像を使用した利き目判定方法が選択された場合には、表示制御部12は、立体表示部14に利き目判定画像としてスライドバー画像を表示するとともに、「各種調整をしてください」という文字を表示させる。
[ステップS142]
ユーザによりスライドバー画像のつまみがタッチされて操作されると、利き目判定処理部24は、最初にタッチされた位置座標をタッチパネル22を介して取得し、この位置座標がスライドバー画像のつまみの操作前の位置であって、左視点画像のつまみの位置に近いか、又は右視点画像のつまみの位置に近いかによりユーザの利き目判定を行い、利き目判定結果を保存して終了する。
[ステップS144]
ステップS132において、図25の耳のないウサギの絵を使用した利き目判定方法が選択された場合には、表示制御部12は、立体表示部14に利き目判定画像として耳のないウサギの絵を表示するとともに、「ウサギの耳を書き加えてください」という文字を表示させる。
[ステップS146]
ユーザによりウサギの耳が書き加えられると、利き目判定処理部24は、書き加えられたウサギの耳の付け根部分の座標をタッチパネル22を介して取得し、この耳の付け根部分の座標が、耳のないウサギの頭部の輪郭線の座標であって、左視点画像の頭部の輪郭線の座標に近いか、又は右視点画像の頭部の輪郭線の座標に近いかによりユーザの利き目判定を行い、利き目判定結果を保存して終了する。
尚、本発明は上述した実施の形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。
1、2、3、4、6…立体表示装置、5…立体撮影装置、10…メモリー部、12…表示制御部、14…立体表示部、16…スピーカー部、18…入出力部、20…記録媒体記録部、22…タッチパネル、24…利き目判定処理部、26…立体タッチ位置座標決定部、28…3D・2D表示モード切替部、30…記録媒体、32…立体撮影部、34…2Dスルー画表示視点選択部、36…画像置換え部

Claims (19)

  1. 左視点画像及び右視点画像からなる立体視画像を表示する立体表示部と、
    前記立体表示部の表示面上の所望の位置座標を入力する座標入力部と、
    ユーザの利き目を判定するための左視点画像及び右視点画像からなる利き目判定画像であって、左視点画像と右視点画像とでそれぞれ異なる基準座標を表す利き目判定画像を前記立体表示部に表示させる表示制御部と、
    前記立体表示部に表示された利き目判定画像に対して前記座標入力部を介してユーザにより入力された位置座標を取得する取得部と、
    前記左視点画像及び右視点画像からなる各利き目判定画像の各々の基準座標と前記取得された位置座標とに基づいて前記取得された位置座標が左視点画像の基準座標及び右視点画像の基準座標のいずれに近いかに応じて前記座標入力部を介して前記位置座標を入力したユーザの利き目を判定する判定部と、
    を備え
    前記表示制御部は、前記利き目判定画像として前記立体表示部に操作用のアイコン画像を表示させ、
    前記座標入力部は、前記立体表示部の表示面上に設けられたタッチパネルであることを特徴とする立体表示装置。
  2. 前記表示制御部は、前記利き目判定画像として前記立体表示部にスタートボタン、ログインボタン等のボタン画像を表示させることを特徴とする請求項1に記載の立体表示装置。
  3. 前記表示制御部は、前記利き目判定画像として前記立体表示部に操作用のつまみを含むスライドバー画像を表示させることを特徴とする請求項1に記載の立体表示装置。
  4. 前記表示制御部は、前記利き目判定画像として前記立体表示部に線画を表示させ、
    前記判定部は、前記線画を示す左視点画像及び右視点画像からなる各利き目判定画像の各々の輪郭線の座標と、前記線画をなぞることにより前記座標入力部により連続して取得された座標との平均距離に基づいて前記線画をなぞったユーザの利き目を判定することを特徴とする請求項1に記載の立体表示装置。
  5. 前記表示制御部は、前記利き目判定画像として前記立体表示部未完成の絵又は図形を表示させ、
    前記判定部は、前記未完成の絵又は図形を示す左視点画像及び右視点画像からなる各利き目判定画像の各々の基準座標と、前記座標入力部により前記未完成の絵又は図形が完成するように追加された絵又は図形の位置座標とに基づいて前記追加したユーザの利き目を判定することを特徴とする請求項1に記載の立体表示装置。
  6. 前記判定部は、前記座標入力部を介して前記位置座標を入力したユーザの利き目を判定することができなかった場合には右目を利き目として判定することを特徴とする請求項1からのいずれかに記載の立体表示装置。
  7. ユーザの利き目の情報を装置内部に保存登録する保存登録部を備えたことを特徴とする請求項1からのいずれかに記載の立体表示装置。
  8. 前記保存登録部は、前記判定部による判定結果に基づいて自動的に利き目の情報を保存登録することを特徴とする請求項に記載の立体表示装置。
  9. 前記保存登録部は、ユーザからの指示入力により該ユーザの利き目の情報を受け付ける利き目情報入力部を有し、前記利き目情報入力部により受け付けたユーザの利き目の情報を保存登録することを特徴とする請求項又はに記載の立体表示装置。
  10. 前記立体表示部に表示された立体視画像上の所望の対象画像の位置座標を前記座標入力部を介して受け付ける位置入力部を備え、
    前記位置入力部により受け付けた位置座標を、前記立体視画像の左視点画像及び右視点画像のうちの前記保存登録部に登録されたユーザの利き目の情報に対応する利き目側の視点画像上の座標位置として取り扱うことを特徴とする請求項からのいずれかに記載の立体表示装置。
  11. 前記立体表示部に左視点画像及び右視点画像からなる立体視画像を表示させる3D表示モードと、前記立体視画像を構成する左視点画像及び右視点画像のうちのいずれか一方の視点画像を表示させる2D表示モードとを切り替える表示モード切替部を備え、
    前記表示制御部は、前記表示モード切替部により2D表示モードへの切替時に、前記保存登録部に登録されたユーザの利き目の情報に基づいて前記左視点画像及び右視点画像のうちのユーザの利き目側の視点画像を前記立体表示部に表示させることを特徴とする請求項から10のいずれかに記載の立体表示装置。
  12. 記表示モード切替部は、前記タッチパネルによりタッチが検知されるごとに前記2D表示モードと3D表示モードとを交互に切り替えることを特徴とする請求項11に記載の立体表示装置。
  13. 記表示モード切替部は、前記タッチパネルによりタッチが検知されると、前記2D表示モードに切り替え、前記タッチパネルによりタッチが検知されないと、又は一定時間以上タッチが検知されないと、前記3D表示モードに切り替えることを特徴とする請求項11に記載の立体表示装置。
  14. 前記立体表示部に表示させる左視点画像及び右視点画像からなる立体視画像の左右の視差量を検出する視差量検出部と、
    前記視差量検出部により検出された視差量のうち、予め設定された視差量又はユーザにより指定された二重に見える領域の視差量を越える視差量を有する領域を抽出する領域抽出部と、
    前記領域抽出部により抽出された領域の立体視画像を、前記保存登録部に登録されたユーザの利き目の情報に対応する利き目側の視点画像のみに置き換える画像置換え部と、
    を備えたことを特徴とする請求項から13のいずれかに記載の立体表示装置。
  15. 前記表示制御部は、前記立体表示部に複数の前記利き目判定画像を表示させ、
    前記判定部は、複数の前記利き目判定画像によってそれぞれ判定した利き目の多数決により最終的な利き目の判定を行うことを特徴とする請求項1から14のいずれかに記載の立体表示装置。
  16. 請求項から15のいずれかに記載の立体表示装置を備えた立体撮影装置において、
    2次元画像を撮影する2D撮影モードと、左視点画像と右視点画像からなる立体視画像を撮影する3D撮影モードとを切り替える撮影モード切替部と、
    前記撮影モード切替部により前記2D撮影モードに切り替えられると、前記左視点画像及び右視点画像のうち前記保存登録部に登録されたユーザの利き目の情報に対応する利き目側の視点画像を前記立体表示部にスルー画像として表示させる制御部と、
    を備えたことを特徴とする立体撮影装置。
  17. 立体表示部と、前記立体表示部の表示面上の所望の位置座標を入力する座標入力部とを有する立体表示装置を使用した利き目判定方法であって、
    ユーザの利き目を判定するための左視点画像及び右視点画像からなる利き目判定画像であって、左視点画像と右視点画像とでそれぞれ異なる基準座標を表す利き目判定画像を前記立体表示部に表示させる工程と、
    前記立体表示部に表示された利き目判定画像に対して前記座標入力部を介してユーザにより入力された位置座標を取得する工程と、
    前記左視点画像及び右視点画像からなる各利き目判定画像の各々の基準座標と前記取得された位置座標とに基づいて前記取得された位置座標が左視点画像の基準座標及び右視点画像の基準座標のいずれに近いかに応じて前記座標入力部を介して前記位置座標を入力したユーザの利き目を判定する工程と、
    を含み、
    前記利き目判定画像を前記立体表示部に表示させる工程は、前記利き目判定画像として前記立体表示部に操作用のアイコン画像を表示させ、
    前記座標入力部は、前記立体表示部の表示面上に設けられたタッチパネルであることを特徴とする立体表示装置を使用した利き目判定方法。
  18. 請求項17に記載の利き目判定方法を前記立体表示装置に実行させる利き目判定プログラム。
  19. 請求項18に記載のプログラムのコンピュータ読取可能なコードを記録した記録媒体。
JP2012505443A 2010-03-18 2010-10-29 立体表示装置及び立体撮影装置、並びに利き目判定方法及びこれに用いる利き目判定プログラム並びに記録媒体 Expired - Fee Related JP5450791B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012505443A JP5450791B2 (ja) 2010-03-18 2010-10-29 立体表示装置及び立体撮影装置、並びに利き目判定方法及びこれに用いる利き目判定プログラム並びに記録媒体

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2010062869 2010-03-18
JP2010062869 2010-03-18
JP2010147509 2010-06-29
JP2010147509 2010-06-29
PCT/JP2010/069275 WO2011114567A1 (ja) 2010-03-18 2010-10-29 立体表示装置及び立体撮影装置、並びに利き目判定方法及びこれに用いる利き目判定プログラム並びに記録媒体
JP2012505443A JP5450791B2 (ja) 2010-03-18 2010-10-29 立体表示装置及び立体撮影装置、並びに利き目判定方法及びこれに用いる利き目判定プログラム並びに記録媒体

Publications (2)

Publication Number Publication Date
JPWO2011114567A1 JPWO2011114567A1 (ja) 2013-06-27
JP5450791B2 true JP5450791B2 (ja) 2014-03-26

Family

ID=44648686

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012505443A Expired - Fee Related JP5450791B2 (ja) 2010-03-18 2010-10-29 立体表示装置及び立体撮影装置、並びに利き目判定方法及びこれに用いる利き目判定プログラム並びに記録媒体

Country Status (4)

Country Link
US (1) US9164621B2 (ja)
JP (1) JP5450791B2 (ja)
CN (1) CN102812420B (ja)
WO (1) WO2011114567A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180093659A (ko) * 2017-02-14 2018-08-22 에스케이텔레콤 주식회사 전방 상향 시현 광학시스템 및 그 시스템의 동작 방법

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5073013B2 (ja) 2010-06-11 2012-11-14 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御方法および表示制御システム
CN102971692B (zh) * 2010-06-29 2016-06-08 富士胶片株式会社 三维显示设备、三维图像捕获设备、和指示确定方法
KR101783259B1 (ko) * 2010-12-31 2017-10-10 삼성디스플레이 주식회사 데이터 보상 방법 및 이를 수행하는 데이터 보상 장치 및 상기 데이터 보상 장치를 포함하는 표시 장치
KR20130008334A (ko) * 2011-07-12 2013-01-22 삼성전자주식회사 입체 영상 표시 제어를 위한 주시각 제어 방법 및 이를 지원하는 단말기
JP2013073449A (ja) * 2011-09-28 2013-04-22 Fujifilm Corp タッチパネル機能付き立体画像表示装置、及びタッチパネル
CN110119203A (zh) * 2011-11-21 2019-08-13 株式会社尼康 显示装置及显示控制程序
WO2013102790A2 (en) * 2012-01-04 2013-07-11 Thomson Licensing Processing 3d image sequences cross reference to related applications
US8884928B1 (en) * 2012-01-26 2014-11-11 Amazon Technologies, Inc. Correcting for parallax in electronic displays
WO2013118328A1 (ja) * 2012-02-07 2013-08-15 オリンパス株式会社 表示装置、電子機器及び表示装置用プログラム
US20140204014A1 (en) * 2012-03-30 2014-07-24 Sony Mobile Communications Ab Optimizing selection of a media object type in which to present content to a user of a device
JP6309185B2 (ja) * 2012-08-07 2018-04-11 任天堂株式会社 画像表示プログラム、画像表示装置、画像表示システム、および画像表示方法
US9189095B2 (en) 2013-06-06 2015-11-17 Microsoft Technology Licensing, Llc Calibrating eye tracking system by touch input
KR102517425B1 (ko) * 2013-06-27 2023-03-31 아이사이트 모빌 테크놀로지 엘티디 디지털 디바이스와 상호작용을 위한 다이렉트 포인팅 검출 시스템 및 방법
WO2015179539A1 (en) * 2014-05-20 2015-11-26 The Schepens Eye Research Institute, Inc. Quantification of inter-ocular suppression in binocular vision impairment
CN104378621A (zh) * 2014-11-25 2015-02-25 深圳超多维光电子有限公司 立体场景处理方法及装置
CN106405832A (zh) * 2015-08-12 2017-02-15 毛颖 一种可消除色差的头戴式显示装置
CN106265006B (zh) * 2016-07-29 2019-05-17 维沃移动通信有限公司 一种主视眼的矫正装置的控制方法及移动终端
EP4510558A3 (en) 2018-03-14 2025-05-07 Magic Leap, Inc. Display systems and methods for clipping content to increase viewing comfort
JP7146585B2 (ja) * 2018-11-13 2022-10-04 本田技研工業株式会社 視線検出装置、プログラム、及び、視線検出方法
JP7178888B2 (ja) * 2018-12-03 2022-11-28 ルネサスエレクトロニクス株式会社 情報入力装置
JP2021131490A (ja) * 2020-02-20 2021-09-09 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
IT202000022120A1 (it) 2020-09-18 2020-12-18 Univ Degli Studi Di Trento Sistema e procedimento di quantificazione della dominanza oculare
TWI790560B (zh) * 2021-03-03 2023-01-21 宏碁股份有限公司 並排影像偵測方法與使用該方法的電子裝置
TWI812566B (zh) * 2022-12-28 2023-08-11 宏碁股份有限公司 立體影像深度調整方法與裝置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004362218A (ja) * 2003-06-04 2004-12-24 Canon Inc 三次元物体操作方法
JP2009094726A (ja) * 2007-10-05 2009-04-30 Fujifilm Corp 画像記録装置及び画像記録方法
JP2009229752A (ja) * 2008-03-21 2009-10-08 Toshiba Corp 表示装置、表示方法及びヘッドアップディスプレイ

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4417768C2 (de) * 1994-05-20 1998-09-10 Juergen Prof Dr Med Lamprecht Verfahren und Vorrichtung zum Projizieren von Bildinformationen bei Personen mit durch eine Abweichung der Stellung ihrer Sehachse verursachten Störungen des Sehens
JPH10105735A (ja) 1996-09-30 1998-04-24 Terumo Corp 入力装置及び画像表示システム
US6584219B1 (en) * 1997-09-18 2003-06-24 Sanyo Electric Co., Ltd. 2D/3D image conversion system
JP2000209614A (ja) 1999-01-14 2000-07-28 Sony Corp 立体映像システム
WO2004006227A2 (en) * 2002-07-02 2004-01-15 Xm Corporation Visual media
JP2004280496A (ja) 2003-03-17 2004-10-07 Kyocera Mita Corp 操作パネル装置
JP2006293909A (ja) 2005-04-14 2006-10-26 Denso Corp 運転者の視線方向検出装置
WO2009053917A1 (en) * 2007-10-23 2009-04-30 Mcgill University Binocular vision assessment and/or therapy
JP4657331B2 (ja) * 2008-08-27 2011-03-23 富士フイルム株式会社 3次元表示時における指示位置設定装置および方法並びにプログラム
WO2010035486A1 (ja) * 2008-09-29 2010-04-01 パナソニック株式会社 映像信号処理装置
US8629899B2 (en) * 2009-08-06 2014-01-14 Qualcomm Incorporated Transforming video data in accordance with human visual system feedback metrics
US9083958B2 (en) * 2009-08-06 2015-07-14 Qualcomm Incorporated Transforming video data in accordance with three dimensional input formats
US9131279B2 (en) * 2009-08-06 2015-09-08 Qualcomm Incorporated Preparing video data in accordance with a wireless display protocol
US8284235B2 (en) * 2009-09-28 2012-10-09 Sharp Laboratories Of America, Inc. Reduction of viewer discomfort for stereoscopic images
WO2011074198A1 (ja) * 2009-12-14 2011-06-23 パナソニック株式会社 ユーザインタフェース装置および入力方法
JP2013521941A (ja) * 2010-03-12 2013-06-13 ヴァイキング・システムズ・インコーポレーテッド 立体的可視化システム
JP5704854B2 (ja) * 2010-07-26 2015-04-22 オリンパスイメージング株式会社 表示装置
US9191659B2 (en) * 2011-11-16 2015-11-17 Christie Digital Systems Usa, Inc. Collimated stereo display system
US8880336B2 (en) * 2012-06-05 2014-11-04 Apple Inc. 3D navigation
KR101931085B1 (ko) * 2012-09-03 2018-12-21 삼성디스플레이 주식회사 입체 영상 표시 장치
WO2014106219A1 (en) * 2012-12-31 2014-07-03 Burachas Giedrius Tomas User centric interface for interaction with visual display that recognizes user intentions
US9319662B2 (en) * 2013-01-16 2016-04-19 Elwha Llc Systems and methods for differentiating between dominant and weak eyes in 3D display technology
US20130258463A1 (en) * 2013-03-11 2013-10-03 Allan Thomas Evans System, method, and apparatus for enhancing stereoscopic images
US20130182086A1 (en) * 2013-03-11 2013-07-18 Allan Thomas Evans Apparatus for enhancing stereoscopic images
US20140253698A1 (en) * 2013-03-11 2014-09-11 Allan Thomas Evans System, apparatus, and method for enhancing stereoscopic images

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004362218A (ja) * 2003-06-04 2004-12-24 Canon Inc 三次元物体操作方法
JP2009094726A (ja) * 2007-10-05 2009-04-30 Fujifilm Corp 画像記録装置及び画像記録方法
JP2009229752A (ja) * 2008-03-21 2009-10-08 Toshiba Corp 表示装置、表示方法及びヘッドアップディスプレイ

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180093659A (ko) * 2017-02-14 2018-08-22 에스케이텔레콤 주식회사 전방 상향 시현 광학시스템 및 그 시스템의 동작 방법
KR102720295B1 (ko) * 2017-02-14 2024-10-21 에스케이텔레콤 주식회사 전방 상향 시현 광학시스템 및 그 시스템의 동작 방법

Also Published As

Publication number Publication date
US20120320047A1 (en) 2012-12-20
US9164621B2 (en) 2015-10-20
WO2011114567A1 (ja) 2011-09-22
CN102812420B (zh) 2016-01-20
JPWO2011114567A1 (ja) 2013-06-27
CN102812420A (zh) 2012-12-05

Similar Documents

Publication Publication Date Title
JP5450791B2 (ja) 立体表示装置及び立体撮影装置、並びに利き目判定方法及びこれに用いる利き目判定プログラム並びに記録媒体
TWI463392B (zh) 影像處理裝置,影像處理方法及程式
CN103124945B (zh) 图像识别装置和操作判断方法以及程序
CN102473041B (zh) 图像识别装置、操作判断方法以及程序
JP4657331B2 (ja) 3次元表示時における指示位置設定装置および方法並びにプログラム
US8441435B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP5263355B2 (ja) 画像表示装置及び撮像装置
US9075442B2 (en) Image processing apparatus, method, and computer-readable storage medium calculation size and position of one of an entire person and a part of a person in an image
US20170064192A1 (en) Video Processing Apparatus, Control Method, and Recording Medium
KR101797260B1 (ko) 정보 처리 장치, 정보 처리 시스템 및 정보 처리 방법
TW200951777A (en) Image recognizing device, operation judging method, and program
JP5693708B2 (ja) 立体表示装置、指示受付方法及びプログラムならびにその記録媒体
JP6339887B2 (ja) 画像表示装置
KR101590334B1 (ko) 영상 촬영 장치 및 그 제어방법
CN102971692A (zh) 三维显示设备、三维图像捕获设备、和指示确定方法
CN102736846A (zh) 检测区域扩大装置、显示装置以及检测区域扩大方法
JP2012015619A (ja) 立体表示装置及び立体撮影装置
JP2021005168A (ja) 画像処理装置、撮像装置、画像処理装置の制御方法、及びプログラム
JP5864043B2 (ja) 表示装置、操作入力方法、操作入力プログラム、及び記録媒体
JP5140719B2 (ja) 3次元表示時における指示位置設定装置および方法並びにプログラム
JP2015118652A (ja) 画像表示装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131225

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5450791

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees