[go: up one dir, main page]

JP2018160735A - Transmission type display apparatus, display control method, and computer program - Google Patents

Transmission type display apparatus, display control method, and computer program Download PDF

Info

Publication number
JP2018160735A
JP2018160735A JP2017055713A JP2017055713A JP2018160735A JP 2018160735 A JP2018160735 A JP 2018160735A JP 2017055713 A JP2017055713 A JP 2017055713A JP 2017055713 A JP2017055713 A JP 2017055713A JP 2018160735 A JP2018160735 A JP 2018160735A
Authority
JP
Japan
Prior art keywords
image
pointer
display
pointer image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017055713A
Other languages
Japanese (ja)
Inventor
和夫 西沢
Kazuo Nishizawa
和夫 西沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2017055713A priority Critical patent/JP2018160735A/en
Priority to US15/918,407 priority patent/US10657722B2/en
Publication of JP2018160735A publication Critical patent/JP2018160735A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0118Head-up displays characterised by optical features comprising devices for improving the contrast of the display / brillance control visibility
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】透過型の表示装置において、ポインターの視認性を向上する。【解決手段】透過型表示装置であって、光透過性を有し、表示対象の対象画像とポインター画像とを、自身を透過して視認される外界に重ねて表示する表示部と、ポインター画像の表示態様を制御する表示制御部と、外界を撮像する撮像部と、を備え、表示制御部は、撮像により得られた外界画像と、対象画像と、外界画像および対象画像の合成画像と、のうちいずれか一つを基準画像として、基準画像におけるポインター画像の表示位置を含む領域の特徴量に応じて、ポインター画像の表示態様を変更して表示させる、透過型表示装置。【選択図】図8In a transmissive display device, the visibility of a pointer is improved. A transmissive display device having a light transmission property, a display unit that displays a target image to be displayed and a pointer image so as to be superimposed on an external world that is visible through the self, and a pointer image A display control unit that controls a display mode of the image capturing unit, and an imaging unit that captures an image of the outside world, and the display control unit includes an external world image obtained by imaging, a target image, an external image and a composite image of the target image, A transmissive display device that uses any one of them as a reference image and changes the display mode of the pointer image according to the feature amount of the region including the display position of the pointer image in the reference image. [Selection] Figure 8

Description

本発明は、透過型の表示装置に関する。   The present invention relates to a transmissive display device.

頭部に装着されてユーザーの視野領域内に画像等を表示する頭部装着型表示装置(ヘッドマウントディスプレイ(Head Mounted Display、HMD))として、装着時に画像とともに外界の風景を透過視認できる透過型の頭部装着型表示装置が知られている。頭部装着型表示装置は、例えば、液晶ディスプレイと光源とを利用して画像を表す画像光を生成し、生成された画像光を投写光学系および導光板等を利用してユーザーの眼に導くことにより、ユーザーに虚像を認識させる。ユーザーは、液晶ディスプレイ上に表示されるマウスカーソル等のポインターを操作することにより、頭部装着型表示装置を制御する。しかし、外界の風景および表示画像における色および模様等によっては、ポインターが視認しづらく、ポインターを見失ってしまうことがある。特許文献1には、透過型の表示装置において、外界の風景画像に重畳して表示画像を表示する際に、外界の風景画像全体の輝度と表示画像全体の輝度とに基づいて表示画像の表示輝度を算出し、表示輝度に応じて表示画像を表示する色または色の濃度を制御する技術が開示されている。   As a head-mounted display device (Head Mounted Display (HMD)) that is mounted on the head and displays an image or the like within the visual field of the user, a transmission type that can visually see the scenery of the outside world together with the image when worn There are known head-mounted display devices. The head-mounted display device, for example, generates image light representing an image using a liquid crystal display and a light source, and guides the generated image light to a user's eye using a projection optical system, a light guide plate, and the like. This makes the user recognize a virtual image. The user controls the head-mounted display device by operating a pointer such as a mouse cursor displayed on the liquid crystal display. However, depending on the scenery of the outside world and the colors and patterns in the display image, the pointer may be difficult to see and may lose sight of the pointer. In Patent Document 1, in a transmissive display device, when a display image is displayed while being superimposed on an external landscape image, the display image is displayed based on the luminance of the entire external landscape image and the entire display image. A technique for calculating the luminance and controlling the color or color density for displaying the display image in accordance with the display luminance is disclosed.

特開2016−142988号公報JP 2006-142988 A

しかし、特許文献1に記載の技術では、例えば、表示画像の輝度が外界の風景の輝度に比べて著しく低い場合や、色彩に富んだ外界の風景を透過して視認した場合などには、外界の風景の色がポインターの色に影響して、ユーザーがポインターを視認できない、或いは、視認しづらいといった問題が生じ得る。このような課題は、透過型の頭部装着型表示装置に限らず、外界の風景に重畳して画像等を表示する透過型の表示装置においても共通する。そこで、透過型の表示装置において、ポインターの視認性を向上する技術が望まれている。   However, in the technique described in Patent Document 1, for example, when the brightness of the display image is significantly lower than the brightness of the outside scene, or when the outside scene rich in color is perceived through the outside, The color of the landscape affects the color of the pointer, which may cause a problem that the user cannot visually recognize the pointer or it is difficult to visually recognize the pointer. Such a problem is not limited to a transmissive head-mounted display device, but is common to a transmissive display device that displays an image or the like superimposed on an external landscape. Therefore, a technique for improving the visibility of a pointer in a transmissive display device is desired.

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態として実現することが可能である。   SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms.

(1)本発明の一実施形態によれば、透過型表示装置が提供される。この透過型表示装置は、光透過性を有し、表示対象の対象画像とポインター画像とを、自身を透過して視認される外界に重ねて表示する表示部と;前記ポインター画像の表示態様を制御する表示制御部と;外界を撮像する撮像部と;を備え;前記表示制御部は、前記撮像により得られた外界画像と、前記対象画像と、前記外界画像および前記対象画像の合成画像と、のうちいずれか一つを基準画像として、前記基準画像における前記ポインター画像の表示位置を含む領域の特徴量に応じて、前記ポインター画像の表示態様を変更して表示させる。
この形態の透過型表示装置によれば、撮像により得られた外界画像と、対象画像と、外界画像および対象画像の合成画像と、のうちいずれか一つを基準画像として、基準画像におけるポインター画像の表示位置を含む領域の特徴量に応じて、ポインター画像の表示態様を変更して表示させるので、基準画像の特徴を考慮した表示態様によりポインター画像を表示させることができ、ポインター画像の視認性を向上できる。
(1) According to one embodiment of the present invention, a transmissive display device is provided. This transmissive display device has a light-transmitting property, and displays a target image to be displayed and a pointer image so as to be superimposed on an external world that is visible through the display device; a display mode of the pointer image A display control unit for controlling; an imaging unit for imaging the outside world; and the display control unit, an external world image obtained by the imaging, the target image, the external image, and a composite image of the target image, The reference image is used as a reference image, and the display mode of the pointer image is changed and displayed according to the feature amount of the region including the display position of the pointer image in the reference image.
According to the transmissive display device of this aspect, the pointer image in the reference image using any one of the external image obtained by imaging, the target image, and the composite image of the external image and the target image as the reference image. Since the display mode of the pointer image is changed according to the feature amount of the area including the display position, the pointer image can be displayed in a display mode that takes into account the characteristics of the reference image. Can be improved.

(2)上記形態の透過型表示装置において、前記基準画像は、前記合成画像であってもよい。この形態の透過型表示装置によれば、基準画像は、合成画像であるので、外界画像および対象画像の特徴量を考慮してポインター画像の表示態様を制御できる。したがって、透過して視認される外界に対象画像が重ねて表示され、さらにポインター画像が重ねて表示される場合に、ポインター画像の視認性を向上できる。   (2) In the transmissive display device of the above aspect, the reference image may be the composite image. According to this aspect of the transmissive display device, since the reference image is a composite image, the display mode of the pointer image can be controlled in consideration of the feature quantities of the external image and the target image. Therefore, the visibility of the pointer image can be improved when the target image is displayed in a superimposed manner on the external world that is visible through the screen, and the pointer image is displayed in a superimposed manner.

(3)上記形態の透過型表示装置において、前記基準画像における前記ポインター画像の表示位置を含む領域の平均色相値を算出する平均色相値算出部を、さらに有し;前記表示制御部は、前記ポインター画像の色を前記平均色相値の補色にして前記ポインター画像を表示させもよい。この形態の透過型表示装置によれば、ポインター画像の色を平均色相値の補色にしてポインター画像を表示させるので、ポインター画像の色が平均色相値の補色でない構成に比べて、ポインター画像をより視認しやすくできる。   (3) The transmissive display device according to the above aspect further includes an average hue value calculation unit that calculates an average hue value of a region including the display position of the pointer image in the reference image; The pointer image may be displayed with the color of the pointer image complementary to the average hue value. According to this aspect of the transmissive display device, since the pointer image is displayed with the color of the pointer image complementary to the average hue value, the pointer image is displayed more than the configuration in which the color of the pointer image is not complementary to the average hue value. Easy to see.

(4)上記形態の透過型表示装置において、前記基準画像における前記ポインター画像の表示位置を含む領域のエッジ傾向を算出するエッジ傾向算出部をさらに有し;前記表示制御部は、前記ポインター画像の模様を前記エッジ傾向に基づき定まる方向性を有する模様にして、前記ポインター画像を表示させてもよい。この形態の透過型表示装置によれば、ポインター画像の模様をエッジ傾向に基づき定まる方向性を有する模様にしてポインター画像を表示させるので、ポインター画像の模様の視認性を高めて、ポインター画像自体の視認性を向上できる。   (4) In the transmissive display device according to the above aspect, the display device may further include an edge tendency calculating unit that calculates an edge tendency of a region including the display position of the pointer image in the reference image; The pointer image may be displayed with a pattern having a directionality determined based on the edge tendency. According to this aspect of the transmissive display device, the pointer image is displayed with a pattern having a direction determined based on the edge tendency, so that the pointer image is highly visible and the pointer image itself is displayed. Visibility can be improved.

(5)上記形態の透過型表示装置において、前記表示制御部は、前記模様を、前記エッジ傾向の合成ベクトルと交差する方向に繰り返される縞模様にして前記ポインター画像を表示させてもよい。この形態の透過型表示装置によれば、ポインター画像の模様をエッジ傾向の合成ベクトルと交差する方向に繰り返される縞模様にしてポインター画像を表示させるので、ポインター画像の縞模様の視認性を高めて、ポインター画像自体の視認性を向上できる。   (5) In the transmissive display device according to the above aspect, the display control unit may display the pointer image in a striped pattern in which the pattern is repeated in a direction intersecting with a composite vector of the edge tendency. According to this aspect of the transmissive display device, the pointer image is displayed in a striped pattern that is repeated in a direction intersecting the composite vector of the edge tendency, so that the visibility of the striped pattern of the pointer image is improved. The visibility of the pointer image itself can be improved.

(6)上記形態の透過型表示装置において、前記基準画像における前記ポインター画像の表示位置を含む領域の平均色相値を算出する平均色相値算出部を、さらに有し;前記表示制御部は、前記ポインター画像を視差のついた立体として表示し、前記平均色相値に基づいて前記視差の変化量を設定してもよい。この形態の透過型表示装置によれば、ポインター画像を視差のついた立体として表示し、平均色相値に基づいて視差の変化量を設定するので、平均色相値が異なる領域にポインター画像が移動した場合にポインター画像の視認性を高め、ポインター画像への追従性(目で追う性能)を向上できる。   (6) The transmissive display device according to the above aspect further includes an average hue value calculation unit that calculates an average hue value of a region including the display position of the pointer image in the reference image; A pointer image may be displayed as a solid with parallax, and the amount of change in parallax may be set based on the average hue value. According to this aspect of the transmissive display device, the pointer image is displayed as a solid with parallax, and the amount of change in parallax is set based on the average hue value, so the pointer image has moved to an area with a different average hue value In this case, the visibility of the pointer image can be improved, and the followability to the pointer image (performance to follow with the eyes) can be improved.

(7)上記形態の透過型表示装置において、前記基準画像における前記ポインター画像の表示位置を含む領域の平均色相値を算出する平均色相値算出部を、さらに有し;前記表示制御部は、前記ポインター画像を視差のついた立体として表示することと、前記ポインター画像を視差のついていない面として表示することと、を交互に切り替え、前記平均色相値に基づいて前記視差をつける周期を設定してもよい。この形態の透過型表示装置によれば、ポインター画像を視差のついた立体として表示することと、ポインター画像を視差のついていない面として表示することと、を交互に切り替え、平均色相値に基づいて視差をつける周期を設定するので、ポインター画像を目立たせて視認性を高めると共に、平均色相値が異なる領域にポインター画像が移動した場合にも視差をつける周期が変化することで、ポインター画像を目立たせることができ、ポインター画像への追従性を向上できる。   (7) In the transmissive display device according to the above aspect, the display device further includes an average hue value calculation unit that calculates an average hue value of a region including the display position of the pointer image in the reference image; By alternately switching between displaying the pointer image as a solid with parallax and displaying the pointer image as a non-parallax surface, and setting the period for applying the parallax based on the average hue value Also good. According to this aspect of the transmissive display device, the pointer image is displayed alternately as a solid with a parallax and the pointer image is displayed as a non-parallax surface, and the display is based on the average hue value. Since the interval to add parallax is set, the pointer image is made conspicuous to improve visibility, and the pointer image is made to stand out by changing the cycle to add parallax even when the pointer image moves to an area with a different average hue value And followability to the pointer image can be improved.

(8)上記形態の透過型表示装置において、前記表示制御部は、前記ポインター画像を視差のついた立体として表示し;前記立体として表示された前記ポインター画像の焦点位置を、前記表示部から前記外界へと向かう方向に所定距離移動させることと、前記外界から前記表示部へと向かう方向に前記所定距離移動させることと、を交互に行ってもよい。この形態の透過型表示装置によれば、ポインター画像を視差のついた立体として表示し、立体として表示されたポインター画像の焦点位置を、表示部から外界へと向かう方向に所定距離移動させることと、外界から表示部へと向かう方向に所定距離移動させることとを交互に行うので、立体として表示されたポインター画像を凹ませて表示することと出っ張らせて表示することとを交互に行うことができ、ポインター画像の視認性をより向上できる。   (8) In the transmissive display device according to the above aspect, the display control unit displays the pointer image as a solid with a parallax; and displays the focal position of the pointer image displayed as the solid from the display unit. You may perform alternately moving a predetermined distance in the direction which goes to an external world, and moving the said predetermined distance in the direction which goes to the said display part from the said external world. According to this aspect of the transmissive display device, the pointer image is displayed as a solid with parallax, and the focal position of the pointer image displayed as a solid is moved by a predetermined distance in a direction from the display unit toward the outside world. Since the predetermined distance in the direction from the outside world toward the display unit is alternately performed, the pointer image displayed as a three-dimensional object is displayed in a concave manner and is displayed in a protruding manner alternately. It is possible to improve the visibility of the pointer image.

(9)上記形態の透過型表示装置において、前記表示制御部は、前記ポインター画像の少なくとも一部の明るさを周期的に変更して前記ポインター画像を表示させてもよい。この形態の透過型表示装置によれば、ポインター画像の少なくとも一部の明るさを周期的に変更してポインター画像を表示させるので、ポインター画像の一部を点滅させて表示させることができ、ポインター画像の視認性をより向上できる。   (9) In the transmissive display device according to the above aspect, the display control unit may periodically change the brightness of at least a part of the pointer image to display the pointer image. According to the transmissive display device of this aspect, since the pointer image is displayed by periodically changing the brightness of at least a part of the pointer image, a part of the pointer image can be blinked and displayed. The visibility of the image can be further improved.

(10)上記形態の透過型表示装置において、前記表示制御部は、前記透過型表示装置における所定動作の検知を契機として、前記ポインター画像の表示態様の制御を実行してもよい。この形態の透過型表示装置によれば、透過型表示装置における所定動作の検知を契機として、ポインター画像の表示態様の制御を実行するので、ポインター画像の表示態様の制御を実行する契機を透過型表示装置の利用者が調整でき、利用者の利便性を向上できる。   (10) In the transmissive display device according to the above aspect, the display control unit may control the display mode of the pointer image when triggered by detection of a predetermined operation in the transmissive display device. According to the transmissive display device of this aspect, since the control of the display mode of the pointer image is executed in response to detection of the predetermined operation in the transmissive display device, the trigger of executing the control of the display mode of the pointer image is the transmission type. The user of the display device can make adjustments, and user convenience can be improved.

本発明は、種々の形態で実現することも可能である。例えば、透過型表示装置における表示制御方法、かかる表示制御方法を実現するためのコンピュータープログラム、かかるコンピュータープログラムを記録した記録媒体等の形態で実現できる。   The present invention can be realized in various forms. For example, the present invention can be realized in the form of a display control method in a transmissive display device, a computer program for realizing the display control method, a recording medium on which the computer program is recorded, and the like.

本発明の第1実施形態としての頭部装着型表示装置の概略構成を示す説明図である。It is explanatory drawing which shows schematic structure of the head mounted display apparatus as 1st Embodiment of this invention. 画像表示部が備える光学系の構成を示す要部平面図である。It is a principal part top view which shows the structure of the optical system with which an image display part is provided. 使用者から見た画像表示部の要部構成を示す図である。It is a figure which shows the principal part structure of the image display part seen from the user. カメラの画角を説明するための図である。It is a figure for demonstrating the angle of view of a camera. HMDの構成を機能的に示すブロック図である。It is a block diagram which shows the structure of HMD functionally. 制御装置の構成を機能的に示すブロック図である。It is a block diagram which shows the structure of a control apparatus functionally. HMDによる拡張現実感表示の一例を示す説明図である。It is explanatory drawing which shows an example of the augmented reality display by HMD. ポインター画像表示制御処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of a pointer image display control process. 色調変更処理(ステップS110)の詳細な処理手順を示すフローチャートである。It is a flowchart which shows the detailed process sequence of a color tone change process (step S110). 基準画像設定処理(ステップS200)の詳細な処理手順を示すフローチャートである。It is a flowchart which shows the detailed process sequence of a reference | standard image setting process (step S200). 色調変更処理(ステップS110)実行後のポインター画像の一例を模式的に示す説明図である。It is explanatory drawing which shows typically an example of the pointer image after execution of a color tone change process (step S110). 向き変更処理(ステップS120)の詳細な処理手順を示すフローチャートである。It is a flowchart which shows the detailed process sequence of direction change process (step S120). 向き変更処理(ステップS120)実行後のポインター画像の一例を模式的に示す説明図である。It is explanatory drawing which shows typically an example of the pointer image after execution of direction change processing (step S120). 視差変更処理(ステップS130)の詳細な処理手順を示すフローチャートである。It is a flowchart which shows the detailed process sequence of a parallax change process (step S130). 視差変更処理(ステップS130)実行後におけるポインター画像の一例を模式的に示す説明図である。It is explanatory drawing which shows typically an example of the pointer image after execution of a parallax change process (step S130). 第2実施形態における視差変更処理(ステップS130a)の詳細な処理手順を示すフローチャートである。It is a flowchart which shows the detailed process sequence of the parallax change process (step S130a) in 2nd Embodiment. 第3実施形態における視差変更処理(ステップS130b)の詳細な処理手順を示すフローチャートである。It is a flowchart which shows the detailed process sequence of the parallax change process (step S130b) in 3rd Embodiment. 変形例3におけるポインター画像の模様を模式的に示す説明図である。It is explanatory drawing which shows the pattern of the pointer image in the modification 3 typically.

A.第1実施形態:
A1.透過型表示装置の全体構成:
図1は、本発明の第1実施形態としての頭部装着型表示装置100の概略構成を示す説明図である。頭部装着型表示装置100は、使用者の頭部に装着する表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display、HMD)とも呼ばれる。HMD100は、グラスを通過して視認される外界の中に画像が浮かび上がるシースルー型(透過型)の頭部装着型表示装置である。
A. First embodiment:
A1. Overall configuration of the transmissive display device:
FIG. 1 is an explanatory diagram showing a schematic configuration of a head-mounted display device 100 as a first embodiment of the present invention. The head-mounted display device 100 is a display device that is mounted on a user's head, and is also referred to as a head-mounted display (HMD). The HMD 100 is a see-through type (transmission type) head-mounted display device in which an image floats in an external environment visually recognized through a glass.

HMD100は、使用者に画像を視認させる画像表示部20と、画像表示部20を制御する制御装置(コントローラー)10とを備えている。   The HMD 100 includes an image display unit 20 that allows a user to visually recognize an image, and a control device (controller) 10 that controls the image display unit 20.

画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有する。画像表示部20は、右保持部21と、左保持部23と、前部フレーム27とを有する支持体に、右表示ユニット22と、左表示ユニット24と、右導光板26と、左導光板28とを備える。本実施形態において、画像表示部20は、課題を解決するための手段における表示部に相当する。   The image display unit 20 is a wearing body that is worn on the user's head, and has a glasses shape in the present embodiment. The image display unit 20 includes a right display unit 22, a left display unit 24, a right light guide plate 26, and a left light guide plate on a support having a right holding unit 21, a left holding unit 23, and a front frame 27. 28. In the present embodiment, the image display unit 20 corresponds to a display unit in a means for solving the problem.

右保持部21および左保持部23は、それぞれ、前部フレーム27の両端部から後方に延び、眼鏡のテンプル(つる)のように、使用者の頭部に画像表示部20を保持する。ここで、前部フレーム27の両端部のうち、画像表示部20の装着状態において使用者の右側に位置する端部を端部ERとし、使用者の左側に位置する端部を端部ELとする。右保持部21は、前部フレーム27の端部ERから、画像表示部20の装着状態における使用者の右側頭部に対応する位置まで延伸して設けられている。左保持部23は、前部フレーム27の端部ELから、画像表示部20の装着状態における使用者の左側頭部に対応する位置まで延伸して設けられている。   Each of the right holding unit 21 and the left holding unit 23 extends rearward from both end portions of the front frame 27 and holds the image display unit 20 on the user's head like a temple of glasses. Here, of both ends of the front frame 27, an end located on the right side of the user in the mounted state of the image display unit 20 is defined as an end ER, and an end located on the left side of the user is defined as an end EL. To do. The right holding unit 21 extends from the end ER of the front frame 27 to a position corresponding to the right side of the user when the image display unit 20 is worn. The left holding part 23 is provided to extend from the end EL of the front frame 27 to a position corresponding to the left side of the user when the image display part 20 is worn.

右導光板26および左導光板28は、前部フレーム27に設けられている。右導光板26は、画像表示部20の装着状態における使用者の右眼の眼前に位置し、右眼に画像を視認させる。左導光板28は、画像表示部20の装着状態における使用者の左眼の眼前に位置し、左眼に画像を視認させる。   The right light guide plate 26 and the left light guide plate 28 are provided on the front frame 27. The right light guide plate 26 is positioned in front of the right eye of the user when the image display unit 20 is mounted, and causes the right eye to visually recognize the image. The left light guide plate 28 is positioned in front of the left eye of the user when the image display unit 20 is mounted, and causes the left eye to visually recognize the image.

前部フレーム27は、右導光板26の一端と左導光板28の一端とを互いに連結した形状を有する。この連結位置は、画像表示部20の装着状態における使用者の眉間の位置に対応する。前部フレーム27には、右導光板26と左導光板28との連結位置において、画像表示部20の装着状態において使用者の鼻に当接する鼻当て部が設けられていてもよい。この場合、鼻当て部と右保持部21と左保持部23とによって、画像表示部20を使用者の頭部に保持できる。また、右保持部21および左保持部23に対して、画像表示部20の装着状態において使用者の後頭部に接するベルトを連結してもよい。この場合、ベルトによって画像表示部20を使用者の頭部に強固に保持できる。   The front frame 27 has a shape in which one end of the right light guide plate 26 and one end of the left light guide plate 28 are connected to each other. This connection position corresponds to the position between the eyebrows of the user when the image display unit 20 is mounted. The front frame 27 may be provided with a nose pad portion that comes into contact with the user's nose when the image display unit 20 is mounted at a connection position between the right light guide plate 26 and the left light guide plate 28. In this case, the image display unit 20 can be held on the user's head by the nose pad, the right holding unit 21 and the left holding unit 23. Further, a belt that is in contact with the back of the user's head when the image display unit 20 is mounted may be connected to the right holding unit 21 and the left holding unit 23. In this case, the image display unit 20 can be firmly held on the user's head by the belt.

右表示ユニット22は、右導光板26による画像の表示を行う。右表示ユニット22は、右保持部21に設けられ、画像表示部20の装着状態における使用者の右側頭部の近傍に位置する。左表示ユニット24は、左導光板28による画像の表示を行う。左表示ユニット24は、左保持部23に設けられ、画像表示部20の装着状態における使用者の左側頭部の近傍に位置する。   The right display unit 22 displays an image by the right light guide plate 26. The right display unit 22 is provided in the right holding unit 21 and is located in the vicinity of the right side of the user when the image display unit 20 is worn. The left display unit 24 displays an image by the left light guide plate 28. The left display unit 24 is provided in the left holding unit 23 and is located in the vicinity of the user's left head when the image display unit 20 is worn.

本実施形態の右導光板26および左導光板28は、光透過性の樹脂等によって形成される光学部(例えばプリズム)であり、右表示ユニット22および左表示ユニット24が出力する画像光を使用者の眼に導く。なお、右導光板26および左導光板28の表面には、調光板が設けられてもよい。調光板は、光の波長域により透過率が異なる薄板状の光学素子であり、いわゆる波長フィルターとして機能する。調光板は、例えば、前部フレーム27の表面(使用者の眼と対向する面とは反対側の面)を覆うように配置される。調光板の光学特性を適宜選択することにより、可視光、赤外光、および紫外光等の任意の波長域の光の透過率を調整することができ、外部から右導光板26および左導光板28に入射し、右導光板26および左導光板28を透過する外光の光量を調整できる。   The right light guide plate 26 and the left light guide plate 28 of the present embodiment are optical units (for example, prisms) formed of a light transmissive resin or the like, and use image light output from the right display unit 22 and the left display unit 24. Lead to the eyes of the person. A dimming plate may be provided on the surfaces of the right light guide plate 26 and the left light guide plate 28. The light control plate is a thin plate-like optical element having different transmittance depending on the wavelength region of light, and functions as a so-called wavelength filter. For example, the light control plate is disposed so as to cover the surface of the front frame 27 (the surface opposite to the surface facing the user's eyes). By appropriately selecting the optical characteristics of the light control plate, the transmittance of light in an arbitrary wavelength region such as visible light, infrared light, and ultraviolet light can be adjusted. The amount of external light incident on the light plate 28 and transmitted through the right light guide plate 26 and the left light guide plate 28 can be adjusted.

画像表示部20は、右表示ユニット22および左表示ユニット24がそれぞれ生成する画像光を、右導光板26および左導光板28に導き、この画像光によって、自身を透過して視認される外界の風景とともに、画像(拡張現実感(Augmented Reality、AR)画像)を使用者に視認させる(これを「画像を表示する」とも呼ぶ)。使用者の前方から右導光板26および左導光板28を透過して外光が使用者の眼に入射する場合、使用者の眼には、画像を構成する画像光と、外光とが入射する。このため、使用者における画像の視認性は、外光の強さに影響を受ける。   The image display unit 20 guides the image light generated by the right display unit 22 and the left display unit 24 to the right light guide plate 26 and the left light guide plate 28, respectively. Along with the landscape, the user visually recognizes an image (an augmented reality (AR) image) (this is also referred to as “displaying an image”). When external light enters the user's eyes through the right light guide plate 26 and the left light guide plate 28 from the front of the user, image light constituting the image and external light are incident on the user's eyes. To do. For this reason, the visibility of the image for the user is affected by the intensity of external light.

このため、例えば前部フレーム27に調光板を装着し、調光板の光学特性を適宜選択あるいは調整することによって、画像の視認のしやすさを調整することができる。典型的な例では、HMD100を装着した使用者が少なくとも外の景色を視認できる程度の光透過性を有する調光板を選択することができる。また、太陽光を抑制して、画像の視認性を高めることができる。また、調光板を用いると、右導光板26および左導光板28を保護し、右導光板26および左導光板28の損傷や汚れの付着等を抑制する効果が期待できる。調光板は、前部フレーム27、あるいは、右導光板26および左導光板28のそれぞれに対して着脱可能としてもよい。また、複数種類の調光板を交換して着脱可能としてもよく、調光板を省略してもよい。   For this reason, for example, by attaching a light control plate to the front frame 27 and appropriately selecting or adjusting the optical characteristics of the light control plate, it is possible to adjust the ease of visual recognition of the image. In a typical example, it is possible to select a dimming plate having a light transmittance that allows a user wearing the HMD 100 to visually recognize at least the outside scenery. Moreover, sunlight can be suppressed and the visibility of an image can be improved. In addition, when the dimming plate is used, it is possible to protect the right light guide plate 26 and the left light guide plate 28 and to suppress the damage to the right light guide plate 26 and the left light guide plate 28 and the adhesion of dirt. The light control plate may be detachable from the front frame 27 or each of the right light guide plate 26 and the left light guide plate 28. In addition, a plurality of types of light control plates may be exchanged and removable, or the light control plates may be omitted.

カメラ61は、画像表示部20の前部フレーム27に配置されている。カメラ61は、前部フレーム27の前面において、右導光板26および左導光板28を透過する外光を遮らない位置に設けられる。図1の例では、カメラ61は、前部フレーム27の端部ER側に配置されている。カメラ61は、前部フレーム27の端部EL側に配置されていてもよく、右導光板26と左導光板28との連結部に配置されていてもよい。   The camera 61 is disposed on the front frame 27 of the image display unit 20. The camera 61 is provided on the front surface of the front frame 27 at a position that does not block outside light that passes through the right light guide plate 26 and the left light guide plate 28. In the example of FIG. 1, the camera 61 is disposed on the end ER side of the front frame 27. The camera 61 may be disposed on the end EL side of the front frame 27 or may be disposed at a connection portion between the right light guide plate 26 and the left light guide plate 28.

カメラ61は、CCDやCMOS等の撮像素子、および、撮像レンズ等を備えるデジタルカメラである。本実施形態のカメラ61は単眼カメラであるが、ステレオカメラを採用してもよい。カメラ61は、HMD100の表側方向、換言すれば、画像表示部20の装着状態において使用者が視認する視界方向の、少なくとも一部の外界(実空間)を撮像する。換言すれば、カメラ61は、使用者の視界と重なる範囲または方向を撮像し、使用者が視認する方向を撮像する。カメラ61の画角の広さは適宜設定できる。本実施形態では、カメラ61の画角の広さは、使用者が右導光板26および左導光板28を透過して視認可能な使用者の視界の全体を撮像するように設定される。カメラ61は、制御機能部150(図6)の制御に従って撮像を実行し、得られた撮像データを制御機能部150へ出力する。本実施形態において、カメラ61は、課題を解決するための手段における撮像部に相当する。   The camera 61 is a digital camera that includes an imaging element such as a CCD or CMOS, an imaging lens, and the like. The camera 61 of this embodiment is a monocular camera, but a stereo camera may be adopted. The camera 61 images at least a part of the outside world (real space) in the front side direction of the HMD 100, in other words, in the viewing direction that the user visually recognizes when the image display unit 20 is mounted. In other words, the camera 61 images a range or direction that overlaps the user's field of view, and images a direction that the user visually recognizes. The angle of view of the camera 61 can be set as appropriate. In the present embodiment, the width of the angle of view of the camera 61 is set so that the entire field of view of the user that the user can see through the right light guide plate 26 and the left light guide plate 28 is imaged. The camera 61 performs imaging according to the control of the control function unit 150 (FIG. 6), and outputs the obtained imaging data to the control function unit 150. In the present embodiment, the camera 61 corresponds to an imaging unit in a means for solving the problem.

HMD100は、予め設定された測定方向に位置する測定対象物までの距離を検出する測距センサーを備えていてもよい。測距センサーは、例えば、前部フレーム27の右導光板26と左導光板28との連結部分に配置することができる。測距センサーの測定方向は、HMD100の表側方向(カメラ61の撮像方向と重複する方向)とすることができる。測距センサーは、例えば、LEDやレーザーダイオード等の発光部と、光源が発する光が測定対象物に反射する反射光を受光する受光部と、により構成できる。この場合、三角測距処理や、時間差に基づく測距処理により距離を求める。測距センサーは、例えば、超音波を発する発信部と、測定対象物で反射する超音波を受信する受信部と、により構成してもよい。この場合、時間差に基づく測距処理により距離を求める。測距センサーは、カメラ61と同様に、制御機能部150の指示に従って測距し、検出結果を制御機能部150へ出力する。   The HMD 100 may include a distance measuring sensor that detects a distance to a measurement object positioned in a preset measurement direction. The distance measuring sensor can be disposed, for example, at a connection portion between the right light guide plate 26 and the left light guide plate 28 of the front frame 27. The measurement direction of the distance measuring sensor can be the front side direction of the HMD 100 (the direction overlapping the imaging direction of the camera 61). The distance measuring sensor can be composed of, for example, a light emitting unit such as an LED or a laser diode, and a light receiving unit that receives reflected light that is reflected from the light to be measured by the light source. In this case, the distance is obtained by triangular distance measurement processing or distance measurement processing based on a time difference. The distance measuring sensor may be configured by, for example, a transmission unit that emits ultrasonic waves and a reception unit that receives ultrasonic waves reflected by the measurement object. In this case, the distance is obtained by distance measurement processing based on the time difference. The distance measuring sensor measures the distance according to the instruction from the control function unit 150 and outputs the detection result to the control function unit 150, similarly to the camera 61.

図2は、画像表示部20が備える光学系の構成を示す要部平面図である。説明の便宜上、図2には使用者の右眼REおよび左眼LEを図示する。図2に示すように、右表示ユニット22と左表示ユニット24とは、左右対称に構成されている。   FIG. 2 is a principal plan view showing the configuration of the optical system provided in the image display unit 20. For convenience of explanation, FIG. 2 shows a user's right eye RE and left eye LE. As shown in FIG. 2, the right display unit 22 and the left display unit 24 are configured symmetrically.

右眼REに画像(AR画像)を視認させる構成として、右表示ユニット22は、OLED(Organic Light Emitting Diode)ユニット221と、右光学系251とを備える。OLEDユニット221は、画像光を発する。右光学系251は、レンズ群等を備え、OLEDユニット221が発する画像光Lを右導光板26へと導く。   As a configuration for allowing the right eye RE to visually recognize an image (AR image), the right display unit 22 includes an OLED (Organic Light Emitting Diode) unit 221 and a right optical system 251. The OLED unit 221 emits image light. The right optical system 251 includes a lens group and the like, and guides the image light L emitted from the OLED unit 221 to the right light guide plate 26.

OLEDユニット221は、OLEDパネル223と、OLEDパネル223を駆動するOLED駆動回路225とを有する。OLEDパネル223は、有機エレクトロルミネッセンスにより発光し、R(赤)、G(緑)、B(青)の色光をそれぞれ発する発光素子により構成される自発光型の表示パネルである。OLEDパネル223は、R、G、Bの素子を1個ずつ含む単位を1画素とした複数の画素が、マトリクス状に配置されている。   The OLED unit 221 includes an OLED panel 223 and an OLED drive circuit 225 that drives the OLED panel 223. The OLED panel 223 is a self-luminous display panel configured by light emitting elements that emit light by organic electroluminescence and emit color lights of R (red), G (green), and B (blue). In the OLED panel 223, a plurality of pixels each having a unit including one R, G, and B element as one pixel are arranged in a matrix.

OLED駆動回路225は、後述の制御機能部150(図6)の制御に従って、OLEDパネル223が備える発光素子の選択および通電を実行し、発光素子を発光させる。OLED駆動回路225は、OLEDパネル223の裏面、すなわち発光面の裏側に、ボンディング等により固定されている。OLED駆動回路225は、例えばOLEDパネル223を駆動する半導体デバイスで構成され、OLEDパネル223の裏面に固定される基板に実装されてもよい。この基板には、後述する温度センサー217(図5)が実装される。なお、OLEDパネル223は、白色に発光する発光素子をマトリクス状に配置し、R、G、Bの各色に対応するカラーフィルターを重ねて配置する構成を採用してもよい。また、R、G、Bの色光をそれぞれ放射する発光素子に加えて、W(白)の光を放射する発光素子を備えるWRGB構成のOLEDパネル223が採用されてもよい。   The OLED drive circuit 225 performs selection and energization of the light emitting elements included in the OLED panel 223 under the control of the control function unit 150 (FIG. 6) described later, and causes the light emitting elements to emit light. The OLED drive circuit 225 is fixed to the back surface of the OLED panel 223, that is, the back side of the light emitting surface by bonding or the like. The OLED drive circuit 225 may be configured by a semiconductor device that drives the OLED panel 223, for example, and may be mounted on a substrate that is fixed to the back surface of the OLED panel 223. A temperature sensor 217 (FIG. 5) described later is mounted on this board. Note that the OLED panel 223 may employ a configuration in which light emitting elements that emit white light are arranged in a matrix, and color filters corresponding to the colors R, G, and B are stacked. Further, an OLED panel 223 having a WRGB configuration including a light emitting element that emits W (white) light in addition to the light emitting elements that respectively emit R, G, and B color light may be employed.

右光学系251は、OLEDパネル223から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、右導光板26に入射する。右導光板26の内部において光を導く光路には、画像光Lを反射する複数の反射面が形成される。画像光Lは、右導光板26の内部で複数回の反射を経て右眼RE側に導かれる。右導光板26には、右眼REの眼前に位置するハーフミラー261(反射面)が形成される。画像光Lは、ハーフミラー261で反射後、右導光板26から右眼REへと射出され、この画像光Lが右眼REの網膜で像を結ぶことで、使用者に画像を視認させる。   The right optical system 251 includes a collimator lens that converts the image light L emitted from the OLED panel 223 into a parallel light flux. The image light L converted into a parallel light beam by the collimator lens enters the right light guide plate 26. A plurality of reflecting surfaces that reflect the image light L are formed in an optical path that guides light inside the right light guide plate 26. The image light L is guided to the right eye RE side through a plurality of reflections inside the right light guide plate 26. A half mirror 261 (reflection surface) located in front of the right eye RE is formed on the right light guide plate 26. The image light L is reflected by the half mirror 261 and then emitted from the right light guide plate 26 to the right eye RE. The image light L forms an image with the retina of the right eye RE, thereby allowing the user to visually recognize the image.

左眼LEに画像(AR画像)を視認させる構成として、左表示ユニット24は、OLEDユニット241と、左光学系252とを備える。OLEDユニット241は画像光を発する。左光学系252は、レンズ群等を備え、OLEDユニット241が発する画像光Lを左導光板28へと導く。OLEDユニット241は、OLEDパネル243と、OLEDパネル243を駆動するOLED駆動回路245を有する。各部の詳細は、OLEDユニット221、OLEDパネル223、OLED駆動回路225と同じである。OLEDパネル243の裏面に固定される基板には、温度センサー239(図5)が実装される。また、左光学系252の詳細は上述の右光学系251と同じである。   As a configuration for causing the left eye LE to visually recognize an image (AR image), the left display unit 24 includes an OLED unit 241 and a left optical system 252. The OLED unit 241 emits image light. The left optical system 252 includes a lens group and the like, and guides the image light L emitted from the OLED unit 241 to the left light guide plate 28. The OLED unit 241 includes an OLED panel 243 and an OLED drive circuit 245 that drives the OLED panel 243. Details of each part are the same as those of the OLED unit 221, the OLED panel 223, and the OLED drive circuit 225. A temperature sensor 239 (FIG. 5) is mounted on the substrate fixed to the back surface of the OLED panel 243. The details of the left optical system 252 are the same as those of the right optical system 251 described above.

以上説明した構成によれば、HMD100は、シースルー型の表示装置として機能することができる。すなわち使用者の右眼REには、ハーフミラー261で反射した画像光Lと、右導光板26を透過した外光OLとが入射する。使用者の左眼LEには、ハーフミラー281で反射した画像光Lと、左導光板28を透過した外光OLとが入射する。このように、HMD100は、内部で処理した画像の画像光Lと外光OLとを重ねて使用者の眼に入射させる。この結果、使用者にとっては、右導光板26および左導光板28を透かして外界の風景(実世界)が見えると共に、この外界に重なるようにして画像光Lによる虚像(虚像画像、AR画像)が視認される。   According to the configuration described above, the HMD 100 can function as a see-through display device. That is, the image light L reflected by the half mirror 261 and the external light OL transmitted through the right light guide plate 26 enter the right eye RE of the user. The image light L reflected by the half mirror 281 and the external light OL transmitted through the left light guide plate 28 enter the left eye LE of the user. As described above, the HMD 100 causes the image light L of the image processed inside and the external light OL to overlap and enter the user's eyes. As a result, the user can see the outside landscape (real world) through the right light guide plate 26 and the left light guide plate 28, and the virtual image (virtual image image, AR image) by the image light L so as to overlap the outside world. Is visible.

なお、右光学系251および右導光板26を総称して「右導光部」とも呼び、左光学系252および左導光板28を総称して「左導光部」とも呼ぶ。右導光部および左導光部の構成は、上述した例に限定されず、画像光を用いて使用者の眼前に画像を形成する限りにおいて任意の方式を用いることができる。例えば、右導光部および左導光部には、回折格子を用いてもよいし、半透過反射膜を用いてもよい。   The right optical system 251 and the right light guide plate 26 are collectively referred to as “right light guide”, and the left optical system 252 and the left light guide plate 28 are also collectively referred to as “left light guide”. The configurations of the right light guide unit and the left light guide unit are not limited to the above-described examples, and any method can be used as long as an image is formed in front of the user's eyes using image light. For example, a diffraction grating or a transflective film may be used for the right light guide and the left light guide.

図1において、制御装置10と画像表示部20とは、接続ケーブル40によって接続される。接続ケーブル40は、制御装置10の下部に設けられるコネクターに着脱可能に接続され、左保持部23の先端から、画像表示部20内部の各種回路に接続する。接続ケーブル40には、デジタルデータを伝送するメタルケーブルまたは光ファイバーケーブルを有する。接続ケーブル40にはさらに、アナログデータを伝送するメタルケーブルを含んでもよい。接続ケーブル40の途中には、コネクター46が設けられている。   In FIG. 1, the control device 10 and the image display unit 20 are connected by a connection cable 40. The connection cable 40 is detachably connected to a connector provided in the lower part of the control device 10, and is connected to various circuits inside the image display unit 20 from the tip of the left holding unit 23. The connection cable 40 includes a metal cable or an optical fiber cable that transmits digital data. The connection cable 40 may further include a metal cable that transmits analog data. A connector 46 is provided in the middle of the connection cable 40.

コネクター46は、ステレオミニプラグを接続するジャックであり、コネクター46と制御装置10とは、例えばアナログ音声信号を伝送するラインで接続される。図1に示す本実施形態の例では、コネクター46には、ステレオヘッドホンを構成する右イヤホン32および左イヤホン34と、マイク63を有するヘッドセット30とが接続されている。   The connector 46 is a jack for connecting a stereo mini-plug, and the connector 46 and the control device 10 are connected by a line for transmitting an analog audio signal, for example. In the example of the present embodiment shown in FIG. 1, a right earphone 32 and a left earphone 34 constituting stereo headphones and a headset 30 having a microphone 63 are connected to the connector 46.

マイク63は、例えば図1に示すように、マイク63の集音部が使用者の視線方向を向くように配置されている。マイク63は、音声を集音し、音声信号を音声インターフェイス182(図5)に出力する。マイク63は、モノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであっても無指向性のマイクであってもよい。   For example, as shown in FIG. 1, the microphone 63 is arranged so that the sound collection unit of the microphone 63 faces the line of sight of the user. The microphone 63 collects sound and outputs a sound signal to the sound interface 182 (FIG. 5). The microphone 63 may be a monaural microphone or a stereo microphone, and may be a directional microphone or an omnidirectional microphone.

制御装置10は、HMD100を制御するための装置である。制御装置10は、点灯部12と、トラックパッド14と、方向キー16と、決定キー17と、電源スイッチ18とを含んでいる。点灯部12は、HMD100の動作状態(例えば、電源のON/OFF等)を、その発光態様によって通知する。点灯部12としては、例えば、LED(Light Emitting Diode)を用いることができる。   The control device 10 is a device for controlling the HMD 100. The control device 10 includes a lighting unit 12, a track pad 14, a direction key 16, an enter key 17, and a power switch 18. The lighting unit 12 notifies the operation state of the HMD 100 (for example, ON / OFF of the power supply) by its light emission mode. As the lighting unit 12, for example, an LED (Light Emitting Diode) can be used.

トラックパッド14は、トラックパッド14の操作面上での接触操作を検出して、検出内容に応じた信号を出力する。トラックパッド14としては、静電式や圧力検出式、光学式といった種々のトラックパッドを採用することができる。方向キー16は、上下左右方向に対応するキーへの押下操作を検出して、検出内容に応じた信号を出力する。決定キー17は、押下操作を検出して、制御装置10において操作された内容を決定するための信号を出力する。電源スイッチ18は、スイッチのスライド操作を検出することで、HMD100の電源の状態を切り替える。   The track pad 14 detects a contact operation on the operation surface of the track pad 14 and outputs a signal corresponding to the detected content. As the track pad 14, various track pads such as an electrostatic type, a pressure detection type, and an optical type can be adopted. The direction key 16 detects a pressing operation on a key corresponding to the up / down / left / right direction, and outputs a signal corresponding to the detected content. The determination key 17 detects a pressing operation and outputs a signal for determining the content operated in the control device 10. The power switch 18 switches the power state of the HMD 100 by detecting a slide operation of the switch.

図3は、使用者から見た画像表示部20の要部構成を示す図である。図3では、接続ケーブル40、右イヤホン32、左イヤホン34の図示を省略している。図3の状態では、右導光板26および左導光板28の裏側が視認できると共に、右眼REに画像光を照射するためのハーフミラー261、および、左眼LEに画像光を照射するためのハーフミラー281が略四角形の領域として視認できる。使用者は、これらハーフミラー261、281を含む右導光板26、左導光板28の全体を透過して外界の風景を視認すると共に、ハーフミラー261、281の位置に矩形の表示画像を視認する。   FIG. 3 is a diagram illustrating a main configuration of the image display unit 20 as viewed from the user. In FIG. 3, the connection cable 40, the right earphone 32, and the left earphone 34 are not shown. In the state of FIG. 3, the back sides of the right light guide plate 26 and the left light guide plate 28 can be visually recognized, the half mirror 261 for irradiating the right eye RE with image light, and the image light for irradiating the left eye LE with image light. The half mirror 281 can be visually recognized as a substantially rectangular area. The user permeates through the entire right light guide plate 26 and left light guide plate 28 including the half mirrors 261 and 281 to visually recognize the scenery of the outside world and visually recognizes a rectangular display image at the position of the half mirrors 261 and 281. .

図4は、カメラ61の画角を説明するための図である。図4では、カメラ61と、使用者の右眼REおよび左眼LEとを平面視で模式的に示すと共に、カメラ61の画角(撮像範囲)をθで示す。なお、カメラ61の画角θは図示のように水平方向に拡がっているほか、一般的なデジタルカメラと同様に鉛直方向にも拡がっている。   FIG. 4 is a diagram for explaining the angle of view of the camera 61. In FIG. 4, the camera 61 and the user's right eye RE and left eye LE are schematically shown in plan view, and the angle of view (imaging range) of the camera 61 is indicated by θ. Note that the angle of view θ of the camera 61 extends in the horizontal direction as shown in the figure, and also in the vertical direction as in a general digital camera.

上述のようにカメラ61は、画像表示部20において右側の端部に配置され、使用者の視線の方向(すなわち使用者の前方)を撮像する。このためカメラ61の光軸は、右眼REおよび左眼LEの視線方向を含む方向とされる。使用者がHMD100を装着した状態で視認できる外界の風景は、無限遠とは限らない。例えば、使用者が両眼で対象物OBを注視すると、使用者の視線は、図中の符号RD、LDに示すように、対象物OBに向けられる。この場合、使用者から対象物OBまでの距離は、30cm〜10m程度であることが多く、1m〜4mであることがより多い。そこで、HMD100について、通常使用時における使用者から対象物OBまでの距離の上限および下限の目安を定めてもよい。この目安は、予め求められHMD100にプリセットされていてもよいし、使用者が設定してもよい。カメラ61の光軸および画角は、このような通常使用時における対象物OBまでの距離が、設定された上限および下限の目安に相当する場合において対象物OBが画角に含まれるように設定されることが好ましい。   As described above, the camera 61 is arranged at the right end of the image display unit 20 and images the direction of the user's line of sight (that is, the front of the user). For this reason, the optical axis of the camera 61 is a direction including the line-of-sight directions of the right eye RE and the left eye LE. The scenery of the outside world that can be visually recognized with the user wearing the HMD 100 is not always at infinity. For example, when the user gazes at the object OB with both eyes, the user's line of sight is directed toward the object OB as indicated by reference numerals RD and LD in the figure. In this case, the distance from the user to the object OB is often about 30 cm to 10 m, and more often 1 m to 4 m. Therefore, for the HMD 100, an upper limit and a lower limit of the distance from the user to the object OB during normal use may be determined. This standard may be obtained in advance and preset in the HMD 100, or may be set by the user. The optical axis and the angle of view of the camera 61 are set so that the object OB is included in the angle of view when the distance to the object OB during normal use corresponds to the set upper and lower limits. It is preferred that

なお、一般的に、人間の視野角は水平方向におよそ200度、垂直方向におよそ125度とされる。そのうち情報受容能力に優れる有効視野は水平方向に30度、垂直方向に20度程度である。人間が注視する注視点が迅速に安定して見える安定注視野は、水平方向に60〜90度、垂直方向に45〜70度程度とされている。この場合、注視点が対象物OB(図4)であるとき、視線RD、LDを中心として水平方向に30度、垂直方向に20度程度が有効視野である。また、水平方向に60〜90度、垂直方向に45〜70度程度が安定注視野である。使用者が画像表示部20を透過して右導光板26および左導光板28を透過して視認する実際の視野を、実視野(FOV:Field Of View)と呼ぶ。実視野は、視野角および安定注視野より狭いが、有効視野より広い。   In general, a human viewing angle is approximately 200 degrees in the horizontal direction and approximately 125 degrees in the vertical direction. Among them, the effective visual field with excellent information receiving ability is about 30 degrees in the horizontal direction and about 20 degrees in the vertical direction. A stable gaze field in which a gaze point that a person gazes at appears quickly and stably is set to 60 to 90 degrees in the horizontal direction and about 45 to 70 degrees in the vertical direction. In this case, when the gazing point is the object OB (FIG. 4), the effective visual field is about 30 degrees in the horizontal direction and about 20 degrees in the vertical direction around the lines of sight RD and LD. Further, the stable focus is about 60 to 90 degrees in the horizontal direction and about 45 to 70 degrees in the vertical direction. The actual field of view that the user perceives through the image display unit 20 and through the right light guide plate 26 and the left light guide plate 28 is referred to as a real field of view (FOV: Field Of View). The real field of view is narrower than the viewing angle and stable focus field, but wider than the effective field of view.

本実施形態のカメラ61の画角θは、使用者の視野より広い範囲を撮像可能に設定される。カメラ61の画角θは、少なくとも使用者の有効視野より広い範囲を撮像可能に設定されることが好ましく、実視野よりも広い範囲を撮像可能に設定されることがより好ましい。カメラ61の画角θは、使用者の安定注視野より広い範囲を撮像可能に設定されることがさらに好ましく、使用者の両眼の視野角よりも広い範囲を撮像可能に設定されることが最も好ましい。このため、カメラ61には、撮像レンズとしていわゆる広角レンズを備え、広い画角を撮像できる構成としてもよい。広角レンズには、超広角レンズ、準広角レンズと呼ばれるレンズを含んでもよい。また、カメラ61には、単焦点レンズを含んでもよく、ズームレンズを含んでもよく、複数のレンズからなるレンズ群を含んでもよい。   The angle of view θ of the camera 61 of the present embodiment is set so that a wider range than the user's visual field can be imaged. The angle of view θ of the camera 61 is preferably set so that at least a range wider than the effective visual field of the user can be captured, and more preferably set so that a range wider than the actual visual field can be captured. It is more preferable that the angle of view θ of the camera 61 is set so as to be able to image a wider range than the stable viewing field of the user, and is set so as to be able to image a range wider than the viewing angle of the user's eyes Most preferred. For this reason, the camera 61 may include a so-called wide-angle lens as an imaging lens so that a wide angle of view can be captured. The wide-angle lens may include a lens called an ultra-wide-angle lens or a quasi-wide-angle lens. The camera 61 may include a single focus lens, a zoom lens, or a lens group including a plurality of lenses.

図5は、HMD100の構成を機能的に示すブロック図である。制御装置10は、プログラムを実行してHMD100を制御するメインプロセッサー140と、記憶部と、入出力部と、センサー類と、インターフェイスと、電源部130とを備える。メインプロセッサー140には、これらの記憶部、入出力部、センサー類、インターフェイス、電源部130がそれぞれ接続されている。メインプロセッサー140は、制御装置10が内蔵しているコントローラー基板120に実装されている。   FIG. 5 is a block diagram functionally showing the configuration of the HMD 100. The control device 10 includes a main processor 140 that controls the HMD 100 by executing a program, a storage unit, an input / output unit, sensors, an interface, and a power supply unit 130. The storage unit, input / output unit, sensors, interface, and power supply unit 130 are connected to the main processor 140. The main processor 140 is mounted on the controller board 120 built in the control device 10.

記憶部には、メモリー118と、不揮発性記憶部121とが含まれている。メモリー118は、メインプロセッサー140によって実行されるコンピュータープログラム、および、処理されるデータを一時的に記憶するワークエリアを構成する。不揮発性記憶部121は、フラッシュメモリーやeMMC(embedded Multi Media Card)で構成される。不揮発性記憶部121は、メインプロセッサー140が実行するコンピュータープログラムや、メインプロセッサー140によって処理される各種のデータを記憶する。本実施形態において、これらの記憶部はコントローラー基板120に実装されている。   The storage unit includes a memory 118 and a nonvolatile storage unit 121. The memory 118 constitutes a work area for temporarily storing a computer program executed by the main processor 140 and data to be processed. The non-volatile storage unit 121 is configured by a flash memory or an eMMC (embedded Multi Media Card). The nonvolatile storage unit 121 stores a computer program executed by the main processor 140 and various data processed by the main processor 140. In the present embodiment, these storage units are mounted on the controller board 120.

入出力部には、トラックパッド14と、操作部110とが含まれている。操作部110には、制御装置10に備えられた方向キー16と、決定キー17と、電源スイッチ18とが含まれる。メインプロセッサー140は、これら各入出力部を制御すると共に、各入出力部から出力される信号を取得する。   The input / output unit includes a track pad 14 and an operation unit 110. The operation unit 110 includes a direction key 16, a determination key 17, and a power switch 18 provided in the control device 10. The main processor 140 controls these input / output units and acquires signals output from the input / output units.

センサー類には、6軸センサー111と、磁気センサー113と、GPS(Global Positioning System)レシーバー115とが含まれている。6軸センサー111は、3軸加速度センサーと3軸ジャイロ(角速度)センサーとを備えるモーションセンサー(慣性センサー)である。6軸センサー111は、これらセンサーがモジュール化されたIMU(Inertial Measurement Unit)を採用してもよい。磁気センサー113は、例えば、3軸の地磁気センサーである。GPSレシーバー115は、図示しないGPSアンテナを備え、GPS衛星から送信される無線信号を受信して、制御装置10の現在位置の座標を検出する。これらセンサー類(6軸センサー111、磁気センサー113、GPSレシーバー115)は、検出値を予め指定されたサンプリング周波数に従って、メインプロセッサー140へと出力する。各センサーが検出値を出力するタイミングは、メインプロセッサー140からの指示に応じてもよい。   The sensors include a six-axis sensor 111, a magnetic sensor 113, and a GPS (Global Positioning System) receiver 115. The 6-axis sensor 111 is a motion sensor (inertial sensor) including a 3-axis acceleration sensor and a 3-axis gyro (angular velocity) sensor. The 6-axis sensor 111 may employ an IMU (Internal Measurement Unit) in which these sensors are modularized. The magnetic sensor 113 is, for example, a triaxial geomagnetic sensor. The GPS receiver 115 includes a GPS antenna (not shown), receives a radio signal transmitted from a GPS satellite, and detects coordinates of the current position of the control device 10. These sensors (six-axis sensor 111, magnetic sensor 113, GPS receiver 115) output detection values to the main processor 140 according to a sampling frequency designated in advance. The timing at which each sensor outputs a detection value may be in accordance with an instruction from the main processor 140.

インターフェイスには、無線通信部117と、音声コーデック180と、外部コネクター184と、外部メモリーインターフェイス186と、USB(Universal Serial Bus)コネクター188と、センサーハブ192と、FPGA194と、インターフェイス196とが含まれている。これらは、外部とのインターフェイスとして機能する。   The interface includes a wireless communication unit 117, an audio codec 180, an external connector 184, an external memory interface 186, a USB (Universal Serial Bus) connector 188, a sensor hub 192, an FPGA 194, and an interface 196. ing. These function as an interface with the outside.

無線通信部117は、HMD100と外部機器との間における無線通信を実行する。無線通信部117は、図示しないアンテナ、RF回路、ベースバンド回路、通信制御回路等を備えて構成され、あるいはこれらが統合されたデバイスとして構成されている。無線通信部117は、例えば、Bluetooth(登録商標)、Wi−Fi(登録商標)を含む無線LAN等の規格に準拠した無線通信を行う。   The wireless communication unit 117 performs wireless communication between the HMD 100 and an external device. The wireless communication unit 117 includes an antenna, an RF circuit, a baseband circuit, a communication control circuit, and the like (not shown), or is configured as a device in which these are integrated. The wireless communication unit 117 performs wireless communication complying with a standard such as a wireless LAN including Bluetooth (registered trademark) and Wi-Fi (registered trademark), for example.

音声コーデック180は、音声インターフェイス182に接続され、音声インターフェイス182を介して入出力される音声信号のエンコード/デコードを行う。音声インターフェイス182は、音声信号を入出力するインターフェイスである。音声コーデック180は、アナログ音声信号からデジタル音声データへの変換を行うA/Dコンバーター、および、その逆の変換を行うD/Aコンバーターを備えてもよい。本実施形態のHMD100は、音声を右イヤホン32および左イヤホン34から出力し、マイク63により集音する。音声コーデック180は、メインプロセッサー140が出力するデジタル音声データをアナログ音声信号に変換し、音声インターフェイス182を介して出力する。また、音声コーデック180は、音声インターフェイス182に入力されるアナログ音声信号をデジタル音声データに変換してメインプロセッサー140に出力する。   The audio codec 180 is connected to the audio interface 182 and encodes / decodes an audio signal input / output via the audio interface 182. The audio interface 182 is an interface for inputting and outputting audio signals. The audio codec 180 may include an A / D converter that converts analog audio signals to digital audio data, and a D / A converter that performs the reverse conversion. The HMD 100 according to the present embodiment outputs sound from the right earphone 32 and the left earphone 34 and collects sound by the microphone 63. The audio codec 180 converts the digital audio data output from the main processor 140 into an analog audio signal and outputs the analog audio signal via the audio interface 182. The audio codec 180 converts an analog audio signal input to the audio interface 182 into digital audio data and outputs the digital audio data to the main processor 140.

外部コネクター184は、メインプロセッサー140に対して、メインプロセッサー140と通信する外部装置(例えば、パーソナルコンピューター、スマートフォン、ゲーム機器等)を接続するためのコネクターである。外部コネクター184に接続された外部装置は、コンテンツの供給元となり得るほか、メインプロセッサー140が実行するコンピュータープログラムのデバッグや、HMD100の動作ログの収集に使用できる。外部コネクター184は種々の態様を採用できる。外部コネクター184としては、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスや、無線LANインターフェイス、Bluetoothインターフェイス等の無線接続に対応したインターフェイスを採用できる。   The external connector 184 is a connector for connecting an external device (for example, a personal computer, a smart phone, a game device, etc.) that communicates with the main processor 140 to the main processor 140. The external device connected to the external connector 184 can be a content supply source, and can be used for debugging a computer program executed by the main processor 140 and collecting an operation log of the HMD 100. The external connector 184 can employ various modes. As the external connector 184, for example, an interface corresponding to a wired connection such as a USB interface, a micro USB interface, a memory card interface, or an interface corresponding to a wireless connection such as a wireless LAN interface or a Bluetooth interface can be adopted.

外部メモリーインターフェイス186は、可搬型のメモリーデバイスを接続可能なインターフェイスである。外部メモリーインターフェイス186は、例えば、カード型記録媒体を装着してデータの読み書きを行うメモリーカードスロットと、インターフェイス回路とを含む。カード型記録媒体のサイズ、形状、規格等は適宜選択できる。USBコネクター188は、USB規格に準拠したメモリーデバイス、スマートフォン、パーソナルコンピューター等を接続可能なインターフェイスである。USBコネクター188は、例えば、USB規格に準拠したコネクターと、インターフェイス回路とを含む。USBコネクター188のサイズ、形状、USB規格のバージョン等は適宜選択できる。   The external memory interface 186 is an interface to which a portable memory device can be connected. The external memory interface 186 includes, for example, a memory card slot in which a card-type recording medium is mounted and data is read and written, and an interface circuit. The size, shape, standard, etc. of the card type recording medium can be selected as appropriate. The USB connector 188 is an interface that can connect a memory device, a smartphone, a personal computer, or the like that conforms to the USB standard. The USB connector 188 includes, for example, a connector conforming to the USB standard and an interface circuit. The size, shape, USB standard version, etc. of the USB connector 188 can be selected as appropriate.

また、HMD100は、バイブレーター19を備える。バイブレーター19は、図示しないモーターと、偏芯した回転子等を備え、メインプロセッサー140の制御に従って振動を発生する。HMD100は、例えば、操作部110に対する操作を検出した場合や、HMD100の電源がオンオフされた場合等に所定の振動パターンでバイブレーター19により振動を発生させる。バイブレーター19は、制御装置10に設ける構成に換えて、画像表示部20側、例えば、画像表示部の右保持部21(テンプルの右側部分)に設ける構成としてもよい。   Further, the HMD 100 includes a vibrator 19. The vibrator 19 includes a motor (not shown), an eccentric rotor, and the like, and generates vibrations under the control of the main processor 140. The HMD 100 causes the vibrator 19 to generate a vibration with a predetermined vibration pattern when, for example, an operation on the operation unit 110 is detected or when the power of the HMD 100 is turned on / off. The vibrator 19 may be provided on the image display unit 20 side, for example, on the right holding unit 21 (the right part of the temple) of the image display unit, instead of the configuration provided in the control device 10.

センサーハブ192およびFPGA194は、インターフェイス(I/F)196を介して画像表示部20に接続されている。センサーハブ192は、画像表示部20が備える各種センサーの検出値を取得して、メインプロセッサー140に出力する。FPGA194は、メインプロセッサー140と画像表示部20の各部との間で送受信されるデータの処理およびインターフェイス196を介した伝送を実行する。インターフェイス196は、画像表示部20の右表示ユニット22と、左表示ユニット24とに対してそれぞれ接続されている。本実施形態の例では、左保持部23に接続ケーブル40が接続され、この接続ケーブル40に繋がる配線が画像表示部20内部に敷設され、右表示ユニット22と左表示ユニット24とのそれぞれが、制御装置10のインターフェイス196に接続される。   The sensor hub 192 and the FPGA 194 are connected to the image display unit 20 via an interface (I / F) 196. The sensor hub 192 acquires detection values of various sensors included in the image display unit 20 and outputs them to the main processor 140. The FPGA 194 executes processing of data transmitted and received between the main processor 140 and each unit of the image display unit 20 and transmission via the interface 196. The interface 196 is connected to each of the right display unit 22 and the left display unit 24 of the image display unit 20. In the example of the present embodiment, the connection cable 40 is connected to the left holding unit 23, the wiring connected to the connection cable 40 is laid inside the image display unit 20, and each of the right display unit 22 and the left display unit 24 is It is connected to the interface 196 of the control device 10.

電源部130には、バッテリー132と、電源制御回路134とが含まれている。電源部130は、制御装置10が動作するための電力を供給する。バッテリー132は、充電可能な電池である。電源制御回路134は、バッテリー132の残容量の検出と、OS143(図6)への充電の制御を行う。電源制御回路134は、メインプロセッサー140に接続され、バッテリー132の残容量の検出値や、バッテリー132の電圧の検出値をメインプロセッサー140へと出力する。なお、電源部130が供給する電力に基づいて、制御装置10から画像表示部20へと電力を供給してもよい。電源部130から制御装置10の各部および画像表示部20への電力の供給状態を、メインプロセッサー140により制御可能な構成としてもよい。   The power supply unit 130 includes a battery 132 and a power supply control circuit 134. The power supply unit 130 supplies power for operating the control device 10. The battery 132 is a rechargeable battery. The power supply control circuit 134 detects the remaining capacity of the battery 132 and controls charging of the OS 143 (FIG. 6). The power supply control circuit 134 is connected to the main processor 140 and outputs a detected value of the remaining capacity of the battery 132 and a detected value of the voltage of the battery 132 to the main processor 140. Note that power may be supplied from the control device 10 to the image display unit 20 based on the power supplied by the power supply unit 130. The power supply state from the power supply unit 130 to each unit of the control device 10 and the image display unit 20 may be configured to be controllable by the main processor 140.

右表示ユニット22は、表示ユニット基板210と、OLEDユニット221と、カメラ61と、照度センサー65と、LEDインジケーター67と、温度センサー217とを備える。表示ユニット基板210には、インターフェイス196に接続されるインターフェイス(I/F)211と、受信部(Rx)213と、EEPROM(Electrically Erasable Programmable Read−Only Memory)215とが実装されている。受信部213は、インターフェイス211を介して制御装置10から入力されるデータを受信する。受信部213は、OLEDユニット221で表示する画像の画像データを受信した場合に、受信した画像データをOLED駆動回路225(図2)へと出力する。   The right display unit 22 includes a display unit substrate 210, an OLED unit 221, a camera 61, an illuminance sensor 65, an LED indicator 67, and a temperature sensor 217. On the display unit substrate 210, an interface (I / F) 211 connected to the interface 196, a receiving unit (Rx) 213, and an EEPROM (Electrically Erasable Programmable Read-Only Memory) 215 are mounted. The receiving unit 213 receives data input from the control device 10 via the interface 211. When receiving image data of an image to be displayed on the OLED unit 221, the receiving unit 213 outputs the received image data to the OLED drive circuit 225 (FIG. 2).

EEPROM215は、各種のデータをメインプロセッサー140が読み取り可能な態様で記憶する。EEPROM215は、例えば、画像表示部20のOLEDユニット221、241の発光特性や表示特性に関するデータ、右表示ユニット22または左表示ユニット24のセンサー特性に関するデータ等を記憶する。具体的には、例えば、OLEDユニット221、241のガンマ補正に係るパラメーター、後述する温度センサー217、239の検出値を補償するデータ等を記憶する。これらのデータは、HMD100の工場出荷時の検査によって生成され、EEPROM215に書き込まれる。出荷後は、メインプロセッサー140がEEPROM215のデータを読み込んで各種の処理に利用する。   The EEPROM 215 stores various data in a form that can be read by the main processor 140. The EEPROM 215 stores, for example, data on the light emission characteristics and display characteristics of the OLED units 221 and 241 of the image display unit 20, data on the sensor characteristics of the right display unit 22 or the left display unit 24, and the like. Specifically, for example, parameters relating to gamma correction of the OLED units 221 and 241 and data for compensating detection values of temperature sensors 217 and 239 described later are stored. These data are generated by the factory inspection of the HMD 100 and are written in the EEPROM 215. After shipment, the main processor 140 reads the data in the EEPROM 215 and uses it for various processes.

カメラ61は、インターフェイス211を介して入力される信号に従って撮像を実行し、撮像画像データあるいは撮像結果を表す信号を制御装置10へと出力する。照度センサー65は、図1に示すように、前部フレーム27の端部ERに設けられ、画像表示部20を装着する使用者の前方からの外光を受光するように配置される。照度センサー65は、受光量(受光強度)に対応した検出値を出力する。LEDインジケーター67は、図1に示すように、前部フレーム27の端部ERにおいてカメラ61の近傍に配置される。LEDインジケーター67は、カメラ61による撮像を実行中に点灯して、撮像中であることを報知する。   The camera 61 executes imaging in accordance with a signal input via the interface 211 and outputs captured image data or a signal representing the imaging result to the control device 10. As shown in FIG. 1, the illuminance sensor 65 is provided at an end ER of the front frame 27 and is arranged to receive external light from the front of the user wearing the image display unit 20. The illuminance sensor 65 outputs a detection value corresponding to the amount of received light (received light intensity). As shown in FIG. 1, the LED indicator 67 is disposed near the camera 61 at the end ER of the front frame 27. The LED indicator 67 is lit during execution of imaging by the camera 61 to notify that imaging is in progress.

温度センサー217は、温度を検出し、検出した温度に対応する電圧値あるいは抵抗値を出力する。温度センサー217は、OLEDパネル223(図2)の裏面側に実装される。温度センサー217は、例えばOLED駆動回路225と同一の基板に実装されてもよい。この構成により、温度センサー217は主としてOLEDパネル223の温度を検出する。なお、温度センサー217は、OLEDパネル223あるいはOLED駆動回路225(図2)に内蔵されてもよい。例えば、OLEDパネル223がSi−OLEDとしてOLED駆動回路225と共に統合半導体チップ上の集積回路として実装される場合、この半導体チップに温度センサー217を実装してもよい。   The temperature sensor 217 detects the temperature and outputs a voltage value or a resistance value corresponding to the detected temperature. The temperature sensor 217 is mounted on the back side of the OLED panel 223 (FIG. 2). For example, the temperature sensor 217 may be mounted on the same substrate as the OLED drive circuit 225. With this configuration, the temperature sensor 217 mainly detects the temperature of the OLED panel 223. The temperature sensor 217 may be built in the OLED panel 223 or the OLED drive circuit 225 (FIG. 2). For example, when the OLED panel 223 is mounted as an Si-OLED as an integrated circuit on an integrated semiconductor chip together with the OLED drive circuit 225, the temperature sensor 217 may be mounted on the semiconductor chip.

左表示ユニット24は、表示ユニット基板230と、OLEDユニット241と、温度センサー239とを備える。表示ユニット基板230には、インターフェイス196に接続されるインターフェイス(I/F)231と、受信部(Rx)233と、6軸センサー235と、磁気センサー237とが実装されている。受信部233は、インターフェイス231を介して制御装置10から入力されるデータを受信する。受信部233は、OLEDユニット241で表示する画像の画像データを受信した場合に、受信した画像データをOLED駆動回路245(図2)へと出力する。   The left display unit 24 includes a display unit substrate 230, an OLED unit 241, and a temperature sensor 239. On the display unit substrate 230, an interface (I / F) 231 connected to the interface 196, a receiving unit (Rx) 233, a six-axis sensor 235, and a magnetic sensor 237 are mounted. The receiving unit 233 receives data input from the control device 10 via the interface 231. When receiving image data of an image to be displayed on the OLED unit 241, the receiving unit 233 outputs the received image data to the OLED drive circuit 245 (FIG. 2).

6軸センサー235は、3軸加速度センサーおよび3軸ジャイロ(角速度)センサーを備えるモーションセンサー(慣性センサー)である。6軸センサー235は、上記のセンサーがモジュール化されたIMUを採用してもよい。磁気センサー237は、例えば、3軸の地磁気センサーである。6軸センサー235と磁気センサー237は、画像表示部20に設けられているため、画像表示部20が使用者の頭部に装着されているときには、使用者の頭部の動きを検出する。検出された頭部の動きから画像表示部20の向き、すなわち、使用者の視界が特定される。   The 6-axis sensor 235 is a motion sensor (inertia sensor) including a 3-axis acceleration sensor and a 3-axis gyro (angular velocity) sensor. The 6-axis sensor 235 may employ an IMU in which the above sensors are modularized. The magnetic sensor 237 is, for example, a triaxial geomagnetic sensor. Since the 6-axis sensor 235 and the magnetic sensor 237 are provided in the image display unit 20, when the image display unit 20 is mounted on the user's head, the movement of the user's head is detected. The direction of the image display unit 20, that is, the field of view of the user is specified from the detected head movement.

温度センサー239は、温度を検出し、検出した温度に対応する電圧値あるいは抵抗値を出力する。温度センサー239は、OLEDパネル243(図2)の裏面側に実装される。温度センサー239は、例えばOLED駆動回路245と同一の基板に実装されてもよい。この構成により、温度センサー239は主としてOLEDパネル243の温度を検出する。温度センサー239は、OLEDパネル243あるいはOLED駆動回路245(図2)に内蔵されてもよい。詳細は温度センサー217と同様である。   The temperature sensor 239 detects the temperature and outputs a voltage value or a resistance value corresponding to the detected temperature. The temperature sensor 239 is mounted on the back side of the OLED panel 243 (FIG. 2). The temperature sensor 239 may be mounted on the same substrate as the OLED drive circuit 245, for example. With this configuration, the temperature sensor 239 mainly detects the temperature of the OLED panel 243. The temperature sensor 239 may be incorporated in the OLED panel 243 or the OLED drive circuit 245 (FIG. 2). Details are the same as those of the temperature sensor 217.

右表示ユニット22のカメラ61、照度センサー65、温度センサー217と、左表示ユニット24の6軸センサー235、磁気センサー237、温度センサー239は、制御装置10のセンサーハブ192に接続される。センサーハブ192は、メインプロセッサー140の制御に従って各センサーのサンプリング周期の設定および初期化を行う。センサーハブ192は、各センサーのサンプリング周期に合わせて、各センサーへの通電、制御データの送信、検出値の取得等を実行する。センサーハブ192は、予め設定されたタイミングで、右表示ユニット22および左表示ユニット24が備える各センサーの検出値をメインプロセッサー140へ出力する。センサーハブ192は、各センサーの検出値を一時的に保持するキャッシュ機能を備えてもよい。センサーハブ192は、各センサーの検出値の信号形式やデータ形式の変換機能(例えば、統一形式への変換機能)を備えてもよい。センサーハブ192は、メインプロセッサー140の制御に従ってLEDインジケーター67への通電を開始および停止させることで、LEDインジケーター67を点灯または消灯させる。   The camera 61, the illuminance sensor 65, and the temperature sensor 217 of the right display unit 22, and the 6-axis sensor 235, the magnetic sensor 237, and the temperature sensor 239 of the left display unit 24 are connected to the sensor hub 192 of the control device 10. The sensor hub 192 sets and initializes the sampling period of each sensor according to the control of the main processor 140. The sensor hub 192 executes energization to each sensor, transmission of control data, acquisition of a detection value, and the like in accordance with the sampling period of each sensor. The sensor hub 192 outputs detection values of the sensors included in the right display unit 22 and the left display unit 24 to the main processor 140 at a preset timing. The sensor hub 192 may have a cache function that temporarily holds the detection value of each sensor. The sensor hub 192 may be provided with a conversion function (for example, a conversion function to a unified format) of a signal format or a data format of a detection value of each sensor. The sensor hub 192 turns on or off the LED indicator 67 by starting and stopping energization of the LED indicator 67 according to the control of the main processor 140.

図6は、制御装置10の構成を機能的に示すブロック図である。制御装置10は、機能的には、記憶機能部122と、制御機能部150とを備える。記憶機能部122は、不揮発性記憶部121(図5)により構成される論理的な記憶部である。記憶機能部122は、記憶機能部122のみを使用する構成に替えて、不揮発性記憶部121に組み合わせてEEPROM215やメモリー118を使用する構成としてもよい。制御機能部150は、メインプロセッサー140がコンピュータープログラムを実行することにより、すなわち、ハードウェアとソフトウェアとが協働することにより構成される。   FIG. 6 is a block diagram functionally showing the configuration of the control device 10. Functionally, the control device 10 includes a storage function unit 122 and a control function unit 150. The storage function unit 122 is a logical storage unit configured by the nonvolatile storage unit 121 (FIG. 5). The storage function unit 122 may be configured to use the EEPROM 215 or the memory 118 in combination with the nonvolatile storage unit 121 instead of the configuration using only the storage function unit 122. The control function unit 150 is configured when the main processor 140 executes a computer program, that is, when hardware and software cooperate.

記憶機能部122には、制御機能部150における処理に供する種々のデータが記憶されている。具体的には、本実施形態の記憶機能部122には、設定データ123と、コンテンツデータ124とが記憶されている。設定データ123は、HMD100の動作に係る各種の設定値を含む。例えば、設定データ123には、制御機能部150がHMD100を制御する際のパラメーター、行列式、演算式、LUT(Look Up Table)等が含まれている。また、後述する利用モードが設定データ123として予め記憶されている。   The storage function unit 122 stores various data used for processing in the control function unit 150. Specifically, setting data 123 and content data 124 are stored in the storage function unit 122 of the present embodiment. The setting data 123 includes various setting values related to the operation of the HMD 100. For example, the setting data 123 includes parameters, determinants, arithmetic expressions, LUTs (Look Up Tables), and the like when the control function unit 150 controls the HMD 100. In addition, a use mode to be described later is stored in advance as setting data 123.

コンテンツデータ124には、制御機能部150の制御によって画像表示部20が表示する画像や映像を含むコンテンツのデータ(画像データ、映像データ、音声データ等)が含まれている。なお、コンテンツデータ124には、双方向型のコンテンツのデータが含まれてもよい。双方向型のコンテンツとは、操作部110によって使用者の操作を取得して、取得した操作内容に応じた処理を制御機能部150が実行し、処理内容に応じたコンテンツを画像表示部20に表示するタイプのコンテンツを意味する。この場合、コンテンツのデータには、使用者の操作を取得するためのメニュー画面の画像データ、メニュー画面に含まれる項目に対応する処理を定めるデータ等を含みうる。   The content data 124 includes content data (image data, video data, audio data, etc.) including images and video displayed by the image display unit 20 under the control of the control function unit 150. The content data 124 may include interactive content data. Bi-directional content refers to a user's operation acquired by the operation unit 110, processing corresponding to the acquired operation content is executed by the control function unit 150, and content corresponding to the processing content is stored in the image display unit 20. Means the type of content to display. In this case, the content data may include image data of a menu screen for acquiring a user's operation, data defining a process corresponding to an item included in the menu screen, and the like.

制御機能部150は、記憶機能部122が記憶しているデータを利用して各種処理を実行することにより、OS143、画像処理部145、表示制御部147、撮像制御部149、入出力制御部151、平均色相値算出部153、エッジ傾向算出部155としての機能を実行する。本実施形態では、OS143以外の各機能部は、OS143上で実行されるコンピュータープログラムとして構成されている。   The control function unit 150 executes various processes using the data stored in the storage function unit 122, whereby the OS 143, the image processing unit 145, the display control unit 147, the imaging control unit 149, and the input / output control unit 151. The functions as the average hue value calculation unit 153 and the edge tendency calculation unit 155 are executed. In the present embodiment, each functional unit other than the OS 143 is configured as a computer program executed on the OS 143.

画像処理部145は、画像表示部20により表示する画像/映像の画像データに基づいて、右表示ユニット22および左表示ユニット24に送信する信号を生成する。画像処理部145が生成する信号は、垂直同期信号、水平同期信号、クロック信号、アナログ画像信号等であってもよい。画像処理部145は、メインプロセッサー140がコンピュータープログラムを実行して実現される構成のほか、メインプロセッサー140とは別のハードウェア(例えば、DSP(Digital Signal Processor)で構成してもよい。   The image processing unit 145 generates a signal to be transmitted to the right display unit 22 and the left display unit 24 based on image / video image data displayed by the image display unit 20. The signal generated by the image processing unit 145 may be a vertical synchronization signal, a horizontal synchronization signal, a clock signal, an analog image signal, or the like. The image processing unit 145 may be configured by hardware different from the main processor 140 (for example, a DSP (Digital Signal Processor), in addition to a configuration realized by the main processor 140 executing a computer program.

なお、画像処理部145は、必要に応じて、解像度変換処理、画像調整処理、2D/3D変換処理等を実行してもよい。解像度変換処理は、画像データの解像度を右表示ユニット22および左表示ユニット24に適した解像度へと変換する処理である。画像調整処理は、画像データの輝度や彩度を調整する処理である。2D/3D変換処理は、三次元画像データから二次元画像データを生成し、あるいは、二次元画像データから三次元画像データを生成する処理である。画像処理部145は、これらの処理を実行した場合、処理後の画像データに基づき画像を表示するための信号を生成し、接続ケーブル40を介して画像表示部20へと送信する。   Note that the image processing unit 145 may execute resolution conversion processing, image adjustment processing, 2D / 3D conversion processing, and the like as necessary. The resolution conversion process is a process for converting the resolution of the image data into a resolution suitable for the right display unit 22 and the left display unit 24. The image adjustment process is a process for adjusting the brightness and saturation of image data. The 2D / 3D conversion process is a process of generating 2D image data from 3D image data or generating 3D image data from 2D image data. When these processes are executed, the image processing unit 145 generates a signal for displaying an image based on the processed image data, and transmits the signal to the image display unit 20 via the connection cable 40.

表示制御部147は、右表示ユニット22および左表示ユニット24を制御する制御信号を生成し、この制御信号により、右表示ユニット22および左表示ユニット24のそれぞれによる画像光の生成と射出とを制御する。具体的には、表示制御部147は、OLED駆動回路225、245を制御して、OLEDパネル223、243による画像の表示を実行させる。表示制御部147は、画像処理部145が出力する信号に基づいて、OLED駆動回路225、245がOLEDパネル223、243に描画するタイミングの制御、OLEDパネル223、243の輝度の制御等を行う。   The display control unit 147 generates a control signal for controlling the right display unit 22 and the left display unit 24, and controls the generation and emission of image light by each of the right display unit 22 and the left display unit 24 based on the control signal. To do. Specifically, the display control unit 147 controls the OLED drive circuits 225 and 245 to cause the OLED panels 223 and 243 to display an image. The display control unit 147 controls the timing at which the OLED drive circuits 225 and 245 draw on the OLED panels 223 and 243 and controls the luminance of the OLED panels 223 and 243 based on the signal output from the image processing unit 145.

また、表示制御部147は、後述のポインター画像表示制御処理において、ポインター画像の表示態様を制御する。ポインター画像表示制御処理では、使用者がポインター画像を視認しやすいようにポインター画像を目立たせて表示させる。例えば、ポインター画像の色および模様等の表示態様を制御する。ポインター画像表示制御処理についての詳細な説明は後述する。   The display control unit 147 controls the display mode of the pointer image in a pointer image display control process described later. In the pointer image display control process, the pointer image is displayed conspicuously so that the user can easily see the pointer image. For example, the display mode such as the color and pattern of the pointer image is controlled. A detailed description of the pointer image display control process will be described later.

撮像制御部149は、カメラ61を制御して撮像を実行させ、撮像画像データを生成し、記憶機能部122に一時的に記憶させる。また、カメラ61が撮像画像データを生成する回路を含むカメラユニットとして構成される場合、撮像制御部149は、撮像画像データをカメラ61から取得して、記憶機能部122に一時的に記憶させる。また、撮像制御部149は、後述のポインター画像表示制御処理において、表示制御部147の指示に応じて、外界の撮像を行って外界の撮像画像を得る。   The imaging control unit 149 controls the camera 61 to execute imaging, generates captured image data, and temporarily stores it in the storage function unit 122. When the camera 61 is configured as a camera unit including a circuit that generates captured image data, the imaging control unit 149 acquires captured image data from the camera 61 and temporarily stores the captured image data in the storage function unit 122. In addition, the imaging control unit 149 obtains a captured image of the outside world by performing imaging of the outside world in accordance with an instruction from the display control unit 147 in a pointer image display control process described later.

入出力制御部151は、トラックパッド14(図1)と、方向キー16と、決定キー17とを適宜、制御して、これらから入力指令を取得する。取得した指令は、OS143、またはOS143と共にOS143上で動作するコンピュータープログラムに出力される。   The input / output control unit 151 appropriately controls the track pad 14 (FIG. 1), the direction key 16, and the determination key 17, and acquires an input command therefrom. The acquired command is output to the OS 143 or a computer program operating on the OS 143 together with the OS 143.

平均色相値算出部153は、後述のポインター画像表示制御処理において、後述の基準画像におけるポインター画像の表示位置を含む領域の平均色相値を算出する。エッジ傾向算出部155は、後述のポインター画像表示制御処理において、後述の基準画像におけるポインター画像の表示位置を含む領域のエッジ傾向を算出する。   The average hue value calculation unit 153 calculates an average hue value of an area including a display position of a pointer image in a reference image described later in a pointer image display control process described later. The edge tendency calculation unit 155 calculates an edge tendency of an area including a display position of a pointer image in a reference image described later in a pointer image display control process described later.

A2.拡張現実感表示:
図7は、HMD100による拡張現実感表示の一例を示す説明図である。図7では、使用者の視界VRを例示している。上述のようにして、HMD100の使用者の両眼に導かれた画像光が使用者の網膜に結像することにより、使用者は表示対象の対象画像AIを拡張現実感(AR)として視認する。図7に示す例では、対象画像AIは、HMD100のOSのメニュー画面である。メニュー画面には、例えば、「メッセージ」、「電話」、「カメラ」、「ブラウザー」、「ナビゲーション」の各アプリケーションプログラムを起動するためのアイコンが含まれる。また、右導光板26、左導光板28が外界からの光を透過することで、使用者は外界SCを視認する。このように、本実施形態のHMD100の使用者は、視界VRのうち対象画像AIが表示された部分については、外界SCに重なるようにして対象画像AIを見ることができる。また、視界VRのうち対象画像AIが表示されていない部分については、外界SCだけを見ることができる。
A2. Augmented reality display:
FIG. 7 is an explanatory diagram illustrating an example of augmented reality display by the HMD 100. FIG. 7 illustrates the user's field of view VR. As described above, the image light guided to both eyes of the user of the HMD 100 forms an image on the retina of the user, so that the user visually recognizes the target image AI to be displayed as augmented reality (AR). . In the example illustrated in FIG. 7, the target image AI is an OS menu screen of the HMD 100. The menu screen includes, for example, icons for starting each application program of “message”, “phone”, “camera”, “browser”, and “navigation”. In addition, the right light guide plate 26 and the left light guide plate 28 transmit light from the outside, so that the user visually recognizes the outside world SC. As described above, the user of the HMD 100 according to the present embodiment can view the target image AI so that the portion of the visual field VR where the target image AI is displayed overlaps the external environment SC. Further, only the outside SC can be seen in the portion of the field of view VR where the target image AI is not displayed.

図7に示すように、対象画像AI上には、ポインター画像Ptが表示されている。図7では、説明の便宜上、実際に使用者が視認するポインター画像Ptに比べて拡大して示している。ポインター画像Ptは、使用者が対象画像AI上に表示された各メニューを選択するために用いられる。図7に示す例では、使用者は、対象画像AI上のブラウザーアイコンにポインター画像Ptをあわせることで、ブラウザーメニューを選択している。使用者は、この状態で、トラックパッド14上でタップ操作等を行うことにより、ブラウザーメニューを実行できる。   As shown in FIG. 7, a pointer image Pt is displayed on the target image AI. In FIG. 7, for convenience of explanation, it is shown enlarged as compared with the pointer image Pt that is actually visually recognized by the user. The pointer image Pt is used for the user to select each menu displayed on the target image AI. In the example shown in FIG. 7, the user selects the browser menu by matching the pointer image Pt with the browser icon on the target image AI. In this state, the user can execute the browser menu by performing a tap operation or the like on the track pad 14.

本実施形態において、「ポインター画像」とは、GUI操作にかかる操作位置の指標であって、対象画像AIにおける操作対象位置を示す指標を意味し、本実施形態では、マウスポインター画像を意味する。なお、マウスポインターに限らず、例えば、マーカー、マウスカーソルなど任意のポインター画像を用いてもよい。図7に示す例では、ポインター画像Ptは、矢印形状を有する。なお、ポインター画像Ptの形状は、矢印形状に限らず、円形、三角形や四角形等の幾何学図形および記号等であってもよい。また、ポインター画像Ptに模様が付されている構成であってもよい。本実施形態では、ポインター画像Ptの模様は方向性を有する。具体的には、図7に示すように、ポインター画像Ptには、ある方向に繰り返される模様が付されている。なお、模様の方向についての詳細な説明は、後述する。   In the present embodiment, the “pointer image” is an index of an operation position related to a GUI operation and means an index indicating the operation target position in the target image AI. In the present embodiment, it means a mouse pointer image. In addition, not only a mouse pointer but an arbitrary pointer image such as a marker or a mouse cursor may be used. In the example shown in FIG. 7, the pointer image Pt has an arrow shape. The shape of the pointer image Pt is not limited to the arrow shape, and may be a geometric figure such as a circle, a triangle, or a rectangle, a symbol, or the like. Further, the pointer image Pt may have a pattern. In the present embodiment, the pattern of the pointer image Pt has directionality. Specifically, as shown in FIG. 7, the pointer image Pt has a pattern repeated in a certain direction. A detailed description of the pattern direction will be described later.

上述のように、使用者は、外界SCに重なるようにして対象画像AIを見るので、一般的には、外界SCおよび対象画像AIの特徴、例えば、彩度、明度および色相等により、ポインター画像Ptを視認しづらい場合がある。しかし、後述のポインター画像表示制御処理において、外界SCの撮像画像又は対象画像AI又はそれらの合成画像の特徴量に応じて、ポインター画像Ptの表示態様を制御してポインター画像Ptを表示することで、ポインター画像Ptの視認性を向上させている。   As described above, since the user views the target image AI so as to overlap the external world SC, generally, the pointer image depends on the characteristics of the external world SC and the target image AI, for example, saturation, brightness, hue, and the like. It may be difficult to visually recognize Pt. However, in the pointer image display control process described later, the pointer image Pt is displayed by controlling the display mode of the pointer image Pt in accordance with the feature amount of the captured image of the external world SC, the target image AI, or their composite image. The visibility of the pointer image Pt is improved.

A3.ポインター画像表示制御処理:
図8は、ポインター画像表示制御処理の処理手順を示すフローチャートである。ポインター画像表示制御処理では、利用モードに応じてポインター画像Ptの表示態様を変更する。ポインター画像表示制御処理は、使用者が電源スイッチ18をオンに設定すると開始される。図8に示すように、表示制御部147は、設定データ123から利用モードを取得する(ステップS100)。
A3. Pointer image display control processing:
FIG. 8 is a flowchart showing the processing procedure of the pointer image display control processing. In the pointer image display control process, the display mode of the pointer image Pt is changed according to the use mode. The pointer image display control process is started when the user turns on the power switch 18. As illustrated in FIG. 8, the display control unit 147 acquires the usage mode from the setting data 123 (step S100).

利用モードとは、ポインター画像Ptの表示態様を変化させるモードであり、本実施形態では、「色調変更モード」と「向き変更モード」と「視差変更モード」との合計3種類のモードが存在する。「色調変更モード」とは、ポインター画像Ptの色を変更してポインター画像Ptを表示するモードである。「向き変更モード」とは、ポインター画像Ptの模様の向きを変更してポインター画像Ptを表示するモードである。「視差変更モード」とは、ポインター画像Ptに視差をつけてポインター画像Ptを表示するモードである。使用者は、これら3つのモードについて、それぞれ独立して有効または無効を選択的に設定でき、各モードについての有効性の情報が設定データ123として記憶機能部122に記憶される。なお、本実施形態では、上記3つのモードの全てが有効であると予め設定されている。   The usage mode is a mode for changing the display mode of the pointer image Pt. In the present embodiment, there are a total of three types of modes: a “tone change mode”, a “direction change mode”, and a “parallax change mode”. . The “color tone change mode” is a mode in which the pointer image Pt is displayed by changing the color of the pointer image Pt. The “orientation change mode” is a mode in which the direction of the pattern of the pointer image Pt is changed and the pointer image Pt is displayed. The “parallax change mode” is a mode in which the pointer image Pt is displayed by adding parallax to the pointer image Pt. The user can selectively set validity or invalidity independently for each of these three modes, and information on validity for each mode is stored in the storage function unit 122 as setting data 123. In the present embodiment, it is preset that all the three modes are valid.

ステップS100の実行後、表示制御部147は、色調変更モードは有効であるか否かを判定する(ステップS105)。色調変更モードが有効でないと判定された場合(ステップS105:NO)、色調変更処理(ステップS110)を実行しない。これに対して、色調変更モードが有効であると判定された場合(ステップS105:YES)、表示制御部147は、色調変更処理を実行する(ステップS110)。   After executing step S100, the display control unit 147 determines whether or not the color tone change mode is valid (step S105). If it is determined that the color change mode is not valid (step S105: NO), the color change process (step S110) is not executed. On the other hand, when it is determined that the color change mode is valid (step S105: YES), the display control unit 147 executes a color change process (step S110).

図9は、色調変更処理(ステップS110)の詳細な処理手順を示すフローチャートである。図9に示すように、表示制御部147は、基準画像設定処理を実行する(ステップS200)。本実施形態において、「基準画像」とは、ポインター画像Ptの表示態様を変更する際に特徴量が考慮される画像である。基準画像は、表示制御部147により、撮像により得られた外界画像と、対象画像AIと、撮像により得られた外界画像および対象画像AIの合成画像と、のうちのいずれか一つの画像に設定される。   FIG. 9 is a flowchart showing a detailed processing procedure of the color tone changing process (step S110). As illustrated in FIG. 9, the display control unit 147 performs reference image setting processing (step S200). In the present embodiment, the “reference image” is an image in which the feature amount is considered when changing the display mode of the pointer image Pt. The reference image is set by the display control unit 147 as any one of the external image obtained by imaging, the target image AI, and the composite image of the external image and the target image AI obtained by imaging. Is done.

図10は、基準画像設定処理(ステップS200)の詳細な処理手順を示すフローチャートである。図10に示すように、表示制御部147は、外界輝度を取得する(ステップS300)。具体的には、表示制御部147は、照度センサー65の取得する外光の受光量に対応した検出値に基づいて外界輝度を取得する。   FIG. 10 is a flowchart showing a detailed processing procedure of the reference image setting process (step S200). As illustrated in FIG. 10, the display control unit 147 acquires external brightness (step S300). Specifically, the display control unit 147 acquires external luminance based on a detection value corresponding to the amount of external light received by the illuminance sensor 65.

ステップS300の実行後、表示制御部147は、外界輝度が対象画像輝度に比べて著しく高いか否かを判定する(ステップS305)。対象画像輝度は、対象画像AIの全画素のRGB値を輝度値に変換して、それらの平均値として算出される。表示制御部147は、予め閾値を定めておき、外界輝度と対象画像輝度との差の絶対値が閾値よりも大きい場合、外界輝度が対象画像輝度に比べて著しく高いと判定する。これに対して、外界輝度と対象画像輝度との差の絶対値が閾値以下の場合、外界輝度が対象画像輝度に比べて著しく高くないと判定する。外界輝度が対象画像輝度に比べて著しく高いと判定された場合(ステップS305:YES)、撮像制御部149は、カメラ61に外界を撮像させて外界画像を得る(ステップS310)。ステップS310の実行後、表示制御部147は、撮像により得られた外界画像を基準画像として設定する(ステップS315)。ステップS315の実行後、基準画像設定処理(ステップS200)は終了し、図9に示す後述のステップS205が実行される。   After execution of step S300, the display control unit 147 determines whether or not the external brightness is significantly higher than the target image brightness (step S305). The target image luminance is calculated as an average value obtained by converting the RGB values of all the pixels of the target image AI into luminance values. The display control unit 147 determines a threshold value in advance, and determines that the external brightness is significantly higher than the target image brightness when the absolute value of the difference between the external brightness and the target image brightness is greater than the threshold. On the other hand, when the absolute value of the difference between the external brightness and the target image brightness is equal to or less than the threshold, it is determined that the external brightness is not significantly higher than the target image brightness. When it is determined that the external brightness is significantly higher than the target image brightness (step S305: YES), the imaging control unit 149 causes the camera 61 to capture the external environment and obtain an external image (step S310). After executing step S310, the display control unit 147 sets an external image obtained by imaging as a reference image (step S315). After execution of step S315, the reference image setting process (step S200) ends, and step S205 described later shown in FIG. 9 is executed.

上述のステップS305において、外界輝度が対象画像輝度に比べて著しく高くないと判定された場合(ステップS305:NO)、表示制御部147は、外界輝度が対象画像輝度に比べて著しく低いか否かを判定する(ステップS320)。外界輝度が対象画像輝度に比べて著しく低いと判定された場合(ステップS320:YES)、表示制御部147は、対象画像AIを基準画像として設定する(ステップS325)。ステップS325の実行後、上述のステップS315の実行後と同様に、基準画像設定処理(ステップS200)は終了し、図9に示す後述のステップS205が実行される。   When it is determined in step S305 described above that the external brightness is not significantly higher than the target image brightness (step S305: NO), the display control unit 147 determines whether or not the external brightness is significantly lower than the target image brightness. Is determined (step S320). When it is determined that the external brightness is significantly lower than the target image brightness (step S320: YES), the display control unit 147 sets the target image AI as a reference image (step S325). After the execution of step S325, the reference image setting process (step S200) is ended in the same manner as after the above-described step S315, and step S205 described later shown in FIG. 9 is executed.

上述のステップS320において、外界輝度が対象画像輝度に比べて著しく低くないと判定された場合(ステップS320:NO)、上述のステップS310と同様に、撮像制御部149は、カメラ61に外界を撮像させて外界画像を得る(ステップS330)。ステップS330の実行後、表示制御部147は、撮像により得られた外界画像と対象画像AIとを加法混色して合成画像を得る(ステップS335)。なお、加法混色は公知な技術であるため、その詳細な説明は省略する。ステップS335において、加法混色の対象となるのは、各画像の全体である。ステップS335の実行後、表示制御部147は、合成画像を基準画像として設定する(ステップS340)。ステップS340の実行後、上述のステップS315およびステップS325の実行後と同様に、基準画像設定処理(ステップS200)は終了し、図9に示す後述のステップS205が実行される。   If it is determined in step S320 described above that the external brightness is not significantly lower than the target image brightness (step S320: NO), the imaging control unit 149 captures the external environment with the camera 61 as in step S310 described above. Thus, an external image is obtained (step S330). After executing step S330, the display control unit 147 additively mixes the external image obtained by imaging and the target image AI to obtain a composite image (step S335). Note that additive color mixing is a known technique, and thus detailed description thereof is omitted. In step S335, the whole of each image is subject to additive color mixing. After executing step S335, the display control unit 147 sets the composite image as a reference image (step S340). After the execution of step S340, the reference image setting process (step S200) is terminated in the same manner as after the execution of steps S315 and S325 described above, and step S205 described later shown in FIG. 9 is executed.

図9に示すように、ステップS200の完了後、表示制御部147は、基準画像とポインター画像Ptとの重複領域を算出する(ステップS205)。本実施形態において、「重複領域」とは、基準画像におけるポインター画像Ptの表示位置を含む領域であって、ポインター画像Ptの長手方向の長さの中点を中心とする略真円形状の領域を意味する。図7に示す例では、領域Ar1が重複領域として算出される。領域Ar1は、ポインター画像Ptに加えて、ポインター画像Ptの周辺の領域も含む領域である。   As shown in FIG. 9, after the completion of step S200, the display control unit 147 calculates an overlapping area between the reference image and the pointer image Pt (step S205). In the present embodiment, the “overlapping region” is a region including the display position of the pointer image Pt in the reference image, and a substantially circular region centering on the midpoint of the length in the longitudinal direction of the pointer image Pt. Means. In the example illustrated in FIG. 7, the area Ar1 is calculated as an overlapping area. The area Ar1 is an area that includes an area around the pointer image Pt in addition to the pointer image Pt.

図9に示すように、ステップS205の実行後、表示制御部147は、重複領域Ar1の色相値を取得する(ステップS210)。具体的には、重複領域Ar1の各画素の色相値(色相角)を取得する。ステップS210の実行後、表示制御部147は、重複領域Ar1の平均色相値を算出する(ステップS215)。具体的には、上述のステップS210で取得した重複領域Ar1の各画素の色相値の和を重複領域の画素数で割ることにより平均色相値を算出する。   As shown in FIG. 9, after execution of step S205, the display control unit 147 acquires the hue value of the overlapping area Ar1 (step S210). Specifically, the hue value (hue angle) of each pixel in the overlapping area Ar1 is acquired. After executing step S210, the display control unit 147 calculates an average hue value of the overlapping area Ar1 (step S215). Specifically, the average hue value is calculated by dividing the sum of the hue values of the pixels in the overlapping area Ar1 acquired in step S210 described above by the number of pixels in the overlapping area.

ステップS215の実行後、表示制御部147は、ポインター画像Ptの色を平均色相値の補色にする(ステップS220)。本実施形態において、「補色」とは、マンセル色相環において、平均色相値の表す色相と、ポインター画像Ptの色相値の表す色相と、の間の角度(色相角)が、180度である色相を意味する。また、「補色」には、色相角がちょうど180度である場合に加えて、例えば、色相角が180度±45度の範囲にある場合も含む広い概念を意味する。なお、色相環は、マンセル色相環に限らず、例えば、PCCS色相環であってもよいし、オストワルト色相環であってもよい。また、色相環は、赤、黄、緑、青、紫等の各色が連続的につながっていなくてもよい。   After executing step S215, the display control unit 147 sets the color of the pointer image Pt to the complementary color of the average hue value (step S220). In the present embodiment, “complementary color” refers to a hue whose angle (hue angle) between the hue represented by the average hue value and the hue represented by the hue value of the pointer image Pt is 180 degrees in the Munsell hue circle. Means. Further, “complementary color” means a broad concept including not only the case where the hue angle is exactly 180 degrees but also the case where the hue angle is in the range of 180 degrees ± 45 degrees. The hue ring is not limited to the Munsell hue ring, and may be, for example, a PCCS hue ring or an Ostwald hue ring. Further, the hue ring may not be continuously connected to each color such as red, yellow, green, blue, and purple.

ステップS220において、ポインター画像Ptの色が平均色相値の補色にして表示されると、色調変更処理(ステップS110)が終了する。   In step S220, when the color of the pointer image Pt is displayed as a complementary color of the average hue value, the color tone changing process (step S110) ends.

図11は、色調変更処理(ステップS110)実行後のポインター画像Ptの一例を模式的に示す説明図である。図11では、説明の便宜上、基準画像Stgdにおける重複領域Ar1およびポインター画像Ptを図7に示す例よりもさらに拡大して示している。また、重複領域Ar1およびポインター画像Ptの色をハッチングにより表している。図11に示すように、ポインター画像Ptは、重複領域Ar1の平均色相値の色の補色にして表示されている。このため、ポインター画像Ptは、重複領域Ar1におけるポインター画像Ptを除いた領域に対して目立ち、ポインター画像Ptの視認性は向上している。   FIG. 11 is an explanatory diagram schematically showing an example of the pointer image Pt after the color tone changing process (step S110). In FIG. 11, for convenience of explanation, the overlapping area Ar1 and the pointer image Pt in the reference image Stgd are further enlarged than the example shown in FIG. Further, the colors of the overlapping area Ar1 and the pointer image Pt are represented by hatching. As shown in FIG. 11, the pointer image Pt is displayed as a complementary color of the average hue value of the overlapping area Ar1. For this reason, the pointer image Pt is conspicuous with respect to the area | region except the pointer image Pt in the overlap area | region Ar1, and the visibility of the pointer image Pt is improving.

図8に示すように、色調変更処理(ステップS110)の実行後、表示制御部147は、向き変更モードは有効であるか否かを判定する(ステップS115)。向き変更モードが有効でないと判定された場合(ステップS115:NO)、向き変更処理(ステップS120)は実行されない。これに対して、向き変更モードが有効であると判定された場合(ステップS115:YES)、表示制御部147は、向き変更処理を実行する(ステップS120)。   As shown in FIG. 8, after executing the color tone changing process (step S110), the display control unit 147 determines whether or not the orientation change mode is valid (step S115). When it is determined that the direction change mode is not valid (step S115: NO), the direction change process (step S120) is not executed. On the other hand, when it is determined that the direction change mode is valid (step S115: YES), the display control unit 147 executes a direction change process (step S120).

図12は、向き変更処理(ステップS120)の詳細な処理手順を示すフローチャートである。向き変更処理が開始されると、まず上述のステップS200およびステップS205と同じ処理が実行される。したがって、基準画像が設定されて重複領域Ar1が算出される。   FIG. 12 is a flowchart showing a detailed processing procedure of the orientation changing process (step S120). When the direction changing process is started, first, the same processes as those in steps S200 and S205 described above are executed. Accordingly, the reference image is set and the overlapping area Ar1 is calculated.

図12に示すように、ステップS205の実行後、表示制御部147は、重複領域Ar1のエッジ検出をする(ステップS400)。ステップS400では、キャニー法等の公知な画像処理技術を用いることによりエッジ検出を行う。   As shown in FIG. 12, after executing step S205, the display control unit 147 detects the edge of the overlapping area Ar1 (step S400). In step S400, edge detection is performed by using a known image processing technique such as the Canny method.

ステップS400の実行後、表示制御部147は、重複領域Ar1のエッジ傾向を算出する(ステップS405)。本実施形態において、「エッジ傾向」とは、基準画像の端を原点としたときのエッジにおける原点に近い端点を基点とし、原点に遠い端点を終点とするベクトルを意味する。ステップS405では、ステップS400で検出した全てのエッジ傾向の合成ベクトルをエッジ傾向として算出する。   After execution of step S400, the display control unit 147 calculates the edge tendency of the overlapping area Ar1 (step S405). In the present embodiment, “edge tendency” means a vector having an end point near the origin at the edge when the end of the reference image is the origin as a base point and an end point far from the origin as an end point. In step S405, the combined vector of all the edge trends detected in step S400 is calculated as an edge trend.

ステップS405の実行後、表示制御部147は、ポインター画像Ptの模様をエッジ傾向の合成ベクトルと交差する方向に繰り返される縞模様にする(ステップS410)。ステップS410の実行後、向き変更処理(ステップS120)が終了する。   After execution of step S405, the display control unit 147 changes the pattern of the pointer image Pt to a striped pattern that repeats in a direction intersecting with the edge tendency composite vector (step S410). After execution of step S410, the orientation change process (step S120) ends.

図13は、向き変更処理(ステップS120)実行後のポインター画像Ptの一例を模式的に示す説明図である。図13では、合成画像が基準画像Stgdである場合を示している。図13において、X軸は基準画像Stgdの長辺と平行な方向を示し、Y軸は基準画像Stgdの短辺と平行な方向を示している。図13に示す例では、外界画像における重複領域Ar1のエッジ傾向Edg1は、Y軸と平行なベクトルであり、対象画像AIにおける重複領域Ar1のエッジ傾向Edg2は、X軸と平行なベクトルである。したがって、重複領域Ar1におけるエッジ傾向Edg1およびエッジ傾向Edg2の合成ベクトルは、方向D1に沿ったベクトルとなる。このため、ステップS410では、ポインター画像Ptの模様が、方向D1と垂直な方向D2に繰り返される縞模様にしてポインター画像Ptが表示される。   FIG. 13 is an explanatory diagram schematically illustrating an example of the pointer image Pt after the orientation change process (step S120) is performed. FIG. 13 shows a case where the composite image is the reference image Stgd. In FIG. 13, the X axis indicates a direction parallel to the long side of the reference image Stgd, and the Y axis indicates a direction parallel to the short side of the reference image Stgd. In the example shown in FIG. 13, the edge tendency Edg1 of the overlapping area Ar1 in the external image is a vector parallel to the Y axis, and the edge tendency Edg2 of the overlapping area Ar1 in the target image AI is a vector parallel to the X axis. Therefore, the combined vector of the edge tendency Edg1 and the edge tendency Edg2 in the overlapping area Ar1 is a vector along the direction D1. Therefore, in step S410, the pointer image Pt is displayed in a striped pattern in which the pattern of the pointer image Pt is repeated in the direction D2 perpendicular to the direction D1.

図8に示すように、向き変更処理(ステップS120)の実行後、表示制御部147は、視差変更モードは有効であるか否かを判定する(ステップS125)。視差変更モードが有効でないと判定された場合(ステップS125:NO)、視差変更処理(ステップS130)は実行されず、上述のステップS100に戻る。これに対して、視差変更モードが有効であると判定された場合(ステップS125:YES)、表示制御部147は、視差変更処理を実行する(ステップS130)。   As illustrated in FIG. 8, after executing the orientation change process (step S120), the display control unit 147 determines whether or not the parallax change mode is valid (step S125). When it is determined that the parallax change mode is not valid (step S125: NO), the parallax change process (step S130) is not executed, and the process returns to the above-described step S100. On the other hand, when it is determined that the parallax change mode is valid (step S125: YES), the display control unit 147 executes a parallax change process (step S130).

図14は、視差変更処理(ステップS130)の詳細な処理手順を示すフローチャートである。図14に示すように、視差変更処理が開始されると、まず上述のステップS200と同じ処理が実行される。したがって、基準画像が設定される。ステップS200の実行後、表示制御部147は、上述の色調変更処理(ステップS110)を実行したか否かを判定する(ステップS500)。色調変更処理を実行していないと判定された場合(ステップS500:NO)、表示制御部147は、基準画像における制御対象座標およびその周辺領域の色相値を算出する(ステップS505)。本実施形態において、「制御対象座標」とは、ポインター画像Ptのうち視差変更処理の対象とする座標を意味する。また、「周辺領域」とは、ポインター画像Ptに視差をつけて表示する際にポインター画像Ptの移動が予想される領域を含む領域を意味する。なお、本実施形態では、ポインター画像Ptに視差をつけて表示する際のポインター画像Ptの最大移動領域が周辺領域として予め設定されている。ステップS505において、表示制御部147は、上述の色調変更処理(ステップS110)におけるステップS210と同様な手順により、基準画像における制御対象座標およびその周辺領域の色相値を算出する。   FIG. 14 is a flowchart showing a detailed processing procedure of the parallax change processing (step S130). As shown in FIG. 14, when the parallax change process is started, first, the same process as in step S200 described above is executed. Therefore, a reference image is set. After executing step S200, the display control unit 147 determines whether or not the above-described color tone changing process (step S110) has been executed (step S500). When it is determined that the color tone changing process is not executed (step S500: NO), the display control unit 147 calculates the control target coordinates in the reference image and the hue value of the surrounding area (step S505). In the present embodiment, “control target coordinates” mean coordinates that are targets of parallax change processing in the pointer image Pt. Further, the “peripheral area” means an area including an area where the pointer image Pt is expected to move when the pointer image Pt is displayed with parallax. In the present embodiment, the maximum movement area of the pointer image Pt when displaying the pointer image Pt with parallax is set in advance as the peripheral area. In step S505, the display control unit 147 calculates the control target coordinates in the reference image and the hue value of the surrounding area in the same procedure as in step S210 in the above-described color tone changing process (step S110).

ステップS505の実行後、表示制御部147は、制御対象およびその周辺領域の平均色相値を算出する(ステップS510)。ステップS510では、上述の色調変更処理(ステップS110)におけるステップS215と同様に、ステップS505で算出した各色相値の和をとり、制御対象およびその周辺領域の画素数で割ることにより平均色相値を算出する。   After execution of step S505, the display control unit 147 calculates an average hue value of the control target and the surrounding area (step S510). In step S510, similar to step S215 in the above-described color tone changing process (step S110), the sum of the hue values calculated in step S505 is taken, and the average hue value is divided by the number of pixels in the control target and the surrounding area. calculate.

ステップS510の実行後、表示制御部147は、制御対象およびその周辺領域の平均色相値を平均色相値の補色にする(ステップS515)。ステップS515では、上述の色調変更モード(ステップS100)におけるステップS220と同様に、制御対象およびその周辺領域の平均色相値の補色にする。   After execution of step S510, the display control unit 147 sets the average hue value of the control target and the surrounding area to a complementary color of the average hue value (step S515). In step S515, similar to step S220 in the above-described color tone change mode (step S100), a complementary color of the average hue value of the control target and its surrounding area is set.

ステップS515の実行後、表示制御部147は、ポインター画像Ptを視差のついた立体として表示する(ステップS520)。具体的には、表示制御部147は、表示制御部147において予め設定された視差の変化量のデフォルト値に基づいてポインター画像Ptに視差をつけて立体として表示する。   After executing step S515, the display control unit 147 displays the pointer image Pt as a solid with parallax (step S520). Specifically, the display control unit 147 displays the pointer image Pt as a three-dimensional image with a parallax based on the default value of the parallax change amount preset in the display control unit 147.

ステップS520の実行後、表示制御部147は、立体として表示されたポインター画像Ptの焦点位置を、画像表示部20から外界へと向かう方向に所定距離移動させることと、外界から画像表示部20へと向かう方向に所定距離移動させることと、を交互に行う(ステップS525)。具体的には、画像表示部20上にポインター画像Ptが表示されている状態におけるポインター画像Ptと使用者との焦点位置を基準位置とし、基準位置から外界へと向かう方向に所定距離だけ焦点位置を移動させる。また、移動させた焦点位置を外界から画像表示部20へと向かう方向に所定距離だけ移動させる。ステップS525の実行後、視差変更処理(ステップS130)は終了し、図8に示すように、上述のステップS100に戻る。   After execution of step S520, the display control unit 147 moves the focal position of the pointer image Pt displayed as a three-dimensional object by a predetermined distance in the direction from the image display unit 20 to the outside world, and from the outside world to the image display unit 20. Are moved alternately by a predetermined distance in the direction toward (step S525). Specifically, the focal position between the pointer image Pt and the user when the pointer image Pt is displayed on the image display unit 20 is the reference position, and the focal position is a predetermined distance in the direction from the reference position toward the outside world. Move. Further, the moved focal position is moved by a predetermined distance in the direction from the outside to the image display unit 20. After execution of step S525, the parallax change process (step S130) ends, and the process returns to step S100 described above as shown in FIG.

上述のステップS500において、色調変更処理を実行したと判定された場合(ステップS500:YES)、表示制御部147は、上述のステップS520およびステップS525を実行し、視差変更処理(ステップS130)は終了し、図8に示すように、上述のステップS100に戻る。   When it is determined in step S500 described above that the color tone changing process has been executed (step S500: YES), the display control unit 147 executes steps S520 and S525 described above, and the parallax changing process (step S130) ends. Then, as shown in FIG. 8, the process returns to step S100 described above.

なお、上述のステップS505〜ステップS515は、上述のステップS520およびステップS525を実行することにより、制御対象座標がわかりにくくなることを抑制するために行う処理である。また、これらの処理は、図9に示す色調変更処理(ステップS110)におけるステップS210〜ステップS220に相当する処理である。このため、図14に示すように、色調変更処理(ステップS110)をすでに実行している場合、視差変更処理(ステップS130)において再びこれらの処理は実行されない。   Note that the above-described steps S505 to S515 are processes performed to prevent the control target coordinates from becoming difficult to understand by executing the above-described steps S520 and S525. Further, these processes correspond to steps S210 to S220 in the color tone changing process (step S110) shown in FIG. For this reason, as shown in FIG. 14, when the color tone changing process (step S110) has already been executed, these processes are not executed again in the parallax changing process (step S130).

図15は、視差変更処理(ステップS130)実行後におけるポインター画像Ptの一例を模式的に示す説明図である。図15において、ポインター画像Ptは、焦点位置を移動させていない状態を示している。また、ポインター画像Pt1は焦点位置を画像表示部20から外界へと向かう方向に所定距離移動させた状態を、ポインター画像Pt2は焦点位置を外界から画像表示部20へと向かう方向に所定距離移動させた状態を、それぞれ示している。   FIG. 15 is an explanatory diagram schematically illustrating an example of the pointer image Pt after execution of the parallax changing process (step S130). In FIG. 15, the pointer image Pt shows a state where the focal position is not moved. The pointer image Pt1 moves the focal position by a predetermined distance in the direction from the image display unit 20 to the outside world, and the pointer image Pt2 moves the focal position by a predetermined distance in the direction from the outside world to the image display unit 20. Each state is shown.

図15に示すように、ポインター画像Ptと使用者の右眼REおよび左眼LEとの焦点距離は、焦点距離wである。ポインター画像Pt1と使用者の右眼REおよび左眼LEとの焦点距離w1は、焦点距離wよりも大きい。このため、ポインター画像Pt1は、ポインター画像Ptに比べて使用者から遠くに見えるので、ポインター画像Pt1は、ポインター画像Ptを凹ませた形状で視認させることができる。これに対して、ポインター画像Pt2と使用者の右眼REおよび左眼LEとの焦点距離w2は、焦点距離wよりも小さい。このため、ポインター画像Pt2は、ポインター画像Ptに比べて使用者から近くに見えるので、ポインター画像Pt2は、ポインター画像Ptを出っ張らせた形状で視認させることができる。   As shown in FIG. 15, the focal length between the pointer image Pt and the right eye RE and the left eye LE of the user is the focal length w. The focal length w1 between the pointer image Pt1 and the user's right eye RE and left eye LE is larger than the focal length w. For this reason, since the pointer image Pt1 appears farther from the user than the pointer image Pt, the pointer image Pt1 can be viewed in a shape in which the pointer image Pt is recessed. On the other hand, the focal length w2 between the pointer image Pt2 and the user's right eye RE and left eye LE is smaller than the focal length w. For this reason, since the pointer image Pt2 appears closer to the user than the pointer image Pt, the pointer image Pt2 can be visually recognized in a shape that projects the pointer image Pt.

以上説明した第1実施形態のHMD100によれば、撮像により得られた外界画像と、対象画像AIと、外界画像および対象画像AIの合成画像と、のうちいずれか一つを基準画像Stgdとして、基準画像Stgdにおけるポインター画像Ptの表示位置を含む領域Ar1の特徴量(平均色相値およびエッジ傾向)に応じて、ポインター画像Ptの表示態様を変更して表示させる。このため、基準画像Stgdの特徴を考慮した表示態様によりポインター画像Ptを表示させることができ、ポインター画像Ptの視認性を向上できる。   According to the HMD 100 of the first embodiment described above, any one of the external image obtained by imaging, the target image AI, and the composite image of the external image and the target image AI is used as the reference image Stgd. The display mode of the pointer image Pt is changed and displayed according to the feature amount (average hue value and edge tendency) of the area Ar1 including the display position of the pointer image Pt in the reference image Stgd. For this reason, the pointer image Pt can be displayed by the display mode in consideration of the characteristics of the reference image Stgd, and the visibility of the pointer image Pt can be improved.

また、基準画像Stgdは、合成画像であるので、外界画像および対象画像AIの特徴量を考慮してポインター画像Ptの表示態様を制御できる。したがって、透過して視認される外界に対象画像AIが重ねて表示され、さらにポインター画像Ptが重ねて表示される場合に、ポインター画像Ptの視認性を向上できる。   Further, since the reference image Stgd is a composite image, the display mode of the pointer image Pt can be controlled in consideration of the feature amounts of the external image and the target image AI. Therefore, the visibility of the pointer image Pt can be improved when the target image AI is displayed in a superimposed manner on the external world that is visible through the screen and the pointer image Pt is displayed in a superimposed manner.

加えて、ポインター画像Ptの色を平均色相値の補色にしてポインター画像Ptを表示させるので、ポインター画像Ptの色が平均色相値の補色でない構成に比べて、ポインター画像Ptをより視認しやすくできる。   In addition, since the pointer image Pt is displayed with the color of the pointer image Pt complementary to the average hue value, the pointer image Pt can be more easily seen as compared with a configuration in which the color of the pointer image Pt is not complementary to the average hue value. .

また、ポインター画像Ptの模様をエッジ傾向に基づき定まる方向性を有する模様にしてポインター画像Ptを表示させるので、ポインター画像Ptの模様の視認性を高めて、ポインター画像Pt自体の視認性を向上できる。   Further, since the pointer image Pt is displayed with the pattern of the pointer image Pt having a direction determined based on the edge tendency, the visibility of the pattern of the pointer image Pt can be improved and the visibility of the pointer image Pt itself can be improved. .

加えて、ポインター画像Ptの模様をエッジ傾向の合成ベクトルと垂直な方向に繰り返される縞模様にしてポインター画像Ptを表示させるので、ポインター画像Ptの縞模様の視認性を高めて、ポインター画像Pt自体の視認性を向上できる。   In addition, since the pointer image Pt is displayed by making the pattern of the pointer image Pt a striped pattern that is repeated in a direction perpendicular to the combined vector of edge trends, the visibility of the striped pattern of the pointer image Pt is improved and the pointer image Pt itself is displayed. Visibility can be improved.

加えて、立体として表示されたポインター画像Ptの焦点位置を、画像表示部20から外界へと向かう方向に所定距離移動させることと、外界から画像表示部20へと向かう方向に所定距離移動させることとを交互に行うので、立体として表示されたポインター画像Ptを凹ませて表示することと出っ張らせて表示することとを交互に行うことができ、ポインター画像Ptの視認性をより向上できる。   In addition, the focal position of the pointer image Pt displayed as a three-dimensional object is moved by a predetermined distance in a direction from the image display unit 20 toward the outside world, and moved by a predetermined distance in a direction from the outside world to the image display unit 20. Since the pointer image Pt displayed as a three-dimensional object is alternately displayed, the pointer image Pt can be displayed alternately so that the pointer image Pt can be displayed in a protruding manner.

B.第2実施形態:
B1.透過型表示装置の全体構成:
第2実施形態における頭部装着型表示装置100は、図1に示す、第1実施形態における頭部装着型表示装置100と同じであるので、その詳細な説明は省略する。
B. Second embodiment:
B1. Overall configuration of the transmissive display device:
Since the head-mounted display device 100 in the second embodiment is the same as the head-mounted display device 100 in the first embodiment shown in FIG. 1, detailed description thereof is omitted.

B2.ポインター画像表示制御処理:
図16は、第2実施形態における視差変更処理(ステップS130a)の詳細な処理手順を示すフローチャートである。第2実施形態におけるポインター画像表示制御処理は、視差変更処理の手順において第1実施形態における視差変更処理(ステップS130)と異なり、他の処理手順は第1実施形態と同じである。第2実施形態の視差変更処理(ステップS130a)は、ステップS516およびステップS517を追加して実行する点と、ステップS525を省略する点とにおいて、第1実施形態の視差変更処理(ステップS130)と異なる。第2実施形態の視差変更処理(ステップS130a)におけるその他の手順は、第1実施形態の視差変更処理(ステップS130)と同じであるので、同一の手順には同一の符号を付し、その詳細な説明は省略する。
B2. Pointer image display control processing:
FIG. 16 is a flowchart showing a detailed processing procedure of the parallax change processing (step S130a) in the second embodiment. The pointer image display control process in the second embodiment is different from the parallax change process (step S130) in the first embodiment in the procedure of the parallax change process, and other process procedures are the same as those in the first embodiment. The parallax change process (step S130a) of the second embodiment is the same as the parallax change process (step S130) of the first embodiment in that step S516 and step S517 are added and executed, and step S525 is omitted. Different. Other procedures in the parallax changing process (step S130a) of the second embodiment are the same as those of the parallax changing process (step S130) of the first embodiment, and therefore the same procedures are denoted by the same reference numerals and the details thereof are described. The detailed explanation is omitted.

第2実施形態の視差変更処理では、ポインター画像Ptを、視差のついた立体として表示することと、視差のついていない面として表示することと、を交互に切り替えてポインター画像Ptを表示させる。具体的には、図16に示すように、制御対象座標およびその周辺領域を平均色調値の補色にされると(ステップS515)、表示制御部147は、平均色相値に基づいて視差の変化量を設定する(ステップS516)。具体的には、表示制御部147は、ポインター画像Ptの平均色相値と、重複領域Ar1の平均色相値との差を算出し、算出した平均色相値の差が所定の閾値よりも大きい場合、視差の変化量を相対的に小さな固定値に設定する。また、算出した平均色相値の差が所定の閾値以下である場合、視差の変化量を相対的に大きな固定値に設定する。ポインター画像Ptの平均色相値と重複領域Ar1の平均色相値との差が大きい場合、視差の変化量が小さくてもポインター画像Ptは識別し易いのに対して、ポインター画像Ptの平均色相値と重複領域Ar1の平均色相値との差が小さい場合、視差の変化量を大きくしないとポインター画像Ptが識別できなくなるおそれがある。そこで、上述のように、算出した平均色相値の差が大きい場合に視差の変化量を相対的に小さな値に設定し、算出した平均色相値の差が小さい場合に視差の変化量を相対的に大きな値に設定する。   In the parallax changing process of the second embodiment, the pointer image Pt is displayed by alternately switching between displaying the pointer image Pt as a solid with parallax and displaying it as a surface without parallax. Specifically, as shown in FIG. 16, when the control target coordinates and the surrounding area are made complementary colors of the average tone value (step S515), the display control unit 147 changes the amount of parallax based on the average hue value. Is set (step S516). Specifically, the display control unit 147 calculates a difference between the average hue value of the pointer image Pt and the average hue value of the overlapping area Ar1, and when the calculated difference in average hue value is larger than a predetermined threshold value, The amount of change in parallax is set to a relatively small fixed value. When the calculated difference in average hue value is equal to or less than a predetermined threshold, the parallax change amount is set to a relatively large fixed value. When the difference between the average hue value of the pointer image Pt and the average hue value of the overlapping area Ar1 is large, the pointer image Pt can be easily identified even if the amount of change in parallax is small, whereas the average hue value of the pointer image Pt When the difference from the average hue value of the overlapping area Ar1 is small, the pointer image Pt may not be identified unless the amount of change in parallax is increased. Therefore, as described above, when the calculated average hue value difference is large, the parallax change amount is set to a relatively small value, and when the calculated average hue value difference is small, the parallax change amount is relatively set. Set to a large value.

ステップS516の実行後、表示制御部147は、平均色相値に基づいて視差をつける周期を設定する(ステップS517)。具体的には、上述のステップS516と同様に、表示制御部147は、ポインター画像Ptの平均色相値と、重複領域Ar1の平均色相値との差を算出し、算出した平均色相値の差が所定の閾値よりも大きい場合、視差の周期を相対的に短く設定する。また、算出した平均色相値の差が所定の閾値以下である場合、視差の周期を相対的に長く設定する。   After executing step S516, the display control unit 147 sets a period for applying parallax based on the average hue value (step S517). Specifically, as in step S516 described above, the display control unit 147 calculates the difference between the average hue value of the pointer image Pt and the average hue value of the overlapping area Ar1, and the difference between the calculated average hue values is calculated. If it is larger than the predetermined threshold, the parallax cycle is set to be relatively short. When the calculated difference in average hue value is equal to or less than a predetermined threshold, the parallax cycle is set to be relatively long.

なお、視差の変化量および視差の周期は、3Dコンソーシアムが策定した3DC安全ガイドライン(ISO IWA3準拠)に基づいて設定することが好ましい。具体的には、視差は、瞳孔間距離以下の範囲に設定することが好ましく、5cmに対応する範囲で設定することがさらに好ましい。また、視差角の変化量は2度以内に設定することが好ましく、快適視差範囲である1度以内に設定することがさらに好ましい。   Note that the parallax change amount and the parallax cycle are preferably set based on 3DC safety guidelines (ISO ISO 3 compliant) formulated by the 3D Consortium. Specifically, the parallax is preferably set in a range equal to or less than the inter-pupil distance, and more preferably set in a range corresponding to 5 cm. The change amount of the parallax angle is preferably set within 2 degrees, and more preferably set within 1 degree which is a comfortable parallax range.

ステップS517の実行後、上述のステップS520と同様に、ポインター画像Ptを視差のついた立体として表示する。このとき、上述のステップS516およびステップS517において設定された視差の変化量および周期に基づいてポインター画像Ptが表示される。   After execution of step S517, the pointer image Pt is displayed as a solid with parallax, as in step S520 described above. At this time, the pointer image Pt is displayed based on the change amount and period of the parallax set in steps S516 and S517 described above.

以上説明した第2実施形態のHMD100によれば、ポインター画像Ptを視差のついた立体として表示し、平均色相値に基づいて視差の変化量を設定するので、平均色相値が異なる領域にポインター画像Ptが移動した場合にポインター画像Ptの視認性を高め、ポインター画像への追従性(目で追う性能)を向上できる。   According to the HMD 100 of the second embodiment described above, the pointer image Pt is displayed as a solid with parallax, and the amount of change in parallax is set based on the average hue value. When Pt moves, the visibility of the pointer image Pt can be improved, and the followability to the pointer image (performance to follow with the eyes) can be improved.

加えて、ポインター画像Ptを視差のついた立体として表示することと、ポインター画像Ptを視差のついていない面として表示することと、を交互に切り替え、平均色相値に基づいて視差をつける周期を設定するので、ポインター画像Ptを目立たせて視認性を高めることができる。また、平均色相値が異なる領域にポインター画像Ptが移動した場合にも視差をつける周期が変化することで、ポインター画像Ptを目立たせることができ、ポインター画像Ptへの追従性を向上できる。   In addition, the display of the pointer image Pt as a solid with parallax and the display of the pointer image Pt as a non-parallax surface are alternately switched, and a period for applying parallax is set based on the average hue value Therefore, the visibility can be improved by making the pointer image Pt stand out. Further, even when the pointer image Pt moves to a region having a different average hue value, the period for applying the parallax is changed, so that the pointer image Pt can be made conspicuous, and the followability to the pointer image Pt can be improved.

C.第3実施形態:
C1.透過型表示装置の全体構成:
第3実施形態における頭部装着型表示装置100は、図1に示す、第1実施形態における頭部装着型表示装置100と同じであるので、その詳細な説明は省略する。
C. Third embodiment:
C1. Overall configuration of the transmissive display device:
Since the head-mounted display device 100 in the third embodiment is the same as the head-mounted display device 100 in the first embodiment shown in FIG. 1, detailed description thereof is omitted.

C2.ポインター画像表示制御処理:
図17は、第3実施形態における視差変更処理(ステップS130b)の詳細な処理手順を示すフローチャートである。第3実施形態におけるポインター画像表示制御処理は、視差変更処理の手順において第1実施形態における視差変更処理(ステップS130)と異なり、他の処理手順は第1実施形態と同じである。第3実施形態の視差変更処理(ステップS130b)は、ステップS525に代えてステップS525aを実行する点において、第1実施形態の視差変更処理(ステップS130)と異なる。第3実施形態の視差変更処理(ステップS130b)におけるその他の手順は、第1実施形態の視差変更処理(ステップS130)と同じであるので、同一の手順には同一の符号を付し、その詳細な説明は省略する。
C2. Pointer image display control processing:
FIG. 17 is a flowchart showing a detailed processing procedure of the parallax change processing (step S130b) in the third embodiment. The pointer image display control process in the third embodiment is different from the parallax change process (step S130) in the first embodiment in the procedure of the parallax change process, and other process procedures are the same as those in the first embodiment. The parallax change process (step S130b) of the third embodiment is different from the parallax change process (step S130) of the first embodiment in that step S525a is executed instead of step S525. Other procedures in the parallax changing process (step S130b) of the third embodiment are the same as those of the parallax changing process (step S130) of the first embodiment. The detailed explanation is omitted.

第3実施形態の視差変更処理では、ポインター画像Ptの先端部分の明るさを周期的に変更して表示する。具体的には、図17に示すように、ポインター画像Ptが視差のついた立体として表示されると(ステップS520)、表示制御部147は、ポインター画像Ptの先端部分の明るさを周期的に変更する(ステップS525a)。さらに具体的には、表示制御部147は、ポインター画像Ptの先端部分の輝度を予め定められた範囲内で変更する。これにより、使用者にはポインター画像Ptの先端部分が点滅して表示される。   In the parallax changing process of the third embodiment, the brightness of the tip portion of the pointer image Pt is periodically changed and displayed. Specifically, as shown in FIG. 17, when the pointer image Pt is displayed as a solid with parallax (step S520), the display control unit 147 periodically changes the brightness of the tip portion of the pointer image Pt. Change (step S525a). More specifically, the display control unit 147 changes the luminance of the tip portion of the pointer image Pt within a predetermined range. As a result, the tip of the pointer image Pt blinks and is displayed to the user.

以上説明した第3実施形態のHMD100によれば、ポインター画像Ptの少なくとも一部の明るさを周期的に変更して表示させるので、ポインター画像Ptの一部を点滅させて表示させることができ、ポインター画像Ptの視認性をより向上できる。   According to the HMD 100 of the third embodiment described above, since the brightness of at least a part of the pointer image Pt is periodically changed and displayed, a part of the pointer image Pt can be blinked and displayed. The visibility of the pointer image Pt can be further improved.

D.変形例:
D1.変形例1:
上記各実施形態において、基準画像は合成画像であったが、本発明はこれに限られない。例えば、基準画像は、対象画像AIであってもよいし、撮像により得られた外界画像であってもよい。例えば、上述の基準画像設定処理(ステップS200)において、外界輝度と対象画像輝度とを比較した際に(ステップS305、ステップS320)、外界輝度が所定の閾値よりも低い場合、外界の色や明るさがポインター画像Ptへ影響することが抑制されるので、この場合、基準画像を対象画像AIとしてもよい。このような構成においても、上記各実施形態と同様な効果を奏する。
D. Variation:
D1. Modification 1:
In each of the above embodiments, the reference image is a composite image, but the present invention is not limited to this. For example, the reference image may be the target image AI or an external image obtained by imaging. For example, in the above-described reference image setting process (step S200), when the external brightness is compared with the target image brightness (step S305, step S320), if the external brightness is lower than a predetermined threshold, the color and brightness of the external environment In this case, the reference image may be used as the target image AI. Even in such a configuration, the same effects as those of the above embodiments can be obtained.

D2.変形例2:
上記各実施形態における向き変更処理(ステップS120)において、ポインター画像Ptの縞模様が繰り返される方向は、エッジ傾向の合成ベクトルと垂直な方向であったが、垂直な方向でなくてもよい。例えば、エッジ傾向の合成ベクトルと90度とは異なる角度で交差する方向であってもよい。このような構成においても、上記各実施形態と同様な効果を奏する。
D2. Modification 2:
In the direction changing process (step S120) in each of the above embodiments, the direction in which the striped pattern of the pointer image Pt is repeated is a direction perpendicular to the composite vector of the edge tendency, but may not be a perpendicular direction. For example, the direction vector may be a direction that intersects the combined vector of the edge tendency at an angle different from 90 degrees. Even in such a configuration, the same effects as those of the above embodiments can be obtained.

D3.変形例3:
上記第1実施形態では、ポインター画像Ptの模様を縞模様にして表示していたが、本発明はこれに限定されない。例えば、ポインター画像Ptの模様をグラデーションにして表示してもよい。
D3. Modification 3:
In the first embodiment, the pointer image Pt is displayed in a striped pattern, but the present invention is not limited to this. For example, the pattern of the pointer image Pt may be displayed in a gradation.

図18は、変形例3におけるポインター画像Pt3の模様を模式的に示す説明図である。図18に示すポインター画像Pt3は、図13に示す第1実施形態のポインター画像Ptと模様のみが異なり、図18におけるその他の構成要素は図13におけるその他の構成要素と同一である。図18に示すように、ポインター画像Pt3は、ポインター画像Pt3の先端部s1から後端部e1に向かって、すなわち、エッジ傾向の合成ベクトルの方向D1と垂直な方向D2に沿って、ポインター画像Pt3の色の濃度が次第に薄くなるように表示されている。このように、エッジ傾向に基づいて定まる方向、すなわち、エッジ傾向の合成ベクトルの方向D1と垂直な方向D2に沿って層状に異なる色(濃度)となるようにポインター画像Pt3を表示してもよい。このような構成においても、上記第1実施形態と同様な効果を奏する。   FIG. 18 is an explanatory diagram schematically showing the pattern of the pointer image Pt3 in the third modification. The pointer image Pt3 shown in FIG. 18 differs from the pointer image Pt of the first embodiment shown in FIG. 13 only in the pattern, and the other components in FIG. 18 are the same as the other components in FIG. As shown in FIG. 18, the pointer image Pt3 is directed from the front end s1 to the rear end e1 of the pointer image Pt3, that is, along the direction D2 perpendicular to the direction D1 of the edge-trending composite vector. The color density is displayed so as to become gradually lighter. As described above, the pointer image Pt3 may be displayed so as to have different colors (densitys) in layers along the direction determined based on the edge tendency, that is, the direction D2 perpendicular to the edge tendency composite vector direction D1. . Even in such a configuration, the same effects as those of the first embodiment can be obtained.

D4.変形例4:
上記第3実施形態において、ポインター画像Ptの先端部分の明るさを周期的に変更して表示していたが、明るさを周期的に変更して表示するのはポインター画像Ptの先端部分に限られない。例えば、ポインター画像Ptの全体であってもよい。すなわち一般には、ポインター画像Ptの少なくとも一部の明るさを周期的に変更する構成であれば、上記第3実施形態と同様な効果を奏する。
D4. Modification 4:
In the third embodiment, the brightness of the tip portion of the pointer image Pt is periodically changed and displayed. However, the brightness is periodically changed and displayed only at the tip portion of the pointer image Pt. I can't. For example, the entire pointer image Pt may be used. That is, in general, the same effects as those of the third embodiment can be obtained as long as the brightness of at least a part of the pointer image Pt is periodically changed.

D5.変形例5:
上記各実施形態において、重複領域Ar1は、基準画像におけるポインター画像Ptの表示位置を含む領域であって、ポインター画像Ptの長手方向の長さの中点を中心とする略真円形状の領域であったが、本発明はこれに限定されない。例えば、略真円形状に限らず、楕円形状や多角形形状などの他の任意の形状であってもよい。また、例えば、ポインター画像Ptの外縁が所定の距離だけ離れた点の集合を外縁とする領域であってもよい。また、例えば、ポインター画像Ptの周辺領域を含まない領域であってもよい。すなわち、ポインター画像Ptの輪郭に沿って形成される領域を重複領域としてもよい。また、例えば、ポインター画像Ptがアイコン等の画像に重なっている場合には、かかるアイコン等の画像を含む領域を重複領域としてもよい。このような構成においても、上記各実施形態と同様な効果を奏する。
D5. Modification 5:
In each of the above embodiments, the overlapping area Ar1 is an area including the display position of the pointer image Pt in the reference image, and is a substantially circular area centering on the midpoint of the length in the longitudinal direction of the pointer image Pt. However, the present invention is not limited to this. For example, it is not limited to a substantially perfect circle shape, but may be any other shape such as an elliptical shape or a polygonal shape. Further, for example, it may be a region where the outer edge is a set of points where the outer edge of the pointer image Pt is separated by a predetermined distance. Further, for example, an area that does not include the peripheral area of the pointer image Pt may be used. That is, an area formed along the outline of the pointer image Pt may be an overlapping area. For example, when the pointer image Pt overlaps an image such as an icon, an area including the icon or the like may be set as an overlapping area. Even in such a configuration, the same effects as those of the above embodiments can be obtained.

D6.変形例6:
上記各実施形態において、ポインター画像表示制御処理は、HMD100の電源がオンに設定されると開始されていたが、本発明はこれに限定されない。例えば、HMD100における所定動作の検知を契機としてポインター画像表示制御処理を開始してもよい。所定動作としては、例えば、制御装置10におけるトラックパッド14上でのタップ操作や、所定のアプリケーションの起動等が該当する。このような構成においても、上記各実施形態と同様な効果を奏する。加えて、HMD100における所定動作の検知を契機として、ポインター画像Ptの表示態様の制御を実行するので、ポインター画像Ptの表示態様の制御を実行する契機をHMD100の利用者が調整でき、利用者の利便性を向上できる。さらに、使用者がポインター画像Ptを視認しづらい場合にのみ所定動作を行ってポインター画像Ptの視認性を向上させることができるので、常時ポインター画像表示制御処理を行う構成に比べて、HMD100の処理負荷を低減できる。
D6. Modification 6:
In each of the above embodiments, the pointer image display control process is started when the power of the HMD 100 is turned on, but the present invention is not limited to this. For example, the pointer image display control process may be started upon detection of a predetermined operation in the HMD 100. As the predetermined operation, for example, a tap operation on the track pad 14 in the control device 10 or activation of a predetermined application is applicable. Even in such a configuration, the same effects as those of the above embodiments can be obtained. In addition, since the control of the display mode of the pointer image Pt is executed in response to detection of a predetermined operation in the HMD 100, the user of the HMD 100 can adjust the trigger of executing the control of the display mode of the pointer image Pt. Convenience can be improved. Furthermore, since the visibility of the pointer image Pt can be improved by performing a predetermined operation only when the user has difficulty in visually recognizing the pointer image Pt, the processing of the HMD 100 can be performed compared to the configuration in which the pointer image display control processing is always performed. The load can be reduced.

D7.変形例7:
上記各実施形態において、ポインター画像表示制御処理の利用モードとして、色調変更モード、向き変更モードおよび視差変更モードの3つが用いられていたが、本発明はこれに限定されない。例えば、色調変更モードを省略して向き変更モードおよび視差変更モードの2つを用いてもよい。また、例えば、色調変更モードのみを用いてもよい。このような構成においても、基準画像におけるポインター画像Ptの表示位置を含む領域の特徴量に応じて、ポインター画像Ptの表示態様を変更して表示させるので、上記各実施形態と同様な効果を奏する。
D7. Modification 7:
In each of the above embodiments, three use modes of the pointer image display control process are the color tone change mode, the direction change mode, and the parallax change mode, but the present invention is not limited to this. For example, the color change mode may be omitted and the orientation change mode and the parallax change mode may be used. For example, only the color tone change mode may be used. Even in such a configuration, since the display mode of the pointer image Pt is changed and displayed according to the feature amount of the region including the display position of the pointer image Pt in the reference image, the same effects as those in the above embodiments are obtained. .

D8.変形例8:
上記各実施形態において、合成画像は、外界画像の全体と対象画像AIの全体との合成画像であったが、本発明はこれに限定されない。例えば、外界画像におけるポインター画像Ptの表示位置を含む領域と、対象画像AIにおけるポインター画像Ptの表示位置を含む領域と、の合成画像であってもよい。このような構成においても、上記各実施形態と同様な効果を奏する。加えて、処理領域を狭くでき、ポインター画像表示制御処理の処理負荷を低減できる。
D8. Modification 8:
In each of the above embodiments, the composite image is a composite image of the entire external image and the entire target image AI, but the present invention is not limited to this. For example, it may be a composite image of an area including the display position of the pointer image Pt in the external image and an area including the display position of the pointer image Pt in the target image AI. Even in such a configuration, the same effects as those of the above embodiments can be obtained. In addition, the processing area can be narrowed, and the processing load of the pointer image display control process can be reduced.

D9.変形例9:
上記各実施形態において、合成画像は、加法混色により生成していたが、本発明はこれに限定されない。例えば、加法減色により生成してもよい。このような構成においても、上記各実施形態と同様な効果を奏する。
D9. Modification 9:
In each of the above embodiments, the composite image is generated by additive color mixture, but the present invention is not limited to this. For example, it may be generated by additive color reduction. Even in such a configuration, the same effects as those of the above embodiments can be obtained.

D10.変形例10:
上記各実施形態において、基準画像設定処理(ステップS200)は、色調変更処理、向き変更処理および視差変更処理のそれぞれにおいて実行されていたが、本発明はこれに限定されない。例えば、利用モードとして複数のモードを用いる場合、先に実行される表示態様変更処理において基準画像設定処理を実行し、その後に実行される他の表示態様変更処理では先に実行された基準画像設定処理の処理結果を利用してもよい。このような構成においても、上記各実施形態と同様な効果を奏する。
D10. Modification 10:
In each of the above embodiments, the reference image setting process (step S200) is executed in each of the color tone changing process, the direction changing process, and the parallax changing process, but the present invention is not limited to this. For example, when a plurality of modes are used as the use mode, the reference image setting process is executed in the display mode changing process executed first, and the reference image setting executed first in the other display mode changing process executed thereafter The processing result of the processing may be used. Even in such a configuration, the same effects as those of the above embodiments can be obtained.

D11.変形例11:
上記各実施形態において、ポインター画像表示制御処理を実行する表示装置は、HMD100であったが、本発明はこれに限定されない。例えば、ヘッドアップディスプレイ(HUD)であってもよいし、ビデオシースルー型HMDであってもよい。また、据え置き型の透過型表示装置でもよい。このような構成においても、上記各実施形態と同様な効果を奏する。
D11. Modification 11:
In each of the above embodiments, the display device that executes the pointer image display control process is the HMD 100, but the present invention is not limited to this. For example, a head-up display (HUD) or a video see-through HMD may be used. Further, a stationary transmission type display device may be used. Even in such a configuration, the same effects as those of the above embodiments can be obtained.

D12.変形例12:
上記各実施形態において、表示制御部147の機能の少なくとも一部を他の制御機能部が実行してもよい。具体的には、上記各実施形態において表示制御部147は、OLEDパネル223、243による画像の表示の実行と、ポインター画像表示制御処理と、を実行していたが、例えば、ポインター画像表示制御処理を他の制御機能部が実行してもよい。また、これら制御機能部の機能および処理の一部又は全部は、CPU、ASIC(Application Specific Integrated Circuit)およびFPGA(Field Programmable Gate Array)等のデジタル回路を用いて実現してもよい。このような構成においても、上記各実施形態と同様な効果を奏する。
D12. Modification 12:
In each of the above embodiments, at least part of the function of the display control unit 147 may be executed by another control function unit. Specifically, in each of the embodiments described above, the display control unit 147 executes the display of images by the OLED panels 223 and 243 and the pointer image display control process. For example, the pointer image display control process May be executed by another control function unit. Moreover, you may implement | achieve some or all of the function and process of these control function parts using digital circuits, such as CPU, ASIC (Application Specific Integrated Circuit), and FPGA (Field Programmable Gate Array). Even in such a configuration, the same effects as those of the above embodiments can be obtained.

D13.変形例13:
上記第2実施形態において、視差の変化量および視差の周期は、ポインター画像Ptの平均色相値と重複領域Ar1の平均色相値との差が所定の閾値よりも大きい場合と、所定の閾値以下である場合とでそれぞれ決まった値に設定されていたが、本発明はこれに限定されない。例えば、視差の変化量および視差の周期は、平均色相値の差が大きくなるにしたがって小さくなるように設定されてもよいし、平均色相値の差が小さくなるにしたがって大きくなるように設定されてもよい。また、例えば、平均色相値の差と比例するように設定されていてもよい。このような構成おいても、上記第2実施形態と同様な効果を奏する。
D13. Modification 13:
In the second embodiment, the amount of change in the parallax and the period of the parallax are less than the predetermined threshold when the difference between the average hue value of the pointer image Pt and the average hue value of the overlapping area Ar1 is larger than a predetermined threshold. Although the predetermined value is set for each case, the present invention is not limited to this. For example, the amount of change in parallax and the period of parallax may be set to decrease as the difference in average hue value increases, or set to increase as the difference in average hue value decreases. Also good. For example, it may be set so as to be proportional to the difference in average hue value. Even in such a configuration, the same effects as those of the second embodiment can be obtained.

D14.変形例14:
上記各実施形態における色調変更処理、向き変更処理および視差変更処理において、それぞれ、表示態様の変更後のポインター画像Ptの表示処理を行っていたが、本発明はこれに限定されない。例えば、色調変更処理、向き変更処理および視差変更処理のそれぞれの処理において、ポインター画像Ptの表示態様の変更を行った後、変更後のポインター画像Ptの表示を実行しなくてもよい。この場合、各表示態様変更処理のうち最後に実行された表示態様変更処理の実行後におけるポインター画像Ptを表示してもよい。具体的には、図8に示すステップS130実行後にポインター画像Ptの表示処理を行ってもよい。このような構成であっても、上記各実施形態と同様な効果を奏する。
D14. Modification 14:
In the color tone changing process, the direction changing process, and the parallax changing process in each of the above embodiments, the display process of the pointer image Pt after the change of the display mode is performed, but the present invention is not limited to this. For example, in each of the color tone changing process, the orientation changing process, and the parallax changing process, the display mode of the pointer image Pt may be changed, and then the changed pointer image Pt may not be displayed. In this case, you may display the pointer image Pt after execution of the display mode change process performed last among each display mode change process. Specifically, pointer image Pt display processing may be performed after execution of step S130 shown in FIG. Even with such a configuration, the same effects as those of the above embodiments can be obtained.

D15.変形例15:
上記各実施形態および変形例における向き変更処理において、ポインター画像Ptの模様を変更していたが、本発明はこれに限定されない。例えば、ポインター画像Ptの形状をエッジ傾向の合成ベクトルと交差する方向に基づく形状に変更してもよい。例えば、ポインター画像Ptの形状が略真円形状である場合、ポインター画像Ptの形状をエッジ傾向の合成ベクトルと交差する方向に沿って細長く伸びる楕円形状に変更してもよい。また、例えば、ポインター画像Ptの模様と形状とのいずれも変更してもよいし、ポインター画像Ptの形状のみを変更してもよい。このような構成においても、上記各実施形態および変形例と同様な効果を奏する。
D15. Modification 15:
In the orientation changing process in each of the above embodiments and modifications, the pattern of the pointer image Pt is changed, but the present invention is not limited to this. For example, the shape of the pointer image Pt may be changed to a shape based on the direction intersecting with the edge tendency composite vector. For example, when the shape of the pointer image Pt is a substantially perfect circle shape, the shape of the pointer image Pt may be changed to an elliptical shape that is elongated along the direction intersecting the combined vector of the edge tendency. For example, both the pattern and shape of the pointer image Pt may be changed, or only the shape of the pointer image Pt may be changed. Even in such a configuration, the same effects as those of the above-described embodiments and modifications can be obtained.

D16.変形例16:
上記各実施形態において、視差をつけたポインター画像Ptの表示を周期的に繰り返し行っていたが、本発明はこれに限定されない。例えば、視差をつけたポインター画像Ptを一回だけ表示してもよい。また、例えば、一回視差をつけてポインター画像Ptを表示した後、ポインター画像Ptの表示態様を元に戻さないで、視差をつけたポインター画像Ptの表示を継続してもよい。このような構成においても、上記各実施形態と同様な効果を奏する。
D16. Modification 16:
In each of the above embodiments, the display of the pointer image Pt with parallax is periodically repeated, but the present invention is not limited to this. For example, the pointer image Pt with parallax may be displayed only once. Further, for example, after displaying the pointer image Pt with the parallax once, the display of the pointer image Pt with the parallax may be continued without returning the display mode of the pointer image Pt. Even in such a configuration, the same effects as those of the above embodiments can be obtained.

本発明は、上述の実施形態および変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、変形例中の技術的特徴は、上述の課題の一部又は全部を解決するために、あるいは、上述の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。   The present invention is not limited to the above-described embodiments and modifications, and can be realized with various configurations without departing from the spirit of the present invention. For example, the technical features in the embodiments and the modifications corresponding to the technical features in each embodiment described in the summary section of the invention are to solve some or all of the above-described problems, or In order to achieve part or all of the effects, replacement or combination can be performed as appropriate. Further, if the technical feature is not described as essential in the present specification, it can be deleted as appropriate.

10…制御装置、12…点灯部、14…トラックパッド、16…方向キー、17…決定キー、18…電源スイッチ、19…バイブレーター、20…画像表示部、21…右保持部、22…右表示ユニット、23…左保持部、24…左表示ユニット、26…右導光板、27…前部フレーム、28…左導光板、30…ヘッドセット、32…右イヤホン、34…左イヤホン、40…接続ケーブル、46…コネクター、61…カメラ、63…マイク、65…照度センサー、67…LEDインジケーター、100…頭部装着型表示装置、110…操作部、111…6軸センサー、113…磁気センサー、115…GPSレシーバー、117…無線通信部、118…メモリー、120…コントローラー基板、121…不揮発性記憶部、122…記憶機能部、123…設定データ、124…コンテンツデータ、130…電源部、132…バッテリー、134…電源制御回路、140…メインプロセッサー、145…画像処理部、147…表示制御部、149…撮像制御部、150…制御機能部、151…入出力制御部、153…平均色相値算出部、155…エッジ傾向算出部、180…音声コーデック、182…音声インターフェイス、184…外部コネクター、186…外部メモリーインターフェイス、188…USBコネクター、192…センサーハブ、196…インターフェイス、210…表示ユニット基板、211…インターフェイス、213…受信部、215…EEPROM、217…温度センサー、221…OLEDユニット、223…OLEDパネル、225…OLED駆動回路、230…表示ユニット基板、231…インターフェイス、233…受信部、235…6軸センサー、237…磁気センサー、239…温度センサー、241…OLEDユニット、243…OLEDパネル、245…OLED駆動回路、251…右光学系、252…左光学系、261…ハーフミラー、281…ハーフミラー、AI…対象画像、Ar1…重複領域、D1…方向、D2…方向、EL…端部、ER…端部、Edg1…エッジ傾向、Edg2…エッジ傾向、L…画像光、LD…視線、LE…左眼、OB…対象物、OL…外光、Pt…ポインター画像、Pt1…ポインター画像、Pt2…ポインター画像、Pt3…ポインター画像、RD…視線、RE…右眼、SC…外界、Stgd…基準画像、VR…視界、e1…後端部、s1…先端部、w…焦点距離、w1…焦点距離、w2…焦点距離     DESCRIPTION OF SYMBOLS 10 ... Control apparatus, 12 ... Lighting part, 14 ... Trackpad, 16 ... Direction key, 17 ... Decision key, 18 ... Power switch, 19 ... Vibrator, 20 ... Image display part, 21 ... Right holding part, 22 ... Right display Unit: 23 ... Left holding unit, 24 ... Left display unit, 26 ... Right light guide plate, 27 ... Front frame, 28 ... Left light guide plate, 30 ... Headset, 32 ... Right earphone, 34 ... Left earphone, 40 ... Connection Cable, 46 ... Connector, 61 ... Camera, 63 ... Microphone, 65 ... Illuminance sensor, 67 ... LED indicator, 100 ... Head-mounted display device, 110 ... Operation unit, 111 ... 6-axis sensor, 113 ... Magnetic sensor, 115 ... GPS receiver, 117 ... wireless communication unit, 118 ... memory, 120 ... controller board, 121 ... non-volatile storage unit, 122 ... storage function unit, 23 ... Setting data, 124 ... Content data, 130 ... Power supply unit, 132 ... Battery, 134 ... Power supply control circuit, 140 ... Main processor, 145 ... Image processing unit, 147 ... Display control unit, 149 ... Imaging control unit, 150 ... Control function unit, 151 ... I / O control unit, 153 ... Average hue value calculation unit, 155 ... Edge tendency calculation unit, 180 ... Audio codec, 182 ... Audio interface, 184 ... External connector, 186 ... External memory interface, 188 ... USB Connector, 192 ... Sensor hub, 196 ... Interface, 210 ... Display unit board, 211 ... Interface, 213 ... Receiver, 215 ... EEPROM, 217 ... Temperature sensor, 221 ... OLED unit, 223 ... OLED panel, 225 ... OLED drive circuit 2 DESCRIPTION OF SYMBOLS 0 ... Display unit board | substrate, 231 ... Interface, 233 ... Reception part, 235 ... 6 axis sensor, 237 ... Magnetic sensor, 239 ... Temperature sensor, 241 ... OLED unit, 243 ... OLED panel, 245 ... OLED drive circuit, 251 ... Right Optical system, 252 ... Left optical system, 261 ... Half mirror, 281 ... Half mirror, AI ... Target image, Ar1 ... Overlapping region, D1 ... Direction, D2 ... Direction, EL ... End, ER ... End, Edg1 ... Edge Trend, Edg2 ... Edge tendency, L ... Image light, LD ... Line of sight, LE ... Left eye, OB ... Object, OL ... External light, Pt ... Pointer image, Pt1 ... Pointer image, Pt2 ... Pointer image, Pt3 ... Pointer image RD: line of sight, RE: right eye, SC: outside, Stgd: reference image, VR: field of view, e1: rear end, s1: tip, w ... focal length, w1 ... focal length, w2 ... focal length

Claims (12)

透過型表示装置であって、
光透過性を有し、表示対象の対象画像とポインター画像とを、自身を透過して視認される外界に重ねて表示する表示部と、
前記ポインター画像の表示態様を制御する表示制御部と、
外界を撮像する撮像部と、
を備え、
前記表示制御部は、前記撮像により得られた外界画像と、前記対象画像と、前記外界画像および前記対象画像の合成画像と、のうちいずれか一つを基準画像として、前記基準画像における前記ポインター画像の表示位置を含む領域の特徴量に応じて、前記ポインター画像の表示態様を変更して表示させる、
透過型表示装置。
A transmissive display device,
A display unit that has light transparency and displays a target image and a pointer image that are to be displayed in a superimposed manner on an external environment that is visible through the self,
A display control unit for controlling the display mode of the pointer image;
An imaging unit for imaging the outside world;
With
The display control unit uses the pointer in the reference image as any one of the external image obtained by the imaging, the target image, and the composite image of the external image and the target image. In accordance with the feature amount of the area including the display position of the image, the display mode of the pointer image is changed and displayed.
A transmissive display device.
請求項1に記載の透過型表示装置において、
前記基準画像は、前記合成画像である、
透過型表示装置。
The transmissive display device according to claim 1,
The reference image is the composite image.
A transmissive display device.
請求項1または請求項2に記載の透過型表示装置において、
前記基準画像における前記ポインター画像の表示位置を含む領域の平均色相値を算出する平均色相値算出部を、さらに有し、
前記表示制御部は、前記ポインター画像の色を前記平均色相値の補色にして前記ポインター画像を表示させる、
透過型表示装置。
The transmissive display device according to claim 1 or 2,
An average hue value calculating unit that calculates an average hue value of an area including the display position of the pointer image in the reference image;
The display control unit displays the pointer image with the color of the pointer image as a complementary color of the average hue value;
A transmissive display device.
請求項1から請求項3までのいずれか一項に記載の透過型表示装置において、
前記基準画像における前記ポインター画像の表示位置を含む領域のエッジ傾向を算出するエッジ傾向算出部を、さらに有し、
前記表示制御部は、前記ポインター画像の模様を前記エッジ傾向に基づき定まる方向性を有する模様にして、前記ポインター画像を表示させる、
透過型表示装置。
The transmissive display device according to any one of claims 1 to 3,
An edge tendency calculating unit that calculates an edge tendency of an area including the display position of the pointer image in the reference image;
The display control unit displays the pointer image in a pattern having a directionality determined based on the edge tendency as a pattern of the pointer image;
A transmissive display device.
請求項4に記載の透過型表示装置において、
前記表示制御部は、前記模様を、前記エッジ傾向の合成ベクトルと交差する方向に繰り返される縞模様にして前記ポインター画像を表示させる、
透過型表示装置。
The transmissive display device according to claim 4,
The display control unit displays the pointer image in a striped pattern that is repeated in a direction intersecting the combined vector of the edge tendency.
A transmissive display device.
請求項1から請求項5までのいずれか一項に記載の透過型表示装置において、
前記基準画像における前記ポインター画像の表示位置を含む領域の平均色相値を算出する平均色相値算出部を、さらに有し、
前記表示制御部は、前記ポインター画像を視差のついた立体として表示し、前記平均色相値に基づいて前記視差の変化量を設定する、
透過型表示装置。
In the transmissive display device according to any one of claims 1 to 5,
An average hue value calculating unit that calculates an average hue value of an area including the display position of the pointer image in the reference image;
The display control unit displays the pointer image as a solid with a parallax, and sets the amount of change in the parallax based on the average hue value.
A transmissive display device.
請求項1から請求項6までのいずれか一項に記載の透過型表示装置において、
前記基準画像における前記ポインター画像の表示位置を含む領域の平均色相値を算出する平均色相値算出部を、さらに有し、
前記表示制御部は、前記ポインター画像を視差のついた立体として表示することと、前記ポインター画像を視差のついていない面として表示することと、を交互に切り替え、前記平均色相値に基づいて前記視差をつける周期を設定する、
透過型表示装置。
The transmissive display device according to any one of claims 1 to 6,
An average hue value calculating unit that calculates an average hue value of an area including the display position of the pointer image in the reference image;
The display control unit alternately switches between displaying the pointer image as a solid with parallax and displaying the pointer image as a non-parallax surface, and based on the average hue value, the parallax Set the cycle
A transmissive display device.
請求項1から請求項7までのいずれか一項に記載の透過型表示装置において、
前記表示制御部は、
前記ポインター画像を視差のついた立体として表示し、
前記立体として表示された前記ポインター画像の焦点位置を、前記表示部から前記外界へと向かう方向に所定距離移動させることと、前記外界から前記表示部へと向かう方向に前記所定距離移動させることと、を交互に行う、
透過型表示装置。
The transmissive display device according to any one of claims 1 to 7,
The display control unit
Display the pointer image as a solid with parallax,
Moving the focal position of the pointer image displayed as the three-dimensional object by a predetermined distance in a direction from the display unit toward the outside world, and moving the predetermined position in a direction from the outside world to the display unit; , Alternately,
A transmissive display device.
請求項1から請求項8までのいずれか一項に記載の透過型表示装置において、
前記表示制御部は、前記ポインター画像の少なくとも一部の明るさを周期的に変更して前記ポインター画像を表示させる、
透過型表示装置。
The transmissive display device according to any one of claims 1 to 8,
The display control unit periodically changes the brightness of at least a part of the pointer image to display the pointer image;
A transmissive display device.
請求項1から請求項9までのいずれか一項に記載の透過型表示装置において、
前記表示制御部は、前記透過型表示装置における所定動作の検知を契機として、前記ポインター画像の表示態様の制御を実行する、
透過型表示装置。
The transmissive display device according to any one of claims 1 to 9,
The display control unit executes control of a display mode of the pointer image triggered by detection of a predetermined operation in the transmissive display device.
A transmissive display device.
光透過性を有し、表示対象の対象画像とポインター画像とを、自身を透過して視認される外界に重ねて表示する表示部を備える透過型表示装置における表示制御方法であって、
外界を撮像して外界画像を得る工程と、
前記外界画像と、前記対象画像と、前記外界画像および前記対象画像の合成画像と、のうちいずれか一つを基準画像として、前記基準画像における前記ポインター画像の表示位置を含む領域の特徴量に応じて、前記ポインター画像の表示態様を変更して表示させる工程と、
を備える、
表示制御方法。
A display control method in a transmissive display device having a light transmission property and including a display unit that displays a target image to be displayed and a pointer image so as to be superimposed on an external environment that is visible through the device.
Imaging the outside world to obtain an outside world image;
Using one of the external image, the target image, and the composite image of the external image and the target image as a reference image, the feature amount of the region including the display position of the pointer image in the reference image In response, the step of changing the display mode of the pointer image to display,
Comprising
Display control method.
光透過性を有し、表示対象の対象画像とポインター画像とを、自身を透過して視認される外界に重ねて表示する表示部を備える透過型表示装置における表示制御方法を実現するためのコンピュータープログラムであって、
外界を撮像して外界画像を得る機能と、
前記外界画像と、前記対象画像と、前記外界画像および前記対象画像の合成画像と、のうちいずれか一つを基準画像として、前記基準画像における前記ポインター画像の表示位置を含む領域の特徴量に応じて、前記ポインター画像の表示態様を変更して前記表示部に表示させる機能と、
をコンピューターに実現させるための、
コンピュータープログラム。
Computer for realizing a display control method in a transmissive display device having a light transmitting property and including a display unit that displays a target image to be displayed and a pointer image so as to be superimposed on an external environment that is visible through the image. A program,
A function to capture the outside world and obtain an outside world image;
Using one of the external image, the target image, and the composite image of the external image and the target image as a reference image, the feature amount of the region including the display position of the pointer image in the reference image In response, a function to change the display mode of the pointer image and display on the display unit;
To make the computer
Computer program.
JP2017055713A 2017-03-22 2017-03-22 Transmission type display apparatus, display control method, and computer program Pending JP2018160735A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017055713A JP2018160735A (en) 2017-03-22 2017-03-22 Transmission type display apparatus, display control method, and computer program
US15/918,407 US10657722B2 (en) 2017-03-22 2018-03-12 Transmissive display device, display control method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017055713A JP2018160735A (en) 2017-03-22 2017-03-22 Transmission type display apparatus, display control method, and computer program

Publications (1)

Publication Number Publication Date
JP2018160735A true JP2018160735A (en) 2018-10-11

Family

ID=63583529

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017055713A Pending JP2018160735A (en) 2017-03-22 2017-03-22 Transmission type display apparatus, display control method, and computer program

Country Status (2)

Country Link
US (1) US10657722B2 (en)
JP (1) JP2018160735A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023149788A (en) * 2022-03-31 2023-10-13 セイコーエプソン株式会社 Display method and display system
WO2025182195A1 (en) * 2024-03-01 2025-09-04 キヤノン株式会社 Image display device

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016212177A (en) * 2015-05-01 2016-12-15 セイコーエプソン株式会社 Transmission type display device
US10540941B2 (en) * 2018-01-30 2020-01-21 Magic Leap, Inc. Eclipse cursor for mixed reality displays
US11567627B2 (en) 2018-01-30 2023-01-31 Magic Leap, Inc. Eclipse cursor for virtual content in mixed reality displays
JP7134656B2 (en) * 2018-03-15 2022-09-12 ソニー・オリンパスメディカルソリューションズ株式会社 Medical display control device and display control method
WO2019236344A1 (en) 2018-06-07 2019-12-12 Magic Leap, Inc. Augmented reality scrollbar
US10895949B2 (en) * 2019-02-22 2021-01-19 Htc Corporation Head mounted display and display method for eye-tracking cursor
JP2021086074A (en) * 2019-11-29 2021-06-03 セイコーエプソン株式会社 Transmission type image display device
EP3839411B1 (en) * 2019-12-17 2023-08-23 John Cockerill Defense SA Smart system for controlling functions in a turret of a combat vehicle
KR102780284B1 (en) * 2020-01-22 2025-03-12 소니그룹주식회사 Display device
US11789688B1 (en) * 2020-03-26 2023-10-17 Apple Inc. Content presentation based on environmental data
US11715405B1 (en) * 2021-02-10 2023-08-01 Sivalogeswaran Ratnasingam Chroma modification based on ambient light characteristics
US11735138B2 (en) * 2021-04-22 2023-08-22 GM Global Technology Operations LLC Dual image plane HUD with automated illuminance setting for AR graphics displayed in far virtual image plane
JP2024007643A (en) * 2022-07-06 2024-01-19 セイコーエプソン株式会社 Display system, control device and display method of display system
JP2024025272A (en) 2022-08-12 2024-02-26 キヤノン株式会社 Information processing device, information processing method, program

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001034386A (en) 1999-07-19 2001-02-09 Ricoh Co Ltd Display control device and display control method
US7762672B2 (en) * 2005-07-19 2010-07-27 Fujinon Corporation Data presentation apparatus and operation method of terminal
US20070206024A1 (en) * 2006-03-03 2007-09-06 Ravishankar Rao System and method for smooth pointing of objects during a presentation
JP4699536B2 (en) * 2009-03-06 2011-06-15 シャープ株式会社 POSITION DETECTION DEVICE, CONTROL METHOD, CONTROL PROGRAM, AND RECORDING MEDIUM
WO2010150554A1 (en) * 2009-06-26 2010-12-29 パナソニック株式会社 Stereoscopic image display device
US9398844B2 (en) * 2012-06-18 2016-07-26 Microsoft Technology Licensing, Llc Color vision deficit correction
JP6364715B2 (en) 2013-07-18 2018-08-01 セイコーエプソン株式会社 Transmission display device and control method of transmission display device
CN111883032A (en) 2014-10-15 2020-11-03 精工爱普生株式会社 Display device, method for controlling display device, and computer-readable medium
JP6488629B2 (en) 2014-10-15 2019-03-27 セイコーエプソン株式会社 Head-mounted display device, method for controlling head-mounted display device, computer program
JP2016142988A (en) 2015-02-04 2016-08-08 富士通株式会社 Display device and display control program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023149788A (en) * 2022-03-31 2023-10-13 セイコーエプソン株式会社 Display method and display system
WO2025182195A1 (en) * 2024-03-01 2025-09-04 キヤノン株式会社 Image display device

Also Published As

Publication number Publication date
US20180276898A1 (en) 2018-09-27
US10657722B2 (en) 2020-05-19

Similar Documents

Publication Publication Date Title
US10657722B2 (en) Transmissive display device, display control method, and computer program
US11536964B2 (en) Head-mounted display apparatus, display control method, and computer program
US20230251490A1 (en) Head-mounted type display device and method of controlling head-mounted type display device
US10976836B2 (en) Head-mounted display apparatus and method of controlling head-mounted display apparatus
CN108535868B (en) Head-mounted display device and control method thereof
CN108508603B (en) Head-mounted display device, control method therefor, and recording medium
US20180259775A1 (en) Transmission-type display device, display control method, and computer program
US10838205B2 (en) Head mounted display, control method thereof, and computer program
CN108205197A (en) The control method of display device and display device
US10718948B2 (en) Head-mounted display apparatus, display control method, and computer program
US20170289533A1 (en) Head mounted display, control method thereof, and computer program
JP2018142857A (en) Head mounted display device, program, and control method of head mounted display device
CN111600990B (en) Display system, recording medium, and method for controlling information processing apparatus
JP2018137505A (en) Display device and control method thereof
CN111432201A (en) Display system and control method thereof, information processing device and recording medium
JP2017116562A (en) Display device, display device control method, and program
JP2018042004A (en) Display device, head-mounted display device, and display device control method
JP2020071587A (en) Display device and method for controlling display device
JP2018091882A (en) Head-mounted display device, program, and control method for head-mounted display device
JP2017142294A (en) Display device and control method of display device
CN112558300B (en) Display system, recording medium, control method of information processing apparatus, and display apparatus
JP2017146726A (en) Movement support apparatus and movement support method
JP2017182413A (en) Head-mounted display device, control method therefor, and computer program
JP2019053644A (en) Head mounted display device and control method for head mounted display device
JP2017134630A (en) Display device, display device control method, and program