WO2020059357A1 - 表示装置、表示制御方法、及び表示制御プログラム - Google Patents
表示装置、表示制御方法、及び表示制御プログラム Download PDFInfo
- Publication number
- WO2020059357A1 WO2020059357A1 PCT/JP2019/031465 JP2019031465W WO2020059357A1 WO 2020059357 A1 WO2020059357 A1 WO 2020059357A1 JP 2019031465 W JP2019031465 W JP 2019031465W WO 2020059357 A1 WO2020059357 A1 WO 2020059357A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- light
- unit
- eye
- user
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/02—Viewing or reading apparatus
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/64—Constructional details of receivers, e.g. cabinets or dust covers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/74—Projection arrangements for image reproduction, e.g. using eidophor
Definitions
- the present disclosure relates to a display device, a display control method, and a display control program.
- a display device for displaying a three-dimensional image a display device using an augmented reality (AR) apparatus that displays an image in a state where the real world is superimposed on an image is known.
- AR augmented reality
- a device that allows a user to visually recognize a state in which the real world is superimposed on an image with one eye is known.
- this type of AR device it is known that the user becomes tired due to so-called binocular rivalry.
- Japanese Patent Laid-Open Publication No. 2005-26819 and Japanese Patent Laid-Open Publication No. 2005-195822 disclose a technique for a predetermined eye in a spectacle-shaped display device body. There is described a technique in which a display for displaying an image is provided on the side, and a shielding plate that blocks light incident from the outside on the other predetermined eye side is fixed.
- the other predetermined eye side is always shielded. Therefore, for example, even when there is no need for shielding, the field of view is blocked by the shielding plate, which may rather burden the user and cause fatigue.
- the present disclosure provides a display device, a display control method, and a display control program that can further reduce the burden on the user when visually recognizing a state in which the real world and an image are overlaid with one eye.
- a first aspect of the present disclosure is a display device, comprising: a light emitting unit that emits light of an image in a state where the light can be visually recognized by one eye of a user; A shielding unit that can be switched between a state of shielding incident light and a state of transmitting light, and a state of the shielding unit. When the light emitting unit is projecting light of an image, the light is shielded. A control unit that performs control to switch to a state where light is transmitted when the light projection unit does not emit an image.
- the light projecting unit may directly project an image on a retina of one eye.
- the third aspect of the present disclosure in the first aspect, may further include an image forming unit configured to form light of an image projected from the light projecting unit.
- the fourth aspect of the present disclosure in the third aspect, may further include a frame that is in contact with a part of the user's face and holds a light projecting unit, an image forming unit, and a shielding unit.
- one light emitting unit in the fourth aspect, one light emitting unit, two shielding units corresponding to both eyes of the user, two image imaging units corresponding to both eyes of the user, And two attachment / detachment units provided at positions corresponding to both eyes of the user, respectively, and capable of attaching / detaching the light emitting unit to / from the frame.
- the light projecting unit includes a right-light projecting unit in which one eye is a right eye of a user, and one eye.
- the shielding unit is a shielding unit for the left eye with the other eye as the left eye of the user, and a shielding unit for the right eye with the other eye as the right eye of the user
- the control unit controls the left-eye blocking unit to be in a state where light is blocked in accordance with the image projection by the right-eye projection unit, and controls the left-eye projection unit to project the image.
- the right eye blocking unit may be controlled so that light is blocked.
- a fatigue state determination unit configured to determine a fatigue state of a user's eye.
- control may be performed to switch the light projection unit that emits the light of the image between the right-eye projection unit and the left-eye projection unit.
- the one eye may be a dominant eye of the user.
- 9A ninth aspect of the present disclosure in the eighth aspect, may further include a dominant eye determination unit that determines a dominant eye of the user.
- the information processing apparatus further includes a receiving unit that receives information on a user's dominant eye.
- the area corresponding to the area where the light of the image is projected and which is visually recognized by the other eye May be shielded.
- a light-emitting unit that projects an image in a state where the image can be visually recognized by one eye of a user, and a state that shields light incident on the other eye of the user from outside the own apparatus.
- a shielding unit that can be switched to a state that allows light to pass therethrough, wherein the state of the shielding unit is changed when the light emitting unit is projecting an image.
- the computer performs control to switch to a state where light is transmitted.
- a light-emitting unit that projects an image in a state where the image can be visually recognized by one eye of a user, and a state in which light incident on the other eye of the user from outside the own apparatus is blocked.
- a control program for a display device comprising: a shielding unit that can be switched to a state in which light is transmitted, wherein the state of the shielding unit is such that when the light emitting unit is projecting an image, the light is shielded.
- the computer is caused to execute processing including controlling to switch to a state where light is transmitted.
- a light projecting unit that projects an image in a state where the image can be visually recognized by one eye of a user, and blocks light incident on the other eye of the user from outside the own apparatus.
- a shielding unit that can be switched between a light-transmitting state and a light-transmitting state
- the processor including a processor, wherein the processor changes the state of the shielding unit, and the light-emitting unit emits an image. If the light projection unit does not project an image while the light is blocked, control is performed to switch to a state where the light is transmitted.
- the display device, the display control method, and the display control program according to the present disclosure can further reduce the burden on the user when visually recognizing a state in which the real world and the image are superimposed with one eye.
- FIG. 3 is a block diagram illustrating an example of a hardware configuration of a display device according to an exemplary embodiment.
- 5 is a flowchart illustrating an example of a display control process performed by the display device according to the exemplary embodiment.
- FIG. 9 is a diagram for describing a display control process according to the exemplary embodiment. It is a figure for explaining other examples of a shielding state by a shielding part of this exemplary embodiment. It is a figure for explaining other examples of a shielding state by a shielding part of this exemplary embodiment.
- FIG. 11 is a block diagram illustrating still another example of the configuration of the display device of the exemplary embodiment.
- FIG. 1 is a perspective view illustrating an example of a configuration of a display device 10 according to the exemplary embodiment.
- FIG. 2 is a block diagram illustrating an example of the display device 10.
- the display device 10 of the present exemplary embodiment is a display device for displaying an AR (Augmented Reality), and is a state in which the real world through the lens 13 and the image projected from the display unit 22 are superimposed. This is a device that is displayed so that the user can view it.
- the display device 10 has the shape of glasses having a frame 12 and a lens 13.
- the display device 10 of the present exemplary embodiment includes a sensor 15, a control unit 20, a display unit 22, a shielding unit 24, a dominant eye determination unit 26, and a fatigue state determination unit 28. ing.
- the sensor 15 is provided at the center of the lens 13 at a position corresponding to the position between the eyebrows when the user wears the display device 10. In the present exemplary embodiment, for example, detection of a three-dimensional shape is performed. Is a possible depth sensor.
- the display unit 22 includes a left-eye display unit 40L and a right-eye display unit 40R.
- the left-eye display unit 40L has a screen 42L and a projector 43L
- the right-eye display unit 40R has a screen 42R and a projector 43R.
- the display unit 22 has a pair of the screen 42 and the projector 43.
- the screen 42 and the projector 43 are simply referred to as “screen 42” and “projector 43” when collectively referred to. Later, left and right symbols (L, R) are given.
- the screen 42 of the exemplary embodiment is an example of an image forming unit of the present disclosure
- the projector 43 of the exemplary embodiment is an example of a light projecting unit of the present disclosure.
- the projector 43 is housed in the case-like attaching / detaching portion 14, and is detachable from the frame 12 by the attaching / detaching portion 14.
- the projector 43 projects light of an image corresponding to the image data toward a screen 42 provided on the lens 13 under the control of the control unit 20.
- the screen 42 displays an image by forming light of the image projected from the projector 43.
- the image corresponding to the image data projected from the projector 43 may be a still image or a moving image, and is not limited.
- the screen 42 includes, for example, a half mirror, a wavelength selection film, a hologram, and the like.
- examples of the projector 43 include a liquid crystal panel and an organic EL (ElectroLuminescence) panel.
- the shielding unit 24 includes a left-eye shielding unit 30L and a right-eye shielding unit 30R.
- the shielding unit 24 is provided on the lens 13 and shields light incident on the user's eyes from outside the display device 10 under the control of the control unit 20.
- the shielding unit 24 of the exemplary embodiment shields the entire portion corresponding to each of the left and right screens 42.
- Examples of the shielding unit 24 include a liquid crystal shutter, electrochromism, and a variable ND (Neutral Density) filter.
- the control unit 20 controls the entire display device 10. Although details will be described later, as described above, the projection of the light of the image according to the image data from the projector 43 to the screen 42 and the shielding of the light by the shielding unit 24 are controlled.
- the dominant eye determination unit 26 determines whether the user's dominant eye is the right eye or the left eye. Further, the fatigue state determination unit 28 determines the fatigue state of the eyes of the user.
- the display device 10 includes a CPU (Central Processing Unit) 50, a memory 51 as a temporary storage area, and a non-volatile storage unit, in addition to the sensor 15, the display unit 22, and the shielding unit 24 described above. 52. Further, the display device 10 includes an input unit 54 (not shown in FIG. 1) such as a switch provided in the attaching / detaching unit 14, and an I / F (InterFace) 56 for communicating with an external device by wire or wirelessly. .
- the sensor 15, the display unit 22, the shielding unit 24, the CPU 50, the memory 51, the storage unit 52, the input unit 54, and the I / F 56 are connected to a bus 58.
- the storage unit 52 is realized by a non-volatile storage medium such as a hard disk drive (HDD), a solid state drive (SSD), and a flash memory.
- the display control program 60 is stored in the storage unit 52 as a storage medium.
- the CPU 50 reads out the display control program 60 from the storage unit 52, expands it in the memory 51, and executes the expanded display control program 60.
- the CPU 50 functions as the control unit 20, the dominant eye determination unit 26, and the fatigue state determination unit 28.
- FIG. 4 is a flowchart illustrating an example of the flow of a display control process performed by the display device 10 according to the exemplary embodiment.
- FIG. 5 illustrates an example of a state in which the user visually recognizes through the lens 13 and the screen 42 by performing the display control process of the exemplary embodiment.
- the display control process illustrated in FIG. 4 is executed when a display start instruction is input by the user via the input unit 54.
- the display control process may be executed when the power of the display device 10 (not shown) is turned on.
- the display control processing may be executed when it is detected that the user wears the display device 10.
- various sensors such as an acceleration sensor, a gyro sensor, and a touch sensor may be provided in accordance with each detection.
- the user visually recognizes the real world through both the left and right eyes through the lens 13 (the screen 42).
- the dominant-eye determining unit 26 performs a dominant-eye determining process, and determines whether the user has the left or right dominant eye.
- the dominant eye determination unit 26 of the present exemplary embodiment determines the dominant eye based on the difference in the appearance of the left and right eyes when the user visually recognizes his / her finger.
- FIG. 5 the viewing window frame 72 is displayed at the center of each of the left and right screens 42 by the left and right projectors 43 of the display unit 22. In this case, except for the viewing window frame 72, the user can see the real world through the lens 13.
- the dominant-eye determination unit 26 recognizes the position of the index finger held by the user based on the output result of the sensor 15 which is a depth sensor acting as a three-dimensional shape recognition sensor. Furthermore, the dominant-eye determining unit 26 sets the dominant eye to the one in which the position of the index finger is further inside the window frame 72, in other words, the one in which the forefinger is more within the peep window frame 72.
- the user's finger 74 fits more in the viewing window frame 72 displayed on the screen 42L than in the viewing window frame 72 displayed on the screen 42R. Therefore, in this case, the dominant eye determination unit 26 determines the right eye as the dominant eye of the user.
- the method of determining the dominant eye by the dominant eye determination unit 26 is not limited to the method of the exemplary embodiment described above.
- the CPU 50 may function as a receiving unit, and use the input unit 54 to receive the information input by the user himself as to which of his dominant eyes is.
- control unit 20 determines whether or not an instruction to display an image has been given.
- an instruction to display an image has been given.
- the determination in step S102 is negative, and when the display instruction is input, the determination in step S102 is affirmative, and the process proceeds to step S104.
- step S104 the control unit 20 emits light representing an image from the projector 43 on the dominant eye side determined by the dominant eye determination unit 26 in step S100, and causes the screen 42 to display the image.
- the image data of the image to be displayed may be stored in the storage unit 52 in advance, or may be received from an external device via the I / F 56. Further, for example, when the display device 10 includes an imaging device that captures the real world at least partially similar to the range of the real world visually recognized by the user, the image data of the captured image captured by the imaging device May be used.
- control unit 20 blocks external light with the shielding unit 24 (left-eye shielding unit 30L or right-eye shielding unit 30R) on the side of the eye opposite to the eye determined to be the dominant eye.
- step 104 the control unit 20 projects the light of the image from the right-eye projector 43R, and outputs the right-eye screen.
- the image 80 is displayed on 42R.
- step S106 the control unit 20 shields the light incident on the left eye of the user from the outside by the left eye shielding unit 30L.
- the fatigue state determination unit 28 determines whether or not to execute the determination processing of the user's eye fatigue state.
- the fatigue state is determined each time a predetermined time elapses after the projector 43 starts projecting light of an image. Therefore, in this step, it is determined whether or not the predetermined time has elapsed. If it has not elapsed, the determination in step S108 is negative, and the process proceeds to step S116. On the other hand, if the time has elapsed, the determination in step S108 is affirmative, and the process proceeds to step S110.
- the fatigue state determination unit 28 executes a determination process of the user's eye fatigue state.
- the fatigue state is determined based on the number of blinks of the user.
- the fatigue state determination unit 28 includes an imaging unit that captures an image of the user's eyes (eyelids), performs image analysis on captured images captured at predetermined intervals, The number of blinks of the user within the time period. Since the number of blinks tends to increase as the eyes become more tired, the fatigue state determination unit 28 is in a fatigue state when the counted number of blinks exceeds a threshold experimentally obtained in advance. If the number of blinks is less than the threshold, it is determined that the user is not in a fatigue state.
- the fatigue state determination processing method in the fatigue state determination unit 28 is not limited to the present exemplary embodiment.
- the parasympathetic nerve in a fatigued state, the parasympathetic nerve is superior to the sympathetic nerve, and the pupil tends to be miotic. Therefore, the pupil of the user obtained by imaging the pupil of the user with the imaging unit and analyzing the captured image is obtained. It may be determined whether or not the user is in a fatigue state based on the change in the size. Also, for example, the more the user is in a fatigue state, the larger the movement of the line of sight tends to be (the longer the distance). , It may be determined whether or not the user is in a fatigue state. Further, for example, the nystagmus of the user's eyes, the degree of dryness, and the like may be used for the determination of the fatigue state.
- detection of the number of blinks is not limited to the above-described imaging unit, and it goes without saying that another sensor such as a myoelectric potential sensor may be used.
- the predetermined time serving as a criterion for determining whether or not to perform the fatigue state may not be a fixed time. For example, immediately after the display of the image 80 is started, the determination interval is set to 5 minutes. After the elapse of 20 minutes from the start, the determination interval may be set to 3 minutes. Also, for example, using a learned model in which the correspondence between the time until the user is determined to be in a fatigue state (the time during which the image 80 is displayed) and the state of the pupil that has reached the determination is learned. Alternatively, a form in which the fatigue state is determined may be adopted.
- the user may use the input unit 54 to input that the eyes are tired.
- step S112 the control unit 20 determines whether or not the user's eyes are tired based on the determination result in step S110. When it is determined that the user's eyes are not in a fatigue state, the determination in step S112 is negative, and the process proceeds to step S116. On the other hand, when it is determined that the user's eyes are fatigued, the determination in step S112 is affirmative, and the process proceeds to step S114.
- step S ⁇ b> 114 the control unit 20 switches between left and right in the light projection by the projector 43 and the shielding by the shielding unit 24.
- the control unit 20 switches between left and right in the light projection by the projector 43 and the shielding by the shielding unit 24.
- step S116 it is determined whether or not to end the display.
- the display device 10 of the present exemplary embodiment as an example, the case where the image data of the image being displayed by the display unit 22 ends and the case where the display termination instruction is input by the user via the input unit 54 That is, at least one of the above conditions is satisfied.
- the display of the image 80 ends when the end condition is satisfied. If the termination condition is not satisfied, the display of the image 80 is not terminated yet, so the determination in step S116 is negative, the process returns to step S108, and the processes in steps S110 to S114 are repeated. On the other hand, if the termination condition is satisfied, the determination in step S116 is affirmative, and the process proceeds to step S118.
- step S118 the control unit 20 ends the display of the image 80 by the display unit 22 on one eye side of the user and the shielding by the shielding unit 24 on the other eye side.
- the user can view the real world through the lens 13 (the screen 42) without being blocked by either the image 80 or the blocking unit 24 for both the left and right eyes. Become.
- control unit 20 determines whether or not to end the display control process.
- the display control process ends. If the power of the display device 10 is kept turned on, the determination in step S120 is negative, the process returns to step S100, and the processes in steps S102 to S118 are repeated. On the other hand, when the power of the display device 10 is turned off, the determination in step S120 is affirmative, and the display control process ends.
- the display device 10 of the present exemplary embodiment includes the projector 43 that projects light of an image in a state where the image can be visually recognized by one eye of the user, and the other eye of the user from outside the own device.
- the projector 43 displays an image of the shielding unit 24 including the left-eye shielding unit 30L and the right-eye shielding unit 30R that can be switched between a state of shielding light incident on the camera and a state of transmitting light, and the state of the shielding unit 24.
- a control unit 20 that controls to switch to a state where light is blocked when the projector 43 is projecting light and to a state where light is transmitted when the projector 43 is not projecting an image.
- a technique in which a shielding plate is fixed to a predetermined side of the eye that does not visually recognize an image, and light incident on the user's eyes is shielded by the shielding plate. Have been.
- the shielding plate is fixedly provided, if the user does not want to shield, for example, even if the image is not displayed on the side of one eye, the user's view may be shielded. In other words, it is difficult for the other eye to see the real world with the display device attached.
- the display device 10 of the present exemplary embodiment automatically switches the light shielding state by the shielding unit 24 in synchronization with the display of the image by the display unit 22 without requiring the user's operation. , The blocking state is released.
- the burden on the user can be further reduced, and the burden of operation can be reduced along with the burden of eye fatigue.
- the left-eye shielding unit 30L includes an area corresponding to the area where the image 80 is displayed on the screen 42R, and shields an area smaller than the entire screen 42L.
- FIG. 6B shows an example of this case.
- the periphery of the image 80 is also shielded by the right-eye shield 30R on the screen 42R.
- the screen 42L an area corresponding to the area shielded by the right-eye shield 30R is shielded by the left-eye shield 30L.
- the display unit 22 is not limited to the embodiment, and may be configured to include one projector 43, a screen 42L, and a screen 42R, for example, as in the display device 10 illustrated in FIGS. 7 and 8.
- a projector is relatively expensive compared to a screen. By setting the number of projectors to one and the number of screens to two, it is possible to suppress an increase in price and a reduction in user convenience as compared with a case where both the screen and the projector are remounted. be able to.
- the display unit 22 may include one screen 42 and one projector 43.
- the display unit 22 may include a screen 42L and a projector 43R, or the display unit 22 may include a screen 42R and a projector 43L.
- the display unit 22 includes, instead of the screen 42L and the projector 43L, a retinal projector 45L for directly projecting an image on the retina of the left eye of the user.
- a mode may be provided that includes a retinal projector 45R that directly projects an image on the retina of the right eye of the user.
- the display unit 22 on the dominant eye side displays the image 80.
- the present inventors do not feel uncomfortable with the single eye by noticing that the image is viewed with the dominant eye. Was obtained from the knowledge. Therefore, according to the display device 10 of the present exemplary embodiment, the display of the image 80 is mainly performed by the display unit 22 on the dominant eye side, so that the user's discomfort is reduced and the burden on the user is further reduced. Can be.
- the hardware structure of a processing unit that executes various processes, such as the control unit 20, the dominant-eye determination unit 26, and the fatigue state determination unit 28, includes Can be used.
- the CPU which is a general-purpose processor that executes software (programs) and functions as various processing units
- the above-described various processors include a circuit after manufacturing an FPGA (Field Programmable Gate Array) or the like.
- Dedicated electricity which is a processor having a circuit configuration specifically designed to execute a specific process such as a programmable logic device (Programmable Logic Device: PLD) or an ASIC (Application Specific Integrated Circuit) which is a processor whose configuration can be changed. Circuit etc. are included.
- One processing unit may be configured by one of these various processors, or a combination of two or more processors of the same type or different types (for example, a combination of a plurality of FPGAs or a combination of a CPU and an FPGA). Combination). Further, a plurality of processing units may be configured by one processor.
- one processor is configured by a combination of one or more CPUs and software. There is a form in which the processor functions as a plurality of processing units.
- SoC system-on-chip
- circuitry circuitry combining circuit elements such as semiconductor elements can be used.
- the display control program 60 is provided in a form recorded on a recording medium such as a CD-ROM (Compact Disk Read Only Memory), a DVD-ROM (Digital Versatile Disk Read Only Memory), and a USB (Universal Serial Bus) memory. Is also good.
- the display control program 60 may be downloaded from an external device via a network.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Computer Hardware Design (AREA)
- Theoretical Computer Science (AREA)
- Controls And Circuits For Display Device (AREA)
- Projection Apparatus (AREA)
Abstract
ユーザの一方の眼により視認が可能な状態に画像の光を投光する投光部と、自装置の外部からユーザの他方の眼に入射される光を遮蔽する状態と、光を透過させる状態とに切り替え可能な遮蔽部と、遮蔽部の状態を、投光部が画像の光を投光している場合、光が遮蔽される状態に、投光部が画像を投光していない場合、光が透過される状態に切り替える制御を行う制御部と、を備えた表示装置。
Description
本開示は、表示装置、表示制御方法、及び表示制御プログラムに関する。
従来、立体的な映像を表示する表示装置として、現実の世界と、画像とを重ね合わせた状態で表示する、拡張現実(AR:Augmented Reality)機器を用いた表示装置が知られている。
AR機器として、ユーザが片眼で、現実の世界と、画像とを重ね合わせた状態を視認する機器が知られている。この種のAR機器では、いわゆる両眼視野闘争によって、ユーザが疲労することが知られている。両眼視野闘争によるユーザの疲労を軽減する技術として、例えば、再公表2005-26819号公報及び特開2005-195822号公報には、眼鏡形状の表示装置本体において、予め定められた一方の眼の側に画像を表示するディスプレイを設け、予め定められた他方の眼の側に外部から入射する光を遮断する遮蔽板を固定する技術が記載されている。
再公表2005-26819号公報及び特開2005-195822号公報に記載の技術によれば、予め定められた他方の眼の側を常に遮蔽することになる。そのため、例えば、遮蔽の必要が無い場合であっても、遮蔽板によって視界が遮られてしまうため、却って、ユーザに負担がかかり疲労を招く場合がある。
本開示は、片眼で現実の世界と、画像とを重ね合わせた状態を視認する場合のユーザの負担をより軽減できる表示装置、表示制御方法、及び表示制御プログラムを提供する。
本開示の第1の態様は、表示装置であって、ユーザの一方の眼により視認が可能な状態に画像の光を投光する投光部と、自装置の外部からユーザの他方の眼に入射される光を遮蔽する状態と、光を透過させる状態とに切り替え可能な遮蔽部と、遮蔽部の状態を、投光部が画像の光を投光している場合、光が遮蔽される状態に、投光部が画像を投光していない場合、光が透過される状態に切り替える制御を行う制御部と、を備える。
本開示の第2の態様は、第1の態様において、投光部は、一方の眼の網膜に画像を直接投光してもよい。
本開示の第3の態様は、第1の態様において、投光部から投光された画像の光が結像される画像結像部をさらに備えてもよい。
本開示の第4の態様は、第3の態様において、ユーザの顔の一部と接し、投光部、画像結像部、及び遮蔽部を保持するフレームをさらに備えてもよい。
本開示の第5の態様は、第4の態様において、一つの投光部と、ユーザの両眼に対応する二つの遮蔽部と、ユーザの両眼に対応する二つの画像結像部と、を備え、ユーザの両眼に対応する位置にそれぞれ設けられ、投光部をフレームに着脱可能とする二つの着脱部をさらに備えてもよい。
本開示の第6の態様は、第1の態様から第4の態様のいずれか1態様において、 投光部は、一方の眼をユーザの右目とした右目用の投光部、及び一方の眼をユーザの左目とした左目用の投光部を有し、遮蔽部は、他方の眼をユーザの左目とした左目用の遮蔽部、及び他方の眼をユーザの右目とした右目用の遮蔽部を有し、制御部は、右目用の投光部による画像の投光に応じて左目用の遮蔽部を光が遮蔽される状態に制御し、左目用の投光部による画像の投光に応じて右目用の遮蔽部を光が遮蔽される状態に制御してもよい。
本開示の第7の態様は、第6の態様において、ユーザの眼の疲労状態を判定する疲労状態判定部をさらに備え、制御部は、投光部による画像の光の投光中に、疲労状態判定部が疲労状態であると判定した場合、画像の光を投光する投光部を、右目用の投光部と左目用の投光部とで切り替える制御を行ってもよい。
本開示の第8の態様は、第1の態様から第7の態様のいずれか1態様において、一方の眼は、ユーザの利き目であってもよい。
本開示の第9の態様は、第8の態様において、ユーザの利き目を判定する利き目判定部をさらに備えてもよい。
本開示の第10の態様は、第8の態様において、ユーザの利き目に関する情報を受け付ける受付部をさらに備えた。
本開示の第11の態様は、上記態様において、遮蔽部は、ユーザが一方の眼により視認する領域のうち、画像の光が投光されている領域に対応する、他方の眼により視認する領域を遮蔽してもよい。
本開示の第12の態様は、ユーザの一方の眼により視認が可能な状態に画像を投光する投光部と、自装置の外部からユーザの他方の眼に入射される光を遮蔽する状態と、光を透過させる状態とに切り替え可能な遮蔽部とを備えた表示装置の制御方法であって、遮蔽部の状態を、投光部が画像を投光している場合、光が遮蔽される状態に、投光部が画像を投光していない場合、光が透過される状態に切り替える制御を行う、ことをコンピュータが実行する。
本開示の第13の態様は、ユーザの一方の眼により視認が可能な状態に画像を投光する投光部と、自装置の外部からユーザの他方の眼に入射される光を遮蔽する状態と、光を透過させる状態とに切り替え可能な遮蔽部とを備えた表示装置の制御プログラムであって、遮蔽部の状態を、投光部が画像を投光している場合、光が遮蔽される状態に、投光部が画像を投光していない場合、光が透過される状態に切り替える制御を行う、ことを含む処理をコンピュータに実行させる。
また、本開示の第14の態様は、ユーザの一方の眼により視認が可能な状態に画像を投光する投光部と、自装置の外部からユーザの他方の眼に入射される光を遮蔽する状態と、光を透過させる状態とに切り替え可能な遮蔽部とを備え、プロセッサを有する表示装置であって、プロセッサが、遮蔽部の状態を、投光部が画像を投光している場合、光が遮蔽される状態に、投光部が画像を投光していない場合、光が透過される状態に切り替える制御を行う。
上記態様によれば、本開示の表示装置、表示制御方法、及び表示制御プログラムは、片眼で現実の世界と、画像とを重ね合わせた状態を視認する場合のユーザの負担をより軽減できる。
以下、図面を参照して、本開示の技術を実施するための形態例を詳細に説明する。
図1及び図2を参照して、本例示的実施形態の表示装置10の構成を説明する。図1は、本例示的実施形態の表示装置10の構成の一例を示す斜視図である。また、図2は、表示装置10の一例を示すブロック図である。本例示的実施形態の表示装置10は、AR(Augmented Reality)を表示する表示装置であり、レンズ13を通した現実の世界と、表示ユニット22から投光された画像とを重ね合わせた状態でユーザが視認可能に表示する装置である。表示装置10は、フレーム12及びレンズ13を備えた眼鏡の形状を有している。
図1及び図2に示すように、本例示的実施形態の表示装置10は、センサ15、制御部20、表示ユニット22、遮蔽部24、利き目判定部26、及び疲労状態判定部28を備えている。
センサ15は、表示装置10をユーザが装着した場合に、眉間の位置に対応する位置となる、レンズ13の中央部に設けられており、本例示的実施形態では、一例として、立体形状の検出が可能な深度センサである。
表示ユニット22は、左目用表示ユニット40L及び右目用表示ユニット40Rを備えている。左目用表示ユニット40Lは、スクリーン42L及びプロジェクタ43Lを有しており、右目用表示ユニット40Rは、スクリーン42R及びプロジェクタ43Rを有している。換言すると、表示ユニット22は、一対のスクリーン42及びプロジェクタ43を有している。本例示的実施形態では、スクリーン42及びプロジェクタ43について、総称する場合は、単に「スクリーン42」及び「プロジェクタ43」といい、左右を区別する場合は、各々「スクリーン42」及び「プロジェクタ43」の後に、左右を表す符号(L、R)を付す。本例示的実施形態のスクリーン42が本開示の画像結像部の一例であり、本例示的実施形態のプロジェクタ43が、本開示の投光部の一例である。
プロジェクタ43は、ケース状の着脱部14に収納され、着脱部14によってフレーム12に着脱可能とされている。プロジェクタ43は、制御部20の制御に応じて画像データに応じた画像の光を、レンズ13に設けられたスクリーン42に向けて投光する。スクリーン42は、プロジェクタ43から投光された画像の光が結像されることで画像を表示する。なお、プロジェクタ43から投光する画像データに応じた画像は、静止画及び動画のいずれであってもよく、限定されるものではない。
スクリーン42としては、例えば、ハーフミラーや、波長選択フィルム、及びホログラム等が挙げられる。また、プロジェクタ43としては、例えば、液晶パネルや、有機EL(ElectroLuminescence)パネル等が挙げられる。
また、遮蔽部24は、左目用遮蔽部30L及び右目用遮蔽部30Rを備えている。遮蔽部24は、レンズ13に設けられており、制御部20の制御に応じて、表示装置10の外部からユーザの眼に入射する光を遮蔽する。本例示的実施形態の遮蔽部24は、一例として、左右の各スクリーン42に対応する部分全体を遮蔽する。遮蔽部24としては、例えば、液晶シャッター、エレクトロクロミズム、及び可変式ND(Neutral Density)フィルタ等が挙げられる。
制御部20は、表示装置10の全体を制御する。詳細は後述するが、上述したように、プロジェクタ43からスクリーン42への画像データに応じた画像の光の投光、及び遮蔽部24による光の遮蔽を制御する。利き目判定部26は、ユーザの利き目が、右目及び左目のいずれであるかを判定する。また、疲労状態判定部28は、ユーザの眼の疲労状態を判定する。
次に、図3を参照して、本例示的実施形態の表示装置10のハードウェア構成を説明する。図3に示すように、表示装置10は、上述したセンサ15、表示ユニット22、及び遮蔽部24の他、CPU(Central Processing Unit)50、一時記憶領域としてのメモリ51、及び不揮発性の記憶部52を含む。また、表示装置10は、着脱部14に設けられたスイッチ等の入力部54(図1では図示省略)、及び外部の装置と有線または無線により通信するためのI/F(InterFace)56を含む。センサ15,表示ユニット22、遮蔽部24、CPU50、メモリ51、記憶部52、入力部54、及びI/F56は、バス58に接続される。
記憶部52は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、及びフラッシュメモリ等の不揮発性の記憶媒体によって実現される。記憶媒体としての記憶部52には、表示制御プログラム60が記憶される。CPU50は、記憶部52から表示制御プログラム60を各々読み出してからメモリ51に展開し、展開した表示制御プログラム60を実行する。CPU50が表示制御プログラム60を実行することで、CPU50は、制御部20、利き目判定部26、及び疲労状態判定部28として機能する。
次に、本例示的実施形態の表示装置10の作用を説明する。CPU50が表示制御プログラム60を実行することによって、図4に示す表示制御処理が実行される。図4には、本例示的実施形態の表示装置10で実行される表示制御処理の流れの一例を示すフローチャートが示されている。また、図5には、本例示的実施形態の表示制御処理の実行により、レンズ13及びスクリーン42を通してユーザが視認する状態の一例を示す。
例として、本例示的実施形態の表示装置10では、ユーザによる表示開始の指示が入力部54を介して入力された場合に、図4に示した表示制御処理が実行される。なお、本例示的実施形態に限定されず、例えば、表示装置10の電源(図示省略)が投入された場合に表示制御処理を実行する形態としてもよい。また例えば、表示装置10をユーザが装着したことを検知した場合に表示制御処理を実行する形態としてもよい。この場合の例としては、フレーム12の内側に、ユーザの皮膚が接触したことを検知した場合、フレーム12が開かれたことを検知した場合、及び表示装置10である眼鏡を装着するユーザの動作を検知した場合等が挙げられる。これらの検知を行う場合、各検知に応じた、加速度センサ、ジャイロセンサ、及びタッチセンサ等の各種センサを設けておけばよい。
図5に示した一例のように、本表示制御処理を開始した時点では、ユーザは、左右の目共に、レンズ13(スクリーン42)を通して、現実の世界を視認している。
図4のステップS100で利き目判定部26は、利き目判定処理を実行し、ユーザの利き目が左右のいずれであるかを判定する。一例として、本例示的実施形態の利き目判定部26は、ユーザが自身の指を視認した場合の、左右の目での見え方の違いによって利き目を判定する。図5を参照して具体的な方法について説明する。まず、図5に示した一例のように、表示ユニット22の左右のプロジェクタ43により、左右のスクリーン42の各々の中央に覗き窓枠72を表示させる。この場合、覗き窓枠72以外は、ユーザにはレンズ13を通した現実の世界が見えている。ユーザは、鼻先の前方20cm~40cmの視認できる位置に、自身の左右どちらかの人差し指を立てる。なお、ユーザが人差し指を立てるのを誘導するための情報をスクリーン42に表示する、または音声出力部を有する場合は、音声出力部から出力する音声により提示することが好ましい。次に、利き目判定部26は、立体形状認識センサとして作用する深度センサであるセンサ15の出力結果に基づいて、ユーザが立てている人差し指の位置を認識する。さらに、利き目判定部26は、人差し指の位置が、より除き窓枠72の内部にある方、換言すると、覗き窓枠72内に人差し指がより収まっている方を利き目とする。図5に示した一例では、ユーザの指74は、スクリーン42Lに表示されている覗き窓枠72内の方が、スクリーン42Rに表示されている覗き窓枠72内よりもより多く収まっている。そのため、この場合、利き目判定部26は、右目をユーザの利き目と判定する。
なお、利き目判定部26が利き目を判定する方法は、上述した本例示的実施形態の方法に限定されない。例えば、CPU50が受付部として機能し、入力部54を用いて、ユーザ自身が入力した、自分の利き目がいずれであるかに関する情報を受け付ける形態としてもよい。
次のステップS102で制御部20は、画像の表示を指示されたか否かを判定する。一例として本例示的実施形態では、ユーザによる表示指示が入力部54を介して入力された場合に、画像の光の投光を開始する。表示指示が入力されるまで、ステップS102の判定が否定判定となり、表示指示が入力されると、ステップS102の判定が肯定判定となり、ステップS104へ移行する。
ステップS104で制御部20は、上記ステップS100において利き目判定部26が判定した利き目の側のプロジェクタ43から、画像を表す光を投光し、スクリーン42に画像を表示させる。なお、表示させる画像の画像データは、予め記憶部52内に記憶させておいてもよいし、I/F56を介して、外部の装置から受信してもよい。また例えば、表示装置10が、ユーザが視認する現実世界の範囲と少なくとも一部が同様の範囲の現実世界を撮像する撮像装置を有している場合、撮像装置で撮像された撮像画像の画像データを用いてもよい。
次のステップS106で制御部20は、利き目と判定した眼と反対側の眼の側の遮蔽部24(左目用遮蔽部30Lまたは右目用遮蔽部30R)によって、外部からの光を遮蔽する。
上述のように、右目を利き目と判定した場合、図5に示した一例のように、ステップ104で制御部20は、右目用のプロジェクタ43Rから画像の光を投光し、右目用のスクリーン42Rに画像80を表示させる。また、ステップS106で制御部20は、左目用遮蔽部30Lによって、外部からユーザの左目に入射される光を遮蔽する。
次のステップS108で疲労状態判定部28は、ユーザの眼の疲労状態の判定処理を実行するか否かを判定する。一例として本例示的実施形態では、プロジェクタ43が画像の光の投光を開始してから、予め定められた時間が経過する毎に、疲労状態の判定を実行する。そのため、本ステップでは、上記予め定められた時間が経過したか否かを判定する。経過していない場合、ステップS108の判定が否定判定となり、ステップS116へ移行する。一方、経過した場合、ステップS108の判定が肯定判定となり、ステップS110へ移行する。
ステップS110で疲労状態判定部28は、ユーザの眼の疲労状態の判定処理を実行する。本例示的実施形態では、一例として、ユーザの瞬きの回数により、疲労状態の判定を行う。具体的には、疲労状態判定部28が、ユーザの眼(まぶた)を撮像する撮像部を備え、予め定められた間隔で撮像された撮像画像に対して画像解析を行い、上記、予め定められた時間内におけるユーザの瞬きの回数を計測する。そして、疲労状態判定部28は、眼が疲労するほど、瞬きの回数が増加する傾向があるため、計数した瞬きの回数が、実験的に予め得られた閾値を超えた場合、疲労状態にあると判定し、瞬きの回数が閾値未満の場合、疲労状態にないと判定する。なお、疲労状態判定部28における疲労状態の判定処理方法は本例示的実施形態に限定されないことは言うまでもない。例えば、疲労状態にあるほど、副交感神経が交感神経よりも優位になり、瞳が縮瞳する傾向があるため、撮像部によりユーザの瞳を撮像し、撮像画像を解析して得られた瞳の大きさの変化に基づいて、疲労状態であるか否かを判定してもよい。また例えば、疲労状態にあるほど、視線の動きが大きくなる(距離が長くなる)傾向があるため、撮像部によりユーザの瞳を撮像し、撮像画像を解析して得られた視線の動きの変化に基づいて、疲労状態であるか否かを判定してもよい。また例えば、ユーザの眼の眼振、及び乾き具合等を、疲労状態の判定に用いてもよい。
なお、瞬きの回数等の検出は、上記撮像部に限定されず、筋電位センサ等、他のセンサを用いてもよいことはいうまでもない。
なお、疲労状態の判定を行うか否かの基準となる、上記予め定められた時間は、一定の時間でなくてもよく、例えば、画像80の表示を開始した直後は判定の間隔を5分とし、開始から20分が経過した後は、判定の間隔を3分としてもよい。また例えば、ユーザが疲労状態であるとの判定に至る時間(画像80を表示している時間)と、その判定に至った瞳の状態等との対応関係を学習させた学習済みモデルを用いて、疲労状態の判定を行う形態としてもよい。
また、ユーザが入力部54により、眼が疲労状態であることを入力する形態としてもよい。
ステップS112で制御部20は、上記ステップS110の判定結果に基づき、ユーザの眼が疲労状態であるか否かを判定する。ユーザの眼が疲労状態ではないと判定された場合、ステップS112の判定が否定判定となり、ステップS116へ移行する。一方、ユーザの眼が疲労状態であると判定された場合、ステップS112の判定が肯定判定となり、ステップS114へ移行する。
ステップS114で、制御部20は、プロジェクタ43による投光、及び遮蔽部24による遮蔽において、左右を切り替える。上述したように、右目用のプロジェクタ43Rから画像の光を投光する一方、左目用遮蔽部30Lによって、外部からユーザの左目に入射される光を遮蔽している場合に、疲労状態と判定した場合、図5に示した一例のように、左目用のプロジェクタ43Lから画像80の光を投光する一方、右目用遮蔽部30Rによって、外部からユーザの右目に入射される光を遮蔽する。
次のステップS116で表示を終了するか否かを判定する。本例示的実施形態の表示装置10では、一例として、表示ユニット22によって表示中の画像の画像データが終端となった場合、及びユーザによる表示終了の指示が入力部54を介して入力された場合の少なくとも一方の場合を満たすこと画像80の表示の終了条件としている。本例示的実施形態では、終了条件を満たす場合に画像80の表示を終了する。終了条件を満たさない場合、画像80の表示を未だ終了しないため、ステップS116の判定が否定判定となり、ステップS108に戻り、ステップS110~S114の各処理を繰り返す。一方、終了条件を満たす場合、ステップS116の判定が肯定判定となり、ステップS118へ移行する。
ステップS118で制御部20は、ユーザの一方の眼の側における表示ユニット22による画像80の表示、及び他方の眼の側における遮蔽部24による遮蔽を終了する。図5に示した一例のように、ユーザは、左右の目共に、画像80及び遮蔽部24のいずれにも遮られることなく、レンズ13(スクリーン42)を通して、現実の世界を視認可能な状態となる。
次のステップS120で制御部20は、本表示制御処理を終了するか否かを判定する。本例示的実施形態では、一例として、表示装置10の電源(図示省略)がユーザによって切られた場合に、本表示制御処理を終了する。表示装置10に電源が投入されたままの場合、ステップS120の判定が否定判定となり、ステップS100に戻り、ステップS102~S118の各処理を繰り返す。一方、表示装置10の電源が切られた場合、ステップS120の判定が肯定判定となり、本表示制御処理を終了する。
以上説明したように、本例示的実施形態の表示装置10は、ユーザの一方の眼により視認が可能な状態に画像の光を投光するプロジェクタ43と、自装置の外部からユーザの他方の眼に入射される光を遮蔽する状態と、光を透過させる状態とに切り替え可能な左目用遮蔽部30L及び右目用遮蔽部30Rを含む遮蔽部24と、遮蔽部24の状態を、プロジェクタ43が画像の光を投光している場合、光が遮蔽される状態に、プロジェクタ43が画像を投光していない場合、光が透過される状態に切り替える制御を行う制御部20と、を備える。
一般的に、ユーザが片眼だけで画像を視認した場合、画像を視認していない方の眼では、現実世界そのものを視認することになる。両眼で異なる物を視認するため、両者の情報が混在することになり、モザイク状に画像が交互に入れ替わる、いわゆる両眼視野闘争が生じる。そこで、両眼視野闘争を抑制するために、予め定められた、画像を視認しない方の眼の側に遮蔽板を固定し、遮蔽板によりユーザの眼に入射される光を遮蔽する技術が知られている。しかしながら、遮蔽板を固定的に設けてしまうと、遮蔽してほしくない場合、例えば、一方の眼の側に画像を表示していない場合であっても、ユーザの視界が遮蔽されてしまうことになり、表示装置を装着したままでは他方の眼だけ現実世界が視認し難くなる。
これに対して本例示的実施形態の表示装置10では、ユーザの操作を要せず、表示ユニット22による画像の表示と同期して、遮蔽部24による光の遮蔽状態を切り替えるため、自動的に、遮蔽状態が解除される。このように本例示的実施形態の表示装置10では、ユーザの負担をより軽減することができ、眼の疲労という負担と共に、操作の負担も軽減することができる。
なお、本例示的実施形態の表示装置10では、遮蔽部24により、スクリーン42全体を遮蔽する形態について説明したが、遮蔽部24が遮蔽する領域は本例示的実施形態に限定されず、少なくとも、画像80の光が投光されているスクリーン42の領域、換言すると、画像80が表示されている領域に対応する、領域を遮蔽すればよい。例えば、図6Aに示した状態では、左目用遮蔽部30Lは、スクリーン42Rにおいて画像80が表示されている領域に対応する領域を含み、かつスクリーン42L全体よりも小さい領域を遮蔽している。
また、例えば、画像80を表示する側においても、遮蔽部24により、画像80の修理の一部の領域を遮蔽してもよい。この場合の一例を、図6Bに示す。図6Bに示した一例では、スクリーン42Rにおいても、画像80の周囲が、右目用遮蔽部30Rにより遮蔽されている。また、スクリーン42Lでは、左目用遮蔽部30Lにより、右目用遮蔽部30Rが遮蔽する領域に対応する領域を遮蔽している。図6Bに示した形態とすることにより、左右の画像を光学的に重ね合わせた場合の視認性を向上させることができる。
また、本例示的実施形態では、プロジェクタ43をプロジェクタ43L及びプロジェクタ43Rの2つ備え、着脱部14も二つ備え、左右各々、着脱部14によりフレーム12に取り付ける形態について説明したが、本例示的実施形態に限定されず、一例として図7及び図8に示す表示装置10のように、表示ユニット22が、1つのプロジェクタ43と、スクリーン42L及びスクリーン42Rと、を備える形態としてもよい。この場合、画像80を表示する眼を左右で切り変える場合、ユーザが着脱部14を左右逆に装着し直せばよい。一般的に、スクリーンに比べ、プロジェクタの方が比較的、高額である。プロジェクタの数は1つとし、スクリーンは2とすることにより、スクリーン及びプロジェクタの両方を装着し直す場合に比べて、価格が高額になることを抑制するとともに、ユーザの簡便性の低下も抑制することができる。
また例えば、表示ユニット22が、1つのスクリーン42と、1つのプロジェクタ43とを備える形態であってもよい。例えば、表示ユニット22が、スクリーン42Lとプロジェクタ43Rとを備える形態であってもよいし、表示ユニット22が、スクリーン42Rとプロジェクタ43Lとを備える形態であってもよい。
また、例えば表示ユニット22は、図9に示した一例のように、スクリーン42L及びプロジェクタ43Lに代えて、ユーザの左目の網膜に画像を直接投光する網膜プロジェクタ45Lを備え、また、スクリーン42R及びプロジェクタ43Rに変えて、ユーザの右目の網膜に画像を直接投光する網膜プロジェクタ45Rを備える形態としてもよい。
また、本例示的実施形態の表示装置10では、ユーザの眼が疲労状態ではない場合、利き目側の表示ユニット22によって画像80の表示を行う。本発明者らは、片眼で画像を視認する場合、利き目で画像の視認を行うことにより、片眼であるということに違和感を感じない(片眼で見ていることに気づかない)傾向があることを知見により得た。従って、本例示的実施形態の表示装置10によれば、主に利き目側の表示ユニット22によって画像80の表示を行うことにより、ユーザの違和感を軽減すると共に、ユーザの負担をより軽減することができる。
本例示的実施形態において、例えば制御部20、利き目判定部26、及び疲労状態判定部28といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(processor)を用いることができる。上記各種のプロセッサには、上述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device :PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせや、CPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアント及びサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態が挙げられる。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態が挙げられる。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(circuitry)を用いることができる。
また、上記例示的実施形態では、表示制御プログラム60が記憶部52に予め記憶(インストール)されている態様を説明したが、これに限定されない。表示制御プログラム60は、CD-ROM(Compact Disk Read Only Memory)、DVD-ROM(Digital Versatile Disk Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の記録媒体に記録された形態で提供されてもよい。また、表示制御プログラム60は、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
2018年9月20日出願の日本国特許出願2018-176490号の開示は、その全体が参照により本明細書に取り込まれる。
本明細書に記載された全ての文献、特許出願、及び技術規格は、個々の文献、特許出願、及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
Claims (13)
- ユーザの一方の眼により視認が可能な状態に画像の光を投光する投光部と、
自装置の外部から前記ユーザの他方の眼に入射される光を遮蔽する状態と前記光を透過させる状態とに切り替え可能な遮蔽部と、
前記遮蔽部の状態を、前記投光部が前記画像の光を投光している場合、前記光が遮蔽される状態に、前記投光部が前記画像を投光していない場合、前記光が透過される状態に切り替える制御を行う制御部と、
を備えた表示装置。 - 前記投光部は、前記一方の眼の網膜に前記画像を直接投光する、請求項1に記載の表示装置。
- 前記投光部から投光された前記画像の光が結像される画像結像部をさらに備えた、請求項1に記載の表示装置。
- 前記ユーザの顔の一部と接し、前記投光部、前記画像結像部、及び前記遮蔽部を保持するフレームをさらに備える、請求項3に記載の表示装置。
- 一つの前記投光部と、
前記ユーザの両眼に対応する二つの前記遮蔽部と、
前記ユーザの両眼に対応する二つの前記画像結像部と、
を備え、
前記ユーザの両眼に対応する位置にそれぞれ設けられ、前記投光部を前記フレームに着脱可能とする二つの着脱部をさらに備える、
請求項4に記載の表示装置。 - 前記投光部は、前記一方の眼を前記ユーザの右目とした右目用の投光部、及び前記一方の眼を前記ユーザの左目とした左目用の投光部を有し、
前記遮蔽部は、前記他方の眼を前記ユーザの左目とした左目用の遮蔽部、及び前記他方の眼を前記ユーザの右目とした右目用の遮蔽部を有し、
前記制御部は、前記右目用の投光部による前記画像の投光に応じて前記左目用の遮蔽部を前記光が遮蔽される状態に制御し、前記左目用の投光部による前記画像の投光に応じて前記右目用の遮蔽部を前記光が遮蔽される状態に制御する、
請求項1から請求項4のいずれか1項に記載の表示装置。 - 前記ユーザの眼の疲労状態を判定する疲労状態判定部をさらに備え、
前記制御部は、前記投光部による前記画像の光の投光中に、前記疲労状態判定部が疲労状態であると判定した場合、前記画像の光を投光する投光部を、前記右目用の投光部と前記左目用の投光部とで切り替える制御を行う、
請求項6に記載の表示装置。 - 前記一方の眼は、前記ユーザの利き目である、請求項1から請求項7のいずれか1項に記載の表示装置。
- 前記ユーザの利き目を判定する利き目判定部をさらに備えた、請求項8に記載の表示装置。
- 前記ユーザの利き目に関する情報を受け付ける受付部をさらに備えた、請求項8に記載の表示装置。
- 前記遮蔽部は、前記ユーザが前記一方の眼により視認する領域のうち、前記画像の光が投光されている領域に対応する、前記他方の眼により視認する領域を遮蔽する、請求項1から請求項10のいずれか1項に記載の表示装置。
- ユーザの一方の眼により視認が可能な状態に画像を投光する投光部と、自装置の外部から前記ユーザの他方の眼に入射される光を遮蔽する状態と前記光を透過させる状態とに切り替え可能な遮蔽部と、を備えた、表示装置の制御方法であって、
前記遮蔽部の状態を、前記投光部が前記画像を投光している場合、前記光が遮蔽される状態に、前記投光部が前記画像を投光していない場合、前記光が透過される状態に切り替える制御を行う、
ことを含む、コンピュータが実行する表示装置の制御方法。 - ユーザの一方の眼により視認が可能な状態に画像を投光する投光部と、自装置の外部から前記ユーザの他方の眼に入射される光を遮蔽する状態と前記光を透過させる状態とに切り替え可能な遮蔽部と、を備えた、表示装置の制御プログラムであって、
前記遮蔽部の状態を、前記投光部が前記画像を投光している場合、前記光が遮蔽される状態に、前記投光部が前記画像を投光していない場合、前記光が透過される状態に切り替える制御を行う、
ことを含む処理を、コンピュータに実行させる表示制御プログラム。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020548127A JPWO2020059357A1 (ja) | 2018-09-20 | 2019-08-08 | 表示装置、表示制御方法、及び表示制御プログラム |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2018176490 | 2018-09-20 | ||
| JP2018-176490 | 2018-09-20 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2020059357A1 true WO2020059357A1 (ja) | 2020-03-26 |
Family
ID=69887058
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2019/031465 Ceased WO2020059357A1 (ja) | 2018-09-20 | 2019-08-08 | 表示装置、表示制御方法、及び表示制御プログラム |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JPWO2020059357A1 (ja) |
| WO (1) | WO2020059357A1 (ja) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2023125867A (ja) * | 2022-02-28 | 2023-09-07 | 富士フイルム株式会社 | 眼鏡型情報表示装置、表示制御方法、及び表示制御プログラム |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2005026819A1 (ja) * | 2003-09-09 | 2005-03-24 | Scalar Corporation | 画像表示装置 |
| JP2010193287A (ja) * | 2009-02-19 | 2010-09-02 | Olympus Imaging Corp | カメラ |
| JP2010197911A (ja) * | 2009-02-27 | 2010-09-09 | Brother Ind Ltd | ヘッドマウントディスプレイ |
| JP2012211959A (ja) * | 2011-03-30 | 2012-11-01 | Brother Ind Ltd | ヘッドマウントディスプレイ |
| JP2016133629A (ja) * | 2015-01-20 | 2016-07-25 | 株式会社Nttドコモ | 映像表示装置、映像表示方法、プログラム |
| JP2018505458A (ja) * | 2014-11-14 | 2018-02-22 | ゼンソモトリック インストゥルメンツ ゲゼルシャフト ヒューア イノベイティブ ゼンソリック エムベーハーSENSOMOTORIC INSTRUMENTS Gesellschaft fur innovative Sensorik mbH | 目追跡システム及び利き目を検出する方法 |
Family Cites Families (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2005195822A (ja) * | 2004-01-06 | 2005-07-21 | Scalar Corp | 画像表示装置 |
| JP2017198825A (ja) * | 2016-04-27 | 2017-11-02 | 株式会社リコー | 単眼型画像表示装置 |
-
2019
- 2019-08-08 JP JP2020548127A patent/JPWO2020059357A1/ja active Pending
- 2019-08-08 WO PCT/JP2019/031465 patent/WO2020059357A1/ja not_active Ceased
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2005026819A1 (ja) * | 2003-09-09 | 2005-03-24 | Scalar Corporation | 画像表示装置 |
| JP2010193287A (ja) * | 2009-02-19 | 2010-09-02 | Olympus Imaging Corp | カメラ |
| JP2010197911A (ja) * | 2009-02-27 | 2010-09-09 | Brother Ind Ltd | ヘッドマウントディスプレイ |
| JP2012211959A (ja) * | 2011-03-30 | 2012-11-01 | Brother Ind Ltd | ヘッドマウントディスプレイ |
| JP2018505458A (ja) * | 2014-11-14 | 2018-02-22 | ゼンソモトリック インストゥルメンツ ゲゼルシャフト ヒューア イノベイティブ ゼンソリック エムベーハーSENSOMOTORIC INSTRUMENTS Gesellschaft fur innovative Sensorik mbH | 目追跡システム及び利き目を検出する方法 |
| JP2016133629A (ja) * | 2015-01-20 | 2016-07-25 | 株式会社Nttドコモ | 映像表示装置、映像表示方法、プログラム |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2023125867A (ja) * | 2022-02-28 | 2023-09-07 | 富士フイルム株式会社 | 眼鏡型情報表示装置、表示制御方法、及び表示制御プログラム |
Also Published As
| Publication number | Publication date |
|---|---|
| JPWO2020059357A1 (ja) | 2021-08-30 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12171713B2 (en) | Providing enhanced images for navigation | |
| CN114730094B (zh) | 具有人工现实内容的变焦显示的人工现实系统 | |
| EP3108292B1 (en) | Stereoscopic display responsive to focal-point shift | |
| TWI534476B (zh) | 頭戴式顯示器 | |
| EP2638693B1 (en) | Automatic variable virtual focus for augmented reality displays | |
| CN107005653B (zh) | 进行虚拟聚焦反馈的装置、方法以及头戴式显示器 | |
| CN106199963B (zh) | 显示装置及其控制方法以及计算机程序 | |
| TWI486631B (zh) | 頭戴式顯示裝置及其控制方法 | |
| CN106797422A (zh) | 视线检测用的装置 | |
| WO2015027599A1 (zh) | 内容投射系统及内容投射方法 | |
| US20240353922A1 (en) | Devices, methods, and graphical user interfaces for user enrollment and authentication | |
| KR20160075571A (ko) | 재구성 가능한 프로젝트된 증강/가상 현실 기기를 위한 시스템 및 방법 | |
| US9805612B2 (en) | Interest-attention feedback method for separating cognitive awareness into different left and right sensor displays | |
| CN110177528B (zh) | 视力训练装置 | |
| WO2021095277A1 (ja) | 視線検出方法、視線検出装置、及び制御プログラム | |
| KR20250166987A (ko) | 사용자 등록 및 인증을 위한 디바이스들, 방법들, 및 그래픽 사용자 인터페이스들 | |
| CN120569698A (zh) | 用于设备定位调整的设备、方法和图形用户界面 | |
| JP2017191546A (ja) | 医療用ヘッドマウントディスプレイ、医療用ヘッドマウントディスプレイのプログラムおよび医療用ヘッドマウントディスプレイの制御方法 | |
| WO2020059357A1 (ja) | 表示装置、表示制御方法、及び表示制御プログラム | |
| JP2017079389A (ja) | 表示装置、表示装置の制御方法、及び、プログラム | |
| JP2024018719A (ja) | 制御装置、眼鏡型情報表示装置、制御方法、及び制御プログラム | |
| JP2018191079A (ja) | 多焦点視覚出力方法、多焦点視覚出力装置 | |
| US20250240400A1 (en) | Methods for controlling performance of extended reality display systems | |
| JP7663947B2 (ja) | 視覚情報補正装置、視覚情報補正方法、及びプログラム | |
| JP2023143437A (ja) | 制御装置、制御方法、及び制御プログラム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 19862189 Country of ref document: EP Kind code of ref document: A1 |
|
| ENP | Entry into the national phase |
Ref document number: 2020548127 Country of ref document: JP Kind code of ref document: A |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 19862189 Country of ref document: EP Kind code of ref document: A1 |