WO2017104525A1 - Input device, electronic device, and head-mounted display - Google Patents
Input device, electronic device, and head-mounted display Download PDFInfo
- Publication number
- WO2017104525A1 WO2017104525A1 PCT/JP2016/086504 JP2016086504W WO2017104525A1 WO 2017104525 A1 WO2017104525 A1 WO 2017104525A1 JP 2016086504 W JP2016086504 W JP 2016086504W WO 2017104525 A1 WO2017104525 A1 WO 2017104525A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- gesture operation
- input
- user
- gesture
- hand
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
Definitions
- the present invention relates to an input device, an electronic device, and a head mounted display.
- Patent Document 1 discloses a computing device including an infrared LED and an infrared proximity sensor. According to the technique of Patent Document 1, the infrared light emitted from the infrared LED is reflected by the hand approaching the computing device and reflected, and the reflected light can be detected by the infrared proximity sensor to detect the movement of the hand. The user can perform an input operation desired by the user such as swipe without contact by the movement (gesture) of the hand. Therefore, even if the user's hand is dirty, there is no risk of contaminating the mobile computing device.
- Patent Document 2 discloses a technique for promoting or supporting one or more operations or techniques for gesture detection based on signals from a plurality of ambient environment sensors.
- providing a plurality of ambient environment sensors in this manner increases the cost and may increase the size of the mobile terminal.
- the present invention has been made in view of the above circumstances, and provides an input device, an electronic device, and a head-mounted display that enable complex input while having a simple configuration by combining gesture operations. With the goal.
- an input device reflecting one aspect of the present invention is: In the detection region, a detection device that detects a movement or shape change of the indicator moved by the user as a gesture operation, and generates an output corresponding to the gesture operation;
- a control device for determining input contents according to the output of the detection device, and an input device comprising:
- the control device determines a single input mode corresponding to the single gesture operation, and the detection device continuously detects a plurality of the gesture operations. Accordingly, it is possible to selectively set a combination mode for determining input contents different from the case where a single gesture operation is detected.
- an input device an electronic device, and a head-mounted display that enable complex input with a simple configuration by combining gesture operations.
- HMD head mounted display
- FIG. 1 It is the figure which looked at the image display part 104B of the display unit 104 from the user US side. It is a figure which shows the example of an event list and a combination list.
- (A) is a figure which shows the input screen which the user directly input using external PC etc.
- (b) is a schematic diagram which shows converting the data into QR Code (trademark).
- (A) is a figure which shows the example of an event which inputs a content with the combination of gesture operation for every application
- (b) is a figure which shows the example of a combination list
- FIG. 1 is a perspective view of an HMD 100 that is an electronic apparatus according to the present embodiment.
- FIG. 2 is a front view of the head mounted display (hereinafter referred to as HMD) 100 according to the present embodiment.
- FIG. 3 is a view of the HMD 100 according to the present embodiment as viewed from above.
- the right side and the left side of the HMD 100 refer to the right side and the left side for the user wearing the HMD 100.
- the HMD 100 of this embodiment has a frame 101 as a support member.
- a frame 101 that is U-shaped when viewed from above has a front part 101a to which two spectacle lenses 102 are attached, and side parts 101b and 101c extending rearward from both ends of the front part 101a.
- the two spectacle lenses 102 attached to the frame 101 may or may not have refractive power.
- a cylindrical main body 103 as a support member is fixed to the front portion 101a of the frame 101 on the upper side of the spectacle lens 102 on the right side (which may be on the left side depending on the user's dominant eye).
- the main body 103 is provided with a display unit 104.
- a display control unit 104DR (see FIG. 6 to be described later) that controls display control of the display unit 104 based on an instruction from a processor 121 described later is disposed in the main body 103. If necessary, a display unit may be arranged in front of both eyes.
- FIG. 4 is a schematic cross-sectional view showing the configuration of the display unit 104.
- the display unit 104 as a display device that displays the detection result of the gesture operation includes an image forming unit 104A and an image display unit 104B.
- the image forming unit 104A is incorporated in the main body unit 103, and includes a light source 104a, a unidirectional diffuser 104b, a condenser lens 104c, and a display element 104d.
- the image display unit 104B which is a so-called see-through type display member, is disposed on the entire plate so as to extend downward from the main body unit 103 and extend in parallel to one eyeglass lens 102 (see FIG. 1).
- the eyepiece prism 104f, the deflecting prism 104g, and the hologram optical element 104h is disposed on the entire plate so as to extend downward from the main body unit 103 and extend in parallel to one eyeglass lens 102 (see FIG. 1).
- the light source 104a has a function of illuminating the display element 104d.
- the light source 104a emits light having a predetermined wavelength width, whereby the image light obtained by illuminating the display element 104d can have a predetermined wavelength width, and the hologram optical element 104h transmits the image light. When diffracted, the image can be observed by the user over the entire observation angle of view at the position of the pupil B. Further, the peak wavelength for each color of the light source 104a is set in the vicinity of the peak wavelength of the diffraction efficiency of the hologram optical element 104h, so that the light use efficiency is improved.
- the light source 104a is composed of LEDs that emit RGB light, the cost of the light source 104a can be reduced, and a color image is displayed on the display element 104d when the display element 104d is illuminated. The color image can be visually recognized by the user.
- each of the RGB LED elements has a narrow emission wavelength width, the use of a plurality of such LED elements enables high color reproducibility and bright image display.
- the display element 104d displays an image by modulating the light emitted from the light source 104a in accordance with image data, and is configured by a transmissive liquid crystal display element having pixels that serve as light transmitting regions in a matrix. Has been. Note that the display element 104d may be of a reflective type.
- the eyepiece prism 104f totally reflects the image light from the display element 104d incident through the base end face PL1 by the opposed parallel inner side face PL2 and outer side face PL3, and passes through the hologram optical element 104h to the user's pupil.
- external light is transmitted and guided to the user's pupil, and is composed of, for example, an acrylic resin together with the deflecting prism 104g.
- the eyepiece prism 104f and the deflection prism 104g are joined by an adhesive with the hologram optical element 104h sandwiched between inclined surfaces PL4 and PL5 inclined with respect to the inner surface PL2 and the outer surface PL3.
- the deflection prism 104g is joined to the eyepiece prism 104f, and becomes a substantially parallel flat plate integrated with the eyepiece prism 104f. By joining the deflecting prism 104g to the eyepiece prism 104f, it is possible to prevent distortion in the external image observed by the user through the display unit 104.
- the hologram optical element 104h diffracts and reflects the image light (light having a wavelength corresponding to the three primary colors) emitted from the display element 104d, guides it to the pupil B, enlarges the image displayed on the display element 104d, and enlarges the user's pupil. It is a volume phase type reflection hologram guided as a virtual image.
- the hologram optical element 104h has, for example, three wavelength ranges of 465 ⁇ 5 nm (B light), 521 ⁇ 5 nm (G light), and 634 ⁇ 5 nm (R light) with a peak wavelength of diffraction efficiency and a wavelength width of half the diffraction efficiency. The light is diffracted (reflected).
- the peak wavelength of diffraction efficiency is the wavelength at which the diffraction efficiency reaches a peak
- the wavelength width at half maximum of the diffraction efficiency is the wavelength width at which the diffraction efficiency is at half maximum of the diffraction efficiency peak. is there.
- the reflection-type hologram optical element 104h has high wavelength selectivity, and only diffracts and reflects light having a wavelength in the above-mentioned wavelength range (near the exposure wavelength).
- the hologram optical element 104h is transmitted, and a high external light transmittance can be realized.
- the light emitted from the light source 104a is diffused by the unidirectional diffusion plate 104b, condensed by the condenser lens 104c, and enters the display element 104d.
- the light incident on the display element 104d is modulated for each pixel based on the image data input from the display control unit 104DR, and is emitted as image light. Thereby, a color image is displayed on the display element 104d.
- Image light from the display element 104d enters the eyepiece prism 104f from its base end face PL1, is totally reflected a plurality of times by the inner side face PL2 and the outer side face PL3, and enters the hologram optical element 104h.
- the light incident on the hologram optical element 104h is reflected there, passes through the inner side surface PL2, and reaches the pupil B.
- the user can observe an enlarged virtual image of the image displayed on the display element 104d, and can visually recognize it as a screen formed on the image display unit 104B.
- the hologram optical element 104h constitutes a screen, or it can be considered that a screen is formed on the inner surface PL2.
- “screen” may refer to an image to be displayed.
- the eyepiece prism 104f, the deflecting prism 104g, and the hologram optical element 104h transmit almost all of the external light, the user can observe an external field image (real image) through them. Therefore, the virtual image of the image displayed on the display element 104d is observed so as to overlap with a part of the external image. In this manner, the user of the HMD 100 can simultaneously observe the image provided from the display element 104d and the external image via the hologram optical element 104h. Note that when the display unit 104 is in the non-display state, the image display unit 104B is transparent, and only the external image can be observed.
- a display unit is configured by combining a light source, a liquid crystal display element, and an optical system.
- a self-luminous display element for example, an organic EL display
- Element for example, an organic EL display
- a transmissive organic EL display panel having transparency in a non-light emitting state may be used.
- a proximity sensor 105 disposed near the center of the frame 101 and a lens 106 a of a camera 106 disposed near the side are provided in front of the main body 103 so as to face the front. It has been.
- a “proximity sensor” which is an example of a detection device refers to a proximity sensor in order to detect that an object, for example, a part of a human body (such as a hand or a finger) is in proximity to the user's eyes. This means that a signal is output by detecting whether or not it exists in a detection region in the proximity range in front of the detection surface.
- the proximity range may be set as appropriate according to the operator's characteristics and preferences. For example, the proximity range from the detection surface of the proximity sensor may be within a range of 200 mm.
- the control circuit determines that the object exists in the proximity range based on a signal output from the proximity sensor when the object enters the detection area in the proximity range in front of the proximity sensor. When an object enters the detection area, a valid signal may be output from the proximity sensor to the control circuit.
- a passive proximity sensor has a detection unit that detects invisible light and electromagnetic waves emitted from an object when the object approaches.
- a passive proximity sensor there are a pyroelectric sensor that detects invisible light such as infrared rays emitted from an approaching human body, and a capacitance sensor that detects a change in electrostatic capacitance between the approaching human body.
- the active proximity sensor includes an invisible light or sound wave projection unit, and a detection unit that receives the invisible light or sound wave reflected and returned from the object.
- Active proximity sensors include infrared sensors that project infrared rays and receive infrared rays reflected by objects, laser sensors that project laser beams and receive laser beams reflected by objects, and project ultrasonic waves. Then, there is an ultrasonic sensor that receives ultrasonic waves reflected by an object. Note that a passive proximity sensor does not need to project energy toward an object, and thus has excellent low power consumption. Active proximity sensors can improve detection reliability. For example, even if the user wears gloves that do not transmit detection light emitted from the human body such as infrared light, the movement of the user's hand Can be detected. A plurality of types of proximity sensors may be used in combination.
- ⁇ ⁇ Proximity sensors are generally smaller and cheaper than cameras, and consume less power.
- the HMD can be operated, and complicated image processing required for gesture recognition by analysis of the image captured by the camera is also unnecessary.
- FIG. 5 is an enlarged view of the proximity sensor 105 used in the present embodiment as viewed from the front.
- the proximity sensor 105 includes a light receiving unit 105 a that receives invisible light such as infrared light emitted from a human body as detection light.
- the light receiving unit 105a forms light receiving areas RA to RD arranged in 2 rows and 2 columns, and when receiving invisible light, signals corresponding to the light receiving areas RA to RD are individually output from the light receiving areas RA to RD. It has become.
- each of the light receiving areas RA to RD changes in intensity according to the distance from the light receiving unit 105a to the object, and the intensity increases as the distance decreases. If it is a pyroelectric sensor that detects infrared light emitted from the human body, it is difficult to falsely detect objects other than the exposed human body. For example, when working in a confined space, false detection is effectively prevented. There is an advantage that you can.
- the right sub-body portion 107 is attached to the right side portion 101b of the frame 101
- the left sub-body portion 108 is attached to the left side portion 101c of the frame 101.
- the right sub-main body portion 107 and the left sub-main body portion 108 have an elongated plate shape, and have elongated protrusions 107a and 108a on the inner side, respectively.
- the right sub-body portion 107 is attached to the frame 101 in a positioned state
- the elongated protrusion 108 a is attached to the side of the frame 101.
- the left sub-main body portion 108 is attached to the frame 101 in a positioned state.
- the right sub main body 107 there are a geomagnetic sensor 109 (see FIG. 6 described later) for detecting geomagnetism, and an angular velocity sensor 110B and an acceleration sensor 110A (see FIG. 6 described later) that generate an output corresponding to the posture.
- the left sub-main body 108 is provided with a speaker 111A, an earphone 111C, and a microphone 111B (see FIG. 6 to be described later).
- the main main body 103 and the right sub main body 107 are connected so as to be able to transmit signals through a wiring HS, and the main main body 103 and the left sub main body 108 are connected so as to be able to transmit signals through a wiring (not shown). Yes.
- FIG. 6 As schematically illustrated in FIG.
- the right sub-main body 107 is connected to the control unit CTU via a cord CD extending from the rear end.
- a 6-axis sensor in which an angular velocity sensor and an acceleration sensor are integrated may be used.
- the HMD can be operated by sound based on an output signal generated from the microphone 111B according to the input sound.
- the main main body 103 and the left sub main body 108 may be configured to be wirelessly connected.
- a power circuit 113 (see FIG. 6 described later) for converting the voltage applied from the battery control unit 128 of the control unit CTU into an appropriate voltage for each unit is provided in the right sub-main unit 107. Yes.
- FIG. 6 is a block diagram of main circuits of the HMD 100.
- the control unit CTU receives the radio waves from the processor 121, the operation unit 122, and the GPS satellite as a control device for controlling each functional device by generating a control signal for the display unit 104 and other functional devices.
- GPS receiver 123 communication unit 124 as an interface unit for exchanging data with the outside, ROM 125 for storing programs, information on image data, single list and combination list (details will be described later), telephone directory
- a RAM 126 serving as a storage unit for storing data and a voice dictionary, a battery 127 and a battery control unit 128, and a power supply circuit 130 for converting the voltage applied from the battery control unit 128 into an appropriate voltage for each unit; Storage devices such as SSD and flash memory And a scan 129.
- the processor 121 can use an application processor used in a smartphone or the like, but the type of the processor 121 is not limited. For example, if an application processor includes hardware necessary for image processing such as GPU or Codec as a standard, it can be said that the processor is suitable for a small HMD.
- the processor 121 receives a signal from the proximity sensor 105. Further, the processor 121 controls image display of the display unit 104 via the display control unit 104DR.
- the processor 121 and the proximity sensor 105 constitute an input device.
- the processor 121 receives power from the power supply circuit 130, operates according to a program stored in at least one of the ROM 124 and the storage device 129, and receives image data from the camera 106 according to an operation input such as power-on from the operation unit 122.
- the data can be input and stored in the RAM 126, and can be communicated with the outside via the communication unit 124 as necessary.
- the processor 121 executes image control according to the output from the proximity sensor 105, so that the user can perform screen control of the HMD 100 including call and video reproduction by gesture operation using hands and fingers. Can be executed.
- FIG. 7 is a front view when the user US wears the HMD 100 of the present embodiment.
- FIG. 8 is a side view when the user US wears the HMD 100
- FIG. 9 is a top view thereof, which is shown together with the user's hand.
- the gesture operation is an operation in which at least the hand HD or finger of the user US passes through the detection area of the proximity sensor 105 and can be detected by the processor 121 of the HMD 100 via the proximity sensor 105.
- the light receiving unit 105a determines that no gesture operation is performed. To do.
- the light receiving unit 105a detects the invisible light emitted from the hand HD, and the proximity sensor 105 based on the invisible light is detected.
- the processor 121 determines that a gesture operation has been performed. In the following description, it is assumed that the gesture operation is performed by the user's hand HD.
- the gesture operation may be performed by the user using a pointing device made of a material that can emit invisible light. May be performed.
- An indicator that is moved by the user's intention such as a finger or other part of the human body or the indicator.
- An imaging device can be used as the detection device instead of the proximity sensor.
- the moving indicator is imaged by the imaging device, and the moving direction is determined by the image processing device (part of the control device) based on the image data output from the imaging device.
- the light receiving unit 105a has the light receiving regions RA to RD arranged in 2 rows and 2 columns (see FIG. 5). Therefore, when the user US moves the hand HD closer to the front of the HMD 100 from either the left, right, up, or down directions, the output timings of signals detected in the light receiving areas RA to RD are different.
- 10 and 11 are examples of signal waveforms of the light receiving areas RA to RD, where the vertical axis represents the signal intensity of the light receiving areas RA to RD and the horizontal axis represents the time.
- the vertical axis represents the signal intensity of the light receiving areas RA to RD
- the horizontal axis represents the time.
- the light receiving areas RA and RC first receive invisible light. Therefore, as shown in FIG. 10, first, the signals in the light receiving areas RA and RC rise, the signals in the light receiving areas RB and RD rise later, and the signals in the light receiving areas RA and RC fall, and then the light receiving areas RB, The RD signal falls.
- the processor 121 detects the timing of this signal, and determines that the user US has performed the gesture operation by moving the hand HD from the right to the left.
- the light receiving state of the proximity sensor 105 when the hand HD is moved from the right to the left when viewed from the user side as shown in FIG. 11 is shown corresponding to FIG. 12 (the light receiving area of the proximity sensor 105 is shown by a circle).
- the light receiving area detected here is indicated by hatching.
- FIG. 12A none of the light receiving areas detects the hand HD, but in FIG. 12B, only the light receiving areas RA and RC detect the hand HD, and the hand HD is on the right side of the detection area. You can see that you have entered.
- FIG. 12C since all the light receiving areas detect the hand HD, it can be seen that the hand HD has come in front of the proximity sensor 105.
- FIG. 12A none of the light receiving areas detects the hand HD
- FIG. 12B only the light receiving areas RA and RC detect the hand HD
- FIG. 12C since all the light receiving areas detect the hand HD, it can be seen that the hand HD has come in front of the proximity sensor 105.
- FIG. 12C since all
- the signals in the light receiving areas RA and RB rise first, the signals in the light receiving areas RC and RD rise later, and the signals in the light receiving areas RA and RB fall, and then the light receiving areas RC and RD.
- the signal is falling.
- the processor 121 detects the timing of this signal, and determines that the user US has performed the gesture operation by moving the hand HD from the top to the bottom.
- FIG. 14 shows an example of a signal waveform in which the vertical axis represents the average signal intensity of the light receiving regions RA to RD and the horizontal axis represents time.
- the waveform indicated by the solid line is high in intensity immediately after output and decreases with time. Therefore, when such a waveform is output from the proximity sensor 105, the processor 121 determines that the gesture operation is performed by moving the hand HD away from the vicinity of the face.
- the waveform indicated by the dotted line is low in intensity immediately after output and increases with time. Therefore, when such a waveform is output from the proximity sensor 105, the processor 121 determines that the gesture operation is performed by moving the hand HD so as to approach the face from a distance.
- the presence and movement of the hand HD can be reliably detected by using the proximity sensor and positioning the detection region within the visual field of the user's eye facing the image display unit. Accordingly, the user US can view the hand operation and the operation in conjunction with each other, and can realize an intuitive operation. Furthermore, since the proximity sensor is small and consumes less power than the camera, the continuous operation time of the HMD 100 can be extended.
- a single mode for inputting the input content desired by the user by a single gesture operation and a plurality of gesture operations are combined to obtain the input content desired by the user.
- the combination mode to be input can be selectively set, and the mode is switched by a specific gesture operation.
- the processor 121 recognizes the pattern in advance as an effective gesture operation. Move from top to bottom of hand, move from bottom to top of hand, move from left to right of hand, move from right to left of hand, move from bottom left to right of hand, from bottom right of hand Move to the upper left, move from the upper left to the lower right of the hand, move from the upper right to the lower left of the hand, rotate around the hand, click operation (moves the hand quickly back and forth), rest of the hand (short), rest of the hand (Long), moving your hand from side to side at high speed.
- the input content may be determined individually corresponding to the above gesture operations.
- the combination mode it is necessary to use a combination of the above gesture operations. Therefore, it is necessary to switch modes so as not to confuse gesture operations.
- a gesture operation for switching modes is set in advance, and by detecting the gesture operation, the processor 121 can switch between the single mode and the combination mode.
- the switching from the single mode to the combination mode and the switching from the combination mode to the single mode may be performed by either the same gesture operation or different gesture operations.
- the mode switching gesture operation (referred to as mode switching gesture operation) is common, and as shown in FIGS. 8 and 9, the hand HD is held still for 2 seconds or more in the center of the detection area.
- the mode switching may be performed by detecting a voice such as “mode switching” issued by the user US using the voice recognition function of the processor 121 via the microphone 111B.
- a gesture operation (referred to as a cancel gesture operation) for canceling the content of the previous gesture operation (referred to as input information) moves the hand HD left and right at high speed within the detection area.
- the cancel gesture operation is performed in a state where no input information is stored, the single mode may be switched.
- a gesture operation (decision gesture operation) that moves the hand HD back and forth in the center of the detection area of the proximity sensor 105 may be set in advance. good.
- a single list in which a single gesture operation in the single mode is associated with the input content and a combination list in which a combination of a plurality of gesture operations in the combination mode is associated with the input content are stored in the RAM 126 in advance. It is assumed that the processor 121 can read out as necessary. At the time of setting the combination mode, the processor 121 sequentially stores input information by successive gesture operations and collates with the combination list.
- the combination list includes a mode switching gesture operation, a cancel gesture operation, and a determination gesture operation in addition to an effective gesture operation.
- the single mode is set by default, and when the mode switching gesture operation is detected after the transition to the combination mode, or when input by a plurality of gesture operations is completed. , And transition to single mode.
- the combination mode may be continued unless the user performs a mode switching gesture operation.
- FIG. 15 is a flowchart showing a single mode sequence.
- the processor 121 is detected via the proximity sensor 105 in step S102. It is determined from the gesture operation pattern whether or not the gesture operation is valid. If the gesture operation is not valid, the sequence is returned to step S101 to wait for the next gesture operation.
- step S103 the processor 121 determines whether the gesture operation is a mode switching gesture operation. If the processor 121 determines that the gesture operation is not a mode switching gesture operation, step S104 is performed. Thus, the processor 121 determines the input content corresponding to the gesture operation detected through the proximity sensor 105 based on the single list, and executes it. On the other hand, when the processor 121 determines that the operation is a mode switching gesture operation, the single mode is interrupted in step S105, and the mode is shifted to the combination mode. Hereinafter, the processor 121 determines the input content on the assumption that a plurality of gesture operations are continued.
- FIG. 16 is a flowchart showing the sequence of the combination mode. After the transition to the combination mode, when the proximity sensor 105 outputs a signal in response to the gesture operation in step S201, the processor 121 determines from the gesture operation pattern detected via the proximity sensor 105 in step S202. It is determined whether or not it is a mode switching gesture operation.
- the processor 121 When determining that the detected gesture operation is a mode switching gesture operation, the processor 121 deletes the stored input information in step S210, interrupts the combination mode in step S211, and shifts to the single mode. .
- step S203 the processor 121 determines whether or not the detected gesture operation exists in the combination list. If the detected gesture operation does not exist, in step S208, the processor 121 displays the input gesture operation content as an option on the display unit 104, and then returns the sequence to step S201.
- the processor 121 determines that the detected gesture operation is present in the combination list, the processor 121 shifts the flow to step S204 and further determines whether the detected gesture operation is a cancel gesture operation. . If it is determined that the operation is a canceling gesture operation, in step S205, the processor 121 deletes input information corresponding to the previous gesture operation, and in step S208, it is combined with the gesture operation performed at the current time. The possible input contents are listed and displayed on the display unit 104, and then the sequence is returned to step S201. Thereby, an invalid gesture operation is ignored, and a gesture operation that can be input can be notified to the user US.
- the processor 121 stores the input information in step S206, and determines whether there are other candidates in step S207. If it is determined that there are other candidates, the processor 121 displays, in step S208, possible input contents in combination with the gesture operation performed at the present time as options on the display unit 104, and then the sequence proceeds to step S201. return.
- the processor 121 determines the input content in step S209 and executes an event corresponding to the content. However, even when it is determined that there are no other combination candidates in the combination list, only when a gesture operation for repeatedly moving the hand HD in the detection area is detected as an input confirmation gesture operation, for example, May be confirmed. Thereafter, the processor 121 deletes the input information stored in step S210, interrupts the combination mode in step S211, and shifts to the single mode.
- the combination list includes the mode switching gesture operation, the cancel gesture operation, and the determination gesture operation. However, the processor 121 includes one or more of these in the event list or another list. You may make it refer.
- FIG. 17 is a flowchart showing a part of a modification of the sequence of FIG. 16, which can be executed in place of step S203 of FIG. Here, only a different part from FIG. 16 is demonstrated.
- the processor 121 checks whether or not the gesture operation detected via the proximity sensor 105 is an effective gesture operation after collating with the combination list. If the gesture operation is not valid (ie, an invalid gesture operation is detected), the processor 121 increments the value of the built-in counter in step S302 (if invalid judgment is first, 1 is continuously 2). If it is the second time,...) Advances the sequence to step S304. On the other hand, if a valid gesture operation is detected, the processor 121 resets the value of the built-in counter in step S303 (invalidity determination is interrupted), and advances the sequence to step S204 in FIG. Run the sequence.
- step S304 the processor 121 determines whether or not the value of the built-in counter is greater than or equal to a threshold value N. If it is greater than or equal to N, it can be said that the number of invalid gesture operations performed by the user has exceeded a specified number. It is assumed that there is a high possibility that the user does not recognize the gestures that can be operated, and a list display flag of combinations of gesture operations that can be input is set. On the other hand, if the value of the built-in counter is less than the threshold value N, the processor 121 sets a flag for not displaying a list of combinations of gesture operations that can be input in step S306 in order not to confuse the user. After that, the sequence proceeds to step S206 in FIG. 16.
- the processor 121 sets a combination of gesture operations that can be input to the display unit 104.
- the list is displayed to assist the user in inputting, but the list is not displayed when the flag for hiding the list is set.
- the combination mode by setting the combination mode, it is possible to determine different input content from when a single gesture operation is detected in response to detecting a plurality of gesture operations continuously. , The degree of freedom in setting the input content increases.
- FIG. 18 shows the phone book data stored in the RAM 126
- FIG. 19 shows an example of an event list and a combination list corresponding to the phone book data and used in the call application.
- the first name is classified as a group belonging to the “a” line, a group belonging to the “ka” line, a group belonging to the “sa” line, and so on. Each is associated with a corresponding phone number.
- the event list in FIG. 19 (a) records destinations that can be input by a combination (combination) of two gesture operations
- the event list in FIG. 19 (b) has a combination of two or three gesture operations.
- the other party that can be input in (Combination) is recorded in advance.
- An arrow in the figure means a gesture operation that moves a hand in the direction of the arrow within the detection region. In addition, you may set the other party who can input by the combination of four or more gesture operation.
- the call destination is stored as an event list. If a call to a specific destination is to be made in a single mode, a phone book as shown in FIG. 18 is displayed on the display unit 104 based on the phone book data, and then, for example, the hand is moved from left to right. After switching to the display of the destination group belonging to the “ka” line by the gesture operation, for example, the screen is scrolled by a single gesture operation to move the hand from top to bottom, and “ You can select Toshiyuki Komine, Engineering Department.
- the procedure according to this embodiment will be described.
- the user US stores an opponent with a high call frequency (including “Technology Department Toshiyuki Komine”) as an event list, and associates it with a plurality of gesture operations. It is assumed that a combination list is stored.
- the processor 121 performs a combination according to the output signal from the proximity sensor 105. Enter mode.
- the user US moves the hand HD from the left to the right within the detection area of the proximity sensor 105 according to the gesture operation combination of “Technology Department Toshiyuki Komine” shown in FIG.
- the processor 121 determines that the user US has input the content (event) that calls to “Technology Department Toshiyuki Komine”, and the stored “Technology Department Small” Identify the phone number of Toshiyuki Tsuji and immediately execute the call operation.
- the user US can talk to “Technology Department Toshiyuki Komine” with a simple operation.
- the sequence returns to the single mode simultaneously with the call execution. However, only when executing a special application such as a call, the combination mode is maintained even after the call is executed. May be.
- the user US who wants to call “Technology Department Toshiyuki Komine” moves his hand HD from right to left in the detection area of the proximity sensor 105 by the first gesture operation after the transition to the combination mode.
- the processor 121 recognizes the gesture operation for cancellation by moving the hand HD further to the left and right at a high speed, so that the previous gesture operation can be invalidated and the first gesture operation can be performed again. .
- the present embodiment it is possible to realize the input desired by the user with a simple and small number of gesture operations.
- FIG. 19B shows an example of a combination list and event list in which the number of combinations of gesture operations is two and three.
- the hand HD is moved from top to bottom within the detection area of the proximity sensor 105. If the hand is further moved from top to bottom after the movement, three candidates will remain in the combination list. In this case, the processor 121 does not immediately call and waits for the next instruction from the user US.
- the user US who intended to make a call to “Planning Department Kyoko Yokoi” recognizes that there is another candidate by not making a call, so the gesture operation for decision that has been set in advance ,
- the processor 121 determines that the user US has entered the information that the call is made to “Planning Department Yokoi Kyoko”, identifies the stored telephone number of “Planning Department Kyoko Yokoi”, and immediately A call operation can be performed.
- the processor 121 assumes that the user US intends to select another candidate, and the gesture operation that moves the hand HD from the bottom to the top (to “Planning Department Yumi Wakai” Call) or a gesture operation to move the hand HD from right to left (call to “Planning Department Hisashi Wakui”). If any gesture operation is performed, the input is confirmed, so that the call operation can be immediately executed to the confirmed partner. When any other gesture operation is performed, the processor 121 can sound a warning sound indicating that the gesture operation is invalid.
- the degree of freedom of the input content can be expanded and the user can easily realize the desired operation.
- a combination list that combines the tilt of the neck of the user US and a specific voice can be stored in the RAM 126.
- the processor 121 detects the tilt of the neck of the user US with the acceleration sensor 110A or collects the voice of the user US with the microphone 111B. The user can confirm the input contents desired by the user according to the combination list after performing speech recognition based on the analysis or the speech dictionary.
- FIG. 20 is a diagram of the image display unit 104B of the display unit 104 as viewed from the user US side.
- the icon IC1 displayed at the upper left indicates that the processor 121 is executing the camera application by a predetermined operation.
- images including arrow icons and the like
- display input history and gesture operation combination candidates described below are stored in advance in the RAM 126 and the like, and are called from the processor 121 as necessary, and the proximity sensor 105 The corresponding image is displayed by collating with the output signal.
- the default setting for input is single mode
- the icon IC1 is displayed as shown in FIG. A user who sees such a screen display knows that the single mode is set.
- the processor 121 interrupts the single mode and starts the combination mode based on the output signal from the proximity sensor 105. Then, as shown in FIG. 20B, three frames FR representing a history of gesture operations are displayed here at the lower right of the screen of the image display unit 104B, and a gesture is displayed near the lower left of the screen. Information CAN indicating a candidate for the combination of operations is displayed. In the frame FR, display is performed from the left (here, arrows) in the order in which the gesture operation is recognized.
- the information CAN indicates a combination of arrows indicating the direction of the gesture operation and the corresponding input content. It is difficult for the screen of the image display unit 104B to display a lot of information because the user observes the outside world through this screen. Therefore, in the present embodiment, only two combinations of gesture operations are displayed in the information CAN, and the rest of the triangles TR displayed above or below the displayed information CAN are displayed by, for example, clicking operations (for example, hand operations). The remaining combinations can be displayed two by two by moving the HD back and forth within the detection area of the proximity sensor 105. By viewing such a display, the user can perform the operation accurately even if the user has forgotten the combination of gesture operations for performing a desired input.
- the frame FR and the information CAN are referred to as navigation display.
- the processor 121 determines that the user moves the hand HD from the left to the right based on the output signal from the proximity sensor 105. As shown in FIG. 20C, an arrow heading from left to right is displayed in the leftmost frame FR in the screen of the image display unit 104B. The user who sees this shows that the processor 121 has correctly recognized the gesture operation performed by the user. If it is found from the display in the frame FR that the gesture operation is not as intended by the user, the user can invalidate the previous gesture operation by the cancel gesture operation as described above.
- the processor 121 narrows down the combinations in which the gesture operation is first performed by moving the hand HD from left to right, and displays the information CAN as shown in FIG.
- the updated information CAN only gesture operations that can be performed thereafter are displayed, so that the user who sees this can input “stop video recording” by moving the hand HD from the bottom to the top, for example. It can be seen that
- Information CAN indicating a combination of one gesture operation is displayed.
- the user performs the gesture operation for moving the hand HD from the upper left to the lower right, or the input operation is confirmed by performing the above-described gesture operation for confirming the input, and the moving image reproduction desired by the user is performed. Can do.
- the mode switching gesture operation is performed at this point to shift to the single mode.
- the screen changes to the one shown in FIG. 20A, but if a gesture operation other than the mode switching gesture operation is performed, the screen of the image display unit 104B changes to the one shown in FIG.
- Information CAN indicating a combination candidate following the gesture operation is displayed.
- the screen of the image display unit 104B is switched to the one shown in FIG. .
- FIG. 21 is a diagram illustrating an example of an event list and a combination list.
- an event list and a combination list are used for the call application.
- each event corresponds to the input contents.
- “event1” is “Sales Department Ai Aoki”
- Event2 is a content to input an instruction to call “Sales Department Ito Kaoru”
- “event3” is to "Planning Department Takumi Aizawa”
- the content for inputting an instruction to call is “eventX”, and the content for inputting an instruction to end the call.
- the execution program corresponding to the event is determined with reference to the event list.
- “event1” can be instructed to execute by inputting the gesture operation “action3”
- “event2” can be instructed to execute by inputting the gesture operation “action2 + action2”
- “event3” Execution can be instructed by inputting the operation “action1 + action4 + action5”
- execution of “eventX” can be instructed by inputting the gesture operation “action5 + action5”.
- action1 is a hand movement from bottom to top
- action2 is a hand movement from top to bottom
- action3 is a hand movement from right to left
- action4 is from left to right If the action is set in advance such that "action5" is the back-and-forth movement of the hand, the processor 121 checks the event list against the combination list when setting the combination mode. It is possible to call the other party.
- FIG. 22A shows an input screen directly input by a user using an external PC or the like.
- action defines a gesture operation pattern (action setting). Specifically, “action 1” indicates movement of the hand from the bottom to the top, and “action 2”.
- action 3 indicates the movement of the hand from right to left
- action 4 indicates the movement of the hand from left to right.
- action 5 indicates a click operation by moving the hand back and forth.
- Mode indicates an application name
- event indicates input contents.
- the above event list and combination list are created on a PC or the like, and then converted into a QR code (registered trademark) (see FIG. 22B, but the QR code (registered trademark) shown is different from the actual one)
- the QR code (registered trademark) is imaged by the camera 106 mounted on the HMD 100 as the interface unit, and the processor 121 reads the list, so that the list can be loaded and stored in the RAM 126 or the like.
- the event list and the combination list are created on the WEB screen and stored in a specific server, and the communication unit 124 accesses the specific server based on the URL and downloads the data to the HMD 100. You can also
- FIG. 23A is a diagram illustrating an example of an event in which contents are input by a combination of gesture operations for each application.
- FIG. 23B shows an example of a combination list.
- all applications refer to a combination list having the same setting.
- the processor 121 starts the “QR code (registered trademark) -read application corresponding to“ event1 ”. Is determined to have been input.
- the processor 121 determines that an instruction “call to Mr. XX” is input.
- these can be easily set by an event list and a combination list. These lists are stored in the RAM 126, and the processor 121 corresponds to each application being executed. The list can be read. Both the combination list and the event list can be directly input or externally input via a QR code (registered trademark) or the net.
- the gesture operation mainly based on the moving direction of the indicator has been described as an example.
- a change in the shape of the hand such as opening and closing the hand may be added to the gesture operation to be detected.
- a gesture operation is displayed on the display unit 104 (see FIG. 20), it can be expressed by an animation movie or the like that repeats the operation of opening and closing the hand.
- HMD 101 Frame 101a Front part 101b Side part 101c Side part 101d Long hole 101e Long hole 102 Eyeglass lens 103 Main body part 104 Display 104A Image forming part 104B Image display part 104DR Display control part 104a Light source 104b Unidirectional diffuser 104c Condensing lens 104d Display element 104f Eyepiece prism 104g Deflection prism 104h Hologram optical element 104i Screen 105 Proximity sensor 105a Light receiving part 106 Camera 106a Lens 107 Right sub-main part 107a Protrusion 108 Left sub-main part 108a Protrusion 109 Geomagnetic sensor 110A Acceleration sensor 110B Angular velocity sensor 111A Speaker 111B Microphone 111C Earphone 113 Power supply circuit 121 Processor 122 Operation unit 123 GPS reception unit 124 Communication unit 125 ROM 126 RAM 127 Battery 128 Battery control unit 129 Storage device 130 Power supply circuit CD Code CTU Control unit HD Hand HS Wiring PL1 Base end surface PL
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は入力装置、電子機器及びヘッドマウントディスプレイに関する。 The present invention relates to an input device, an electronic device, and a head mounted display.
一般的なコンピュータでは、マウスやキーボードなどのユーザーインタフェースを用いて種々の入力操作を実現している。これに対し近年、急速に発達したスマートフォン等の携帯端末は、一般的に、画像表示とユーザーインタフェースを兼ねるタッチパネル式の画面を備えているので、ユーザーはこれにタッチすることで必要な入力を行って、所望の画像を表示したり、情報を入力したりするなどの操作を行うことができる。しかるに、ユーザーの手が濡れていたり、汚れていたりする場合など、画面にタッチせずに携帯端末の操作を行いたい場合があるが、その際の入力をどのように行うかが課題となっている。しかしながら、従来のマウスやキーボードを接続して使用することは、携帯端末の持ち歩きやすさという大きなメリットを損なうこととなり、しかも使い勝手が悪い。 In general computers, various input operations are realized using a user interface such as a mouse or a keyboard. On the other hand, mobile terminals such as smart phones that have been rapidly developed in recent years generally have a touch panel screen that serves both as an image display and a user interface. Thus, an operation such as displaying a desired image or inputting information can be performed. However, there are cases where you want to operate the mobile device without touching the screen, such as when the user's hand is wet or dirty, but how to perform input at that time is an issue Yes. However, connecting and using a conventional mouse or keyboard impairs the great merit of carrying around a portable terminal, and it is inconvenient.
これに対し特許文献1には、赤外線LEDと赤外線近接センサーとを備えたコンピューティングデバイスが開示されている。特許文献1の技術によれば、赤外線LEDから出射された赤外光が、コンピューティングデバイスに近づけた手に当たって反射し、その反射光を赤外線近接センサーが検出することで手の動きを検出でき、その手の動き(ジェスチャー)により非接触でスワイプ等のユーザーの望む入力操作を行うことができる。従って、例えユーザーの手が汚れていても、移動コンピューティングデバイスを汚染する恐れがない。
On the other hand,
しかるに、一般的には、手の細かい動作を正確にユーザーに行わせることは困難であるから、特許文献1に示すように細かな動作を入力操作に対応づけたとしても、コンピューティングデバイスが誤検出する可能性が高い。従って、誤検出を招かないようにするには、コンピューティングデバイスが検出しやすい単純な手の動作に限る必要があるといえる。ところが、このように手の動作が限定されると、細かい入力を行えないという問題がある。
However, in general, it is difficult for the user to accurately perform detailed operations of the hand. Even if the detailed operations are associated with the input operation as shown in
一方、特許文献2には、複数の周囲環境センサーからの信号に基づいて、ジェスチャー検出のための1つまたは複数の動作または技法を促進またはサポートする技術が開示されている。しかしながら、このように周囲環境センサーを複数設けることで、コストが増大し、また携帯端末の大型化を招く恐れがある。 On the other hand, Patent Document 2 discloses a technique for promoting or supporting one or more operations or techniques for gesture detection based on signals from a plurality of ambient environment sensors. However, providing a plurality of ambient environment sensors in this manner increases the cost and may increase the size of the mobile terminal.
本発明は、上記の事情に鑑みてなされたものであって、ジェスチャー操作を組み合わせることで,簡素な構成でありながら複雑な入力が可能になる入力装置、電子機器及びヘッドマウントディスプレイを提供することを目的とする。 The present invention has been made in view of the above circumstances, and provides an input device, an electronic device, and a head-mounted display that enable complex input while having a simple configuration by combining gesture operations. With the goal.
上述した目的のうち少なくとも一つを実現するために、本発明の一側面を反映した入力装置は、
検出領域内において、ユーザーにより動かされる指示体の動き又は形状の変化をそれぞれジェスチャー操作として検出し、それに応じた出力を生成する検出装置と、
前記検出装置の出力に応じて入力内容を決定する制御装置と、を備えた入力装置であって、
前記制御装置は、前記検出装置が単独の前記ジェスチャー操作を検出したことに応じて、それに対応する入力内容を決定する単一モードと、前記検出装置が複数の前記ジェスチャー操作を連続して検出したことに応じて、単独の前記ジェスチャー操作を検出した場合とは異なる入力内容を決定するコンビネーションモードとを選択的に設定可能である
ものである。
In order to achieve at least one of the above-described objects, an input device reflecting one aspect of the present invention is:
In the detection region, a detection device that detects a movement or shape change of the indicator moved by the user as a gesture operation, and generates an output corresponding to the gesture operation;
A control device for determining input contents according to the output of the detection device, and an input device comprising:
In response to the detection device detecting the single gesture operation, the control device determines a single input mode corresponding to the single gesture operation, and the detection device continuously detects a plurality of the gesture operations. Accordingly, it is possible to selectively set a combination mode for determining input contents different from the case where a single gesture operation is detected.
本発明によれば、ジェスチャー操作を組み合わせることで,簡素な構成でありながら複雑な入力が可能になる入力装置、電子機器及びヘッドマウントディスプレイを提供することができる。 According to the present invention, it is possible to provide an input device, an electronic device, and a head-mounted display that enable complex input with a simple configuration by combining gesture operations.
以下に、本発明の実施形態を、図面を参照して説明する。図1は、本実施形態にかかる、電子機器であるHMD100の斜視図である。図2は、本実施形態にかかるヘッドマウントディスプレイ(以下、HMDという)100を正面から見た図である。図3は、本実施形態にかかるHMD100を上方から見た図である。以下、HMD100の右側及左側とは、HMD100を装着したユーザーにとっての右側及び左側をいうものとする。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a perspective view of an
図1~3に示すように、本実施形態のHMD100は,支持部材であるフレーム101を有している。上方から見てコ字状であるフレーム101は、2つの眼鏡レンズ102を取り付ける前方部101aと、前方部101aの両端から後方へと延在する側部101b、101cとを有する。フレーム101に取り付けられた2つの眼鏡レンズ102は屈折力を有していてもよいし、有していなくてもよい。
As shown in FIGS. 1 to 3, the
右側(ユーザーの利き目などに応じて左側でもよい)の眼鏡レンズ102の上部において、支持部材である円筒状の主本体部103がフレーム101の前方部101aに固定されている。主本体部103にはディスプレイユニット104が設けられている。主本体部103内には、後述するプロセッサー121からの指示に基づいてディスプレイユニット104の表示制御を司る表示制御部104DR(後述する図6を参照)が配置されている。なお、必要であれば両眼の前にそれぞれディスプレイユニットを配置してもよい。
A cylindrical
図4は、ディスプレイユニット104の構成を示す概略断面図である。ジェスチャー操作の検出結果を表示する表示装置としてのディスプレイユニット104は、画像形成部104Aと画像表示部104Bとからなる。画像形成部104Aは、主本体部103内に組み込まれており、光源104aと、一方向拡散板104bと、集光レンズ104cと、表示素子104dとを有している。一方、いわゆるシースルー型の表示部材である画像表示部104Bは、主本体部103から下方に向かい、片方の眼鏡レンズ102(図1参照)に平行に延在するように配置された全体的に板状であって、接眼プリズム104fと、偏向プリズム104gと、ホログラム光学素子104hとを有している。
FIG. 4 is a schematic cross-sectional view showing the configuration of the
光源104aは、表示素子104dを照明する機能を有し、例えば光強度のピーク波長及び光強度半値の波長幅で462±12nm(B光)、525±17nm(G光)、635±11nm(R光)となる3つの波長帯域の光を発するRGB一体型のLEDで構成されている。このように光源104aが所定の波長幅の光を出射することにより、表示素子104dを照明して得られる画像光に所定の波長幅を持たせることができ、ホログラム光学素子104hにて画像光を回折させたときに、瞳孔Bの位置にて観察画角全域にわたってユーザーに画像を観察させることができる。また、光源104aの各色についてのピーク波長は、ホログラム光学素子104hの回折効率のピーク波長の近傍に設定されており、光利用効率の向上がはかられている。
The
また、光源104aは、RGBの光を出射するLEDで構成されているので、光源104aのコストを抑えることができるとともに、表示素子104dを照明したときに、表示素子104dにてカラー画像を表示することが可能となり、そのカラー画像をユーザーが視認可能とすることができる。また、RGBの各LED素子は発光波長幅が狭いので、そのようなLED素子を複数用いることにより、色再現性が高く、明るい画像表示が可能となる。
Further, since the
表示素子104dは、光源104aからの出射光を画像データに応じて変調して画像を表示するものであり、光が透過する領域となる各画素をマトリクス状に有する透過型の液晶表示素子で構成されている。なお、表示素子104dは、反射型であってもよい。
The
接眼プリズム104fは、基端面PL1を介して入射する表示素子104dからの画像光を、相対する平行な内側面PL2と外側面PL3とで全反射させ、ホログラム光学素子104hを介してユーザーの瞳に導く一方、外光を透過させてユーザーの瞳に導くものであり、偏向プリズム104gとともに、例えばアクリル系樹脂で構成されている。この接眼プリズム104fと偏向プリズム104gとは、内側面PL2及び外側面PL3に対して傾斜した傾斜面PL4、PL5でホログラム光学素子104hを挟み、接着剤で接合されている。
The
偏向プリズム104gは、接眼プリズム104fに接合されて、接眼プリズム104fと一体となって略平行平板となるものである。この偏向プリズム104gを接眼プリズム104fに接合することにより,ユーザーがディスプレイユニット104を介して観察する外界像に歪みが生じるのを防止することができる。
The
すなわち、例えば、接眼プリズム104fに偏向プリズム104gを接合させない場合、外光は接眼プリズム104fの傾斜面PL4を透過するときに屈折するので、接眼プリズム104fを介して観察される外界像に歪みが生じる。しかし、接眼プリズム104fに相補的な傾斜面PL5を有する偏向プリズム104gを接合させて一体的な略平行平板を形成することで、外光が傾斜面PL4,PL5(ホログラム光学素子104h)を透過するときの屈折を偏向プリズム104gでキャンセルすることができる。その結果、シースルーで観察される外界像に歪みが生じるのを防止することができる。なお、ディスプレイユニット104とユーザーの瞳の間に眼鏡レンズ102(図1参照)を装着すると、通常眼鏡を使用しているユーザーでも問題なく画像を観察することが可能である。
That is, for example, when the deflecting
ホログラム光学素子104hは、表示素子104dから出射される画像光(3原色に対応した波長の光)を回折反射して瞳孔Bに導き、表示素子104dに表示される画像を拡大してユーザーの瞳に虚像として導く体積位相型の反射型ホログラムである。このホログラム光学素子104hは、例えば、回折効率のピーク波長および回折効率半値の波長幅で465±5nm(B光)、521±5nm(G光)、634±5nm(R光)の3つの波長域の光を回折(反射)させるように作製されている。ここで、回折効率のピーク波長は、回折効率がピークとなるときの波長のことであり、回折効率半値の波長幅とは、回折効率が回折効率ピークの半値となるときの波長幅のことである。
The hologram
反射型のホログラム光学素子104hは、高い波長選択性を有しており、上記波長域(露光波長近辺)の波長の光しか回折反射しないので、回折反射される波長以外の波長を含む外光はホログラム光学素子104hを透過することになり、高い外光透過率を実現することができる。
The reflection-type hologram
次に、ディスプレイユニット104の動作について説明する。光源104aから出射された光は、一方向拡散板104bにて拡散され、集光レンズ104cにて集光されて表示素子104dに入射する。表示素子104dに入射した光は、表示制御部104DRから入力された画像データに基づいて画素ごとに変調され、画像光として出射される。これにより、表示素子104dには、カラー画像が表示される。
Next, the operation of the
表示素子104dからの画像光は、接眼プリズム104fの内部にその基端面PL1から入射し、内側面PL2と外側面PL3で複数回全反射されて、ホログラム光学素子104hに入射する。ホログラム光学素子104hに入射した光は、そこで反射され、内側面PL2を透過して瞳孔Bに達する。瞳孔Bの位置では、ユーザーは、表示素子104dに表示された画像の拡大虚像を観察することができ、画像表示部104Bに形成される画面として視認することができる。この場合、ホログラム光学素子104hが画面を構成しているとみることもできるし、内側面PL2に画面が形成されているとみることもできる。なお、本明細書において「画面」というときは、表示される画像を指すこともある。
Image light from the
一方、接眼プリズム104f、偏向プリズム104gおよびホログラム光学素子104hは、外光をほとんど全て透過させるので、ユーザーはこれらを介して外界像(実像)を観察することができる。したがって、表示素子104dに表示された画像の虚像は、外界像の一部に重なって観察されることになる。このようにして、HMD100のユーザーは、ホログラム光学素子104hを介して、表示素子104dから提供される画像と外界像とを同時に観察することができる。尚、ディスプレイユニット104が非表示状態のとき画像表示部104Bは素通しとなり、外界像のみを観察できる。なお、本例では、光源と液晶表示素子と光学系とを組み合わせて表示ユニットを構成しているが、光源と液晶表示素子の組合せに代えて、自発光型の表示素子(例えば、有機EL表示素子)を用いても良い。また、光源と液晶表示素子と光学系の組合せに代えて、非発光状態で透過性を有する透過型有機EL表示パネルを用いてもよい。いずれにしても、画像表示部104Bに対向するユーザーの眼の視野に入るように、好ましくは、有効視野に少なくとも一部が重なるように、画面を配置すると、ユーザーは画像を容易に視認することができる。
On the other hand, since the
更に図1、2において、主本体部103の正面には、フレーム101の中央寄りに配置された近接センサー105と、側部寄りに配置されたカメラ106のレンズ106aが前方を向くようにして設けられている。
Further, in FIGS. 1 and 2, a
本明細書において、検出装置の一例である「近接センサー」とは、物体、例えば人体の一部(手や指など)がユーザーの眼前に近接していることを検知するために、近接センサーの検出面前方の近接範囲にある検出領域内に存在しているか否かを検出して信号を出力するものをいう。近接範囲は、操作者の特性や好みに応じて適宜設定すればよいが、例えば、近接センサーの検出面からの距離が200mm以内の範囲とすることができる。近接センサーからの距離が200mm以内であれば、ユーザーが腕を曲げた状態で、手のひらや指をユーザーの視野内に入れたり出したりできるため、手や指を使ったジェスチャーによって容易に操作を行うことができ、また、ユーザー以外の人体や家具等を誤って検出する恐れが少なくなる。ここで制御回路は、近接センサーの前方の近接範囲にある検出領域に物体が入った際に近接センサーから出力される信号に基づいて、物体が近接範囲に存在すると判定する。検出領域に物体が入った際に、近接センサーから有効な信号を制御回路に出力するようにしても良い。 In this specification, a “proximity sensor” which is an example of a detection device refers to a proximity sensor in order to detect that an object, for example, a part of a human body (such as a hand or a finger) is in proximity to the user's eyes. This means that a signal is output by detecting whether or not it exists in a detection region in the proximity range in front of the detection surface. The proximity range may be set as appropriate according to the operator's characteristics and preferences. For example, the proximity range from the detection surface of the proximity sensor may be within a range of 200 mm. If the distance from the proximity sensor is 200mm or less, the user can put the palm and fingers into and out of the user's field of view with the arm bent, so the user can easily operate with gestures using the hands and fingers. In addition, the risk of erroneous detection of a human body or furniture other than the user is reduced. Here, the control circuit determines that the object exists in the proximity range based on a signal output from the proximity sensor when the object enters the detection area in the proximity range in front of the proximity sensor. When an object enters the detection area, a valid signal may be output from the proximity sensor to the control circuit.
近接センサーには、パッシブ型とアクティブ型とがある。パッシブ型の近接センサーは、物体が近接した際に物体から放射される不可視光や電磁波を検出する検出部を有する。パッシブ型の近接センサーとしては、接近した人体から放射される赤外線などの不可視光を検出する焦電センサーや、接近した人体との間の静電容量変化を検出する静電容量センサーなどがある。アクティブ型の近接センサーは、不可視光や音波の投射部と、物体に反射して戻った不可視光や音波を受ける検出部とを有する。アクティブ型の近接センサーとしては、赤外線を投射して物体で反射された赤外線を受光する赤外線センサーや、レーザ光を投射して物体で反射されたレーザ光を受光するレーザセンサーや、超音波を投射して物体で反射された超音波を受け取る超音波センサーなどがある。尚、パッシブ型の近接センサーは、物体に向けてエネルギーを投射する必要がないので、低消費電力性に優れている。アクティブ型の近接センサーは検知の確実性を向上させやすく、例えば、ユーザーが、赤外光などの人体から放射される検出光を透過しない手袋をしているような場合でも、ユーザーの手の動きを検出することができる。複数種類の近接センサーを組み合わせて用いても良い。 There are two types of proximity sensors: passive and active. A passive proximity sensor has a detection unit that detects invisible light and electromagnetic waves emitted from an object when the object approaches. As a passive proximity sensor, there are a pyroelectric sensor that detects invisible light such as infrared rays emitted from an approaching human body, and a capacitance sensor that detects a change in electrostatic capacitance between the approaching human body. The active proximity sensor includes an invisible light or sound wave projection unit, and a detection unit that receives the invisible light or sound wave reflected and returned from the object. Active proximity sensors include infrared sensors that project infrared rays and receive infrared rays reflected by objects, laser sensors that project laser beams and receive laser beams reflected by objects, and project ultrasonic waves. Then, there is an ultrasonic sensor that receives ultrasonic waves reflected by an object. Note that a passive proximity sensor does not need to project energy toward an object, and thus has excellent low power consumption. Active proximity sensors can improve detection reliability. For example, even if the user wears gloves that do not transmit detection light emitted from the human body such as infrared light, the movement of the user's hand Can be detected. A plurality of types of proximity sensors may be used in combination.
近接センサーは、カメラに比べて、概して小型で安価であり、消費電力も小さい。また、近接センサーは、物体の形状の検出など複雑な検出を行うことは難しいが、検出領域への物体の進入や離間を判別することができるので、ユーザーが手や指を通過させたり手のひらをかざしたりすることで、HMDの操作を行うことができ、しかも、カメラの撮影画像の解析によるジェスチャー認識に必要とされる複雑な画像処理も不要である。 近 接 Proximity sensors are generally smaller and cheaper than cameras, and consume less power. In addition, it is difficult for the proximity sensor to perform complicated detection such as detection of the shape of the object, but it can determine the approach and separation of the object from the detection area, so that the user can pass the hand or finger or touch the palm. By holding it over, the HMD can be operated, and complicated image processing required for gesture recognition by analysis of the image captured by the camera is also unnecessary.
図5は、本実施形態で用いる近接センサー105を正面から見た拡大図である。本実施形態では、近接センサー105として、焦電センサーを用いた例について説明する。図5において、近接センサー105は、人体から放射される赤外光などの不可視光を検出光として受光する受光部105aを有する。受光部105aは、2行2列に並べられた受光領域RA~RDを形成しており、不可視光を受光した際に、それに対応した信号が各受光領域RA~RDから個々に出力されるようになっている。各受光領域RA~RDの出力は、受光部105aから物体までの距離に応じて強度が変化し、距離が近いほど強度が大きくなる。人体から放射される赤外光を検出する焦電センサーであれば、露出した人体以外の物体を誤検出しくにいので、例えば、狭所で作業する場合などにおいて、効果的に誤検出を防ぐことができるというメリットがある。
FIG. 5 is an enlarged view of the
図1、2において、フレーム101の右側の側部101bには、右副本体部107が取り付けられ、フレーム101の左側の側部101cには、左副本体部108が取り付けられている。右副本体部107及び左副本体部108は、細長い板形状を有しており、それぞれ内側に細長い突起107a,108aを有している。この細長い突起107aを、フレーム101の側部101bの長孔101dに係合させることで、右副本体部107が位置決めされた状態でフレーム101に取り付けられ、また細長い突起108aを、フレーム101の側部101cの長孔101eに係合させることで、左副本体部108が位置決めされた状態でフレーム101に取り付けられている。
1 and 2, the right
右副本体部107内には、地磁気を検出する地磁気センサー109(後述する図6参照)と、姿勢に応じた出力を生成する、角速度センサー110B及び加速度センサー110A(後述する図6参照)とが搭載されており、左副本体部108内には、スピーカー111A,イヤホン111C及びマイク111B(後述する図6参照)とが設けられている。主本体部103と右副本体部107とは、配線HSで信号伝達可能に接続されており、主本体部103と左副本体部108とは、不図示の配線で信号伝達可能に接続されている。図3に簡略図示するように、右副本体部107は、その後端から延在するコードCDを介して制御ユニットCTUに接続されている。なお、角速度センサー及び加速度センサーを一体化した6軸センサーを用いてもよい。また、入力される音声に応じてマイク111Bから生成される出力信号に基づいて、音声によってHMDを操作することもできる。また、主本体部103と左副本体部108とが無線接続されるように構成してもよい。図示していないが、制御ユニットCTUのバッテリー制御部128から付与された電圧を各部に適正な電圧に変換するための電源回路113(後述する図6参照)が右副本体部107に設けられている。
In the right sub
図6は、HMD100の主要回路のブロック図である。制御ユニットCTUは、ディスプレイユニット104やその他の機能デバイスに対して制御信号を生成することにより、各機能デバイスを制御する制御装置としてのプロセッサー121と、操作部122と、GPS衛星からの電波を受信するGPS受信部123と、外部とデータのやりとりを行うインタフェース部としての通信部124と、プログラム等を格納するROM125と、画像データ、単一リスト及びコンビネーションリストの情報(詳細は後述),電話帳のデータ並びに音声辞書などを保存する記憶部としてのRAM126と、バッテリー127及びバッテリー制御部128と、バッテリー制御部128から付与された電圧を各部に適正な電圧に変換するための電源回路130と、SSDやフラッシュメモリ等のストレージデバイス129とを有している。プロセッサー121はスマートフォンなどで用いられているアプリケーションプロセッサーを使用することが出来るが、プロセッサー121の種類は問わない。例えば、アプリケーションプロセッサーの内部にGPUやCodecなど画像処理に必要なハードウェアが標準で組み込まれているものは、小型のHMDには適したプロセッサーであるといえる。
FIG. 6 is a block diagram of main circuits of the
更に、プロセッサー121には、受光部105aが人体から放射される検出光としての不可視光を検出したときは、近接センサー105からその信号が入力される。又、プロセッサー121は、表示制御部104DRを介してディスプレイユニット104の画像表示を制御する。プロセッサー121と近接センサー105とで入力装置を構成する。
Furthermore, when the
プロセッサー121は、電源回路130からの給電を受け、ROM124及びストレージデバイス129の少なくとも一方に格納されたプログラムに従って動作し、操作部122からの電源オンなどの操作入力に従い、カメラ106からの画像データを入力してRAM126に記憶し、必要に応じて通信部124を介して外部と通信を行うことができる。更に、後述するように、プロセッサー121が近接センサー105からの出力に応じた画像制御を実行することで、ユーザーは手や指を用いたジェスチャー操作によって,架電や動画再生を含むHMD100の画面制御を実行することができる。
The
図7は、ユーザーUSが本実施形態のHMD100を装着したときの正面図である。図8は、ユーザーUSがHMD100を装着したときの側面図であり、図9はその上面図であり、ユーザーの手と共に示している。ここで、ジェスチャー操作とは、少なくともユーザーUSの手HDや指が近接センサー105の検出領域内を通過する動作であり、近接センサー105を介してHMD100のプロセッサー121が検出できるものである。
FIG. 7 is a front view when the user US wears the
次に、ジェスチャー操作の検出の基本原理について説明する。近接センサー105が作動しているときに、ユーザーUSの前方に何も存在しなければ、受光部105aは検出光としての不可視光を受光しないので、プロセッサー121はジェスチャー操作が行われていないと判断する。一方、図8に示すように、ユーザーUSの目の前にユーザーUS自身の手HDを接近させると、手HDから放射される不可視光を受光部105aが検出し、これに基づく近接センサー105からの出力信号に応じてプロセッサー121はジェスチャー操作が行われたと判断する。なお、以下においては、ユーザーの手HDによってジェスチャー操作を行うものとして説明するが、指やその他の部位であってもよいし、不可視光を放射できる材料からなる指示具をユーザーが用いてジェスチャー操作を行ってもよい。指やその他の人体の部位あるいは前記指示具等、ユーザーの意思で移動させられるものを指示体という。尚、検出装置として、近接センサーの代りに撮像装置(カメラ)を使用することも可能である。かかる場合、移動する指示体を撮像装置で撮像し、その移動方向を、撮像装置から出力した画像データに基づき画像処理装置(制御装置の一部)で判別することになる。
Next, the basic principle of gesture operation detection will be described. If there is nothing in front of the user US when the
上述したように、受光部105aは、2行2列に並べられた受光領域RA~RDを有する(図5参照)。従って、ユーザーUSが、左右上下いずれの方向から手HDをHMD100の前方に近づけた場合、各受光領域RA~RDで検出する信号の出力タイミングが異なる。
As described above, the
図10、11は、縦軸に受光領域RA~RDの信号強度をとり、横軸に時間をとって示した、受光領域RA~RDの信号波形の一例である。例えば、図8、図9を参照してユーザーUSがHMD100の前方で右方から左方に向かって手HDを移動させた場合、手HDから放射された不可視光が受光部105aに入射するが、このとき最初に不可視光を受光するのは受光領域RA,RCである。従って、図10に示すように、まず受光領域RA,RCの信号が立ち上がり、遅れて受光領域RB,RDの信号が立ち上がり、更に受光領域RA,RCの信号が立ち下がった後に、受光領域RB,RDの信号が立ち下がる。この信号のタイミングをプロセッサー121が検出し、ユーザーUSは手HDを右から左へと移動させてジェスチャー操作を行ったと判断する。
10 and 11 are examples of signal waveforms of the light receiving areas RA to RD, where the vertical axis represents the signal intensity of the light receiving areas RA to RD and the horizontal axis represents the time. For example, when the user US moves the hand HD from the right to the left in front of the
図11に示すごとく手HDをユーザー側から見て右から左に移動させたときの近接センサー105の受光状態を、図12(近接センサー105の受光領域を円で示す)に対応して示しており、ここで検出した受光領域をハッチングで表している。図12(a)においては、いずれの受光領域も手HDを検出していないが、図12(b)においては、受光領域RA,RCのみが手HDを検出し、手HDが検出領域の右側に進入して来たことが分かる。更に、図12(c)においては、全ての受光領域が手HDを検出しているので、手HDが近接センサー105の前方に来たことが分かる。又、図12(d)においては、受光領域RB,RDのみが手HDを検出し、手HDが検出領域の左側に移動して来たことが分かり、図12(e)においては、いずれの受光領域も手HDを検出しなくなることで、手HDが検出領域から退避したことが分かる。つまり、プロセッサー121は、近接センサー105の一連の出力信号を受信することで、手HDが検出領域内を右から左へと通過したことを認識できる。
The light receiving state of the
一方、図13の例では、まず受光領域RA,RBの信号が立ち上がり、遅れて受光領域RC,RDの信号が立ち上がり、更に受光領域RA,RBの信号が立ち下がった後に、受光領域RC,RDの信号が立ち下がっている。この信号のタイミングをプロセッサー121が検出し、ユーザーUSは手HDを上から下へと移動させてジェスチャー操作を行ったと判断する。
On the other hand, in the example of FIG. 13, the signals in the light receiving areas RA and RB rise first, the signals in the light receiving areas RC and RD rise later, and the signals in the light receiving areas RA and RB fall, and then the light receiving areas RC and RD. The signal is falling. The
尚、近接センサー105からの出力に基づいて、プロセッサー121は、手HDが前後方向に移動したことも検出できる。図14には、縦軸に受光領域RA~RDの平均信号強度をとり、横軸に時間をとって示した信号波形の一例である。実線で示す波形は、出力直後に強度が高く、時間経過と共に低下している。よって、このような波形が近接センサー105から出力された場合、プロセッサー121は、手HDを顔の近くから遠ざけるよう移動させてジェスチャー操作を行ったと判断する。一方、点線で示す波形は、出力直後に強度が低く、時間経過と共に上昇している。よって、このような波形が近接センサー105から出力された場合、プロセッサー121は、手HDを遠くから顔に近づけるよう移動させてジェスチャー操作を行ったと判断する。
Note that, based on the output from the
本実施形態によれば、近接センサーを用いて、その検出領域が画像表示部に対向するユーザーの眼の視野内に位置させることで、確実に手HDの存在と移動を検出することができる。従って、ユーザーUSは手の動作と操作を連動させて見ることができ、直感的な操作を実現できる。更に、近接センサーは、小型でカメラより低消費電力であるから、HMD100の連続動作時間を長くすることができる。
According to the present embodiment, the presence and movement of the hand HD can be reliably detected by using the proximity sensor and positioning the detection region within the visual field of the user's eye facing the image display unit. Accordingly, the user US can view the hand operation and the operation in conjunction with each other, and can realize an intuitive operation. Furthermore, since the proximity sensor is small and consumes less power than the camera, the continuous operation time of the
ところで、近接センサーのような簡素な構成の検出装置を用いてジェスチャー操作を検出する場合、複雑なジェスチャー操作であると誤検出の恐れが高くなり、ユーザーにとって使い勝手が悪くなる。これに対し、例えばジェスチャー操作を、手を上下、左右、斜め、遠近に移動させたり,静止させるというような単純な動作に限ることで、誤検出の恐れを少なくできる。しかしながら、このような単純な動作では、細かい入力内容に対応できなくなる。そこで、複数のジェスチャー操作を組み合わせて、細かいな入力内容に対応させることが考えられる。しかるに、複数のジェスチャー操作を組み合わせて一つの入力操作とする場合、単独のジェスチャー操作とどのように切り分けるかという問題が生じる。 By the way, when a gesture operation is detected using a detection device having a simple configuration such as a proximity sensor, if it is a complicated gesture operation, there is a high risk of erroneous detection, and the usability becomes poor for the user. On the other hand, for example, by limiting the gesture operation to a simple operation such as moving the hand up and down, left and right, diagonally, near and far, or stationary, the risk of erroneous detection can be reduced. However, such a simple operation cannot cope with fine input contents. Therefore, it is conceivable to combine a plurality of gesture operations to correspond to fine input contents. However, when combining a plurality of gesture operations into one input operation, there arises a problem of how to separate it from a single gesture operation.
このような問題を解消するために、本実施形態では、単独のジェスチャー操作で、ユーザーが所望する入力内容を入力する単一モードと、複数のジェスチャー操作を組み合わせて、ユーザーが所望する入力内容を入力するコンビネーションモードとを、選択的に設定可能とし、特定のジェスチャー操作によりモードの切り替えを行うようにしている。 In order to solve such a problem, in the present embodiment, a single mode for inputting the input content desired by the user by a single gesture operation and a plurality of gesture operations are combined to obtain the input content desired by the user. The combination mode to be input can be selectively set, and the mode is switched by a specific gesture operation.
ここで、検出領域内で検出できる単独のジェスチャー操作としては、以下のような操作がある。これを有効なジェスチャー操作として、そのパターンをプロセッサー121が予め認識する。
手の上から下への移動、手の下から上への移動、手の左から右への移動、手の右から左への移動、手の左下から右上への移動、手の右下から左上への移動、手の左上から右下への移動、手の右上から左下への移動、手をぐるぐる回す、クリック操作(素早く前後に手を動かす)、手の静止(短)、手の静止(長)、左右に高速に手を動かすことなど。
Here, as a single gesture operation that can be detected in the detection region, there are the following operations. The
Move from top to bottom of hand, move from bottom to top of hand, move from left to right of hand, move from right to left of hand, move from bottom left to right of hand, from bottom right of hand Move to the upper left, move from the upper left to the lower right of the hand, move from the upper right to the lower left of the hand, rotate around the hand, click operation (moves the hand quickly back and forth), rest of the hand (short), rest of the hand (Long), moving your hand from side to side at high speed.
単一モードの場合、以上のジェスチャー操作に対応して個々に入力内容を決めれば良い。一方、コンビネーションモードの場合、以上のジェスチャー操作を組み合わせて用いる必要がある。そこで、ジェスチャー操作の混同を招かないように、モードの切り替えが必要になる。 In the case of the single mode, the input content may be determined individually corresponding to the above gesture operations. On the other hand, in the combination mode, it is necessary to use a combination of the above gesture operations. Therefore, it is necessary to switch modes so as not to confuse gesture operations.
モードの切り替えの際には、あらかじめモードを切り替えるジェスチャー操作を設定しておき、そのジェスチャー操作を検出することで、プロセッサー121が単一モードとコンビネーションモードの切り替えをおこなうことができる。尚、単一モードからコンビネーションモードへの切り替え、及びコンビネーションモードから単一モードの切り替えは、同じジェスチャー操作でも異なるジェスチャー操作でも,いずれで行ってもよい。ここでは、モード切り替えのジェスチャー操作(モード切替用ジェスチャー操作という)は共通であって、図8,9に示すように検出領域の中央で手HDを2秒以上静止させることとする。但し、例えばプロセッサー121の音声認識機能を用いて、ユーザーUSが発した「モード切替」などの音声を、マイク111Bを介して検出することでモード切替を行っても良い。又、コンビネーションモード設定時に、直前のジェスチャー操作の内容(入力情報という)をキャンセルする際のジェスチャー操作(キャンセル用ジェスチャー操作という)は、検出領域内で手HDを左右に高速で移動させることとする。但し、入力情報が全く記憶されてない状態で、キャンセル用ジェスチャー操作を行ったときは、単一モードの切り替えを行うようにしても良い。更に、コンビネーションモード設定時に、選択された入力内容を確定するために、例えば近接センサー105の検出領域の中央で手HDを前後させるようなジェスチャー操作(決定用ジェスチャー操作)を予め設定していても良い。
When switching modes, a gesture operation for switching modes is set in advance, and by detecting the gesture operation, the
又、予めRAM126内に、単一モードにおける単独のジェスチャー操作と入力内容とを対応づけた単一リストと、コンビネーションモードにおける複数のジェスチャー操作の組み合わせと入力内容とを対応づけたコンビネーションリストとを記憶しており、プロセッサー121が必要に応じて読み出せるものとする。コンビネーションモード設定時には、プロセッサー121は、連続するジェスチャー操作による入力情報を順次記憶してゆき、コンビネーションリストと照合するものとする。コンビネーションリストは、有効なジェスチャー操作以外に、モード切替用ジェスチャー操作、キャンセル用ジェスチャー操作、決定用ジェスチャー操作も含んでいる。
In addition, a single list in which a single gesture operation in the single mode is associated with the input content and a combination list in which a combination of a plurality of gesture operations in the combination mode is associated with the input content are stored in the
以下の例では、デフォルトで単一モードが設定されるものとし、またコンビネーションモードに移行した後に、モード切替用ジェスチャー操作が検出されたとき、又は一つの複数のジェスチャー操作による入力が完結したときに、単一モードへ移行するものとする。ただし、ユーザーがモード切替用ジェスチャー操作を行わない限り、コンビネーションモードを続行するようにしても良い。 In the following example, it is assumed that the single mode is set by default, and when the mode switching gesture operation is detected after the transition to the combination mode, or when input by a plurality of gesture operations is completed. , And transition to single mode. However, the combination mode may be continued unless the user performs a mode switching gesture operation.
図15は、単一モードのシーケンスを示すフローチャート図である。単一モードが設定されている場合、図15のステップS101で、ジェスチャー操作に応じて近接センサー105が信号を出力したときは、プロセッサー121は、ステップS102において、近接センサー105を介して検出されたジェスチャー操作のパターンから有効なジェスチャー操作であるか否か判断し、有効なジェスチャー操作でなければ、シーケンスをステップS101へと戻して次のジェスチャー操作を待ち受ける。
FIG. 15 is a flowchart showing a single mode sequence. When the single mode is set, when the
一方、有効なジェスチャー操作であると判断した場合、続くステップS103でプロセッサー121は、かかるジェスチャー操作が,モード切替用ジェスチャー操作か否か判断し、モード切替用ジェスチャー操作でないと判断すれば、ステップS104で、プロセッサー121は、単一リストに基づいて、近接センサー105を介して検出されたジェスチャー操作に対応する入力内容を決定し、これを実行する。一方、プロセッサー121がモード切替用ジェスチャー操作であると判断したときは、ステップS105で単一モードを中断し、コンビネーションモードへと移行する。以下、プロセッサー121は、ジェスチャー操作が複数連続することを前提に、入力内容を決定する。
On the other hand, if it is determined that the gesture operation is valid, in step S103, the
図16は、コンビネーションモードのシーケンスを示すフローチャートである。コンビネーションモードへと移行した後に、ステップS201で、ジェスチャー操作に応じて近接センサー105が信号を出力したときは、プロセッサー121は、ステップS202において、近接センサー105を介して検出されたジェスチャー操作のパターンからモード切替用ジェスチャー操作であるか否か判断する。
FIG. 16 is a flowchart showing the sequence of the combination mode. After the transition to the combination mode, when the
検出されたジェスチャー操作がモード切替用ジェスチャー操作であると判断した場合、プロセッサー121は、ステップS210で、記憶した入力情報を消去し、ステップS211でコンビネーションモードを中断し、単一モードへと移行する。
When determining that the detected gesture operation is a mode switching gesture operation, the
一方、モード切替用ジェスチャー操作でないと判断した場合、続くステップS203で、プロセッサー121は、コンビネーションリストに、検出されたジェスチャー操作が存在するか否かを判断する。検出されたジェスチャー操作が存在しなかった場合、ステップS208で、プロセッサー121は、入力可能なジェスチャー操作の内容を選択肢として、ディスプレイユニット104に表示し、その後シーケンスをステップS201へと戻す。
On the other hand, if it is determined that the operation is not a mode switching gesture operation, in the subsequent step S203, the
一方、プロセッサー121は、コンビネーションリストに、検出されたジェスチャー操作が存在すると判断した場合、フローをステップS204に移行させ、更に、検出されたジェスチャー操作がキャンセル用ジェスチャー操作であるか否かを判断する。ここで、キャンセル用ジェスチャー操作であると判断した場合、ステップS205で、プロセッサー121は,一つ前のジェスチャー操作に対応する入力情報を消去し、ステップS208で、現時点で行われたジェスチャー操作に組み合わせて可能な入力内容をリスト化して、ディスプレイユニット104に表示し、その後シーケンスをステップS201へと戻す。これにより、無効なジェスチャー操作が無視されると共に、入力可能なジェスチャー操作をユーザーUSに知らせることができる。
On the other hand, if the
一方、検出されたジェスチャー操作がキャンセル用ジェスチャー操作ではなかったと判断した場合、ステップS206で、プロセッサー121は入力情報を記憶し、続くステップS207で、他に候補がないか判断する。他に候補があると判断した場合、プロセッサー121は、ステップS208で、現時点で行われたジェスチャー操作に組み合わせて可能な入力内容を選択肢として、ディスプレイユニット104に表示し、その後シーケンスをステップS201へと戻す。
On the other hand, if it is determined that the detected gesture operation is not a cancel gesture operation, the
一方、コンビネーションリスト内には他に組み合わせの候補がないと判断した場合、プロセッサー121は、ステップS209で入力内容を確定し、その内容に対応したイベントを実行する。但し、コンビネーションリスト内には他に組み合わせの候補がないと判断した場合でも、入力確定用のジェスチャー操作として、例えば手HDを検出領域内で遠近に繰り返し動かすジェスチャー操作を検出した場合に限り、入力を確定させても良い。その後、プロセッサー121は、ステップS210で記憶している入力情報を消去し、ステップS211でコンビネーションモードを中断し、単一モードへと移行する。以上述べた実施形態では、コンビネーションリストに、モード切替用ジェスチャー操作、キャンセル用ジェスチャー操作、決定用ジェスチャー操作も含めたが、これらの1つ以上をイベントリストや別のリストに含めて、プロセッサー121が参照するようにしても良い。
On the other hand, if it is determined that there is no other combination candidate in the combination list, the
図17は、図16のシーケンスの変形例の一部を示すフローチャート図であり、図16のステップS203に置き換えて実行できるものである。ここでは、図16に対して異なる部分のみを説明する。プロセッサー121は、図16のステップS202から続くステップS301で、コンビネーションリストと照合した上で、近接センサー105を介して検出されたジェスチャー操作が有効なジェスチャー操作であるか否か判断する。ここで、有効なジェスチャー操作でない(すなわち無効のジェスチャー操作を検出した)場合には、プロセッサー121は、ステップS302で内蔵カウンターの数値をカウントアップして(無効判定が初めてなら1,連続して2回目なら2,・・・)が,シーケンスをステップS304に進める。これに対し、有効なジェスチャー操作を検出した場合には、プロセッサー121は、ステップS303で内蔵カウンターの数値をリセットして(無効判定が途切れる)、シーケンスを図16のステップS204へと進め、上述したシーケンスを実行する。
FIG. 17 is a flowchart showing a part of a modification of the sequence of FIG. 16, which can be executed in place of step S203 of FIG. Here, only a different part from FIG. 16 is demonstrated. In step S301 following step S202 of FIG. 16, the
一方、ステップS304で、プロセッサー121は、内蔵カウンターの数値が閾値N以上か否か判断し、N以上である場合には、ユーザーの行った無効なジェスチャー操作の数が規定数を超えたといえるから、ユーザーが操作可能なジェスチャーを認識していない可能性が高いと推断して、入力可能なジェスチャー操作の組み合わせのリスト表示のフラグを立てる。一方、内蔵カウンターの数値が閾値N未満である場合、ユーザーを混乱させないために、プロセッサー121は、ステップS306で、入力可能なジェスチャー操作の組み合わせのリストのリスト非表示のフラグを立てる。その後シーケンスは図16のステップS206へと移行するが、図16のステップS208で、リスト表示のフラグが立っている場合には、プロセッサー121は、ディスプレイユニット104に、入力可能なジェスチャー操作の組み合わせのリストを表示してユーザーの入力支援を行うが、リスト非表示のフラグが立っている場合には、当該リストを表示しないこととする。
On the other hand, in step S304, the
本実施形態によれば、コンビネーションモードを設定することで、複数のジェスチャー操作を連続して検出したことに応じて、単独のジェスチャー操作を検出した場合とは異なる入力内容を決定することができるから、入力内容の設定の自由度が高まる。 According to the present embodiment, by setting the combination mode, it is possible to determine different input content from when a single gesture operation is detected in response to detecting a plurality of gesture operations continuously. , The degree of freedom in setting the input content increases.
次に、具体例を掲げて,本実施形態の動作を説明する。ここでは、プロセッサー121が架電アプリケーションを実行している間に、ユーザーがジェスチャー操作を用いた入力を行うことで、RAM126に記憶されている電話帳登録のリストから架電を所望する相手先を選択し、選択した相手先に架電するものとする。
Next, the operation of this embodiment will be described with a specific example. Here, while the
図18は、RAM126に記憶された電話帳のデータを示し、図19は、電話帳のデータに対応し、架電アプリケーションで用いるイベントリスト及びコンビネーションリストの例を示す図である。電話帳のデータ中には、氏名の最初が「あ」行に属するグループ、「か」行に属するグループ、「さ」行に属するというグループ、・・・というように仕分けされており、図示していないがそれぞれ対応する電話番号と関係づけられている。図19(a)のイベントリストには、2つのジェスチャー操作の組み合わせ(コンビネーション)で入力を行える相手先が記録され、図19(b)のイベントリストには、2つ又は3つのジェスチャー操作の組み合わせ(コンビネーション)で入力を行える相手先が予め記録されている。図中の矢印は、検出領域内で矢印の方向に手を動かすジェスチャー操作であることを意味する。尚、4つ以上のジェスチャー操作の組み合わせで入力を行える相手先を設定しても良い。
FIG. 18 shows the phone book data stored in the
ここでは、ユーザーが、イベントとして電話帳に記録された「技術部 小籔俊之」に架電を所望する場合を例にとり、架電する相手先をイベントリストとして記憶する。特定の相手先への架電を仮に単一モードで行おうとすると、電話帳データに基づいてディスプレイユニット104に図18に示すような電話帳を表示した後、例えば手を左から右へ動かす単独のジェスチャー操作により、「か」行に属する相手先グループの表示に切り替えた後、例えば手を上から下へ動かす単独のジェスチャー操作により画面スクロールを行って、架電を所望する相手先としての「技術部 小籔俊之」を選択することができる。しかしながら、電話帳に膨大な相手先が記録されている場合、架電を所望する相手先が表示されるまで、同一のジェスチャー操作を何回も繰り返して画面スクロールを行わなくてはならない場合があり、手間がかかる。これに対し本実施形態によれば、コンビネーションモードに切り替えることで、複数回のジェスチャー操作のみで、所望する相手先に架電することが可能になる。
Here, taking the case where the user wishes to make a call to “Technology Department Toshiyuki Komine” recorded in the phone book as an event, the call destination is stored as an event list. If a call to a specific destination is to be made in a single mode, a phone book as shown in FIG. 18 is displayed on the
具体的に本実施形態による手順を示す。ここで、図19に示すようにユーザーUSは、架電頻度が高い相手先(ここでは「技術部 小籔俊之」を含む)をイベントリストとして記憶し、これに対応づけて複数のジェスチャー操作からなるコンビネーションリストを記憶しているものとする。まず、ユーザーUSが、近接センサー105の検出領域内の中央で手HDをかざし2秒以上静止させてモード切替用ジェスチャー操作を行うと、近接センサー105からの出力信号に応じて、プロセッサー121がコンビネーションモードに移行する。
Specifically, the procedure according to this embodiment will be described. Here, as shown in FIG. 19, the user US stores an opponent with a high call frequency (including “Technology Department Toshiyuki Komine”) as an event list, and associates it with a plurality of gesture operations. It is assumed that a combination list is stored. First, when the user US performs a mode switching gesture operation by holding the hand HD in the center of the detection area of the
その後、ユーザーUSは、図19(a)に示された「技術部 小籔俊之」のジェスチャー操作の組み合わせに従って、近接センサー105の検出領域内で、手HDを左から右へ移動させ、その後、手HDを下から上へ移動させると、プロセッサー121は、ユーザーUSが「技術部 小籔俊之」へ架電するという内容(イベント)の入力を行ったと判断し、記憶されている「技術部 小籔俊之」の電話番号を特定し、直ちに架電動作を実行する。これによりユーザーUSは、簡単な操作で「技術部 小籔俊之」と通話することが可能になる。本実施形態では、架電実行と同時に単一モードへと戻るシーケンスになっているが、例えば架電などの特別なアプリケーションを実行する場合に限り、架電実行後にもコンビネーションモードを維持するようにしても良い。
Thereafter, the user US moves the hand HD from the left to the right within the detection area of the
但し、ユーザーUSが操作を誤る恐れもある。例えば、「技術部 小籔俊之」への架電を所望するユーザーUSが、コンビネーションモード移行後の最初のジェスチャー操作で、近接センサー105の検出領域内で、間違って手HDを右から左へ移動させた場合には、更に手HDを左右に高速に移動させることでキャンセル用ジェスチャー操作としてプロセッサー121が認識するので、直前のジェスチャー操作を無効として、再度最初のジェスチャー操作をやり直すことが可能になる。
However, there is also a risk that the user US will make a mistake. For example, the user US who wants to call “Technology Department Toshiyuki Komine” moves his hand HD from right to left in the detection area of the
本実施形態によれば、シンプルで少ない数のジェスチャー操作によりユーザーが所望する入力を実現することが可能となる。特に以上の例では、架電する頻度が高い相手先を予めイベントリストに記録し、これと少ない数のジェスチャー操作を対応づけてコンビネーションリストに記録しておけば、より簡単に架電することが可能となる。 According to the present embodiment, it is possible to realize the input desired by the user with a simple and small number of gesture operations. In particular, in the above example, it is easier to make a call by recording a destination with a high call frequency in the event list in advance and recording it in the combination list in association with a small number of gesture operations. It becomes possible.
さらに、架電対象となる相手先の数が多い場合、それに応じてジェスチャー操作の組み合わせ数を3つ以上と増やすことで対応させることができる。かかる場合、ジェスチャー操作の組み合わせ数が2つの場合と3つの場合との切り分けが課題となる。図19(b)にジェスチャー操作の組み合わせ数を2つ及び3つとしたコンビネーションリスト及びイベントリストの例を示しているが、この例では、近接センサー105の検出領域内で手HDを上から下へ移動後、さらに手を上から下へ移動させると、コンビネーションリスト内に3つの候補が残ることとなる。この場合、プロセッサー121は直ちに架電を行わず、ユーザーUSの次の指示を待つ。
Furthermore, when the number of destinations to be called is large, it can be dealt with by increasing the number of combinations of gesture operations to 3 or more accordingly. In such a case, it becomes a problem to separate the number of combinations of gesture operations between two and three. FIG. 19B shows an example of a combination list and event list in which the number of combinations of gesture operations is two and three. In this example, the hand HD is moved from top to bottom within the detection area of the
「企画部 横井京子」に架電することを意図していたユーザーUSは、架電を行われないことで,他に候補があることを認識するので、あらかじめ設定しておいた決定用ジェスチャー操作を行うことで、プロセッサー121は、ユーザーUSが「企画部 横井京子」へ架電するという内容の入力を行ったと判断し、記憶されている「企画部 横井京子」の電話番号を特定し、直ちに架電動作を実行することができる。
The user US who intended to make a call to “Planning Department Kyoko Yokoi” recognizes that there is another candidate by not making a call, so the gesture operation for decision that has been set in advance , The
尚、決定用ジェスチャー操作が行われない場合、プロセッサー121は、ユーザーUSが他の候補を選択する意図があるとして、手HDを下から上に移動させるジェスチャー操作(「企画部 若井由美」への架電),又は手HDを右から左に移動させるジェスチャー操作(「企画部 和久井久」への架電)のいずれかを待ち受けることとなる。いずれかのジェスチャー操作が行われれば入力が確定するので、確定した相手先へと直ちに架電動作を実行することができる。それ以外のジェスチャー操作が行われた場合、プロセッサー121はジェスチャー操作が無効であることを示す警告音を鳴動させることもできる。
If the determination gesture operation is not performed, the
又、入力を補助するため、近接センサーを介するジェスチャー操作の検出に加えて、他のセンサーを併用すれば、より入力内容の自由度が拡大し、ユーザーが所望の動作を簡便に実現できるようになる。例えば、ジェスチャー操作に加えて、ユーザーUSの首の傾きや特定の音声を組み合わせたコンビネーションリストを、RAM126に記憶しておくことができる。かかる場合、既定のジェスチャー操作を近接センサー105が検出することに加えて、ユーザーUSの首の傾きを加速度センサー110Aで検出したり、或いはユーザーUSの音声をマイク111Bで収集したときは、プロセッサー121がこれらから入力された信号を解析又は音声辞書に基づき音声認識した上で、コンビネーションリストに従ってユーザーが所望する入力内容を確定させることができる。
Also, in order to assist input, in addition to detecting gesture operations via proximity sensors, if other sensors are used in combination, the degree of freedom of the input content can be expanded and the user can easily realize the desired operation. Become. For example, in addition to the gesture operation, a combination list that combines the tilt of the neck of the user US and a specific voice can be stored in the
ところで、上述したような電話帳のデータに対応づけたコンビネーションリストを全て記憶することは困難であるから、例えば架電頻度が低い相手先などに架電する場合など、ユーザーUSが必要に応じてRAM126からコンビネーションリストを呼び出して確認できれば、ジェスチャー操作を支援できるため,よりユーザーフレンドリーであるといえる。しかしながらコンビネーションリストによっては膨大な量を持つものあるので、その全てをディスプレイユニット104に表示させることは適切でない場合もある。以下の実施形態では、ディスプレイユニット104にナビゲーション表示を行うことで、かかる問題を解消している。
By the way, since it is difficult to store all the combination lists associated with the phone book data as described above, for example, when the user US makes a call to a destination with a low call frequency, the user US needs to If the combination list can be called from the
ここでは、カメラアプリケーションを実行している例を示す。図20は、ディスプレイユニット104の画像表示部104BをユーザーUS側から見た図である。図20において、左上に表示されたアイコンIC1は、所定の操作によってプロセッサー121がカメラアプリケーションを実行していることを示している。なお、以下に述べる入力履歴およびジェスチャー操作の組み合わせ候補を表示する画像(矢印のアイコン等を含む)は、あらかじめRAM126等に保存してあり、必要に応じてプロセッサー121から呼び出され、近接センサー105の出力信号と照合され、対応する画像を表示するようになっている。
Here, an example of executing a camera application is shown. FIG. 20 is a diagram of the
入力におけるデフォルトの設定は単一モードであるので、カメラアプリケーションを立ち上げた直後は、図20(a)に示すように、アイコンIC1のみが表示される。かかる画面表示を見たユーザーは、単一モードが設定されていることが分かる。 Since the default setting for input is single mode, immediately after starting the camera application, only the icon IC1 is displayed as shown in FIG. A user who sees such a screen display knows that the single mode is set.
上述したように、モード切替用ジェスチャー操作をユーザーが行うと、近接センサー105からの出力信号に基づいてプロセッサー121が、単一モードを中断してコンビネーションモードを開始する。すると、図20(b)に示すように、画像表示部104Bの画面の右下に、ここではジェスチャー操作の履歴を表す3つの枠FRが表示されると共に、同画面の左下近傍には、ジェスチャー操作の組み合わせの候補を示す情報CANが表示される。枠FR内には、ジェスチャー操作が認識された順に左から(ここでは矢印の)表示が行われるようになっている。
As described above, when the user performs a mode switching gesture operation, the
情報CANは、ここではジェスチャー操作の方向を示す矢印の組み合わせと共に、それに対応する入力内容を示している。画像表示部104Bの画面は、これを通してユーザーが外界を観察するために、多くの情報を表示することが困難である。そこで、本実施形態では、情報CANにおいてジェスチャー操作の組み合わせは2通りのみ表示しており、残りは表示された情報CANの上又は下に表示された三角形の矢印TRを,例えばクリック操作(例えば手HDを近接センサー105の検出領域内で前後に移動させること)を行うことで、残りの組み合わせを2つずつ表示させることができる。ユーザーがこのような表示を見ることで、例え所望の入力を行うためのジェスチャー操作の組み合わせを忘れていた場合でも、正確に操作を行うことが可能になる。枠FRと情報CANとをナビゲーション表示という。
Here, the information CAN indicates a combination of arrows indicating the direction of the gesture operation and the corresponding input content. It is difficult for the screen of the
図20(b)においては、コンビネーションモードを開始した直後であるから、ジェスチャー操作の組み合わせの候補としては,予めRAM126等にデータが記憶され且つカメラアプリケーションを実行中に可能な全てのジェスチャー操作の組み合わせの候補を情報CANとして表示できる。
In FIG. 20B, since it is immediately after the combination mode is started, as combinations of gesture operations, combinations of all gesture operations in which data is stored in advance in the
ここで、ユーザーが近接センサー105の検出領域内で、手HDを左から右へと移動させたときは、近接センサー105からの出力信号に基づいてプロセッサー121は、ユーザーが手HDを左から右へと移動させたジェスチャー操作を行ったと判断し、図20(c)に示すように、画像表示部104Bの画面中の最も左の枠FR内に、左から右へ向かう矢印を表示する。これを見たユーザーは、自分が行ったジェスチャー操作をプロセッサー121が正しく認識したことが分かる。枠FR内の表示を見て、もしユーザーの意図通りのジェスチャー操作でないことが判明したら、ユーザーは上述したようなキャンセル用ジェスチャー操作で、直前のジェスチャー操作を無効とすることができる。
Here, when the user moves the hand HD from the left to the right within the detection area of the
これと同時に、プロセッサー121は、手HDを左から右へと移動させたジェスチャー操作が最初に行われる組み合わせを絞り込んで、図20(c)に示すように、情報CANとして表示する。更新された情報CANでは、これ以降で実行可能なジェスチャー操作のみが表示されるから、これを見たユーザーは、例えば手HDを下から上へと移動させることで、「動画録画停止」の入力を行えることがわかる。
At the same time, the
しかしながら、「動画録画停止」の入力を所望しないユーザーは、別のジェスチャー操作を行うこととなる。このユーザーは、「動画再生」の入力を所望しているものとする。かかる場合、ユーザーは、続いて手HDを左から右へと移動させると、画像表示部104Bの画面が切り替わり、図20(d)に示すものとなる。すると、画像表示部104Bの画面中の左の2つの枠FR内に、左から右へ向かう矢印が2つ並んで表示される。尚、ジェスチャー操作の組み合わせの候補にないジェスチャー操作は、画面に表示することなく全て無効としても良い。
However, a user who does not wish to input “stop video recording” performs another gesture operation. It is assumed that this user desires input of “moving image reproduction”. In such a case, when the user subsequently moves the hand HD from the left to the right, the screen of the
以上と同時に、プロセッサー121が、左から右へ向かう手の移動を2回繰り返したジェスチャー操作の組み合わせに絞り込むことで、ジェスチャー操作の組み合わせの候補が1つに絞られたときは、図20(d)に示すように、1つのジェスチャー操作の組み合わせを示す情報CANを表示する。ここで、ユーザーが手HDを左上から右下へ移動させるジェスチャー操作を行うか、或いは上述した入力確定用のジェスチャー操作を行うことで、入力内容が確定し、ユーザーが所望する動画再生を行うことができる。
At the same time, when the
仮に、モード切替用ジェスチャー操作を行わない限り、コンビネーションモードが終了しない設定にしていた場合には、この時点でモード切替用ジェスチャー操作を行うことで単一モードへ移行するので、画像表示部104Bの画面は図20(a)に示すものに切り変わるが、モード切替用ジェスチャー操作以外のジェスチャー操作が行われれば、画像表示部104Bの画面は図20(c)に示すものに切り変わって、入力されたジェスチャー操作に続く組み合わせの候補を示す情報CANを表示する。一方、1つの入力内容が確定する操作ごとに単一モードへ復帰する設定の場合には、入力内容の確定に応じて、画像表示部104Bの画面は図20(a)に示すものに切り変わる。
If the setting is made so that the combination mode is not terminated unless the mode switching gesture operation is performed, the mode switching gesture operation is performed at this point to shift to the single mode. The screen changes to the one shown in FIG. 20A, but if a gesture operation other than the mode switching gesture operation is performed, the screen of the
本実施形態においては、RAM126等に、イベントリストとコンビネーションリストのデータを,対応づけて予め記憶しておき、必要に応じてプロセッサー121が読み出すことが望ましい。図21は、イベントリストとコンビネーションリストの例を示す図である。
In the present embodiment, it is desirable that the event list and the combination list data are stored in advance in the
図21に示す例では、架電アプリケーションに用いるイベントリストとコンビネーションリストである。ここでイベントリスト(入力可能な内容に対応づけた複数のジェスチャー操作の組み合わせのリスト)において、各eventは入力内容に対応するものであり、具体的には、「event1」は「営業部 青木愛」に架電するという指示を入力する内容であり、「event2」は、「営業部 伊藤晃」に架電するという指示を入力する内容であり、「event3」は、「企画部 相澤卓美」に架電するという指示を入力する内容であり、「eventX」は、通話を終了するという指示を入力する内容である。eventがどの実行プログラムに該当するかは、イベントリストを参照して決定する。 In the example shown in FIG. 21, an event list and a combination list are used for the call application. Here, in the event list (a list of combinations of a plurality of gesture operations associated with inputable contents), each event corresponds to the input contents. Specifically, “event1” is “Sales Department Ai Aoki "Event2" is a content to input an instruction to call "Sales Department Ito Kaoru", and "event3" is to "Planning Department Takumi Aizawa" The content for inputting an instruction to call is “eventX”, and the content for inputting an instruction to end the call. The execution program corresponding to the event is determined with reference to the event list.
一方、コンビネーションリストによれば、「event1」は、ジェスチャー操作「action3」の入力により実行を指示出来、「event2」は、ジェスチャー操作「action2+action2」の入力により実行を指示出来、「event3」は、ジェスチャー操作「action1+action4+action5」の入力により実行を指示出来、「eventX」は、ジェスチャー操作「action5+action5」の入力により実行を指示出来る。 On the other hand, according to the combination list, “event1” can be instructed to execute by inputting the gesture operation “action3”, “event2” can be instructed to execute by inputting the gesture operation “action2 + action2”, and “event3” Execution can be instructed by inputting the operation “action1 + action4 + action5”, and execution of “eventX” can be instructed by inputting the gesture operation “action5 + action5”.
ここで、「action1」が下から上への手の移動、「action2」が上から下への手の移動、「action3」が右から左への手の移動、「action4」が左から右への手の移動、「action5」が手の前後移動というよう予めに決めておけば、コンビネーションモード設定時に、プロセッサー121がイベントリストとコンビネーションリストを照合することで、特定のジェスチャー操作による入力で、所望の相手先への架電が可能になるのである。
Here, “action1” is a hand movement from bottom to top, “action2” is a hand movement from top to bottom, “action3” is a hand movement from right to left, and “action4” is from left to right If the action is set in advance such that "action5" is the back-and-forth movement of the hand, the
イベントリストとコンビネーションリスト(ここではアクション設定とコンビネーション設定とからなる)の作成は、一般的にデータエントリー量が膨大になり手間がかかることが多いから、HMD100で作成するよりも、外部で作成したものを、インタフェース部を介して読み出してRAM126等に記憶することが望ましい。図22(a)は、外部のPC等を用いてユーザーが直接入力した入力画面を示しており、ここではカメラアプリケーション及び架電アプリケーションに用いる例を示す。図22(a)中のコンビネーションリストにおいて、「action」はジェスチャー操作のパターン(アクション設定)を定義しており、具体的には「action1」は下から上への手の移動を示し、「action2」は上から下への手の移動を示し、「action3」は右から左への手の移動を示し、「action4」は左から右への手の移動を示す。この例では、「action5」は前後への手の移動によるクリック動作を示す。「mode」はアプリケーション名を示し、「event」は入力内容を示す。
Creating an event list and a combination list (here, consisting of action settings and combination settings) is generally more time-consuming than the HMD100 because it requires a lot of data and the amount of data entry. It is desirable to read out the data via the interface unit and store it in the
一方、図22(a)に示すように、カメラアプリケーションで用いるコンビネーション設定においては、「event1」は、ジェスチャー操作「action1」の入力で実行を指示でき、「event2」は、ジェスチャー操作「action2+action3」の入力により実行を指示出来、「event3」は、ジェスチャー操作「action4+action4+action5」の入力により実行を指示出来ることを示している。 On the other hand, as shown in FIG. 22A, in the combination setting used in the camera application, “event1” can be instructed to be executed by inputting the gesture operation “action1”, and “event2” is the gesture operation “action2 + action3”. Execution can be instructed by input, and “event3” indicates that execution can be instructed by inputting a gesture operation “action4 + action4 + action5”.
これに対し、図22(a)に示すように、架電アプリケーションで用いるコンビネーション設定においては、「event1」は、ジェスチャー操作「action3」の入力で実行を指示でき、「event2」は、ジェスチャー操作「action2+action2」の入力により実行を指示出来、「event3」は、ジェスチャー操作「action1+action4+action5」の入力により実行を指示出来ることを示している。このように、アプリケーション毎に、ジェスチャー操作の組み合わせを任意に変更することができる。 On the other hand, as shown in FIG. 22A, in the combination setting used in the call application, “event1” can be instructed to be executed by inputting the gesture operation “action3”, and “event2” is the gesture operation “ Execution can be instructed by inputting “action2 + action2”, and “event3” indicates that execution can be instructed by inputting the gesture operation “action1 + action4 + action5”. Thus, the combination of gesture operations can be arbitrarily changed for each application.
以上のイベントリスト及びコンビネーションリストは、PCなどで作成した後に、そのデータをQRコード(登録商標)化し(図22(b)参照,但し図示されたQRコード(登録商標)は実際とは異なる)、インタフェース部としてのHMD100に搭載したカメラ106でQRコード(登録商標)を撮像して、プロセッサー121が読み出すことで、かかるリストをロードしてRAM126等に記憶することもできる。或いは、図示していないがイベントリスト及びコンビネーションリストの作成をWEB画面上で行って特定のサーバーに保存し、そのURLに基づいて通信部124が特定のサーバーにアクセスし、かかるデータをHMD100にダウンロードすることもできる。
The above event list and combination list are created on a PC or the like, and then converted into a QR code (registered trademark) (see FIG. 22B, but the QR code (registered trademark) shown is different from the actual one) The QR code (registered trademark) is imaged by the
アプリケーションごとに、ジェスチャー操作の組み合わせで実行するプログラムを変更できる機能に関して説明する。図23(a)は、アプリケーションごとに、ジェスチャー操作の組み合わせで内容を入力するイベント例を示す図である。また、図23(b)は、コンビネーションリスト例を示す図である。ここでは説明を簡単にするために、すべてのアプリケーションでは、同一設定のコンビネーションリストを参照するとする。 ∙ Explain about the function that can change the program to be executed by the combination of gesture operation for each application. FIG. 23A is a diagram illustrating an example of an event in which contents are input by a combination of gesture operations for each application. FIG. 23B shows an example of a combination list. Here, to simplify the explanation, it is assumed that all applications refer to a combination list having the same setting.
例えば、ホーム画面表示中(アプリケーション未実行)では、コンビネーションモード設定時に、「action2+action4」のジェスチャー操作が行われると、プロセッサー121は、「event1」に対応する「QRコード(登録商標)読み取りのアプリケーション起動」の指示が入力されたと判断する。一方、架電アプリケーションを実行中に、プロセッサー121は、同一のジェスチャー操作が行われると、プロセッサー121は「○○さんへ電話する」の指示が入力されたと判断する。このように実行中のアプリケーションによって、同一のジェスチャー操作をおこなっても、別の内容が入力されることとなる。これらは図22を参照して説明したように、イベントリストとコンビネーションリストによって、容易に設定が可能であり、これらのリストはRAM126に保存され、プロセッサー121は、実行中のアプリケーションごとに対応する各リストを読み出すことができる。コンビネーションリストおよびイベントリストの両方とも、直接入力、或いはQRコード(登録商標)やネットなどを介しての外部入力が可能である。
For example, when the home screen is displayed (application not executed) and the gesture operation “action2 + action4” is performed when the combination mode is set, the
以上述べた実施形態では、主として指示体の移動方向に基づくジェスチャー操作を例にとって述べてきたが、例えば手を開いたり閉じたりするような手の形状変化を、検出するジェスチャー操作に加えても良い。このようなジェスチャー操作をディスプレイユニット104に表示する場合(図20参照)、手を開いたり閉じたりする動作を繰り返すアニメーション動画等により表現することができる。 In the embodiment described above, the gesture operation mainly based on the moving direction of the indicator has been described as an example. However, for example, a change in the shape of the hand such as opening and closing the hand may be added to the gesture operation to be detected. . When such a gesture operation is displayed on the display unit 104 (see FIG. 20), it can be expressed by an animation movie or the like that repeats the operation of opening and closing the hand.
本発明は、明細書に記載の実施形態に限定されるものではなく、他の実施形態・変形例を含むことは、本明細書に記載された実施形態や技術思想から本分野の当業者にとって明らかである。明細書の記載及び実施形態は、あくまでも例証を目的としており、本発明の範囲は後述するクレームによって示されている。 The present invention is not limited to the embodiments described in the specification, and other embodiments and modifications are included for those skilled in the art from the embodiments and technical ideas described in the present specification. it is obvious. The description and the embodiments are for illustrative purposes only, and the scope of the present invention is indicated by the following claims.
100 HMD
101 フレーム
101a 前方部
101b 側部
101c 側部
101d 長孔
101e 長孔
102 眼鏡レンズ
103 主本体部
104 ディスプレイ
104A 画像形成部
104B 画像表示部
104DR 表示制御部
104a 光源
104b 一方向拡散板
104c 集光レンズ
104d 表示素子
104f 接眼プリズム
104g 偏向プリズム
104h ホログラム光学素子
104i 画面
105 近接センサー
105a 受光部
106 カメラ
106a レンズ
107 右副本体部
107a 突起
108 左副本体部
108a 突起
109 地磁気センサー
110A 加速度センサー
110B 角速度センサー
111A スピーカー
111B マイク
111C イヤホン
113 電源回路
121 プロセッサー
122 操作部
123 GPS受信部
124 通信部
125 ROM
126 RAM
127 バッテリー
128 バッテリー制御部
129 ストレージデバイス
130 電源回路
CD コード
CTU 制御ユニット
HD 手
HS 配線
PL1 基端面
PL2 内側面
PL3 外側面
PL4 傾斜面
PL5 傾斜面
RA-RD 受光領域
SA 検出領域
US ユーザー
100 HMD
101
126 RAM
Claims (11)
前記検出装置の出力に応じて入力内容を決定する制御装置と、を備えた入力装置であって、
前記制御装置は、前記検出装置が単独の前記ジェスチャー操作を検出したことに応じて、それに対応する入力内容を決定する単一モードと、前記検出装置が複数の前記ジェスチャー操作を連続して検出したことに応じて、単独の前記ジェスチャー操作を検出した場合とは異なる入力内容を決定するコンビネーションモードとを選択的に設定可能である入力装置。 A detection device that detects a movement and / or shape change of the indicator moved by the user as a gesture operation within the detection region, and generates an output according to the gesture operation;
A control device for determining input contents according to the output of the detection device, and an input device comprising:
In response to the detection device detecting the single gesture operation, the control device determines a single input mode corresponding to the single gesture operation, and the detection device continuously detects a plurality of the gesture operations. Accordingly, an input device capable of selectively setting a combination mode for determining input contents different from the case where a single gesture operation is detected.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2015-245836 | 2015-12-17 | ||
| JP2015245836 | 2015-12-17 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2017104525A1 true WO2017104525A1 (en) | 2017-06-22 |
Family
ID=59056420
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2016/086504 Ceased WO2017104525A1 (en) | 2015-12-17 | 2016-12-08 | Input device, electronic device, and head-mounted display |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2017104525A1 (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2023531728A (en) * | 2020-06-29 | 2023-07-25 | メタ プラットフォームズ テクノロジーズ, リミテッド ライアビリティ カンパニー | Integration of artificial reality interaction mode |
| US12468379B2 (en) | 2019-12-06 | 2025-11-11 | Meta Platforms Technologies, Llc | Posture-based virtual space configurations |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014501413A (en) * | 2010-12-30 | 2014-01-20 | トムソン ライセンシング | User interface, apparatus and method for gesture recognition |
| JP2014099184A (en) * | 2008-03-04 | 2014-05-29 | Qualcomm Inc | Enhanced gesture-based image manipulation |
| JP2015197724A (en) * | 2014-03-31 | 2015-11-09 | 株式会社メガチップス | Gesture detection device, operation method of gesture detection device, and control program |
-
2016
- 2016-12-08 WO PCT/JP2016/086504 patent/WO2017104525A1/en not_active Ceased
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014099184A (en) * | 2008-03-04 | 2014-05-29 | Qualcomm Inc | Enhanced gesture-based image manipulation |
| JP2014501413A (en) * | 2010-12-30 | 2014-01-20 | トムソン ライセンシング | User interface, apparatus and method for gesture recognition |
| JP2015197724A (en) * | 2014-03-31 | 2015-11-09 | 株式会社メガチップス | Gesture detection device, operation method of gesture detection device, and control program |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US12468379B2 (en) | 2019-12-06 | 2025-11-11 | Meta Platforms Technologies, Llc | Posture-based virtual space configurations |
| JP2023531728A (en) * | 2020-06-29 | 2023-07-25 | メタ プラットフォームズ テクノロジーズ, リミテッド ライアビリティ カンパニー | Integration of artificial reality interaction mode |
| JP7745575B2 (en) | 2020-06-29 | 2025-09-29 | メタ プラットフォームズ テクノロジーズ, リミテッド ライアビリティ カンパニー | Integration of Virtual Reality Interaction Modes |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6786792B2 (en) | Information processing device, display device, information processing method, and program | |
| US10310624B2 (en) | Electronic apparatus, method for controlling electronic apparatus, and control program for the same | |
| JP5957875B2 (en) | Head mounted display | |
| US9360935B2 (en) | Integrated bi-sensing optical structure for head mounted display | |
| US20190012000A1 (en) | Deformable Electronic Device with Methods and Systems for Controlling the Deformed User Interface | |
| KR20200098034A (en) | Electronic device for providing augmented reality user interface and operating method thereof | |
| US20180374264A1 (en) | ULTRASONIC COLLISION MANAGEMENT IN VIRTUAL, AUGMENTED, AND MIXED REALITY (xR) APPLICATIONS | |
| JP2013125247A (en) | Head-mounted display and information display apparatus | |
| KR20190017347A (en) | Mobile terminal and method for controlling the same | |
| KR20140142337A (en) | Augmented reality light guide display | |
| TW201403380A (en) | Gesture recognition system and glasses for recognizing gestures | |
| JP2014085954A (en) | Portable terminal device, program and input operation accepting method | |
| KR20190102587A (en) | Mobile terminal and operation method of the same | |
| US20220350414A1 (en) | Electronic device for executing function based on hand gesture and method for operating thereof | |
| KR20190114644A (en) | Electronic device and method for controlling the same | |
| EP4459429A1 (en) | Augmented reality device switching input mode, and method therefor | |
| CN105786163A (en) | Display processing method and display processing device | |
| WO2017104525A1 (en) | Input device, electronic device, and head-mounted display | |
| KR20240167075A (en) | Gesture-based application invocation | |
| US11287945B2 (en) | Systems and methods for gesture input | |
| WO2016052061A1 (en) | Head-mounted display | |
| CN106155605B (en) | Display processing method and electronic equipment | |
| US20220244791A1 (en) | Systems And Methods for Gesture Input | |
| WO2016072271A1 (en) | Display device, method for controlling display device, and control program therefor | |
| JP6176368B2 (en) | Head mounted display and information display device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 16875505 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 16875505 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: JP |