[go: up one dir, main page]

WO2018173559A1 - 検出機能付きプロジェクタ - Google Patents

検出機能付きプロジェクタ Download PDF

Info

Publication number
WO2018173559A1
WO2018173559A1 PCT/JP2018/005231 JP2018005231W WO2018173559A1 WO 2018173559 A1 WO2018173559 A1 WO 2018173559A1 JP 2018005231 W JP2018005231 W JP 2018005231W WO 2018173559 A1 WO2018173559 A1 WO 2018173559A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
modulation
projector
irradiation
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2018/005231
Other languages
English (en)
French (fr)
Inventor
寺岡 善之
一賢 金田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to EP18771652.7A priority Critical patent/EP3605223B1/en
Priority to JP2019507434A priority patent/JP6969606B2/ja
Priority to US16/487,305 priority patent/US11755152B2/en
Publication of WO2018173559A1 publication Critical patent/WO2018173559A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/28Reflectors in projection beam
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3197Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] using light modulating optical valves

Definitions

  • the present disclosure relates to a projector with a detection function having a function of projecting an image and a function of detecting an object.
  • the irradiation light for detection is irradiated with a film-shaped irradiation beam by a beam irradiation device including a laser light source so as to cover the projection surface of the projector with a slight gap.
  • a beam irradiation device including a laser light source so as to cover the projection surface of the projector with a slight gap.
  • scattered light is generated at the passing site.
  • the scattered light is detected by a camera as detection light. Thereby, it is possible to perform the touch operation by determining the position of the object.
  • an infrared ray is usually used so that the illumination light for detection is not visually understood.
  • a projector with a detection function includes a projection optical system that projects image light onto a projection surface, and an irradiation beam that is used to detect an object to be detected on the projection surface based on light from the light source.
  • An illumination optical system that generates and emits, an image sensor that receives the scattered light of the irradiation beam from the object to be detected, and an illumination control that temporally modulates the light from the light source so as to reduce the coherence of the irradiation beam Part.
  • light from a light source that is a source of an irradiation beam used for detection of an object to be detected is temporally light intensity so that the coherence of the irradiation beam is reduced. Modulated.
  • the light from the light source that is the source of the irradiation beam used for detecting the detection target is temporally reduced so that the coherence of the irradiation beam is reduced. Therefore, the intensity distribution of the irradiation beam can be stabilized.
  • the effects described here are not necessarily limited, and may be any of the effects described in the present disclosure.
  • FIG. 1 schematically illustrates an example of a beam irradiation apparatus according to the first embodiment of the present disclosure.
  • the beam irradiation apparatus includes an infrared light source 200 and an irradiation optical system that emits an irradiation beam obtained by expanding light from the infrared light source 200 in a one-dimensional direction.
  • the infrared light source 200 is a laser light source that emits infrared light.
  • the irradiation optical system includes a plurality of optical elements arranged on the optical path of the light from the infrared light source 200.
  • a collimator lens L11, a polarization separation element 11, a relay lens L12, a cylindrical lens array L13, a relay lens L14, a ⁇ / 4 plate 12, and a mirror 13 are provided as a plurality of optical elements.
  • the relay lens L18, the first irradiation lens L21, and the second irradiation lens L22 are provided as a plurality of optical elements.
  • the lens elements other than the collimator lens L11 have a cylindrical shape, and have no lens action in a direction orthogonal to the one-dimensional direction in which the beam is expanded.
  • the one-dimensional direction in which the beam is expanded is the direction in the drawing of FIG. 1, and the lens elements other than the collimator lens L11 have a lens action in the drawing of FIG.
  • the collimator lens L11 has a function of making light from the infrared light source 200 substantially parallel light.
  • the infrared light source 200 and the collimator lens L11 are arranged in the first direction with respect to the polarization separation element 11.
  • the relay lens L12, the cylindrical lens array L13, the relay lens L14, the ⁇ / 4 plate 12, and the mirror 13 are in the second direction (light from the infrared light source 200 bent by the polarization separation element 11).
  • the relay lens L18, the first irradiation lens L21, and the second irradiation lens L22 are arranged in the third direction (the side opposite to the second direction with respect to the polarization separation element 11).
  • the polarization separation element 11 reflects the first polarization component (for example, the S polarization component) of the light from the infrared light source 200 toward the direction in which the cylindrical lens array L13, the mirror 13, and the like are arranged.
  • the polarization separation element 11 also reflects the second polarized component (for example, P-polarized component) out of the light reflected by the mirror 13 and incident on the cylindrical lens L13 again through the relay lens L18 to the first irradiation lens L21. And toward the second irradiation lens L22.
  • the ⁇ / 4 plate 12 is provided for conversion between the first polarization component and the second polarization component.
  • the first irradiation lens L21 and the second irradiation lens L22 are wide-angle lenses having a negative refractive power in the one-dimensional direction and a light expanding function only in the one-dimensional direction.
  • the first irradiation lens L21 and the second irradiation lens L22 expand the light emitted from the polarization separation element 11 in a one-dimensional direction via the relay lens L18 and emit it as an irradiation beam.
  • FIG. 2 and 3 show an example of a projector with a detection function using the irradiation beam from the beam irradiation apparatus shown in FIG. 1 as illumination light for detecting an object.
  • the projector with a detection function has a function as a projector that projects an image on the projection surface 30 and a touch that detects the position and operation of the position detection object 71 such as a human finger on the projection surface 30. It has a detection (position detection) function.
  • the projection surface 30 may be a projection screen.
  • the projection surface 30 may be a desk surface, a floor surface, or the like. Further, the projection surface 30 may be a wall surface or the like.
  • the projector with a detection function according to the present embodiment includes a video projection illumination unit 1, a position detection illumination unit 2, a projection optical system 4, an imaging unit 5, A detection image processing unit 6, an illumination control unit 7, and a display control unit 8 are provided.
  • the projector with a detection function according to the present embodiment further includes a light valve 21 and a polarization separation element 23.
  • the image projection illumination unit 1 is a first illumination unit that emits image projection illumination light 41 as first illumination light.
  • the light valve 21 is illuminated by the image projection illumination light 41 emitted from the image projection illumination unit 1 via the polarization separation element 23.
  • the image projection illumination unit 1 includes an illumination optical system (not shown) and a light source unit.
  • the light source unit includes, for example, a laser light source that emits light having R (red), G (green), and B (blue) spectra.
  • the light source unit includes, for example, a blue laser that emits B light, a green laser that emits G light, and a red laser that emits R light.
  • Each of the red laser, the green laser, and the blue laser may be controlled to emit light in a field sequential manner by, for example, a light emission control unit (not shown).
  • the illumination optical system of the image projection illumination unit 1 generates image projection illumination light 41 having an RGB spectrum based on the light from the light source unit.
  • the light valve 21 modulates the image projection illumination light 41 based on the image data supplied from the display control unit 8 to generate the image light 44.
  • the light valve 21 is a reflective liquid crystal element such as LCOS (Liquid Crystal On On Silicon).
  • LCOS Liquid Crystal On On Silicon
  • the position detection illumination unit 2 is a second illumination unit that emits position detection illumination light 42 as second illumination light used for position detection of the position detection object 71 on the projection plane 30.
  • the position detecting illumination unit 2 is provided, for example, in the lower part of the main body 100.
  • the position detection illumination unit 2 emits position detection illumination light 42 that is substantially parallel to the projection surface 30 so as to cover at least the projection area 31 of the image light 44 on the projection surface 30 from a predetermined height.
  • the position detection illumination unit 2 may have a configuration including the infrared light source 200 and the irradiation optical system in the beam irradiation apparatus shown in FIG.
  • the wavelength band of the position detection illumination light 42 is different from the wavelength band of the image projection illumination light 41.
  • the wavelength band of the image projection illumination light 41 is in the visible range, and the wavelength band of the position detection illumination light 42 is in the near infrared range.
  • the detected image processing unit 6 is an image processing unit that detects the position of the position detection object 71 based on the imaging result of the imaging unit 5. For example, the detection image processing unit 6 analyzes the detection signal from the imaging unit 5 and acquires position data (coordinate data) of the detected object.
  • the detected image processing unit 6 may have a function of analyzing not only the position of the position detection object 71 but also a movement such as a gesture operation by the position detection object 71.
  • the illumination control unit 7 performs on / off (non-emission) and on-off (non-emission) switching control of the position detection illumination light 42 by the position detection illumination unit 2. Further, the illumination control unit 7 performs control to temporally modulate the light from the light source (infrared light source 200 in FIG. 1) of the position detection illumination unit 2.
  • the projection optical system 4 has a projection lens 24.
  • the projection lens 24 may be an ultra short focus lens.
  • the projection optical system 4 has a function as an imaging optical system for position detection in addition to a function for projecting an image.
  • the image light 44 generated by the light valve 21 enters the projection optical system 4 and the scattered light La of the position detection illumination light 42 by the position detection object 71 is captured from the projection plane 30 side.
  • the imaging unit 5 includes an imaging element 22, an imaging optical system 25, and an exposure control unit 26.
  • the image sensor 22 is composed of a solid-state image sensor such as a CMOS (Complementary Metal-Oxide Semiconductor) or a CCD (Charge Coupled Device).
  • the image sensor 22 is disposed at a position optically conjugate with the projection surface 30. Further, the image sensor 22 is disposed at a position optically conjugate with the light valve 21. More specifically, when the light valve 21 is a reflective liquid crystal element, the display surface (liquid crystal surface) for creating an image and the imaging surface of the imaging element 22 are arranged so as to be in an optically conjugate position. Yes.
  • the scattered light La of the position detection illumination light 42 is incident on the imaging element 22 via the projection optical system 4 and the polarization separation element 23.
  • the imaging element 22 can perform imaging using at least an area substantially the same as the projection area 31 on the projection plane 30 as an imaging area.
  • the imaging optical system 25 is disposed between the optical conjugate surface of the light valve 21 and the imaging element 22.
  • the imaging optical system 25 includes, for example, a reduction optical system including a plurality of relay lenses, and a bandpass filter.
  • a reduction optical system including a relay lens as the imaging optical system 25, a position optically conjugate with the light valve 21 can be provided farther than the conjugate plane.
  • the size of the image sensor 22 can be made smaller than that of the light valve 21 while being arranged at a position optically conjugate with the light valve 21.
  • the exposure control unit 26 controls the exposure period and exposure timing (shutter timing) of the image sensor 22.
  • the exposure control unit 26 performs exposure control of the image sensor 22 by the global shutter method.
  • the exposure control unit 26 performs exposure control of the image sensor 22 by a rolling shutter method.
  • the polarization separation element 23 is, for example, a polarization beam splitter having four optical surfaces.
  • the image projection illumination light 41 from the image projection illumination unit 1 is incident on the first optical surface of the polarization separation element 23.
  • the light valve 21 is disposed on the second optical surface side of the polarization separation element 23.
  • the imaging unit 5 is arranged on the third optical surface side of the polarization separation element 23.
  • the projection optical system 4 is disposed on the fourth optical surface side of the polarization separation element 23.
  • the polarization separation element 23 separates the incident light into a first polarization component (for example, an S polarization component) and a second polarization component (for example, a P polarization component), and emits them in different directions.
  • the polarization separation element 23 selectively reflects the specific first polarization component and selectively transmits the specific second polarization component.
  • the polarization separation element 23 reflects the first polarization component included in the image projection illumination light 41 incident on the first optical surface toward the light valve 21.
  • the light that has been modulated by the light valve 21 and has become the second polarization component exits from the fourth optical surface of the polarization separation element 23 and enters the projection optical system 4 as image light 44.
  • the scattered light La of the position detection illumination light 42 is incident on the fourth optical surface of the polarization separation element 23 via the projection optical system 4.
  • the polarization separation element 23 reflects the first polarization component included in the scattered light La of the position detection illumination light 42 toward the imaging unit 5 via the third optical surface.
  • the position detection illumination unit 2 includes position detection illumination light 42 widened at a wide angle so as to cover at least the projection area 31 of the image light 44 on the projection surface 30 from a predetermined height.
  • the light is emitted from the lower part of 100.
  • at least the projection area 31 on the projection surface 30 is covered with the near-infrared light barrier by the position detection illumination light 42 from a predetermined height. Covering with such a near-infrared light barrier prevents the position detection illumination light 42 from diffusing when there is no instruction from the position detection object 71 such as a finger.
  • the projection area 31 is pointed with a finger or the like, the near-infrared light barrier is blocked, and the scattered light La of the position detection illumination light 42 hitting the finger or the like is generated.
  • the scattered light La of the position detection illumination light 42 enters the image sensor 22 via the projection optical system 4 and the polarization separation element 23.
  • the image pickup element 22 and the projection surface 30 are arranged at optically conjugate positions, the image projection position and the position indicated by a finger or the like have a 1: 1 relationship. Therefore, by analyzing the detection signal based on the imaging result of the imaging element 22 by the detection image processing unit 6, the position (coordinates) pointed by the finger or the like on the projection surface 30 can be specified.
  • the detected image processing unit 6 feeds back the specified position information to the display control unit 8 to reflect it in the projected video data.
  • the user can operate the video by using a finger or the like as a mouse pointer.
  • the irradiation beam serving as the position detection illumination light 42 is irradiated with a slight gap with respect to the projection plane 30, and only the position detection object 71 that blocks the irradiation target is detected.
  • This is a detection method, and a laser light source is used as the infrared light source 200.
  • a cylindrical lens array L13 is arranged in the irradiation optical system of the beam irradiation apparatus, and the light beams from the infrared light source 200 are superposed to make the light uniform.
  • the infrared light source 200 is a laser light source, a fine intensity pattern is generated due to interference between the light beams in the process of superimposing the light beams. In a state where the intensity is unevenly distributed, the light is enlarged and irradiated as an irradiation beam over the entire detection area of the position detection object 71. For this reason, at the detection position of the position detection object 71, position dependency of object detection may occur in an order that cannot be ignored.
  • the light intensity of the irradiation beam is stable in a planar and temporal manner.
  • the infrared light source 200 that is the light source of the irradiation beam is used as a laser light source, the laser light has high coherence. Prone to occur.
  • the oscillation state of the laser beam is destabilized and coherence is lowered.
  • intensity unevenness due to interference of laser light is reduced.
  • the illumination control unit 7 (FIG. 3) temporally modulates the light from the infrared light source 200 so that the coherence of the irradiation beam is reduced.
  • FIG. 4 shows an example of the light intensity modulation of the irradiation beam in the projector with a detection function according to the present embodiment.
  • FIG. 5 shows an example of the intensity distribution of the irradiation beam observed with the light amount modulation turned off.
  • FIG. 6 shows an example of the intensity distribution of the irradiation beam observed with the light amount modulation turned on. 5 and 6 show the intensity distribution of the beam cross section 34 on the wall 33 located far from the projection area 31, as shown in FIG.
  • FIG. 6 shows measured values when the light amount is binary between 100% and 70%, the duty ratio is 50%, and the light amount is modulated (modulation on) at a cycle of 2 msec, as shown in FIG.
  • the light amount modulation is turned on (FIG. 6)
  • the intensity unevenness of the irradiation beam is reduced as compared with the case where the light amount modulation is turned off (FIG. 5).
  • the average light amount is expressed by the following equation .
  • Average light quantity [%] 100 * (100 ⁇ y) / 100 + x * y / 100
  • the average light amount decreases by lowering the minimum light amount or increasing the duty ratio. As the average light amount decreases, the captured image becomes dark. In order to reduce this harmful effect, it is desirable to set the duty ratio to 50% and the minimum value of light quantity to 50% or more. In this case, the average amount of light is 75% or more, and the amount of decrease in the amount of light when the light amount is modulated remains below 25%.
  • the light amount modulation may be performed at a frequency sufficiently faster than the exposure period of the image sensor 22 or the light amount modulation width may be reduced.
  • the coherence reduction effect of the infrared light source 200 by the light amount modulation is related to the light amount modulation frequency and the light amount modulation width, a sufficient coherence reduction effect can be obtained by arbitrarily setting the light amount modulation frequency and the light amount modulation width. May not be obtained. Further, there may be a case where the light amount modulation cannot be performed at a sufficiently fast frequency due to hardware restrictions.
  • FIG. 7 and 8 show an example of the relationship between the exposure period and the light amount in a state where the light amount modulation is turned on.
  • FIG. 7 shows an example of the relationship between the exposure period and the amount of light when exposure is performed at the first exposure timing.
  • FIG. 8 shows an example of the relationship between the exposure period and the amount of light when exposure is performed at a second exposure timing different from the first exposure timing.
  • 7 and 8 show a case where binary light intensity modulation is performed.
  • the integrated value of the light quantity within the exposure period is proportional to the brightness of the captured image. That is, as shown in FIGS. 7 and 8, when the light amount modulation cycle and the shutter timing (exposure timing) are asynchronous, it means that the brightness of the captured image changes.
  • FIG. 9 shows an example of the relationship between the exposure period and the light amount when the shutter timing and the light amount modulation timing are synchronized.
  • the exposure control unit 26 (FIG. 3) controls the exposure of the image sensor 22 by the global shutter method when the image sensor 22 is a CCD, for example.
  • the exposure control unit 26 performs exposure control by the global shutter method on the image sensor 22 so that the exposure period is synchronized with the modulation period of the light amount modulation of the infrared light source 200.
  • FIG. 9 shows an example in which the falling edge of the light amount modulation is synchronized with the shutter timing.
  • the exposure control unit 26 performs exposure control of the image sensor 22 by a rolling shutter method.
  • CMOS complementary metal-oxide-semiconductor
  • a rolling shutter system is generally used in which the vertical pixels are sequentially shuttered in time. In this case, since the entire imaging screen cannot be captured at the same shutter timing, it cannot be synchronized.
  • FIG. 11 shows an example of the relationship between the modulation period of light amount modulation and modulation leakage.
  • FIG. 11 shows the worst case when the image sensor 22 has an exposure period of 5 msec, the horizontal axis represents the modulation period [msec], and the vertical axis represents the captured image at various shutter timings. It is a graph showing leakage or modulation leakage.
  • the modulation leakage takes a minimum value when the following relationship holds. That is, even when the modulation period of the light amount modulation and the shutter timing cannot be synchronized, the adverse effect of the light amount modulation can be reduced by optimizing the modulation frequency.
  • FIG. 12 shows an example of the relationship between the exposure period and the light amount at the first exposure timing when binary light amount modulation is performed.
  • FIG. 13 shows an example of the relationship between the exposure period and the light amount at the second exposure timing when binary light amount modulation is performed.
  • FIGS. 14 and 15 show an example of the relationship between the exposure period and the light amount at the first exposure timing when multilevel light amount modulation is performed.
  • FIG. 15 shows an example of the relationship between the exposure period and the light amount at the second exposure timing when multi-value light amount modulation is performed.
  • light from a light source that is a source of an irradiation beam used for detection of an object to be detected is temporally modulated so that the coherence of the irradiation beam is reduced.
  • the intensity distribution of the irradiation beam can be stabilized.
  • this technique can also take the following structures.
  • a projection optical system that projects image light onto a projection surface;
  • An irradiation optical system that generates and emits an irradiation beam used for detection of an object to be detected on the projection surface based on light from a light source;
  • An image sensor on which scattered light of the irradiation beam from the detection object is incident;
  • a projector with a detection function comprising: an illumination control unit that temporally modulates light from the light source so as to reduce coherence of the irradiation beam.
  • the projector with a detection function according to (1) further including an exposure control unit that performs exposure control by a global shutter method on the image sensor so that an exposure period is synchronized with a modulation period of the light amount modulation.
  • the illumination control unit performs the light amount modulation so that the minimum value of the light amount becomes 50% or more when the duty ratio is 50% and the large amount of light amount is 100%.
  • the projector with a detection function as described in any one.
  • the irradiation optical system expands light from the light source in a one-dimensional direction, and emits light substantially parallel to the projection plane as the irradiation beam.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Projection Apparatus (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

本開示の検出機能付きプロジェクタは、映像光を投影面に投影する投影光学系と、光源からの光に基づいて投影面上における被検出物の検出に用いられる照射ビームを生成して出射する照射光学系と、被検出物による照射ビームの散乱光が入射する撮像素子と、照射ビームの可干渉性が低減するように光源からの光を時間的に光量変調する照明制御部とを備える。

Description

検出機能付きプロジェクタ
 本開示は、映像を投影する機能と物体の検出機能とを有する検出機能付きプロジェクタに関する。
 近年、スマートフォンやタブレット端末等では、タッチパネルを用いることにより、人の直感に応じたタッチ操作を可能にしている。一方、映像をスクリーン上に投影するプロジェクタにおいて、LLP(Laser Light Plane)方式によってタッチ操作を可能にする技術が開発されている。LLP方式では、レーザ光源を含むビーム照射装置によって、プロジェクタの投影面をわずかな隙間を空けて覆うように膜状の照射ビームを検出用照明光を照射する。その膜状の照射ビームに対して指等の被検出物が通過すると、通過した部位に散乱光が生ずる。その散乱光を検出光としてカメラで検出する。これにより、物体の位置を判断してタッチ操作を行うことができる。LLP方式では通常、検出用照明光を視覚的に分からないようにするために赤外光線が用いられる。
特開2015-64550号公報 国際公開第2016/125384号
 LLP方式によってタッチ操作機能を実現する場合、タッチ検出の精度や検出信号の安定性の面で検出用照明光として用いる照射ビームの強度分布が安定していることが非常に重要である。
 照射ビームの強度分布を安定化することが可能な検出機能付きプロジェクタを提供することが望ましい。
 本開示の一実施の形態に係る検出機能付きプロジェクタは、映像光を投影面に投影する投影光学系と、光源からの光に基づいて投影面上における被検出物の検出に用いられる照射ビームを生成して出射する照射光学系と、被検出物による照射ビームの散乱光が入射する撮像素子と、照射ビームの可干渉性が低減するように光源からの光を時間的に光量変調する照明制御部とを備えものである。
 本開示の一実施の形態に係る検出機能付きプロジェクタでは、被検出物の検出に用いられる照射ビームの元となる光源からの光が、照射ビームの可干渉性が低減するように時間的に光量変調される。
 本開示の一実施の形態に係る検出機能付きプロジェクタによれば、被検出物の検出に用いられる照射ビームの元となる光源からの光を、照射ビームの可干渉性が低減するように時間的に光量変調するようにしたので、照射ビームの強度分布を安定化することが可能となる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本開示の第1の実施の形態に係るビーム照射装置の一例を概略的に示す構成図である。 第1の実施の形態に係る検出機能付きプロジェクタの一例を概略的に示す構成図である。 第1の実施の形態に係る検出機能付きプロジェクタの機能的な構成例を概略的に示すブロック図である。 第1の実施の形態に係る検出機能付きプロジェクタにおける照射ビームの光量変調の一例を示す説明図である。 光量変調をオフにした状態において観測される照射ビームの強度分布の一例を示す説明図である。 光量変調をオンにした状態において観測される照射ビームの強度分布の一例を示す説明図である。 第1の露光タイミングで露光を行った場合における露光期間と光量との関係の一例を示す説明図である。 第2の露光タイミングで露光を行った場合における露光期間と光量との関係の一例を示す説明図である。 シャッタタイミングと光量変調のタイミングとの同期を取った場合の露光期間と光量との関係の一例を示す説明図である。 第1の実施の形態に係る検出機能付きプロジェクタにおける照射ビームの光量変調の一例を示す説明図である。 光量変調の変調周期と変調漏れとの関係の一例を示す説明図である。 2値の光量変調を行った場合における第1の露光タイミングでの露光期間と光量との関係の一例を示す説明図である。 2値の光量変調を行った場合における第2の露光タイミングでの露光期間と光量との関係の一例を示す説明図である。 多値の光量変調を行った場合における第1の露光タイミングでの露光期間と光量との関係の一例を示す説明図である。 多値の光量変調を行った場合における第2の露光タイミングでの露光期間と光量との関係の一例を示す説明図である。
 以下、本開示の実施の形態について図面を参照して詳細に説明する。なお、説明は以下の順序で行う。
 1.第1の実施の形態
  1.1 ビーム照射装置の概要(図1)
  1.2 検出機能付きプロジェクタの概要(図2~図3)
  1.3 照射ビームの可干渉性を低減する技術の説明(図4~図15)
  1.4 効果
 2.その他の実施の形態
<1.第1の実施の形態>
[1.1 ビーム照射装置の概要]
 図1は、本開示の第1の実施の形態に係るビーム照射装置の一例を概略的に示している。
 ビーム照射装置は、赤外光源200と、赤外光源200からの光を1次元方向に拡大した照射ビームを出射する照射光学系とを備えている。
 赤外光源200は、赤外光を発するレーザ光源である。
 照射光学系は、赤外光源200からの光の光路上に配置された複数の光学素子を含んでいる。図1の構成例では、複数の光学素子として、コリメータレンズL11と、偏光分離素子11と、リレーレンズL12と、シリンドリカルレンズアレイL13と、リレーレンズL14と、λ/4板12と、ミラー13と、リレーレンズL18と、第1の照射レンズL21と、第2の照射レンズL22とを有している。
 これらの複数の光学素子のうち、コリメータレンズL11を除くレンズ素子は、シリンダ形状であり、ビームを拡げる1次元方向に直交する方向にはレンズ作用を持たない。ビームを拡げる1次元方向は、図1の紙面内の方向であり、コリメータレンズL11を除くレンズ素子は、図1の紙面内でレンズ作用を有する。コリメータレンズL11は、赤外光源200からの光を略平行光にする作用を有する。
 図1に示した照射光学系では、偏光分離素子11に対して、赤外光源200とコリメータレンズL11とが、第1の方向に配置されている。リレーレンズL12と、シリンドリカルレンズアレイL13と、リレーレンズL14と、λ/4板12と、ミラー13とが、第2の方向(偏光分離素子11によって折り曲げられた赤外光源200からの光の光路上)に配置されている。リレーレンズL18と、第1の照射レンズL21と、第2の照射レンズL22は、第3の方向(偏光分離素子11に対して第2の方向とは反対側)に配置されている。
 偏光分離素子11は、赤外光源200からの光のうち第1の偏光成分(例えばS偏光成分)をシリンドリカルレンズアレイL13およびミラー13等が配置された方向に向けて反射する。偏光分離素子11はまた、ミラー13で反射され、再度、シリンドリカルレンズL13等に入射した光のうち第2の偏光成分(例えばP偏光成分)を、リレーレンズL18を介して第1の照射レンズL21と第2の照射レンズL22とに向けて出射する。λ/4板12は、第1の偏光成分と第2の偏光成分との変換用に設けられている。
 第1の照射レンズL21と第2の照射レンズL22は、1次元方向に負の屈折力を有し、1次元方向にのみ光の拡大作用を有する広角レンズである。第1の照射レンズL21と第2の照射レンズL22は、偏光分離素子11から出射された光をリレーレンズL18を介して1次元方向に拡大し照射ビームとして出射する。
[1.2 検出機能付きプロジェクタの概要]
 図2および図3は、図1に示したビーム照射装置からの照射ビームを物体の検出用の照明光として用いた検出機能付きプロジェクタの一例を示している。
 本実施の形態に係る検出機能付きプロジェクタは、映像を投影面30に投影するプロジェクタとしての機能と、投影面30上における例えば人の指等の被位置検出物71の位置や動作を検出するタッチ検出(位置検出)機能とを有している。
 なお、投影面30は投影用のスクリーンであってもよい。また、投影面30は机の表面や床面等であってもよい。また、投影面30は、壁面などであってもよい。
 図2および図3に示したように、本実施の形態に係る検出機能付きプロジェクタは、映像投影用照明部1と、位置検出用照明部2と、投影光学系4と、撮像部5と、検出画像処理部6と、照明制御部7と、表示制御部8とを備えている。本実施の形態に係る検出機能付きプロジェクタは、さらに、ライトバルブ21と、偏光分離素子23とを備えている。
 映像投影用照明部1は、第1の照明光としての映像投影用照明光41を出射する第1の照明部となっている。ライトバルブ21は、偏光分離素子23を介して、映像投影用照明部1から出射された映像投影用照明光41によって照明される。
 映像投影用照明部1は、図示しない照明光学系と、光源部とを有している。光源部は、例えば、R(赤色)、G(緑色)、およびB(青色)のスペクトルを持つ光を発するレーザ光源を有している。光源部は、例えば、B光を発する青色レーザと、G光を発する緑色レーザと、R光を発する赤色レーザとを有している。赤色レーザ、緑色レーザ、および青色レーザはそれぞれ、例えば図示しない発光制御部によってフィールドシーケンシャル方式で発光制御されてもよい。
 映像投影用照明部1の照明光学系は、光源部からの光に基づいてRGBのスペクトルを持つ映像投影用照明光41を生成する。
 ライトバルブ21は、表示制御部8から供給された映像データに基づいて映像投影用照明光41を変調して映像光44を生成する。ライトバルブ21は、例えばLCOS(Liquid Crystal On Silicon)等の反射型の液晶素子である。ライトバルブ21で生成された映像光44は、偏光分離素子23、および投影光学系4を介して投影面30に投影される。
 位置検出用照明部2は、投影面30上における被位置検出物71の位置検出に用いられる第2の照明光としての位置検出用照明光42を出射する第2の照明部となっている。位置検出用照明部2は、例えば本体100の下部に設けられている。位置検出用照明部2は、少なくとも投影面30における映像光44の投影エリア31を所定の高さから覆うように、投影面30に対して略平行となる位置検出用照明光42を出射する。位置検出用照明部2は、図1に示したビーム照射装置における赤外光源200と照射光学系とを含んだ構成であってもよい。
 位置検出用照明光42の波長帯域は、映像投影用照明光41の波長帯域とは異なっている。映像投影用照明光41の波長帯域は可視域であり、位置検出用照明光42の波長帯域は近赤外域となっている。
 検出画像処理部6は、撮像部5の撮像結果に基づいて、被位置検出物71の位置検出を行う画像処理部となっている。検出画像処理部6は、例えば、撮像部5からの検出信号を解析して、検出された物体の位置データ(座標データ)を取得する。検出画像処理部6は、被位置検出物71の位置だけでなく、被位置検出物71によるジェスチャー動作等の動きを解析する機能を有していてもよい。
 照明制御部7は、位置検出用照明部2による位置検出用照明光42のオン(出射)、オフ(非出射)の切り替え制御を行うようになっている。また、照明制御部7は、位置検出用照明部2の光源(図1の赤外光源200)からの光を時間的に光量変調する制御を行うようになっている。
 投影光学系4は、投射レンズ24を有している。投射レンズ24は、超短焦点レンズであってもよい。投影光学系4は、映像を投影するための機能の他、位置検出のための結像光学系としての機能を有している。投影光学系4には、ライトバルブ21で生成された映像光44が入射すると共に、被位置検出物71による位置検出用照明光42の散乱光Laとが投影面30側から取り込まれる。
 撮像部5は、撮像素子22と、撮像光学系25と、露光制御部26とを有している。
 撮像素子22は、CMOS(Complementary Metal-Oxide Semiconductor)やCCD(Charge Coupled Device)などの固体撮像素子で構成されている。撮像素子22は、投影面30と光学的に共役な位置に配置されている。また、撮像素子22は、ライトバルブ21と光学的に共役な位置に配置されている。より具体的には、ライトバルブ21が反射型の液晶素子である場合、映像を作り出す表示面(液晶面)と撮像素子22の撮像面とが光学的に共役な位置となるように配置されている。撮像素子22には、投影光学系4および偏光分離素子23を介して、位置検出用照明光42の散乱光Laが入射する。撮像素子22は、少なくとも投影面30上の投影エリア31と略同一のエリアを撮像エリアとした撮像を行うことが可能となっている。
 撮像光学系25は、ライトバルブ21の光学的な共役面と撮像素子22との間に配置されている。撮像光学系25は、例えば複数枚のリレーレンズを含む縮小光学系と、バンドパスフィルタとを有している。撮像光学系25として、リレーレンズを含む縮小光学系を配置することで、ライトバルブ21と光学的に共役な位置を共役面よりも遠方に設けることができる。また、縮小光学系を配置することで、ライトバルブ21と光学的に共役な位置に配置しつつ、撮像素子22のサイズをライトバルブ21よりも小さくすることができる。
 露光制御部26は、撮像素子22の露光期間および露光タイミング(シャッタタイミング)を制御する。露光制御部26は、例えば撮像素子22がCCDなどの場合には、グローバルシャッタ方式によって撮像素子22の露光制御を行う。また、露光制御部26は、例えば撮像素子22がCMOSなどの場合には、ローリングシャッタ方式によって撮像素子22の露光制御を行う。
 偏光分離素子23は、例えば4つの光学面を有する偏光ビームスプリッタとなっている。偏光分離素子23の第1の光学面には、映像投影用照明部1からの映像投影用照明光41が入射する。ライトバルブ21は、偏光分離素子23の第2の光学面側に配置されている。偏光分離素子23の第3の光学面側には、撮像部5が配置されている。偏光分離素子23の第4の光学面側には、投影光学系4が配置されている。
 偏光分離素子23は、入射した光を第1の偏光成分(例えばS偏光成分)と第2の偏光成分(例えばP偏光成分)とに分離し、それぞれを互いに異なる方向に出射する。偏光分離素子23は、特定の第1の偏光成分を選択的に反射させると共に、特定の第2の偏光成分を選択的に透過させる。偏光分離素子23は、第1の光学面に入射した映像投影用照明光41に含まれる第1の偏光成分をライトバルブ21に向けて反射する。ライトバルブ21で変調され、第2の偏光成分とされた光が、偏光分離素子23の第4の光学面から出射し、映像光44として投影光学系4に入射する。
 また、偏光分離素子23の第4の光学面には、投影光学系4を介して位置検出用照明光42の散乱光Laが入射する。偏光分離素子23は、位置検出用照明光42の散乱光Laに含まれる第1の偏光成分を第3の光学面を介して撮像部5に向けて反射する。
(位置検出の動作)
 位置検出用照明部2は、図2に示すように、少なくとも投影面30における映像光44の投影エリア31を所定の高さから覆うように広角で広げられた位置検出用照明光42を、本体100の下部から出射する。これにより、少なくとも投影面30における投影エリア31が、所定の高さから位置検出用照明光42による近赤外光バリアで覆われる。このような近赤外光バリアで覆うことにより、指等の被位置検出物71による指示が無い場合は位置検出用照明光42は拡散しない。一方、指等で投影エリア31を指し示した場合には、近赤外光バリアを遮る形となり、指等に当たった位置検出用照明光42の散乱光Laが生じる。この位置検出用照明光42の散乱光Laが、投影光学系4および偏光分離素子23を介して、撮像素子22に入射する。ここで、撮像素子22と投影面30は光学的に共役の関係にある位置に配置してあるため、映像投影位置と指等による指し示した位置とが1:1の関係にある。従って、検出画像処理部6によって撮像素子22の撮像結果に基づく検出信号を解析することで、投影面30上で指等で指し示した位置(座標)を特定することができる。検出画像処理部6は、特定した位置情報を表示制御部8にフィードバックすることで、投影する映像データに反映させる。これにより、ユーザは指等をマウスのポインタのような役割として、映像を操作することが可能となる。
[1.3 照射ビームの可干渉性を低減する技術の説明]
 以上で説明したLLP方式の検出機能付きプロジェクタでは、位置検出用照明光42となる照射ビームを投影面30に対してわずかな隙間を空けて照射し、そこを遮った被位置検出物71のみを検出する方式であり、赤外光源200としてレーザ光源を用いる。また、ビーム照射装置の照射光学系にシリンドリカルレンズアレイL13を配置し、赤外光源200からの光の光束を重ね合わせて光の均一化を図っている。この場合、赤外光源200がレーザ光源であるがために、光束を重ね合わせる過程で、光束間の干渉により微細な強弱パターンが発生する。この強度不均一な分布となっている状態で、光を拡大して照射ビームとして被位置検出物71の検出エリア全域に照射することとなる。このため、被位置検出物71の検出位置においては、無視できないオーダで物体検出の位置依存性が発生し得る。
 そこで、照射ビームの強度分布の不均一を低減し、物体検出の位置依存性を抑制することが望ましい。
 ここで安定したタッチ検出をするためには、平面的かつ時間的に照射ビームの光量が安定していることが必要である。しかしながら照射ビームの光源である赤外光源200をレーザ光源とした場合、レーザ光は可干渉性が高いために、照射光学系内などでの光の干渉によって、平面的もしくは時間的に強度むらが生じやすい。
 そこで、本実施の形態では、赤外光源200の駆動電流を変化させて光量変調を行うことにより、レーザ光の発振状態をあえて不安定にし、可干渉性を低下させる。これにより、レーザ光の干渉による強度むらを軽減させる。照明制御部7(図3)は、照射ビームの可干渉性が低減するように赤外光源200からの光を時間的に光量変調する。
 図4は、本実施の形態に係る検出機能付きプロジェクタにおける照射ビームの光量変調の一例を示している。図5は、光量変調をオフにした状態において観測される照射ビームの強度分布の一例を示している。図6は、光量変調をオンにした状態において観測される照射ビームの強度分布の一例を示している。なお、図5および図6では、図2に示したように、投影エリア31の遠方に位置する壁33におけるビーム断面34の強度分布を示す。
 図6では、図4に示したように、光量を100%と70%との2値、デューティ比は50%、2msec周期で光量変調(変調オン)した場合の実測値を示している。光量変調をオンにした場合(図6)は、光量変調をオフにした場合(図5)に比べて、照射ビームの強度むらが低減している。
 ここで、光量変調を行う場合の光量の量大値を100%、光量の最小値をx%、光量の最小側のデューティ比をy%とすると、平均光量は、以下の式で表される。
 平均光量[%]=100*(100-y)/100+x*y/100
 当然のことながら、光量の最小値を下げたり、デューティ比を上げたりすることで、平均光量は低下する。平均光量が低下することにより、撮像画像は暗くなってしまう。この弊害を低減するためには、デューティ比=50%、光量の最小値を50%以上にすることが望ましい。この場合は平均光量は75%以上となり、光量変調を行う際の光量低下分は25%以下に留まる。
 ところで、検出機能付きプロジェクタでは、物体検出の際には、指等の被位置検出物71による照射ビームの戻り光量を検出しているため、赤外光源200からの光を光量変調することにより、その変調分が被位置検出物71からの戻り光量として検出されてしまうおそれがある。この弊害を低減するためには、撮像素子22の露光期間よりも十分に速い周波数で光量変調をするか、光量変調幅を減らせばよい。
 しかしながら、光量変調による赤外光源200の可干渉性低減効果は、光量変調周波数および光量変調幅に関係するために、光量変調周波数および光量変調幅を任意の設定にすると十分な可干渉性低減効果が得られない場合がある。また、ハードウェアの制約により、十分に速い周波数で光量変調を行うことができない場合もあり得る。
 次に、光量変調による弊害の仕組みについて説明する。図7および図8は、光量変調をオンにした状態における露光期間と光量との関係の一例を示している。図7は第1の露光タイミングで露光を行った場合の露光期間と光量との関係の一例を示している。図8は第1の露光タイミングとは異なる第2の露光タイミングで露光を行った場合の露光期間と光量との関係の一例を示している。
 図7および図8では、2値の光量変調をした場合について示している。図7および図8において、露光期間内の光量の積分値(図中の網点領域の部分)が撮像画像の明るさに比例する。つまり、図7および図8のように、光量変調周期とシャッタタイミング(露光タイミング)とが非同期の場合、撮像画像の明るさが変わってしまうことを意味する。
(グローバルシャッタ方式の場合)
 図9は、シャッタタイミングと光量変調のタイミングとの同期を取った場合の露光期間と光量との関係の一例を示している。
 露光制御部26(図3)は、例えば撮像素子22がCCDなどの場合には、グローバルシャッタ方式によって撮像素子22の露光制御を行う。露光制御部26は、露光期間が、赤外光源200の光量変調の変調周期に同期するように、撮像素子22に対してグローバルシャッタ方式による露光制御を行う。図9では、光量変調の立ち下がりエッジとシャッタタイミングとを同期させた例を示している。
 グローバルシャッタ方式の場合は、図9に示す通り、変調周期と同期を取ってシャッタを切ることにより、常に光量変調のされ方が同じところの画像を取り込むことができるため、光量変調による弊害を除去することが可能となる。
(ローリングシャッタ方式の場合)
 露光制御部26は、例えば撮像素子22がCMOSなどの場合には、ローリングシャッタ方式によって撮像素子22の露光制御を行う。
 撮像素子22がCMOSなどの場合には、垂直方向の画素が時間的に順々にシャッタが切られるローリングシャッタ方式が一般的である。この場合は、撮像画面全体を同時のシャッタタイミングで取り込むことはできないため、同期を取ることはできない。
 そこで、図10のように、光量変調がデューティ比=50%で2値の場合について考える。
 図11は、光量変調の変調周期と変調漏れとの関係の一例を示している。
 図11は、撮像素子22の露光期間が5msecの場合において、横軸に変調周期[msec]、縦軸に、様々なシャッタタイミングで画像を取り込んだ場合に最悪、光量変調分がどれくらい撮像画像に漏れ込むか、その変調漏れを示したグラフである。
 グラフからも分かるように、撮像素子22の露光期間をT、光量変調周期をtとした場合、以下の関係が成り立つ場合には、変調漏れが極小値を取る。つまり、光量変調の変調周期とシャッタタイミングとの同期が取れない場合においても、変調周波数を最適化することにより、光量変調の弊害を軽減することが可能となる。
 t=T/n
 (ただし、nは正の整数。n=1,2,3…)
 これは、露光期間Tが、変調周期tの整数倍の場合には、図12および図13を見て分かるように、シャッタタイミングに関わらず、露光期間内の光量積分値(図中の網点領域の部分)が一定になるためである。なお、図12は、2値の光量変調を行った場合における第1の露光タイミングでの露光期間と光量との関係の一例を示している。図13は、2値の光量変調を行った場合における第2の露光タイミングでの露光期間と光量との関係の一例を示している。
 以上では、光量変調が2値、デューティ比が50%の場合について説明したが、図14および図15に示したように、光量変調パターンが多値、任意のデューティ比の光量変調パターンの場合でも、上記の式を満たすことで、図11と同様の極小値を取る。ただし、極大値の位置は図11とはずれる。なお、図14は、多値の光量変調を行った場合における第1の露光タイミングでの露光期間と光量との関係の一例を示している。図15は、多値の光量変調を行った場合における第2の露光タイミングでの露光期間と光量との関係の一例を示している。
[1.4 効果]
 以上のように、本実施の形態によれば、被検出物の検出に用いられる照射ビームの元となる光源からの光を、照射ビームの可干渉性が低減するように時間的に光量変調するようにしたので、照射ビームの強度分布を安定化することが可能となる。光量変調を行うことにより、レーザ光源による照射ビームの平面的、時間的な光量むらを低減することができ、安定した物体検出が可能となる。
 特に、グローバルシャッタ方式の場合はシャッタタイミングと変調周期との同期を取ることで、光量変調による弊害も軽減することができる。また、ローリングシャッタ方式のように、シャッタタイミングと変調周期との同期を取れない場合においても、光量変調の周期を露光期間に応じた最適な値に設定をすることにより、光量変調による弊害を軽減することができる。
 なお、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。
<2.その他の実施の形態>
 本開示による技術は、上記各実施の形態の説明に限定されず種々の変形実施が可能である。
 例えば、本技術は以下のような構成を取ることもできる。
(1)
 映像光を投影面に投影する投影光学系と、
 光源からの光に基づいて前記投影面上における被検出物の検出に用いられる照射ビームを生成して出射する照射光学系と、
 前記被検出物による前記照射ビームの散乱光が入射する撮像素子と、
 前記照射ビームの可干渉性が低減するように前記光源からの光を時間的に光量変調する照明制御部と
 を備える
 検出機能付きプロジェクタ。
(2)
 露光期間が、前記光量変調の変調周期に同期するように、前記撮像素子に対してグローバルシャッタ方式による露光制御を行う露光制御部
 をさらに備える
 上記(1)に記載の検出機能付きプロジェクタ。
(3)
 前記照明制御部は、前記撮像素子の露光期間をT、前記光量変調の変調周期をtとしたとき、
 t=T/n,
(ただし、nは正の整数)
を満足するように前記光量変調を行う
 上記(1)に記載の検出機能付きプロジェクタ。
(4)
 前記照明制御部は、デューティ比50%、光量の量大値を100%としたとき、光量の最小値が50%以上となるように前記光量変調を行う
 上記(1)ないし(3)のいずれか1つに記載の検出機能付きプロジェクタ。
(5)
 前記照射光学系は、前記光源からの光を1次元方向に拡大し、前記投影面に対して略平行となる光を前記照射ビームとして出射する
 上記(1)ないし(4)のいずれか1つに記載の検出機能付きプロジェクタ。
(6)
 前記撮像素子による撮像結果に基づいて、前記被検出物の位置検出を行う画像処理部
 をさらに備える
 上記(1)ないし(5)のいずれか1つに記載の検出機能付きプロジェクタ。
 本出願は、日本国特許庁において2017年3月23日に出願された日本特許出願番号第2017-057219号を基礎として優先権を主張するものであり、この出願のすべての内容を参照によって本出願に援用する。
 当業者であれば、設計上の要件や他の要因に応じて、種々の修正、コンビネーション、サブコンビネーション、および変更を想到し得るが、それらは添付の請求の範囲やその均等物の範囲に含まれるものであることが理解される。

Claims (6)

  1.  映像光を投影面に投影する投影光学系と、
     光源からの光に基づいて前記投影面上における被検出物の検出に用いられる照射ビームを生成して出射する照射光学系と、
     前記被検出物による前記照射ビームの散乱光が入射する撮像素子と、
     前記照射ビームの可干渉性が低減するように前記光源からの光を時間的に光量変調する照明制御部と
     を備える
     検出機能付きプロジェクタ。
  2.  露光期間が、前記光量変調の変調周期に同期するように、前記撮像素子に対してグローバルシャッタ方式による露光制御を行う露光制御部
     をさらに備える
     請求項2に記載の検出機能付きプロジェクタ。
  3.  前記照明制御部は、前記撮像素子の露光期間をT、前記光量変調の変調周期をtとしたとき、
     t=T/n,
    (ただし、nは正の整数)
    を満足するように前記光量変調を行う
     請求項1に記載の検出機能付きプロジェクタ。
  4.  前記照明制御部は、デューティ比50%、光量の量大値を100%としたとき、光量の最小値が50%以上となるように前記光量変調を行う
     請求項1に記載の検出機能付きプロジェクタ。
  5.  前記照射光学系は、前記光源からの光を1次元方向に拡大し、前記投影面に対して略平行となる光を前記照射ビームとして出射する
     請求項1に記載の検出機能付きプロジェクタ。
  6.  前記撮像素子による撮像結果に基づいて、前記被検出物の位置検出を行う画像処理部
     をさらに備える
     請求項1に記載の検出機能付きプロジェクタ。
PCT/JP2018/005231 2017-03-23 2018-02-15 検出機能付きプロジェクタ Ceased WO2018173559A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP18771652.7A EP3605223B1 (en) 2017-03-23 2018-02-15 Projector equipped with detection function
JP2019507434A JP6969606B2 (ja) 2017-03-23 2018-02-15 検出機能付きプロジェクタ
US16/487,305 US11755152B2 (en) 2017-03-23 2018-02-15 Projector with detection function for stabilizing intensity distribution of an irradiation beam

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017057219 2017-03-23
JP2017-057219 2017-03-23

Publications (1)

Publication Number Publication Date
WO2018173559A1 true WO2018173559A1 (ja) 2018-09-27

Family

ID=63585452

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/005231 Ceased WO2018173559A1 (ja) 2017-03-23 2018-02-15 検出機能付きプロジェクタ

Country Status (4)

Country Link
US (1) US11755152B2 (ja)
EP (1) EP3605223B1 (ja)
JP (1) JP6969606B2 (ja)
WO (1) WO2018173559A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240178995A (ko) * 2023-06-23 2024-12-31 삼성전자주식회사 전자 장치 및 이의 제어 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015064550A (ja) 2013-08-26 2015-04-09 ソニー株式会社 投射型表示装置
JP2015079214A (ja) * 2013-10-18 2015-04-23 株式会社リコー 投影用スクリーンおよび画像投影システム
JP2016114991A (ja) * 2014-12-11 2016-06-23 株式会社リコー 位置検出装置、画像投写装置及び画像操作システム
WO2016125384A1 (ja) 2015-02-05 2016-08-11 ソニー株式会社 照射光学系およびプロジェクタ
JP2017057219A (ja) 2003-12-19 2017-03-23 オシオ コーポレイション 眼科的状態の処置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6740860B2 (en) 2000-12-06 2004-05-25 Canon Kabushiki Kaisha Photodetector, photosensing position detector, coordinate input device, coordinate input/output apparatus, and photodetection method
CN101395772B (zh) * 2006-03-03 2011-01-26 松下电器产业株式会社 照明光源及激光投影装置
JP4443531B2 (ja) * 2006-04-11 2010-03-31 株式会社ソニー・コンピュータエンタテインメント エンタテインメントシステムおよび処理装置
US7959297B2 (en) * 2008-05-15 2011-06-14 Eastman Kodak Company Uniform speckle reduced laser projection using spatial and temporal mixing
GB2466497B (en) * 2008-12-24 2011-09-14 Light Blue Optics Ltd Touch sensitive holographic displays
BR112014002463B1 (pt) * 2011-08-02 2020-12-08 Hewlett-Packard Development Company, L.P sistemas de captura de projeções, sistema de captura de projeções interativo e método de captura de projeções
US20140362052A1 (en) * 2012-01-20 2014-12-11 Light Blue Optics Ltd Touch Sensitive Image Display Devices
EP3072032B1 (en) 2013-11-21 2020-01-01 Hewlett-Packard Development Company, L.P. Projection screen for specularly reflecting infrared light
JP6372266B2 (ja) 2014-09-09 2018-08-15 ソニー株式会社 投射型表示装置および機能制御方法
WO2016067397A1 (ja) * 2014-10-29 2016-05-06 日立マクセル株式会社 感覚提示装置、操作処理装置及び画像表示装置
EP3165873B1 (en) * 2015-11-04 2020-03-04 Hexagon Technology Center GmbH Laser module comprising a micro-lens array
EP3371572B1 (en) * 2015-11-05 2021-05-05 Inscopix, Inc. System for optogenetic imaging
US10451890B2 (en) * 2017-01-16 2019-10-22 Cymer, Llc Reducing speckle in an excimer light source

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017057219A (ja) 2003-12-19 2017-03-23 オシオ コーポレイション 眼科的状態の処置
JP2015064550A (ja) 2013-08-26 2015-04-09 ソニー株式会社 投射型表示装置
JP2015079214A (ja) * 2013-10-18 2015-04-23 株式会社リコー 投影用スクリーンおよび画像投影システム
JP2016114991A (ja) * 2014-12-11 2016-06-23 株式会社リコー 位置検出装置、画像投写装置及び画像操作システム
WO2016125384A1 (ja) 2015-02-05 2016-08-11 ソニー株式会社 照射光学系およびプロジェクタ

Also Published As

Publication number Publication date
JP6969606B2 (ja) 2021-11-24
JPWO2018173559A1 (ja) 2020-01-23
EP3605223B1 (en) 2022-04-27
US20200019277A1 (en) 2020-01-16
EP3605223A1 (en) 2020-02-05
EP3605223A4 (en) 2020-04-08
US11755152B2 (en) 2023-09-12

Similar Documents

Publication Publication Date Title
JP5431312B2 (ja) プロジェクタ
JP5729304B2 (ja) 画像投射装置、画像投射方法、距離測定装置及び距離測定方法
US10359277B2 (en) Imaging system with synchronized dynamic control of directable beam light source and reconfigurably masked photo-sensor
US6984039B2 (en) Laser projector having silhouette blanking for objects in the output light path
US20140362052A1 (en) Touch Sensitive Image Display Devices
US8274646B2 (en) Measurement system and measurement processing method
US10674124B2 (en) Projection system
US10679370B2 (en) Energy optimized imaging system with 360 degree field-of-view
US20220034651A1 (en) Energy optimized imaging system with synchronized dynamic control of directable beam light source and reconfigurably masked photo-sensor
JPWO2018056195A1 (ja) 投射システム、投射方法およびプログラム
JP6969606B2 (ja) 検出機能付きプロジェクタ
US9654748B2 (en) Projection device, and projection method
JP6182739B2 (ja) 投影装置及び投影方法
JP2016057363A (ja) 投影装置
US20120176304A1 (en) Projection display apparatus
JP7125561B2 (ja) 制御装置、投影システム、制御方法、制御プログラム
JP7143840B2 (ja) ビーム照射装置、および検出機能付きプロジェクタ
US20160191878A1 (en) Image projection device
JP6209746B2 (ja) 画像投影装置
JP2021189826A (ja) 位置検出方法、位置検出装置、及びプロジェクター

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18771652

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019507434

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018771652

Country of ref document: EP

Effective date: 20191023