WO2018105396A1 - 内視鏡装置 - Google Patents
内視鏡装置 Download PDFInfo
- Publication number
- WO2018105396A1 WO2018105396A1 PCT/JP2017/041963 JP2017041963W WO2018105396A1 WO 2018105396 A1 WO2018105396 A1 WO 2018105396A1 JP 2017041963 W JP2017041963 W JP 2017041963W WO 2018105396 A1 WO2018105396 A1 WO 2018105396A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- optical system
- light
- region
- incident
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/045—Control thereof
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B23/00—Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
- G02B23/24—Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
Definitions
- the present invention relates to an endoscope apparatus, and more particularly to an endoscope apparatus having an observation optical system capable of switching the incident state of light to an image sensor.
- endoscope apparatuses have been widely used in the industrial field and the medical field.
- light from a subject incident through an observation window is incident on a light receiving surface of an imaging element through an observation optical system, and a subject image is projected onto the imaging surface of the imaging element.
- the image sensor photoelectrically converts the subject image projected on the imaging surface and outputs it as an image signal.
- An endoscopic image is generated from the imaging signal.
- Some endoscopes can change the state of the observation optical system.
- Japanese Patent Application Laid-Open No. 2010-128354 discloses an endoscope apparatus that has two optical systems having parallax and is capable of so-called stereo measurement or stereo observation.
- the endoscope apparatus includes an optical path switching unit, and the operation of the optical path switching unit is controlled so that light from two optical paths is alternately projected onto a common imaging surface of one imaging element.
- the two object images to be projected are projected onto the common image pickup surface of one image sensor. May be different from each other.
- the areas where the influence of optical characteristics appears in the two subject images are different when passing through the left and right optical paths.
- the influence due to the optical characteristics appearing in the two endoscopic images of the subject generated by the left and right optical paths is at least one of aberration, vignetting, shading, color unevenness, ghost, flare, and the like.
- an object of the present invention is to provide an endoscope apparatus that eliminates the influence of optical characteristics or reduces the appearance of the influence in two endoscopic images generated by switching the state of an optical system.
- An endoscope apparatus includes an insertion unit, an imaging element that receives incident light that is incident on an observation window provided at a distal end of the insertion unit, and the light from the observation window.
- An optical system that emits light to the image sensor, wherein the incident state of the light to the image sensor can be switched between a first incident state and a second incident state different from the first incident state.
- the incident state of the light is the first incident state
- a first region is extracted from the first light receiving region of the first incident state
- the incident state of the light is the A region extracting unit that extracts a second region from the second light receiving region in the second incident state in the second incident state;
- FIG. 1 is a configuration diagram showing a configuration of an endoscope apparatus according to a first embodiment of the present invention. It is a figure for demonstrating the structure of the front-end
- FIG. 1 is a configuration diagram illustrating a configuration of an endoscope apparatus according to the first embodiment.
- the endoscope apparatus 1 includes an apparatus main body 2 having a function such as a video processor, and an endoscope 3 connected to the apparatus main body 2.
- the apparatus main body 2 includes a display unit 4 such as a liquid crystal panel (LCD) on which an endoscopic image, an operation menu, and the like are displayed.
- the display unit 4 may be provided with a touch panel.
- the endoscope 3 includes an insertion portion 5 as an endoscope insertion portion that is inserted into a subject, an operation portion 6 that is connected to the proximal end of the insertion portion 5, and a universal cord that extends from the operation portion 6. 7.
- the endoscope 3 can be attached to and detached from the apparatus main body 2 via a universal cord 7.
- the insertion portion 5 includes a distal end portion 11, a bending portion 12, and a long flexible portion 13 in order from the distal end side.
- the bending portion 12 is connected to the proximal end of the distal end portion 11, and is configured to be able to bend in the vertical and horizontal directions, for example.
- the flexible portion 13 is connected to the base end of the bending portion 12 and has flexibility.
- An image pickup element 22 (see FIG. 2) such as a CMOS image sensor is built in the distal end portion 11 of the insertion portion 5.
- the image sensor 22 receives incident light that has entered the observation window 11 a (see FIG. 2) provided at the distal end portion 11 of the insertion portion 5.
- the operation unit 6 is provided with a bending joystick 6a that bends the bending portion 12 in the vertical and horizontal directions. The user can bend the bending portion 12 in a desired direction by tilting the bending joystick 6a.
- the operation unit 6 is provided with buttons for instructing an endoscope function, for example, various operation buttons such as a freeze button, a bending lock button, and a recording instruction button.
- the operation unit 6 is further provided with an image switching button for acquiring either the right eye or the left eye, which will be described later.
- the display unit 4 is provided with a touch panel, the user may instruct various operations of the endoscope apparatus 1 by operating the touch panel.
- the display unit 4 of the apparatus main body 2 displays an endoscopic image captured by the imaging element 22 (see FIG. 2) of the imaging unit provided in the distal end portion 11. Also, various devices such as a control unit 31 (see FIG. 2) that performs image processing and various controls, a recording device that records a processed image in a memory (not shown), and the like are provided inside the apparatus main body 2. .
- FIG. 2 is a view for explaining the configuration of the distal end portion of the insertion portion and the apparatus main body.
- tip part 11 and the apparatus main body 2 is demonstrated using FIG.
- the distal end portion 11 includes a stereo optical system 10 a configured by two observation left and right observation optical systems (a first optical system and a second optical system), a mechanical shutter 14, and a coil 15.
- the stereo optical system 10a is configured to include a left-eye optical system 10L and a right-eye optical system 10R that have an optical axis arranged in a direction orthogonal to the parallax direction and are spaced apart from each other in the parallax direction.
- the coil 15 is connected to the control unit 31 of the apparatus main body 2 via the control line 23 when the optical adapter 10 is attached to the distal end portion 11.
- the left eye optical system 10L, the right eye optical system 10R, the mechanical shutter 14, and the coil 15 may be provided on the optical adapter 10 that can be attached to the distal end portion 11. That is, as shown by a dotted line in FIG. 1, when the endoscope apparatus 1 is of a type in which a stereo measurement optical adapter 10 that can be attached to and detached from the distal end portion 11 of the insertion portion 5 can be attached, Further, a left eye optical system 10L, a right eye optical system 10R, a mechanical shutter 14 and a coil 15 are provided.
- FIG. 3 is a configuration diagram of the mechanical shutter 14.
- the mechanical shutter 14 includes a circular diaphragm member 14a having two openings and a shielding member 14b.
- the two openings 14a1 and 14a2 of the diaphragm member 14a constitute the diaphragms of two optical paths of the right eye optical system 10R and the left eye optical system 10L, respectively.
- the mechanical shutter 14 is disposed in the distal end portion 11 so that the two circular openings 14a1 and 14a2 are disposed at the respective positions of the two optical paths.
- the shielding member 14b has an arm 14b1 that can rotate about the axis of the shaft member 14c fixed to the diaphragm member 14a, and a circular light shielding plate 14b2 formed at the tip of the arm 14b1.
- the shielding member 14b is provided with a magnet 14m.
- the shielding member 14b has a first position covering the opening 14a1 disposed in the optical path of the right eye optical system 10R and a first position covering the opening 14a2 disposed in the optical path of the left eye optical system 10L. It is possible to move between the two positions. As will be described later, the shielding member 14b having the magnet 14m can be positioned at either the first position or the second position by the magnetic field generated in the coil 15.
- the configuration of the mechanical shutter 14 may be a configuration other than the configuration shown in FIG.
- FIG. 4 is a configuration diagram of another example of the mechanical shutter.
- the mechanical shutter 14A has two circular aperture members 14Aa and 14Ab.
- the two throttle members 14Aa and 14Ab have circular openings 14Aa1 and 14Ab1, respectively.
- the two aperture members 14Aa and 14Ab have shielding members 14Ad and 14Ae, respectively.
- the shielding member 14Ad includes an arm 14Ad1 that can rotate about the axis of the shaft member 14c1 fixed to the diaphragm member 14Aa, and a circular light shielding plate 14Ad2 formed at the tip of the arm 14Ad1.
- the shielding member 14Ae has an arm 14Ae1 that can rotate about the axis of the shaft member 14c2 fixed to the diaphragm member 14Ab, and a circular light shielding plate 14Ae2 formed at the tip of the arm 14Ae1.
- Each shield member 14d, 14e is provided with a magnet (not shown).
- the opening 14Aa1 of the shielding member 14Ad is disposed in the optical path of the right eye optical system 10R, and the opening 14Ab1 of the shielding member 14Ae is disposed in the optical path of the left eye optical system 10L.
- a coil 15 is provided for each of the shielding members 14d and 14e, and the two coils 15 are driven so that the two shielding members 14d and 14e cover the openings 14Aa1 and 14Ab1 alternately.
- the mechanical shutter 14 may be a mechanical shutter having the configuration shown in FIG.
- the two openings 14a1 and 14a2 of the diaphragm member 14a constitute a diaphragm for two optical paths of the right eye optical system 10R and the left eye optical system 10L.
- the mechanical shutter 14 is disposed in the distal end portion 11 so that the two openings 14a1 and 14a2 are disposed at the respective positions of the two optical paths.
- the left eye optical system 10 ⁇ / b> L, the right eye optical system 10 ⁇ / b> R, the mechanical shutter 14, and the coil 15 are disposed in the distal end portion 11 of the insertion portion 5 of the endoscope 3.
- the distal end portion 11 includes an imaging optical system 21 and an image sensor 22.
- the imaging element 22 is connected to the video signal processing unit 32 of the apparatus main body 2 via the imaging signal line 24.
- the apparatus main body 2 includes a control unit 31, a video signal processing unit 32, a light source unit 33, a light source control unit 34, and an effective pixel region control unit 35.
- the control unit 31 controls the entire operation of the endoscope apparatus 1 and also controls the driving of the coil 15, the operation of the video signal processing unit 32, and the driving of the effective pixel region control unit 35.
- the control unit 31 outputs a coil drive signal DS for driving the coil 15 and an effective pixel region change instruction signal CS to the effective pixel region control unit 35 in response to an operation of the image switching button of the operation unit 6. Output.
- the video signal processing unit 32 receives the imaging signal from the imaging element 22, performs various image processing, generates an endoscope image signal, and outputs the endoscope image signal to the display unit 4.
- the video signal processing unit 32 may store the generated endoscope image signal in a memory (not shown).
- a light guide 25 is inserted into the apparatus main body 2, the endoscope 3, and the distal end portion 11.
- the light source unit 33 is, for example, a xenon lamp, an LED, a laser diode, or the like, and is disposed to face the base end surface of the light guide 25.
- the light source unit 33 is driven by the control of the light source control unit 34, and makes the illumination light enter the base end surface of the light guide 25.
- the illumination light incident on the base end surface of the light guide 25 is emitted from an illumination window (not shown) on the distal end surface of the optical adapter 10, and the subject S is irradiated with the illumination light.
- the light source part 33 is provided in the apparatus main body 2, you may provide in the operation part 6 of the endoscope 3, for example.
- the effective pixel area control unit 35 outputs a drive signal for driving the image sensor 22 and outputs area information AI that defines an area on the imaging surface 22a of the image sensor 22 output as an image signal via the signal line 24a. To the image sensor 22.
- the right eye optical system 10R, the left eye optical system 10L, and the imaging optical system 21 at the distal end portion 11 return light from the subject S irradiated with illumination light through an observation window 11a provided at the distal end portion 11.
- the imaging optical system 21 at the distal end portion 11 return light from the subject S irradiated with illumination light through an observation window 11a provided at the distal end portion 11.
- the light shielding plate 14b2 of the mechanical shutter 14 is alternative to the first position that blocks the optical path that passes through the right eye optical system 10R and the second position that blocks the optical path that passes through the left eye optical system 10L. Placed in. In FIG. 2, the light-shielding plate 14b2 of the mechanical shutter 14 is located at the second position between the right-eye optical system 10R and the image pickup device 22, and shields light from the right-eye optical system 10R, and the left-eye optical system 10L. The state from which the light from is incident on the image sensor 22 is shown.
- the stereo optical system 10 a, the mechanical shutter 14, and the imaging optical system 21 are optical systems that receive light from the observation window 11 a and emit the light to the image sensor 22.
- An observation optical system in which the state (here, the optical path) can be switched between a first incident state and a second incident state different from the first incident state is configured.
- the observation optical system has first and second optical systems having different optical axes.
- incident light that has entered the observation window 11a passes through the first optical system.
- the second incident state is a state where incident light incident on the observation window 11a passes through the second optical system.
- the endoscope apparatus 1 is a stereo measurement or stereo observation endoscope apparatus using two optical systems, a first optical system and a second optical system.
- the user operates the operation unit 6 connected to the apparatus main body 2 when switching the position of the mechanical shutter 14.
- the operation unit 6 has a right eye image acquisition operation unit for positioning the position of the mechanical shutter 14 in the left eye optical system 10L in order to acquire a right eye image by the right eye optical system 10R. 6b1 and a left-eye image acquisition operation unit 6b2 for positioning the mechanical shutter 14 in the right-eye optical system 10R in order to acquire a left-eye image by the left-eye optical system 10L.
- the user operates any one of the right eye image acquisition operation unit 6b1 and the left eye image acquisition operation unit 6b2.
- a left eye blocking instruction signal is output from the operation unit 6 to the control unit 31, and when the left eye image acquisition operation unit 6b2 is operated, the operation unit 6 controls the control unit 31.
- the right eye blocking instruction signal is output at The left eye blocking instruction signal and the right eye blocking instruction signal are input to the control unit 31 as the switching signal SL. Note that the position of the mechanical shutter 14 may be switched using the touch panel of the display unit 4 of the apparatus main body 2 or the like.
- the control unit 31 supplies the coil drive signal DS to the control line 23 according to the switching signal SL, that is, according to the left eye blocking instruction signal or the right eye blocking instruction signal.
- the control unit 31 supplies the coil drive signal DS to the control line 23 according to the switching signal SL, that is, according to the left eye blocking instruction signal or the right eye blocking instruction signal.
- the coil 15 To be supplied to the coil 15.
- a magnetic field corresponding to the switching signal SL is generated by the coil 15.
- the position of the light shielding plate 14b2 of the mechanical shutter 14 is changed by the electromagnetic action of the direction of the magnetic field generated in the coil 15 and the magnet 14m of the mechanical shutter 14.
- the operation unit 6 When the right eye image acquisition operation unit 6b1 is operated, the operation unit 6 outputs a switching signal SL that is a left eye blocking instruction signal to the control unit 31.
- the control unit 31 supplies the coil 15 with the coil driving signal DS that is the left eye blocking driving signal.
- a current in the first direction flows through the coil 15, the shutter 14 is driven so as to shield the optical path of the left eye optical system 10L, and the imaging device 22 receives light from the optical path of the right eye optical system 10R, A right eye image is acquired.
- the operation unit 6 When the left eye image acquisition operation unit 6b2 is operated, the operation unit 6 outputs a switching signal SL that is a right eye blocking instruction signal to the control unit 31.
- the control unit 31 receives the switching signal SL that is the right eye blocking instruction signal, the control unit 31 supplies the coil 15 with the coil driving signal DS that is the right eye blocking driving signal.
- a current in the second direction opposite to the first direction flows through the coil 15, the shutter 14 is driven so as to shield the optical path of the right eye optical system 10R, and the image pickup device 22 has the left eye optical system. Light is received from the 10 L optical path, and a left eye image is acquired.
- FIG. 2 shows a state in which the shielding member 14b is driven so that the light shielding plate of the shutter 14 shields the light of the right eye optical system 10R and allows the light of the left eye optical system 10L to pass through.
- the shielding plate 14 b 2 is located at a second position between the right eye optical system 10 ⁇ / b> R and the image sensor 22. Thereby, the light from the right eye optical system 10R is shielded, and the light from the left eye optical system 10L enters the image sensor 22.
- the mechanical shutter 14 alternatively arranges the shielding plate 14b2 with respect to the first position that blocks the optical path passing through the right eye optical system 10R and the second position that blocks the optical path passing through the left eye optical system 10L.
- an optical path blocking unit that blocks either one of the optical paths is configured.
- the imaging element 22 has an imaging surface 22a that is a light receiving surface disposed at an imaging position of the left eye optical system 10L and the left eye optical system 10L and the imaging optical system 21, and includes the right eye optical system 10R and the imaging.
- An imaging signal of one of the optical image formed on the light receiving surface via the optical system 21 and the optical image formed on the light receiving surface via the left eye optical system 10L and the imaging optical system 21 is generated.
- the imaging signal generated by the imaging element 22 is input to the video signal processing unit 32 of the apparatus body 2 via the imaging signal line 24.
- the video signal processing unit 32 generates a video signal of the left eye image and the right eye image based on the input imaging signal.
- the generated video signal is input to the display unit 4.
- the display unit 4 displays one of the left eye image and the right eye image obtained by the left eye optical system 10L as an endoscopic image.
- 5 and 6 are diagrams for explaining the relationship between the two optical systems at the tip and the effective pixel region on the imaging surface of the imaging device.
- a cover glass 41 is provided on the distal end surface of the distal end portion 11, and right and left objective optical systems, that is, a right eye optical system 10 ⁇ / b> R and a left eye optical system 10 ⁇ / b> L are arranged in the distal end portion 11 inside the cover glass 41. It is installed.
- the mechanical shutter 14 and the imaging lens portions 42 and 43 including a plurality of lenses are provided in the distal end portion 11 from the distal end side toward the proximal end side. Arranged and fixed.
- the imaging element 22 having a protective glass portion 44 made of a plurality of glasses fixed on the front surface is disposed and fixed. 5 and 6, the effective pixel area CA is fixedly set at the center of the imaging surface 22 a of the imaging element 22.
- the portion indicated by the alternate long and short dash line is the tip surface of the tip portion 11.
- a cover glass 41 a indicated by a two-dot chain line is provided on the distal end side of the distal end portion 11.
- FIG. 5 shows a plurality of optical paths of light passing through the right eye optical system 10R.
- the right end light beam LR1 the slightly right end light beam LR2, the center light beam LR3, the left end light beam LR4, and the left end light beam when the subject is viewed from the distal end portion 11. It shows that LR5 is focused and focused on areas A1, A2, A3, A4, and A5 on the imaging surface 22a of the imaging element 22, respectively.
- the light beam LR5 at the left end of the light incident on the right eye optical system 10R passes through the outer edge portion OE1 of the imaging optical system 21, and vignetting or the like is generated by a lens fastening member or the like.
- Is affected by optical characteristics such as aberration in the area AA1 on one side of the imaging surface 22a of the imaging element 22 (indicated by the oblique line in the upper area in FIG. 5).
- the influence of the optical characteristics is any one of aberration, vignetting, shading, color unevenness, ghost, flare, and the like. Among these, one or more influences appear in the area AA1 on one side of the imaging surface 22a. Therefore, in the case of FIG. 5, a part of the effective pixel area CA of the imaging surface 22a is also affected by the optical characteristics.
- FIG. 6 shows a plurality of optical paths of light passing through the left eye optical system 10L.
- the left end light beam LL1 indicates that light is condensed and imaged in regions A6, A7, A8, A9, and A10 on the imaging surface 22a of the imaging element 22, respectively.
- the rightmost light beam LL5 passes through the outer edge portion OE2 of the imaging optical system 21, and vignetting or the like occurs due to a lens retaining member.
- Is affected by optical characteristics such as aberration in a region AA2 on one side of the image pickup surface 22a of the image pickup device 22 (shown by hatching in the lower region in FIG. 6).
- the influence of the optical characteristics is any one of aberration, vignetting, shading, color unevenness, ghost, flare and the like.
- one or more influences appear in the area AA2 on one side of the imaging surface 22a.
- the area AA1 affected by the optical characteristics in FIG. 5 and the area AA2 affected by the optical characteristics in FIG. 6 are opposite to each other with respect to the center of the imaging surface 22a. Therefore, also in FIG. 6, part of the effective pixel area CA on the imaging surface 22a is also affected by the optical characteristics.
- an effective area that is a data readout area so that the area excluding the areas AA1 and AA2 affected by the optical characteristics described above becomes the effective pixel area NCA.
- the pixel area NCA is shifted in the imaging surface 22a depending on whether the acquired image is a right eye image or a left eye image. Specifically, when light incident on the right eye optical system 10R is projected onto the imaging surface 22a, an area excluding the area AA1 affected by the optical characteristics is selected as the effective pixel area NCA. When light incident on the left eye optical system 10L is projected onto the imaging surface 22a, an area excluding the area AA2 affected by the optical characteristics is selected as the effective pixel area NCA.
- FIG. 7 is a diagram illustrating the position of the effective pixel area NCA1 when light incident on the right eye optical system 10R is projected onto the imaging surface 22a.
- FIG. 7 shows the positions of the imaging surface 22a and the effective pixel area NCA1 when the imaging device 22 is viewed from the subject side.
- the position of the effective pixel area NCA1 as the data reading area is set so as not to include the area AA1 affected by the optical characteristics.
- the effective pixel area NCA1 is shifted from the center to the right side.
- FIG. 8 is a diagram showing the position of the effective pixel area NCA2 when light incident on the left-eye optical system 10L is projected onto the imaging surface 22a.
- FIG. 8 shows the positions of the imaging surface 22a and the effective pixel area NCA2 when the imaging element 22 is viewed from the subject side.
- the position of the effective pixel area NCA2 as the data reading area is set so as not to include the area AA2 affected by the optical characteristics.
- the effective pixel area NCA2 is shifted from the center to the left side.
- the effective pixel area NCA1 is a rectangular area whose start point in the vertical and horizontal (or vertical and horizontal) directions x and y of the pixel area of the imaging surface 22a is defined by sp1 (x11, y11) and whose end point is defined by ep1 (x12, y12). It is.
- the effective pixel area NCA2 is a rectangular area whose start point in the vertical and horizontal (or vertical and horizontal) directions of the pixel area of the imaging surface 22a is defined by sp2 (x21, y21) and whose end point is defined by ep2 (x22, y22). is there.
- the effective pixel area control unit 35 has area information AI, and outputs area information AI indicating the range of the effective pixel area NCA1 or NCA2 to the image sensor 22 in response to the change instruction signal CS from the control unit 31.
- the area information AI includes information (x11, y11) of the start point sp1 and information (x12, y12) of the end point ep1 in the case of the effective pixel area NCA1, and information (x21, y2) of the start point sp2 in the case of the effective pixel area NCA2. This is a region designation signal including information (x22, y22) of y21) and end point ep1.
- the control unit 31 and the effective pixel region control unit 35 extract the effective pixel region NCA1 from the light receiving region in the first incident state, and the light incident state is the second incident state.
- a region extracting unit is configured to extract the second region from the effective pixel region NCA2 in the second incident state.
- the effective pixel area NCA1 is offset to the left with respect to the parallax direction center of the imaging surface 22a. Located in the area. Further, when light incident on the left-eye optical system 10L is projected onto the imaging surface 22a, the effective pixel area NCA2 is located in an area offset to the right with respect to the parallax direction center of the imaging surface 22a. That is, the effective pixel area NCA1 and the effective pixel area NCA2 are at positions offset in opposite directions.
- the imaging element 22 outputs an imaging signal of an area on the imaging surface 22a designated by the received area information AI. That is, the effective pixel area control unit 35 outputs area information AI that is an area designation signal that designates a pixel area output from the image sensor 22, and the image sensor 22 outputs the first area or the second area based on the area designation signal. The first region or the second region is extracted by outputting the imaging signal of the region.
- area information AI that is an area designation signal that designates a pixel area output from the image sensor 22
- the image sensor 22 outputs the first area or the second area based on the area designation signal.
- the first region or the second region is extracted by outputting the imaging signal of the region.
- FIG. 9 and 10 are diagrams showing the subject image projected on the imaging surface 22a of the imaging element 22 and the position of the effective pixel region.
- FIG. 11 is a diagram illustrating a right eye image displayed on the display unit 4.
- FIG. 12 is a diagram showing a left eye image displayed on the display unit 4.
- FIG. 9 is a diagram illustrating the position of the subject image and the effective pixel area NCA1 when the right eye image is acquired.
- FIG. 10 is a diagram illustrating the position of the subject image and the effective pixel area NCA2 when the left eye image is acquired.
- the light that has passed through the right eye optical system 10R forms an image on the image pickup surface 22a.
- the right-eye image of the light passing through the right-eye optical system 10R has image quality degradation in the area AA1 (shown by hatching) on one side of the imaging surface 22a, but the effective pixel area NCA1 is separated from the area AA1. It is set by shifting in the first direction from the center of 22a.
- the first direction is a direction parallel to the parallax direction. Therefore, even when the image of the effective pixel area NCA1 is displayed on the display unit 4, the endoscopic image of the right eye image displayed on the display unit 4 has little or no deterioration in image quality.
- the light that has passed through the left eye optical system 10L forms an image on the imaging surface 22a.
- the left-eye image of the light that has passed through the left-eye optical system 10L has image quality degradation in the area AA2 (shown by hatching) on one side of the imaging surface 22a, but the effective pixel area NCA2 is separated from the area AA2. It is set by shifting in the second direction from the center of 22a.
- the second direction is a direction parallel to the parallax direction and is opposite to the first direction. For this reason, even when the image of the effective pixel area NCA2 is displayed on the display unit 4, the endoscopic image of the left eye image displayed on the display unit 4 has little or no deterioration in image quality.
- an image part with degraded image quality is not displayed in the endoscopic images displayed by the respective optical systems.
- the endoscope in two endoscope images generated by switching the state of the optical system, the endoscope that eliminates the influence of the optical characteristics or reduces the appearance of the influence.
- An apparatus can be provided.
- the effective pixel region is changed corresponding to the optical system used in the two optical systems provided in the distal end portion 11 of the insertion portion 5 or the optical adapter 10 attached to the distal end portion 11.
- the second embodiment relates to an endoscope apparatus that switches an effective pixel area according to the type of adapter when there are a plurality of types of stereo measurement adapters attached to the distal end portion 11 of the insertion portion 5.
- the endoscope apparatus according to the present embodiment has substantially the same configuration as the endoscope apparatus 1 according to the first embodiment. Therefore, in the endoscope apparatus according to the present embodiment, the endoscope according to the first embodiment.
- symbol is attached
- FIG. 13 is a diagram for explaining the configuration of the optical adapter 10, the distal end portion 11 of the insertion portion 5, and the apparatus main body 2 according to the present embodiment.
- the optical adapter 10 can be attached to and detached from the distal end portion 11.
- the optical adapter 10 is a stereo measurement adapter, and there are a plurality of types. The user selects the optical adapter 10 according to the inspection purpose, and attaches it to the distal end portion 11 for use.
- the observation optical system of the present embodiment includes an optical system provided in the optical adapter 10 attached to the distal end portion 11 of the insertion portion 5.
- the optical adapter 10 includes a stereo optical system 10 a configured by two observation left and right observation optical systems (a first optical system and a second optical system), a mechanical shutter 14, a coil 15, and an identification.
- An information (hereinafter referred to as ID information) holding unit 16 is provided.
- the ID information holding unit 16 is a nonvolatile memory that stores ID information indicating the type of the optical adapter 10.
- the distal end portion 11 of the insertion portion 5 of this embodiment can be mounted with the optical adapter 10 from the distal end portion 11 of the first embodiment, and each optical adapter 10 has ID information that holds its own ID information. The difference is that the holding portion 16 is provided.
- a signal line 26 that connects the ID information holding unit 16 and the control unit 31 is also inserted into the insertion unit 5.
- the control unit 31 can read the ID information stored in the ID information holding unit 16.
- the effective pixel area control unit 35A is connected to the memory 35a and can read out information stored in the memory 35a.
- the memory 35a is a nonvolatile memory such as a flash memory.
- An effective pixel area setting table is stored in the memory 35a.
- FIG. 14 is a diagram showing the configuration of the effective pixel area setting table TBL.
- the effective pixel area setting table TBL stores right-eye image effective pixel area information A and left-eye image effective pixel area information B according to the ID information of the optical adapter 10.
- the effective pixel area information A is information on the data reading area for the right eye image
- the effective pixel area information B is information on the data reading area for the left eye image.
- Each effective pixel area information A and B includes information on the position of the start point sp and the end point ep of the rectangular area in the vertical and horizontal (or vertical and horizontal) directions of the pixel area of the imaging surface 22a.
- the start point sp and the end point ep each include position information in the vertical and horizontal (or vertical and horizontal) directions x and y of the pixel area of the imaging surface 22a.
- the position information of the start point sp and the end point ep is address information in the pixel area of the imaging surface 22a, and is area designation information that designates the pixel area output from the imaging element 22.
- the optical adapter 10 has ID information “001”
- the effective pixel area information A for the right eye image is “A1”
- the effective pixel area information B for the left eye image is “B1”.
- “A1” and “B1” include information of the start point sp and the end point ep.
- the control unit 31 reads the ID information stored in the ID information holding unit 16 of the optical adapter 10 and outputs it to the effective pixel region control unit 35A.
- the effective pixel area control unit 35A refers to the effective pixel area setting table TBL based on the ID information from the control unit 31, and the effective pixel area information A for the right eye image and the left eye image according to the ID information.
- the effective pixel area information B is read out.
- the effective pixel region control unit 35A uses the information on the start point sp1 and the end point ep1 included in the read effective pixel region information A and effective pixel region information B as a region designation signal for designating the pixel region output by the image sensor 22.
- Information AI is output to the image sensor 22.
- the effective pixel area control unit 35A changes the effective pixel area for the right eye image and the effective pixel area for the left eye image based on the ID information of the optical adapter 10.
- the effective pixel region for the right eye image and the effective pixel region for the left eye image are changed according to the type of the optical adapter 10, and the optical adapter 10 Depending on the optical characteristics, the influence of the optical characteristics is eliminated or the appearance of the influence is reduced.
- This embodiment also produces the same effect as the first embodiment.
- the effective pixel region in the image sensor is changed in accordance with the switching of the state of the optical system.
- the state of the optical system is switched from the image signal. Accordingly, the region to be cut out is changed so as to eliminate the influence of the optical characteristics or reduce the appearance of the influence.
- the endoscope apparatus 1B of the present embodiment has substantially the same configuration as the endoscope apparatus 1 of the first embodiment, and therefore the endoscope apparatus 1B of the present embodiment is the same as that of the first embodiment.
- symbol is attached
- FIG. 15 is a diagram for explaining the configuration of the distal end portion 11 of the insertion portion 5 and the apparatus main body 2 according to the present embodiment.
- the apparatus body 2 of the present embodiment has an image sensor driving unit 35 ⁇ / b> B.
- the image sensor 22 of the present embodiment may be a CMOS image sensor or a CCD image sensor.
- the image sensor driving unit 35B outputs a drive signal to the image sensor 22 so as to output image signals of all the pixels on the imaging surface 22a. Therefore, as will be described later, the pixel region corresponding to the imaging signal output from the imaging element 22 is unchanged regardless of the coil driving signal DS for driving the coil 15.
- the video signal processing unit 32 has a cutout region control unit 32a.
- the control unit 31 supplies the coil drive information DS1 regarding the coil drive signal DS for driving the coil 15 to the cutout region control unit 32a.
- FIG. 16 is a block diagram of the cutout region control unit 32a.
- the cutout area control unit 32 a includes a first video signal processing unit 51 and a second video signal processing unit 52.
- the first video signal processing unit 51 receives imaging signals of all pixel regions of the imaging element 22.
- the first video signal processing unit 51 generates a first video signal IS1 from the input imaging signal and outputs the first video signal IS1 to the second video signal processing unit 52.
- the first video signal IS1 is a video signal for all pixel regions of the image sensor 22. Therefore, as shown in FIG. 16, the image G1 of the first video signal IS1 is an image of the entire pixel region.
- the second video signal processor 52 receives the first video signal IS1 and the coil drive information DS1.
- the second video signal processing unit 52 cuts out an area corresponding to the coil drive information DS1 from the image G1, generates a first video signal IS2 that is a video signal of the cut-out area EA, and outputs the first video signal IS2 to the display unit 4. .
- the cutout area EA is changed according to the coil drive information DS1.
- the second video signal IS2 is a video signal of the cutout area EA. Therefore, at the time of acquiring the right eye image, as shown in FIG. 16, the second video signal IS1 is a signal of the image G3 in the cutout area EA cut out from the entire pixel area. An image G4 corresponding to the image G3 is displayed on the display unit 4.
- the cutout region control unit 32a extracts the right-eye image region or the left-eye image region by cutting out the effective pixel region NCA1 or the effective pixel region NCA2 from the image G1 generated from the imaging signal output from the imaging element 22.
- An area extraction unit is configured.
- This embodiment also produces the same effect as the first embodiment.
- the effective pixel area in the image sensor is changed according to the type of the optical adapter and the state switching of the optical system.
- the type of the optical adapter and the optical are selected from the image signals.
- the area to be cut out is changed so as to eliminate the influence of the optical characteristics or reduce the appearance of the influence in accordance with the switching of the system state.
- the endoscope apparatus 1C of the present embodiment has substantially the same configuration as the endoscope apparatuses 1A and IB of the second and third embodiments. Therefore, in the endoscope apparatus 1C of the present embodiment, the second Constituent elements that are substantially the same as those of the endoscope apparatuses 1A and IB of the embodiment are denoted by the same reference numerals, description thereof is omitted, and only different configurations are described.
- FIG. 17 is a diagram for explaining the configuration of the distal end portion 11 of the insertion portion 5 and the apparatus main body 2 according to the present embodiment.
- the observation optical system of the present embodiment includes an optical system provided in the optical adapter 10 attached to the distal end portion 11 of the insertion portion 5.
- the apparatus body 2 of the present embodiment has an image sensor driving unit 35 ⁇ / b> B.
- the image sensor 22 of the present embodiment may be a CMOS image sensor or a CCD image sensor.
- the image sensor driving unit 35B outputs a drive signal to the image sensor 22 so as to output image signals of all the pixels on the imaging surface 22a. Therefore, as will be described later, the pixel region corresponding to the imaging signal output from the imaging element 22 is unchanged regardless of the coil driving signal DS for driving the coil 15.
- the video signal processing unit 32 includes a cutout region control unit 32a1.
- the control unit 31 supplies the ID information of the optical adapter 10 attached to the distal end portion 11 and the coil drive information DS1 about the coil drive signal DS for driving the coil 15 to the cutout region control unit 32a1.
- the cutout region control unit 32a1 is the same as the cutout region control unit 32a of the third embodiment, and includes a first video signal processing unit 51 and a second video signal processing unit 52A as shown in FIG. In FIG. 16, the ID information is supplied to the second video signal processing unit 52 as indicated by a one-dot chain line.
- the first video signal processing unit 51 receives imaging signals of all pixel regions of the imaging element 22.
- the first video signal processing unit 51 generates a first video signal IS1 from the input imaging signal and outputs the first video signal IS1 to the second video signal processing unit 52.
- the first video signal IS1 is a video signal for all pixel regions of the image sensor 22. Therefore, as shown in FIG. 16, the image G1 of the first video signal IS1 is an image of the entire pixel region.
- the second video signal processing unit 52 receives the first video signal IS1, the ID information, and the coil drive information DS1.
- the second video signal processing unit 52 cuts out an area corresponding to the ID information and the coil drive information DS1 from the image G1, generates a first video signal IS2 that is a video signal of the cut-out area EA, and displays the display unit 4 Output to.
- the cutout area EA is an area corresponding to the type of the optical adapter 10. Further, in the cutout area EA, the effective pixel area NCA1 when light incident on the right eye optical system 10R is projected on the imaging surface 22a, or light incident on the left eye optical system 10L is projected on the imaging surface 22a. This is the effective pixel area NCA2 when being performed.
- the cutout area EA is changed according to the ID information and the coil drive information DS1.
- the second video signal IS2 is a video signal of the cutout area EA. Therefore, as shown in FIG. 16, the second video signal IS1 is a signal of the image G3 of the cutout area EA cut out from the effective pixel area CA. An image G4 corresponding to the image G3 is displayed on the display unit 4.
- the cutout region control unit 32a1 configures a region extraction unit that changes the right eye image region and the left eye image region based on the ID information of the optical adapter 10.
- This embodiment also produces the same effect as the second embodiment.
- the effective pixel region is shifted when the first optical system and the second optical system are switched in the two optical systems having parallax.
- the effective pixel region is changed.
- the endoscope apparatus 1D of the present embodiment has substantially the same configuration as the endoscope apparatus 1B of the third embodiment, and therefore the endoscope apparatus 1D of the present embodiment is the same as that of the first embodiment.
- symbol is attached
- FIG. 18 is a diagram for explaining the configuration of the distal end portion 11 of the insertion portion 5 and the apparatus main body 2 according to the present embodiment.
- 19 and 20 are diagrams for explaining the relationship between the optical system at the tip and the effective pixel region on the imaging surface of the imaging device.
- the front end portion 11 has a monocular optical system 61, that is, an optical system having one optical axis of the objective optical system, and an aperture mechanism for changing the aperture in the monocular optical system 61, here, two types of apertures are selected.
- An aperture mechanism 62 having a mechanism for selecting automatically is provided.
- the monocular optical system 61 is an observation optical system including an objective optical system 61a and an imaging optical system 61b.
- the aperture mechanism 62 is provided in the objective optical system 61a.
- FIG. 21 is a diagram showing the configuration of the diaphragm mechanism 62.
- the aperture mechanism 62 includes a glass member 71 having a first aperture 71a and a shielding member 72 having a second aperture 72a and an arm 72b.
- the glass member 71 is disposed on the optical axis of the monocular optical system 61.
- the shielding member 72 is rotatable around the axis of the shaft member 73 fixed with respect to the distal end portion 11, and the first position where the second diaphragm 72a is disposed on the optical axis of the monocular optical system 61, Alternatively, the second diaphragm 72 a can be arranged at a second position that is off the optical axis of the monocular optical system 61.
- the shielding member 72 is driven to be located at one of two positions by a drive actuator (not shown) such as an electromagnet.
- FIG. 19 and 20 show a plurality of optical paths of light passing through the monocular optical system 61.
- the aperture AP1 of the first aperture 71a is larger than the aperture AP2 of the second aperture 72a. That is, the aperture value of the first aperture 71a is larger than the aperture value of the second aperture 72a. Therefore, when the second diaphragm 72a is at the first position arranged on the optical axis of the monocular optical system 61, the light from the subject is narrowed by the aperture AP2 as shown in FIG. Incident. When the second diaphragm 72a is at the second position off the optical axis of the monocular optical system 61, the light from the subject is narrowed by the aperture AP1 and enters the image sensor 22 as shown in FIG.
- the monocular optical system 61 is an optical system that receives light from the observation window 11a and emits the light to the image pickup device 22.
- the monocular optical system 61 changes the incident state of light on the image pickup device 22 (here, the width of the light beam)
- An observation optical system that can be switched between one incident state and a second incident state different from the first incident state is configured.
- the video signal processing unit 32 includes a cutout region control unit 32b.
- the control unit 31 When receiving the aperture designation signal SLa from the operation unit 6, the control unit 31 outputs the aperture instruction signal AS to the aperture mechanism 62.
- the user can change the aperture value of the monocular optical system 61 by operating a predetermined operation button of the operation unit 6. By operating the operation button, the shielding member 72 is driven, the first position where the second diaphragm 72a is disposed on the optical axis of the monocular optical system 61, and the second diaphragm 72a is the optical axis of the monocular optical system 61. It is arranged at any one of the second positions deviated from.
- the diaphragm mechanism 62 has a configuration capable of switching between a first diaphragm and a second diaphragm having an opening smaller than the opening of the first diaphragm.
- the diaphragm mechanism 62 uses, for example, an electromagnetic force from an electromagnet or the like to change any of the first diaphragm and the diaphragm in a state in which the first diaphragm and the second diaphragm coexist but the diaphragm is secondly activated. It can be placed in the optical path of the system.
- the aperture mechanism 62 is a first aperture or an aperture in a state where the first aperture and the second aperture coexist but the second aperture is in effect. Is placed in the optical path of the monocular optical system.
- the aperture value of the aperture mechanism 62 becomes smaller (that is, the aperture becomes larger)
- the outer edge of the subject image when the image is formed becomes darker than the subject image when the aperture value is larger (that is, the aperture is smaller).
- FIG. 19 is a diagram for explaining the relationship between the optical system at the tip and the effective pixel area on the imaging surface of the imaging element when the aperture value is large (that is, the aperture is small).
- FIG. 20 is a diagram for explaining the relationship between the optical system at the tip and the effective pixel area on the imaging surface of the imaging device when the aperture value is small (that is, the aperture is large).
- the image sensor 22 of the present embodiment may be a CMOS image sensor or a CCD image sensor.
- the image sensor driving unit 35B outputs a drive signal to the image sensor 22 so as to output image signals of all the pixels on the imaging surface 22a.
- the video signal processing unit 32 includes a cutout region control unit 32b.
- the control unit 31 supplies aperture information AS1 for the aperture instruction signal AS to the cutout region control unit 32b.
- the cutout area control unit 32b When the second diaphragm 72a is at the first position arranged on the optical axis of the monocular optical system 61, the cutout area control unit 32b has a predetermined effective pixel area on the imaging surface 22a as shown in FIG. An image in the range of CA1 is cut out.
- the cutout region control unit 32b When the second diaphragm 72a is at the second position off the optical axis of the monocular optical system 61, the cutout region control unit 32b has a predetermined effective pixel region on the imaging surface 22a as shown in FIG. An image in the range of CA2 is cut out.
- the effective pixel area CA2 is similar in shape to the effective pixel area CA1.
- the cutout area control unit 32b cuts out an image in the range of the effective pixel area CA2 having an area smaller than the effective pixel area CA1.
- an area where there is no difference in brightness or is not noticeable is set as the effective pixel area CA1 according to the aperture AP2 of the second diaphragm 72a.
- the cutout region control unit 32b extracts the effective pixel region CA1 from the light receiving region in the first incident state, and the light incident state is the second incident state.
- an area extraction unit is configured to extract the effective pixel area CA2 from the light receiving area in the second incident state.
- the incident state of light is changed by the diaphragm of the diaphragm mechanism 62 provided in the monocular optical system 61.
- the cutout region control unit 32b of the video signal processing unit 32 extracts the effective pixel region CA1 or CA2 from the image pickup signal from the image pickup device 22, but the first and second embodiments.
- the region information AI signal to be output may be included in the drive signal to the imaging device so as to change the region of the imaging signal output by the imaging element 22.
- the image pickup device 2 outputs an image pickup signal of the effective pixel area CA1 or CA2, and the video signal processing unit 32 does not cut out an image.
- the shape of the effective pixel areas CA1 and CA2 described above is a rectangle, but it may be a circle, an ellipse, or the like.
- an endoscope that eliminates the influence of the optical characteristics or reduces the appearance of the influence.
- a mirror device can be provided.
- Each of the endoscope apparatuses of the first to fourth embodiments described above has two optical systems for stereo measurement or stereo observation as two optical systems, but each endoscope apparatus has a narrow angle observation.
- each endoscope apparatus has a narrow angle observation.
- the first to fourth embodiments described above can be applied.
- each of the endoscope apparatuses according to the first to fourth embodiments described above is an endoscope apparatus capable of two or more observations (for example, narrow-angle observation and wide-angle observation) having different angles of view, near-point observation, and so on.
- the present invention can also be applied to an endoscope apparatus capable of far-point observation, an endoscope apparatus capable of direct view and side view, or an endoscope apparatus capable of direct view and perspective view.
- the endoscope apparatus according to the fifth embodiment changes the aperture value of the monocular optical system, but the endoscope apparatus can take two states for near-point observation and far-point observation.
- the above-described fifth embodiment is applicable.
- the position or size of the effective pixel region is changed so as to eliminate the influence of aberrations in the peripheral region of the image, but halation, ghost, etc. are not necessary for part of the image.
- an area excluding a part of the area may be set as an effective pixel area.
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Surgery (AREA)
- Optics & Photonics (AREA)
- Biomedical Technology (AREA)
- Animal Behavior & Ethology (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Astronomy & Astrophysics (AREA)
- General Physics & Mathematics (AREA)
- Endoscopes (AREA)
- Instruments For Viewing The Inside Of Hollow Bodies (AREA)
Abstract
内視鏡装置1は、挿入部5と、挿入部の先端部に設けられた観察窓に入射した入射光を受光する撮像素子22と、ステレオ光学系10aと、領域抽出部としての有効画素領域制御部35とを有する。ステレオ光学系10aは、観察窓11aからの光が入射され撮像素子22へ出射する光学系であって、撮像素子22への光の入射状態を、第1の入射状態と、第1の入射状態と異なる第2の入射状態のいずれかに切替可能な観察光学系である。有効画素領域制御部35は、光の入射状態が第1の入射状態のときには第1の受光領域から第一の領域を抽出し、光の入射状態が第2の入射状態のときには第2の受光領域から第二の領域を抽出する。
Description
本発明は、内視鏡装置に関し、特に、撮像素子への光の入射状態を切替可能な観察光学系を有する内視鏡装置に関する。
従来より、内視鏡装置が工業分野及び医療分野において広く用いられている。
内視鏡では、観察窓を通して入射した被写体からの光は、観察光学系を通して撮像素子の受光面に入射され、被写体像が撮像素子の撮像面上に投射される。撮像素子は、撮像面に投影された被写体像を光電変換して、撮像信号として出力する。撮像信号から内視鏡画像が生成される。
内視鏡では、観察窓を通して入射した被写体からの光は、観察光学系を通して撮像素子の受光面に入射され、被写体像が撮像素子の撮像面上に投射される。撮像素子は、撮像面に投影された被写体像を光電変換して、撮像信号として出力する。撮像信号から内視鏡画像が生成される。
内視鏡には、観察光学系の状態の変更できものもある。例えば、日本国特開2010-128354号公報には、視差を有する2つの光学系を有し、所謂ステレオ計測あるいはステレオ観察の可能な内視鏡装置が開示されている。その内視鏡装置では、光路切替手段を有し、2つの光路からの光が1つの撮像素子の共通の撮像面に交互に投射されるように、光路切替手段の動作が制御される。
しかし、観察光学系の異なる2つの状態において、投射される2つの被写体像は、1つの撮像素子の共通の撮像面に投射されるため、2つの被写体像は、収差などの影響の現れ方が互いに異なる場合がある。
例えば、上述した日本国特開2010-128354号公報の内視鏡装置の場合、左右の光路を通ったときに、2つの被写体像において光学特性による影響が現れる領域が異なっている。左右の光路により生成される被写体2つの内視鏡画像に現れる光学特性による影響は、例えば、収差、ケラレ、シェーディング、色ムラ、ゴースト、フレア等の少なくとも1つである。
そのため、モニタに表示される被写体の2つの内視鏡画像の画質が異なり、観察者に違和感を与えるという問題がある。
そこで、本発明は、光学系の状態が切り替えられて生成される2つの内視鏡画像において、光学特性の影響をなくすあるいはその影響の現れ方を減少する内視鏡装置を提供することを目的とする。
本発明の一態様の内視鏡装置は、挿入部と、前記挿入部の先端部に設けられた観察窓に入射した入射光を受光する撮像素子と、前記観察窓からの前記光が入射され前記撮像素子へ出射する光学系であって、前記撮像素子への前記光の入射状態を、第1の入射状態と、前記第1の入射状態と異なる第2の入射状態のいずれかに切替可能な観察光学系と、前記光の前記入射状態が前記第1の入射状態のときには前記第1の入射状態の第1の受光領域から第一の領域を抽出し、前記光の前記入射状態が前記第2の入射状態のときには前記第2の入射状態の第2の受光領域から第二の領域を抽出する領域抽出部と、を有する。
以下、図面を参照して本発明の実施形態について詳細に説明する。
(第1の実施形態)
図1は、第1の実施形態に係る内視鏡装置の構成を示す構成図である。
図1は、第1の実施形態に係る内視鏡装置の構成を示す構成図である。
図1に示すように、内視鏡装置1は、ビデオプロセッサ等の機能を備えた装置本体2と、装置本体2に接続される内視鏡3とを有して構成されている。装置本体2は、内視鏡画像、操作メニュー等が表示される、例えば液晶パネル(LCD)等の表示部4を有する。この表示部4には、タッチパネルが設けられていてもよい。
内視鏡3は、被検体内に挿入される内視鏡挿入部としての挿入部5と、挿入部5の基端に連設された操作部6と、操作部6から延出したユニバーサルコード7とを有して構成されている。内視鏡3は、ユニバーサルコード7を介して装置本体2と着脱可能になっている。
挿入部5は、先端側から順に、先端部11と、湾曲部12と、長尺な可撓部13とを有して構成されている。湾曲部12は、先端部11の基端に連設され、例えば上下左右方向に湾曲自在に構成されている。可撓部13は、湾曲部12に基端に連設され、可撓性を有する。
挿入部5の先端部11には、例えばCMOSイメージセンサ等の撮像素子22(図2参照)が内蔵されている。撮像素子22は、挿入部5の先端部11に設けられた観察窓11a(図2参照)に入射した入射光を受光する。
挿入部5の先端部11には、例えばCMOSイメージセンサ等の撮像素子22(図2参照)が内蔵されている。撮像素子22は、挿入部5の先端部11に設けられた観察窓11a(図2参照)に入射した入射光を受光する。
操作部6には、湾曲部12を上下左右方向に湾曲させる湾曲ジョイスティック6aが設けられている。ユーザは、湾曲ジョイスティック6aを傾倒操作することで、湾曲部12を所望の方向に湾曲させることができる。また、操作部6には、湾曲ジョイスティック6aの他に、内視鏡機能を指示するボタン類、例えば、フリーズボタン、湾曲ロックボタン、記録指示ボタン等の各種操作ボタンが設けられている。
操作部6には、さらに、後述する右眼及び左眼のいずれの画像を取得するかの画像切替ボタンも設けられている。なお、表示部4にタッチパネルが設けられている構成の場合、ユーザは、タッチパネルを操作して、内視鏡装置1の種々の操作を指示してもよい。
装置本体2の表示部4には、先端部11内に設けられた撮像ユニットの撮像素子22(図2参照)によって撮像された内視鏡画像が表示される。また、装置本体2の内部には、画像処理や各種制御を行う制御部31(図2参照)、処理画像をメモリ(図示せず)に記録する記録装置、等々の各種回路が設けられている。
図2は、挿入部の先端部及び装置本体の構成を説明するための図である。図2を用いて、先端部11、及び、装置本体2の詳細な構成について説明する。
先端部11は、左右2つの観察光学系(第1の光学系及び第2の光学系)により構成されるステレオ光学系10aと、メカシャッタ14と、コイル15とを備える。
先端部11は、左右2つの観察光学系(第1の光学系及び第2の光学系)により構成されるステレオ光学系10aと、メカシャッタ14と、コイル15とを備える。
ステレオ光学系10aは、視差方向に直交する方向に光軸が配置され、視差方向に互いに離間して配置された左眼光学系10Lと右眼光学系10Rとを有して構成されている。コイル15は、光学アダプタ10が先端部11に装着された際に、制御線23を介して装置本体2の制御部31に接続される。
なお、先端部11に装着可能な光学アダプタ10に、左眼光学系10L、右眼光学系10R、メカシャッタ14及びコイル15を設けるようにしてもよい。すなわち、図1において、点線で示すように、内視鏡装置1が、挿入部5の先端部11に着脱可能なステレオ計測用の光学アダプタ10を装着可能なタイプの場合は、光学アダプタ10中に、左眼光学系10L、右眼光学系10R、メカシャッタ14及びコイル15が設けられる。
図3は、メカシャッタ14の構成図である。メカシャッタ14は、2つの開口を有する円形の絞り部材14aと、遮蔽部材14bとを有する。
絞り部材14aの2つの開口14a1と14a2が、それぞれ右眼光学系10Rと左眼光学系10Lの2つの光路の絞りを構成する。円形の2つの開口14a1、14a2が、2つの光路のそれぞれの位置に配置されるように、メカシャッタ14は、先端部11内に配設される。
遮蔽部材14bは、絞り部材14aに固定された軸部材14cの軸回りに回動可能なアーム14b1と、アーム14b1の先端に形成された円形の遮光板14b2とを有している。遮蔽部材14bには磁石14mが設けられている。
遮蔽部材14bは、矢印で示すように、右眼光学系10Rの光路中に配置された開口14a1を覆う第1の位置と、左眼光学系10Lの光路中に配置された開口14a2を覆う第2の位置と、の間で移動可能となっている。
後述するように、コイル15に発生する磁界により、磁石14mを有する遮蔽部材14bは、第1の位置と第2の位置のいずれかに位置可能となる。
後述するように、コイル15に発生する磁界により、磁石14mを有する遮蔽部材14bは、第1の位置と第2の位置のいずれかに位置可能となる。
メカシャッタ14の構成は、図3に示す構成以外の構成でもよい。図4は、メカシャッタの他の例の構成図である。メカシャッタ14Aは、2つの円形の絞り部材14Aa、14Abを有する。2つの絞り部材14Aaと14Abは、それぞれ円形の開口14Aa1と14Ab1を有する。2つの絞り部材14Aaと14Abには、それぞれ遮蔽部材14Adと14Aeを有する。
遮蔽部材14Adは、絞り部材14Aaに固定された軸部材14c1の軸回りに回動可能なアーム14Ad1と、アーム14Ad1の先端に形成された円形の遮光板14Ad2とを有している。
遮蔽部材14Aeは、絞り部材14Abに固定された軸部材14c2の軸回りに回動可能なアーム14Ae1と、アーム14Ae1の先端に形成された円形の遮光板14Ae2とを有している。
各遮蔽部材14d、14eには磁石(図示せず)が設けられている。
遮蔽部材14Adの開口14Aa1は、右眼光学系10Rの光路中に配置され、遮蔽部材14Aeの開口14Ab1は、左眼光学系10Lの光路中に配置される。
遮蔽部材14Adの開口14Aa1は、右眼光学系10Rの光路中に配置され、遮蔽部材14Aeの開口14Ab1は、左眼光学系10Lの光路中に配置される。
図4の場合は、各遮蔽部材14d、14e毎に、コイル15を設け、2つの遮蔽部材14dと14eがそれぞれの開口14Aa1と14Ab1を交互に覆うように、2つのコイル15は駆動される。
よって、メカシャッタ14は、図4に示す構成のメカシャッタでもよい。
図2に戻り、絞り部材14aの2つの開口14a1と14a2が、右眼光学系10Rと左眼光学系10Lの2つの光路の絞りを構成する。2つの開口14a1、14a2が、2つの光路のそれぞれの位置に配置されるように、メカシャッタ14は、先端部11内に配設される。
図2に戻り、絞り部材14aの2つの開口14a1と14a2が、右眼光学系10Rと左眼光学系10Lの2つの光路の絞りを構成する。2つの開口14a1、14a2が、2つの光路のそれぞれの位置に配置されるように、メカシャッタ14は、先端部11内に配設される。
以上のように、左眼光学系10L、右眼光学系10R、メカシャッタ14及びコイル15が内視鏡3の挿入部5の先端部11内に配置されている。
先端部11は、結像光学系21と、撮像素子22と有して構成されている。撮像素子22は、撮像信号線24を介して装置本体2の映像信号処理部32に接続されている。
先端部11は、結像光学系21と、撮像素子22と有して構成されている。撮像素子22は、撮像信号線24を介して装置本体2の映像信号処理部32に接続されている。
装置本体2は、制御部31と、映像信号処理部32と、光源部33と、光源制御部34と、有効画素領域制御部35とを有して構成されている。
制御部31は、内視鏡装置1の全体の動作制御を行うと共に、コイル15の駆動、映像信号処理部32の動作、及び有効画素領域制御部35の駆動を制御する。特に、制御部31は、操作部6の画像切替ボタンの操作に応じて、コイル15の駆動のためのコイル駆動信号DSと、有効画素領域制御部35への有効画素領域の変更指示信号CSを出力する。
制御部31は、内視鏡装置1の全体の動作制御を行うと共に、コイル15の駆動、映像信号処理部32の動作、及び有効画素領域制御部35の駆動を制御する。特に、制御部31は、操作部6の画像切替ボタンの操作に応じて、コイル15の駆動のためのコイル駆動信号DSと、有効画素領域制御部35への有効画素領域の変更指示信号CSを出力する。
映像信号処理部32は、撮像素子22からの撮像信号を受信して、各種画像処理を施して、内視鏡画像信号を生成し、内視鏡画像信号を表示部4へ出力する。映像信号処理部32は、生成した内視鏡画像信号を、図示しないメモリへ記憶するようにしてもよい。
また、装置本体2、内視鏡3及び先端部11内には、ライトガイド25が挿通されている。
光源部33は、例えばキセノンランプ、LED、レーザーダイオード等であり、ライトガイド25の基端面に対向して配置されている。光源部33は、光源制御部34による制御によって駆動し、ライトガイド25の基端面に照明光を入射する。ライトガイド25の基端面に入射された照明光は、光学アダプタ10の先端面の照明窓(図示せず)から出射され、被写体Sに照明光が照射される。なお、光源部33は、装置本体2に設けられているが、例えば、内視鏡3の操作部6内に設けられていてもよい。
光源部33は、例えばキセノンランプ、LED、レーザーダイオード等であり、ライトガイド25の基端面に対向して配置されている。光源部33は、光源制御部34による制御によって駆動し、ライトガイド25の基端面に照明光を入射する。ライトガイド25の基端面に入射された照明光は、光学アダプタ10の先端面の照明窓(図示せず)から出射され、被写体Sに照明光が照射される。なお、光源部33は、装置本体2に設けられているが、例えば、内視鏡3の操作部6内に設けられていてもよい。
有効画素領域制御部35は、撮像素子22を駆動する駆動信号を出力すると共に、撮像信号として出力される撮像素子22の撮像面22a上の領域を規定する領域情報AIを、信号線24aを介して撮像素子22へ供給する。
先端部11の右眼光学系10R及び左眼光学系10Lと結像光学系21とは、照明光が照射された被写体Sからの戻り光を、先端部11に設けられた観察窓11aを介して撮像素子22に入射させるように配置されている。
上述したように、メカシャッタ14の遮光板14b2は、右眼光学系10Rを通る光路を遮る第1の位置と、左眼光学系10Lを通る光路を遮る第2の位置とに対して択一的に配置される。図2は、メカシャッタ14の遮光板14b2が、右眼光学系10Rと撮像素子22との間の第2の位置に位置し、右眼光学系10Rからの光を遮光し、左眼光学系10Lからの光が撮像素子22に入射される状態を示している。
よって、ステレオ光学系10a、メカシャッタ14及び結像光学系21は、観察窓11aからの光が入射され、その光を撮像素子22へ出射する光学系であって、撮像素子22への光の入射状態(ここでは光路)を、第1の入射状態と、第1の入射状態と異なる第2の入射状態のいずれかに切替可能な観察光学系を構成する。
ここでは、その観察光学系は、光軸が互いに異なる第1と第2の光学系とを有し、第1の入射状態は、観察窓11aに入射した入射光が第1の光学系を通る状態であり、第2の入射状態は、観察窓11aに入射した入射光が第2の光学系を通る状態である。
そして、内視鏡装置1は、第1の光学系と第2の光学系の2つの光学系による、ステレオ計測若しくはステレオ観察内視鏡装置である。
ユーザは、メカシャッタ14の位置を切り替える場合、装置本体2に接続されている操作部6を操作する。
操作部6には、図1に示すように、右眼光学系10Rによる右眼画像を取得するために、メカシャッタ14の位置を左眼光学系10L内に位置させるための右眼画像取得操作部6b1と、左眼光学系10Lによる左眼画像を取得するために、メカシャッタ14の位置を右眼光学系10R内に位置させるための左眼画像取得操作部6b2とが設けられる。
ユーザは、右眼画像取得操作部6b1と左眼画像取得操作部6b2の所望のいずれ一方を操作する。右眼画像取得操作部6b1が操作されると、操作部6から制御部31に左眼遮断指示信号が出力され、左眼画像取得操作部6b2が操作されると、操作部6から制御部31に右眼遮断指示信号が出力される。左眼遮断指示信号及び右眼遮断指示信号は切替信号SLとして、制御部31に入力される。
なお、メカシャッタ14の位置の切り替えは、装置本体2の表示部4のタッチパネル等を用いて行ってもよい。
なお、メカシャッタ14の位置の切り替えは、装置本体2の表示部4のタッチパネル等を用いて行ってもよい。
制御部31は、操作部6から切替信号SLが入力されると、切替信号SLに応じた、すなわち左眼遮断指示信号か右眼遮断指示信号かに応じた、コイル駆動信号DSを制御線23を介してコイル15に供給する。コイル15に電流が流れることで、切替信号SLに応じた磁界がコイル15により発生される。そして、コイル15に発生する磁界の方向とメカシャッタ14の磁石14mとの電磁作用により、メカシャッタ14の遮光板14b2の位置は、変更される。
右眼画像取得操作部6b1が操作されると、操作部6は、左眼遮断指示信号である切替信号SLを制御部31へ出力する。制御部31は、左眼遮断指示信号である切替信号SLを受信すると、左眼遮断駆動信号であるコイル駆動信号DSをコイル15を供給する。その結果、コイル15に第1の方向の電流が流れ、左眼光学系10Lの光路を遮蔽するようにシャッタ14が駆動され、撮像素子22は、右眼光学系10Rの光路から光を受け、右眼画像が取得される。
左眼画像取得操作部6b2が操作されると、操作部6は、右目遮断指示信号である切替信号SLを制御部31へ出力する。制御部31は、右目遮断指示信号である切替信号SLを受信すると、右眼遮断駆動信号であるコイル駆動信号DSをコイル15を供給する。その結果、コイル15に第1の方向とは逆の第2の方向の電流が流れ、右眼光学系10Rの光路を遮蔽するようにシャッタ14が駆動され、撮像素子22は、左眼光学系10Lの光路から光を受け、左眼画像が取得される。
図2は、シャッタ14の遮光板が右眼光学系10Rの光を遮蔽し、左眼光学系10Lの光を通過させるように、遮蔽部材14bが駆動された状態を示す。図2の場合、遮蔽板14b2は、右眼光学系10Rと撮像素子22との間の第2の位置に位置する。これにより、右眼光学系10Rからの光が遮光され、左眼光学系10Lからの光が撮像素子22に入射される状態となる。
よって、メカシャッタ14は、遮蔽板14b2を右眼光学系10Rを通る光路を遮る第1の位置と、左眼光学系10Lを通る光路を遮る第2の位置とに対して択一的に配置して、いずれか一方の光路を遮る光路遮断部を構成する。
撮像素子22は、左眼光学系10L及び左眼光学系10Lと結像光学系21との結像位置に配置された受光面である撮像面22aを有し、右眼光学系10R及び結像光学系21を介して受光面に結像された光学像と、左眼光学系10L及び結像光学系21を介して受光面に結像された光学像のいずれか一方の撮像信号を生成する。撮像素子22により生成された撮像信号は、撮像信号線24を介して装置本体2の映像信号処理部32に入力される。
映像信号処理部32は、入力された撮像信号に基づいて、左眼画像及び右眼画像の映像信号を生成する。生成された映像信号は、表示部4に入力される。表示部4は、映像信号が入力されることで、左眼光学系10Lにより得られた左眼画像及び右眼画像の一方を、内視鏡画像として表示する。
次に、左右の2つの光学系と撮像素子の撮像面の位置関係、及び光学特性の影響について説明する。
図5及び図6は、先端部の2つの光学系と撮像素子の撮像面における有効画素領域の関係を説明するための図である。
図5及び図6は、先端部の2つの光学系と撮像素子の撮像面における有効画素領域の関係を説明するための図である。
先端部11の先端面には、カバーガラス41が設けられており、カバーガラス41の内側の先端部11内に、左右の対物光学系、すなわち右眼光学系10Rと左眼光学系10Lが配設されている。
右眼光学系10Rと左眼光学系10Lの基端側には、先端側から基端側へ向かって、メカシャッタ14,複数のレンズからなる結像レンズ部42、43が、先端部11内に配置されて固定されている。
結像レンズ部43の基端側には、前面に複数のガラスからなる保護ガラス部44が固定された撮像素子22が配置されて固定されている。図5及び図6では、撮像素子22の撮像面22aの中央部に、有効画素領域CAが固定的に設定される。
なお、上述したように、光学アダプタ10中に、右眼光学系10R、左眼光学系10L及びメカシャッタ14が設けられ、光学アダプタ10が先端部11に装着される内視鏡装置の場合は、図5において一点鎖線で示す箇所が、先端部11の先端面となる。その場合、先端部11の先端側には、二点鎖線で示すカバーガラス41aが設けられる。
図5は、右眼光学系10Rを通る光の複数の光路を示している。右眼光学系10Rに入射する光の中で、先端部11から被写体を見たときの、右端の光束LR1、やや右端の光束LR2、中央の光束LR3、やや左端の光束LR4、及び左端の光束LR5が、それぞれ撮像素子22の撮像面22a上の領域A1,A2,A3,A4及びA5に集光して結像していることを示している。
右眼光学系10Rに入射する光の中で左端の光束LR5は、結像光学系21の外縁部OE1を通り、レンズ留め部材などによりケラレ等が生じるため、結像光学系21の中央部IE1を通る右端の光束LR1よりも、撮像素子22の撮像面22aの片側の領域AA1(図5では上側の領域で斜線で示す)において収差などの光学特性の影響を受ける。光学特性の影響としては、収差、ケラレ、シェーディング、色ムラ、ゴースト、フレア等のいずれかであり、これらの中で1つあるいは2以上の影響が、撮像面22aの片側の領域AA1に現れる。
よって、図5の場合は、撮像面22aの有効画素領域CAの一部も、光学特性の影響を受ける。
よって、図5の場合は、撮像面22aの有効画素領域CAの一部も、光学特性の影響を受ける。
図6は、左眼光学系10Lを通る光の複数の光路を示している。左眼光学系10Lに入射する光の中で、先端部11から被写体を見たときの、左端の光束LL1、やや左端の光束LL2、中央の光束LL3、やや右端の光束LL4、及び右端の光束LL5が、それぞれ撮像素子22の撮像面22a上の領域A6,A7,A8,A9及びA10に集光して結像していることを示している。
左眼光学系10Lに入射する光の中で右端の光束LL5は、結像光学系21の外縁部OE2を通り、レンズ留め部材などによりケラレ等が生じるため、結像光学系21の中央部IE1を通る左端の光束LL1よりも、撮像素子22の撮像面22aの片側の領域AA2(図6では下側の領域で斜線で示す)において収差などの光学特性の影響を受ける。光学特性の影響としては、収差、ケラレ、シェーディング、色ムラ、ゴースト、フレア等のいずれかであり、これらの中で1つあるいは2以上の影響が、撮像面22aの片側の領域AA2に現れる。図5の光学特性の影響を受ける領域AA1と、図6の光学特性の影響を受ける領域AA2は、撮像面22aの中心に対して互いに反対側である。
よって、図6の場合も、撮像面22aの有効画素領域CAの一部、も、光学特性の影響を受ける。
よって、図6の場合も、撮像面22aの有効画素領域CAの一部、も、光学特性の影響を受ける。
そこで、本実施の形態では、撮像素子22の撮像面22a上で、上述した光学特性の影響を受ける領域AA1及びAA2を除く領域が、有効画素領域NCAとなるように、データ読み出し領域である有効画素領域NCAは、取得する画像が右眼画像か左眼画像かに応じて、撮像面22a内でシフトされる。具体的には、右眼光学系10Rに入射する光が撮像面22a上に投影されるときは、光学特性の影響を受ける領域AA1を除く領域が、有効画素領域NCAとして選択される。左眼光学系10Lに入射する光が撮像面22a上に投影されるときは、光学特性の影響を受ける領域AA2を除く領域が、有効画素領域NCAとして選択される。
図7は、右眼光学系10Rに入射する光が撮像面22a上に投影されるときの有効画素領域NCA1の位置を示す図である。図7は、被写体側から撮像素子22を正面視したときの撮像面22aと有効画素領域NCA1の位置を示す。図7に示すように、光学特性の影響を受ける領域AA1を含まないように、データ読み出し領域としての有効画素領域NCA1の位置が設定される。図7では、有効画素領域NCA1は、中心から右側へシフトしている。
図8は、左眼光学系10Lに入射する光が撮像面22a上に投影されるときの有効画素領域NCA2の位置を示す図である。図8は、被写体側から撮像素子22を正面視したときの撮像面22aと有効画素領域NCA2の位置を示す。図8に示すように、光学特性の影響を受ける領域AA2を含まないように、データ読み出し領域としての有効画素領域NCA2の位置が設定される。図8では、有効画素領域NCA2は、中心から左側へシフトしている。
有効画素領域NCA1は、撮像面22aの画素領域の縦横(あるいは上下及び水平)方向x、yにおける始点がsp1(x11,y11)で、終点がep1(x12,y12)により規定される矩形の領域である。一方、有効画素領域NCA2は、撮像面22aの画素領域の縦横(あるいは上下及び水平)方向における始点がsp2(x21,y21)で、終点がep2(x22,y22)により規定される矩形の領域である。
有効画素領域制御部35は、領域情報AIを有し、制御部31からの変更指示信号CSに応じて、有効画素領域NCA1あるいはNCA2の範囲を示す領域情報AIを撮像素子22へ出力する。領域情報AIは、有効画素領域NCA1の場合は、始点sp1の情報(x11,y11)と終点ep1の情報(x12,y12)を含み、有効画素領域NCA2の場合は、始点sp2の情報(x21,y21)と終点ep1の情報(x22,y22)を含む領域指定信号である。
すなわち、制御部31及び有効画素領域制御部35は、光の入射状態が第1の入射状態のときには第1の入射状態の受光領域から有効画素領域NCA1を抽出し、光の入射状態が第2の入射状態のときには第2の入射状態の有効画素領域NCA2から第二の領域を抽出する領域抽出部を構成する。
図7及び図8に示すように、右眼光学系10Rに入射する光が撮像面22a上に投影されるとき、有効画素領域NCA1は、撮像面22aの視差方向中心に対して、左側へオフセットした領域に位置している。また、左眼光学系10Lに入射する光が撮像面22a上に投影されるとき、有効画素領域NCA2は、撮像面22aの視差方向中心に対して、右側へオフセットした領域に位置している。すなわち、有効画素領域NCA1と有効画素領域NCA2とは、互いに反対方向にオフセットした位置にある。
撮像素子22は、受信した領域情報AIにより指定された、撮像面22a上の領域の撮像信号を出力する。すなわち、有効画素領域制御部35は、撮像素子22が出力する画素領域を指定する領域指定信号である領域情報AIを出力し、撮像素子22が領域指定信号に基づいて第一の領域又は第二の領域の撮像信号を出力することによって、第一の領域又は第二の領域を抽出する。
具体的な内視鏡画像の表示例を説明する。
具体的な内視鏡画像の表示例を説明する。
図9と図10は、撮像素子22の撮像面22a上に投影された被写体像と、有効画素領域の位置を示す図である。図11は、表示部4に表示される右眼画像を示す図である。図12は、表示部4に表示される左眼画像を示す図である。
図9は、右眼画像取得時の被写体像と有効画素領域NCA1の位置を示す図である。図10は、左眼画像取得時の被写体像と有効画素領域NCA2の位置を示す図である。
図9は、右眼画像取得時の被写体像と有効画素領域NCA1の位置を示す図である。図10は、左眼画像取得時の被写体像と有効画素領域NCA2の位置を示す図である。
図9に示すように、左眼光学系10Lがメカシャッタ14によって遮蔽されることによって、撮像素子22には、右眼光学系10Rを通ってきた光が、撮像面22a上に結像する。右眼光学系10Rを通った光の右眼画像は、撮像面22aの片側の領域AA1(斜線で示す)では画質の劣化があるが、有効画素領域NCA1は、領域AA1から離れるように撮像面22aの中心から第1の方向にシフトして設定されている。その第1の方向は、視差方向に平行な方向である。そのため、有効画素領域NCA1の画像が表示部4に表示されても、表示部4に表示される右眼画像の内視鏡画像は、画質の劣化のない、あるいは少ないものとなる。
図10に示すように、右眼光学系10Rがメカシャッタ14によって遮蔽されることによって、撮像素子22には、左眼光学系10Lを通ってきた光が、撮像面22a上に結像する。左眼光学系10Lを通った光の左眼画像は、撮像面22aの片側の領域AA2(斜線で示す)では画質の劣化があるが、有効画素領域NCA2は、領域AA2から離れるように撮像面22aの中心から第2の方向にシフトして設定されている。その第2の方向は、視差方向に平行な方向で、第1の方向とは反対方向である。そのため、有効画素領域NCA2の画像が表示部4に表示されても、表示部4に表示される左眼画像の内視鏡画像は、画質の劣化のない、あるいは少ないものとなる。
すなわち、右眼光学系10Rと左眼光学系10Lを有する内視鏡において、それぞれの光学系により表示される内視鏡画像中に、画質の劣化した画像部位が表示されない。
以上のように、上述した実施形態によれば、光学系の状態が切り替えられて生成される2つの内視鏡画像において、光学特性の影響をなくすあるいはその影響の現れ方を減少する内視鏡装置を提供することができる。
(第2の実施形態)
第1の実施形態は、挿入部5の先端部11あるいは先端部11に装着される光学アダプタ10に設けられた2つの光学系において使用される光学系に対応して有効画素領域を変更するが、本第2の実施形態は、挿入部5の先端部11に装着されるステレオ計測用アダプタが複数種類ある場合に、そのアダプタの種類に応じて有効画素領域を切り替える内視鏡装置に関する。
(第2の実施形態)
第1の実施形態は、挿入部5の先端部11あるいは先端部11に装着される光学アダプタ10に設けられた2つの光学系において使用される光学系に対応して有効画素領域を変更するが、本第2の実施形態は、挿入部5の先端部11に装着されるステレオ計測用アダプタが複数種類ある場合に、そのアダプタの種類に応じて有効画素領域を切り替える内視鏡装置に関する。
なお、本実施形態の内視鏡装置は、第1の実施形態の内視鏡装置1と略同じ構成を有するので、本実施形態の内視鏡装置において、第1の実施形態の内視鏡装置1と略同じ構成要素については、同じ符号を付して説明は省略し、異なる構成についてのみ説明する。
図13は、本実施形態に係わる、光学アダプタ10、挿入部5の先端部11、及び装置本体2の構成を説明するための図である。光学アダプタ10は、図1に示すように、先端部11に対して着脱可能となっている。光学アダプタ10には、ステレオ計測用アダプタであり、複数種類があり、ユーザは、検査目的に応じた光学アダプタ10を選択して、先端部11に装着して使用する。
すなわち、本実施形態の観察光学系は、挿入部5の先端部11に装着される光学アダプタ10に設けられた光学系を含む。
図13に示すように、光学アダプタ10は、左右2つの観察光学系(第1の光学系及び第2の光学系)により構成されるステレオ光学系10aと、メカシャッタ14と、コイル15と、識別情報(以下、ID情報という)保持部16を備える。
ID情報保持部16は、光学アダプタ10の種類を示すID情報を格納する不揮発性メモリである。
本実施形態の挿入部5の先端部11は、第1の実施形態の先端部11とは、光学アダプタ10が装着可能であり、かつ各光学アダプタ10は、自己のID情報を保持するID情報保持部16を有している点が異なる。
本実施形態の挿入部5の先端部11は、第1の実施形態の先端部11とは、光学アダプタ10が装着可能であり、かつ各光学アダプタ10は、自己のID情報を保持するID情報保持部16を有している点が異なる。
挿入部5内には、ID情報保持部16と制御部31を接続する信号線26も挿通されている。光学アダプタ10が先端部11に装着されると、制御部31は、ID情報保持部16に格納されているID情報を読み出すことができる。
有効画素領域制御部35Aは、メモリ35aと接続され、メモリ35aに格納されている情報を読み出すことができる。メモリ35aは、フラッシュメモリなどの不揮発性メモリである。メモリ35aには、有効画素領域設定テーブルが格納されている。
図14は、有効画素領域設定テーブルTBLの構成を示す図である。
有効画素領域設定テーブルTBLは、光学アダプタ10のID情報に応じた、右眼画像用の有効画素領域情報Aと左眼画像用の有効画素領域情報Bを格納している。有効画素領域情報Aは、右眼画像用のデータ読み出し領域の情報であり、有効画素領域情報Bは、左眼画像用のデータ読み出し領域の情報である。
有効画素領域設定テーブルTBLは、光学アダプタ10のID情報に応じた、右眼画像用の有効画素領域情報Aと左眼画像用の有効画素領域情報Bを格納している。有効画素領域情報Aは、右眼画像用のデータ読み出し領域の情報であり、有効画素領域情報Bは、左眼画像用のデータ読み出し領域の情報である。
各有効画素領域情報A、Bは、撮像面22aの画素領域の縦横(あるいは上下及び水平)方向における矩形領域の始点spと終点epの位置の情報を含む。始点spと終点epは、それぞれ、撮像面22aの画素領域の縦横(あるいは上下及び水平)方向x、yにおける位置情報を含む。言い換えれば、始点spと終点epの位置情報は、撮像面22aの画素領域中にアドレス情報であり、撮像素子22が出力する画素領域を指定する領域指定情報である。
例えば、光学アダプタ10が「001」のID情報を有する場合、右眼画像用の有効画素領域情報Aは「A1」であり、左眼画像用の有効画素領域情報Bは「B1」であり、「A1」及び「B1」は、始点spと終点epの情報を含む。
制御部31は、光学アダプタ10のID情報保持部16に格納されているID情報を読み出し、有効画素領域制御部35Aへ出力する。有効画素領域制御部35Aは、制御部31からのID情報に基づいて、有効画素領域設定テーブルTBLを参照し、ID情報に応じた右眼画像用の有効画素領域情報Aと左眼画像用の有効画素領域情報Bを読み出す。有効画素領域制御部35Aは、読み出した有効画素領域情報Aと有効画素領域情報Bに含まれる始点sp1と終点ep1の情報を、撮像素子22が出力する画素領域を指定する領域指定信号としての領域情報AIを撮像素子22へ出力する。
すなわち、有効画素領域制御部35Aは、光学アダプタ10のID情報に基づいて、右眼画像用の有効画素領域と左眼画像用の有効画素領域を変更する。
よって、本実施形態の内視鏡装置1Aによれば、光学アダプタ10の種類に応じて、右眼画像用の有効画素領域と左眼画像用の有効画素領域とが変更され、光学アダプタ10の光学特性に応じて、光学特性の影響をなくすあるいはその影響の現れ方が減少される。
本実施形態も、第1の実施形態と同様の効果を生じる。
(第3の実施形態)
第1及び第2の実施形態では、光学系の状態が切り替えに応じて撮像素子における有効画素領域が変更されるが、本実施の形態では、画像信号の中から、光学系の状態が切り替えに応じて光学特性の影響をなくすあるいはその影響の現れ方を減少するように、切り出す領域が変更される。
第1及び第2の実施形態では、光学系の状態が切り替えに応じて撮像素子における有効画素領域が変更されるが、本実施の形態では、画像信号の中から、光学系の状態が切り替えに応じて光学特性の影響をなくすあるいはその影響の現れ方を減少するように、切り出す領域が変更される。
なお、本実施形態の内視鏡装置1Bは、第1の実施形態の内視鏡装置1と略同じ構成を有するので、本実施形態の内視鏡装置1Bにおいて、第1の実施形態の内視鏡装置1と略同じ構成要素については、同じ符号を付して説明は省略し、異なる構成についてのみ説明する。
図15は、本実施形態に係わる、挿入部5の先端部11、及び装置本体2の構成を説明するための図である。
図2の有効画素領域制御部35に代えて、本実施形態の装置本体2は、撮像素子駆動部35Bを有している。
図2の有効画素領域制御部35に代えて、本実施形態の装置本体2は、撮像素子駆動部35Bを有している。
また、本実施の形態の撮像素子22は、CMOSイメージセンサでもよいが、CCDイメージセンサでもよい。
撮像素子駆動部35Bは、撮像素子22に対して、撮像面22aの全画素の撮像信号を出力するように、駆動信号を出力する。よって、後述するように、撮像素子22の出力する撮像信号に対応する画素領域は、コイル15の駆動のためのコイル駆動信号DSにかかわらず不変である。
撮像素子駆動部35Bは、撮像素子22に対して、撮像面22aの全画素の撮像信号を出力するように、駆動信号を出力する。よって、後述するように、撮像素子22の出力する撮像信号に対応する画素領域は、コイル15の駆動のためのコイル駆動信号DSにかかわらず不変である。
また、映像信号処理部32は、切り出し領域制御部32aを有する。制御部31は、コイル15の駆動のためのコイル駆動信号DSについてのコイル駆動情報DS1を、切り出し領域制御部32aへ供給する。
図16は、切り出し領域制御部32aのブロック図である。
切り出し領域制御部32aは、第1映像信号処理部51と、第2映像信号処理部52とを含む。
切り出し領域制御部32aは、第1映像信号処理部51と、第2映像信号処理部52とを含む。
第1映像信号処理部51は、撮像素子22の全画素領域の撮像信号を受信する。第1映像信号処理部51は、入力された撮像信号から、第1の映像信号IS1を生成し、第2映像信号処理部52へ出力する。
第1映像信号IS1は、撮像素子22の全画素領域の映像信号である。よって、図16に示すように、第1映像信号IS1の画像G1は、全画素領域の画像である。
第1映像信号IS1は、撮像素子22の全画素領域の映像信号である。よって、図16に示すように、第1映像信号IS1の画像G1は、全画素領域の画像である。
第2映像信号処理部52は、第1映像信号IS1及びコイル駆動情報DS1を受信する。第2映像信号処理部52は、画像G1の中から、コイル駆動情報DS1に応じた領域を切り出し、その切り出し領域EAの映像信号である第1映像信号IS2を生成し、表示部4へ出力する。
切り出し領域EAは、右眼光学系10Rに入射する光が撮像面22a上に投影されるときの有効画素領域NCA1、あるいは、左眼光学系10Lに入射する光が撮像面22a上に投影されるときの有効画素領域NCA2である。切り出し領域EAは、コイル駆動情報DS1に応じて変更される。
第2映像信号IS2は、切り出し領域EAの映像信号である。よって、右眼画像取得時、は、図16に示すように、第2映像信号IS1は、全画素領域から切り出された切り出し領域EAの画像G3の信号である。画像G3に対応する画像G4が、表示部4に表示される。
すなわち、切り出し領域制御部32aは、撮像素子22の出力する撮像信号から生成された画像G1から有効画素領域NCA1又は有効画素領域NCA2を切り出すことによって、右眼画像領域又は左眼画像領域を抽出する領域抽出部を構成する。
本実施形態も、第1の実施形態と同様の効果を生じる。
(第4の実施形態)
第2の実施形態では、光学アダプタの種類と光学系の状態切り替えに応じて撮像素子における有効画素領域が変更されるが、本実施の形態では、画像信号の中から、光学アダプタの種類と光学系の状態切り替えに応じて光学特性の影響をなくすあるいはその影響の現れ方を減少するように、切り出す領域が変更される。
第2の実施形態では、光学アダプタの種類と光学系の状態切り替えに応じて撮像素子における有効画素領域が変更されるが、本実施の形態では、画像信号の中から、光学アダプタの種類と光学系の状態切り替えに応じて光学特性の影響をなくすあるいはその影響の現れ方を減少するように、切り出す領域が変更される。
なお、本実施形態の内視鏡装置1Cは、第2及び第3の実施形態の内視鏡装置1A、IBと略同じ構成を有するので、本実施形態の内視鏡装置1Cにおいて、第2の実施形態の内視鏡装置1A、IBと略同じ構成要素については、同じ符号を付して説明は省略し、異なる構成についてのみ説明する。
図17は、本実施形態に係わる、挿入部5の先端部11、及び装置本体2の構成を説明するための図である。本実施形態の観察光学系は、挿入部5の先端部11に装着される光学アダプタ10に設けられた光学系を含む。
図2の有効画素領域制御部35に代えて、本実施形態の装置本体2は、撮像素子駆動部35Bを有している。
また、本実施の形態の撮像素子22は、CMOSイメージセンサでもよいが、CCDイメージセンサでもよい。
図2の有効画素領域制御部35に代えて、本実施形態の装置本体2は、撮像素子駆動部35Bを有している。
また、本実施の形態の撮像素子22は、CMOSイメージセンサでもよいが、CCDイメージセンサでもよい。
撮像素子駆動部35Bは、撮像素子22に対して、撮像面22aの全画素の撮像信号を出力するように、駆動信号を出力する。よって、後述するように、撮像素子22の出力する撮像信号に対応する画素領域は、コイル15の駆動のためのコイル駆動信号DSにかかわらず不変である。
また、映像信号処理部32は、切り出し領域制御部32a1を有する。制御部31は、先端部11に装着された光学アダプタ10のID情報と、コイル15の駆動のためのコイル駆動信号DSについてのコイル駆動情報DS1とを、切り出し領域制御部32a1へ供給する。
切り出し領域制御部32a1は、第3の実施形態の切り出し領域制御部32aと同様であり、図16に示すように、第1映像信号処理部51と、第2映像信号処理部52Aとを有する。図16において、一点鎖線で示すように、ID情報は、第2映像信号処理部52へ供給される。
切り出し領域制御部32a1は、第3の実施形態の切り出し領域制御部32aと同様であり、図16に示すように、第1映像信号処理部51と、第2映像信号処理部52Aとを有する。図16において、一点鎖線で示すように、ID情報は、第2映像信号処理部52へ供給される。
第1映像信号処理部51は、撮像素子22の全画素領域の撮像信号を受信する。第1映像信号処理部51は、入力された撮像信号から、第1の映像信号IS1を生成し、第2映像信号処理部52へ出力する。
第1映像信号IS1は、撮像素子22の全画素領域の映像信号である。よって、図16に示すように、第1映像信号IS1の画像G1は、全画素領域の画像である。
第1映像信号IS1は、撮像素子22の全画素領域の映像信号である。よって、図16に示すように、第1映像信号IS1の画像G1は、全画素領域の画像である。
第2映像信号処理部52は、第1映像信号IS1、ID情報及びコイル駆動情報DS1を受信する。第2映像信号処理部52は、画像G1の中から、ID情報及びコイル駆動情報DS1に応じた領域を切り出し、その切り出し領域EAの映像信号である第1映像信号IS2を生成し、表示部4へ出力する。
切り出し領域EAは、光学アダプタ10の種類に応じた領域である。さらに、切り出し領域EAは、右眼光学系10Rに入射する光が撮像面22a上に投影されるときの有効画素領域NCA1、あるいは、左眼光学系10Lに入射する光が撮像面22a上に投影されるときの有効画素領域NCA2である。切り出し領域EAは、ID情報及びコイル駆動情報DS1に応じて変更される。
第2映像信号IS2は、切り出し領域EAの映像信号である。よって、図16に示すように、第2映像信号IS1は、有効画素領域CAから切り出された切り出し領域EAの画像G3の信号である。画像G3に対応する画像G4が、表示部4に表示される。
すなわち、切り出し領域制御部32a1は、光学アダプタ10のID情報に基づいて、右眼画像領域と左目画像領域を変更する領域抽出部を構成する。
本実施形態も、第2の実施形態と同様の効果を生じる。
(第5の実施形態)
上述した第1から第4の実施形態では、視差を有する2つの光学系において第1の光学系と第2の光学系が切り替えられたときに、有効画素領域のシフトがされるが、本実施形態は、1つの光学系において光学系の状態が切り替えられたときに、有効画素領域の変更がされる。
上述した第1から第4の実施形態では、視差を有する2つの光学系において第1の光学系と第2の光学系が切り替えられたときに、有効画素領域のシフトがされるが、本実施形態は、1つの光学系において光学系の状態が切り替えられたときに、有効画素領域の変更がされる。
なお、本実施形態の内視鏡装置1Dは、第3の実施形態の内視鏡装置1Bと略同じ構成を有するので、本実施形態の内視鏡装置1Dにおいて、第1の実施形態の内視鏡装置1Bと略同じ構成要素については、同じ符号を付して説明は省略し、異なる構成についてのみ説明する。
図18は、本実施形態に係わる、挿入部5の先端部11、及び装置本体2の構成を説明するための図である。図19及び図20は、先端部の光学系と撮像素子の撮像面における有効画素領域の関係を説明するための図である。
先端部11は、単眼光学系61、すなわち対物光学系の光軸が一つの光学系を有し、その単眼光学系61中に絞りを変更する絞り機構、ここでは、2種類の絞りを択一的に選択する機構を有する絞り機構62が設けられている。
図19及び図20に示すように、単眼光学系61は、対物光学系61aと、結像光学系61bを含む観察光学系である。絞り機構62は、対物光学系61aの中に設けられている。
図21は、絞り機構62の構成を示す図である。
絞り機構62は、第1の絞り71aを有するガラス部材71と、第2の絞り72a及びアーム72bを有する遮蔽部材72とを有する。
絞り機構62は、第1の絞り71aを有するガラス部材71と、第2の絞り72a及びアーム72bを有する遮蔽部材72とを有する。
ガラス部材71は、単眼光学系61の光軸上に配置されている。遮蔽部材72は、先端部11に対して固定された軸部材73の軸回りに回動可能であり、第2の絞り72aが単眼光学系61の光軸上に配置される第一の位置、又は第2の絞り72aが単眼光学系61の光軸上から外れた第2の位置に、配置可能となっている。遮蔽部材72は、電磁石などの駆動アクチュエータ(図示せず)により2つの位置のいずれかに位置するように駆動される。
図19及び図20は、単眼光学系61を通る光の複数の光路を示している。単眼光学系61に入射する光の中で、右端の光束LA1、やや右端の光束LA2、中央の光束LA3、やや左端の光束LA4、及び左端の光束LA5が、それぞれ撮像素子22の撮像面22a上の領域A11,A12,A13,A14及びA15に集光して結像していることを示している。
第1の絞り71aの開口AP1は、第2の絞り72aの開口AP2よりも大きい。すなわち、第1の絞り71aの絞り値は、第2の絞り72aの絞り値よりも大きい。よって、第2の絞り72aが単眼光学系61の光軸上に配置される第一の位置にあるとき、図19に示すように、被写体からの光は開口AP2により絞られ、撮像素子22に入射する。第2の絞り72aが単眼光学系61の光軸から外れた第2の位置にあるとき、図20に示すように、被写体からの光は開口AP1により絞られ、撮像素子22に入射する。
すなわち、単眼光学系61は、観察窓11aからの光が入射されて、撮像素子22へ出射する光学系であって、撮像素子22への光の入射状態(ここでは光束の幅)を、第1の入射状態と、第1の入射状態と異なる第2の入射状態のいずれかに切替可能な観察光学系を構成する。
映像信号処理部32は、切り出し領域制御部32bを有している。
制御部31は、操作部6からの絞り指定信号SLaを受信すると、絞り指示信号ASを絞り機構62へ出力する。ユーザは、操作部6の所定の操作ボタンを操作することにより、単眼光学系61の絞り値を変更することができる。操作ボタンの操作により、遮蔽部材72が駆動され、第2の絞り72aが単眼光学系61の光軸上に配置される第一の位置と、第2の絞り72aが単眼光学系61の光軸から外れた第2の位置のいずれかに配置される。
制御部31は、操作部6からの絞り指定信号SLaを受信すると、絞り指示信号ASを絞り機構62へ出力する。ユーザは、操作部6の所定の操作ボタンを操作することにより、単眼光学系61の絞り値を変更することができる。操作ボタンの操作により、遮蔽部材72が駆動され、第2の絞り72aが単眼光学系61の光軸上に配置される第一の位置と、第2の絞り72aが単眼光学系61の光軸から外れた第2の位置のいずれかに配置される。
絞り機構62は、第1の絞りと、第1の絞りの開口よりは小さな開口の第2の絞りを切替可能な構成を有している。絞り機構62は、例えば電磁石などの電磁力で、第1の絞りと、第1の絞りと第2の絞りが共存するが第2に絞りが有効化している状態の絞りのいずれかを単眼光学系の光路中に配置させることができる。絞り機構62は、制御部31からの絞り指示信号ASに応じて、第1の絞り又は、第1の絞りと第2の絞りが共存するが第2の絞りが有効になっている状態の絞りを単眼光学系の光路中に配置させる。
絞り機構62の絞り値が小さくなる(すなわち開口が大きくなる)と、絞り値が大きい(すなわち開口が小さい)絞りのときの被写体像と比べて、結像したときの被写体像の外縁が、暗くなる。
図19は、絞り値が大きい(すなわち開口が小さい)ときにおける、先端部の光学系と撮像素子の撮像面における有効画素領域の関係を説明するための図である。
図20は、絞り値が小さい(すなわち開口が大きい)ときにおける、先端部の光学系と撮像素子の撮像面における有効画素領域の関係を説明するための図である。
図20は、絞り値が小さい(すなわち開口が大きい)ときにおける、先端部の光学系と撮像素子の撮像面における有効画素領域の関係を説明するための図である。
図20では、被写体からの光は、単眼光学系61の外縁部OE3(二点鎖線で示す)を通るため、斜線で示すように、撮像面22aにおける被写体像の外縁部が、暗くなる。
図18に戻り、本実施の形態の撮像素子22は、CMOSイメージセンサでもよいが、CCDイメージセンサでもよい。
図18に戻り、本実施の形態の撮像素子22は、CMOSイメージセンサでもよいが、CCDイメージセンサでもよい。
撮像素子駆動部35Bは、撮像素子22に対して、撮像面22aの全画素の撮像信号を出力するように、駆動信号を出力する。
また、映像信号処理部32は、切り出し領域制御部32bを有する。制御部31は、絞り指示信号ASについての絞り情報AS1を、切り出し領域制御部32bへ供給する。
また、映像信号処理部32は、切り出し領域制御部32bを有する。制御部31は、絞り指示信号ASについての絞り情報AS1を、切り出し領域制御部32bへ供給する。
第2の絞り72aが単眼光学系61の光軸上に配置される第一の位置にあるとき、切り出し領域制御部32bは、図19に示すように、撮像面22a上の所定の有効画素領域CA1の範囲の画像を切り出す。
また、第2の絞り72aが単眼光学系61の光軸から外れた第二の位置にあるとき、切り出し領域制御部32bは、図20に示すように、撮像面22a上の所定の有効画素領域CA2の範囲の画像を切り出す。有効画素領域CA2は、有効画素領域CA1の形状と相似形状である。
第2の絞り72aが第一の位置にあるときに比べて、第2の絞り72aが第二の位置にあるときは、上述したように被写体からの光が単眼光学系61の外縁部OE3を通るため、撮像面22aにおける被写体像の外縁は暗くなる。よって、切り出し領域制御部32bは、有効画素領域CA1よりも小さな領域を有する有効画素領域CA2の範囲の画像を切り出す。
また、第2の絞り72aが第一の位置にあるときは、第2の絞り72aの開口AP2に応じて、明るさの差がでないあるいは目立たない領域が、有効画素領域CA1として設定される。
以上のように、切り出し領域制御部32bは、光の入射状態が第1の入射状態のときには第1の入射状態の受光領域から有効画素領域CA1を抽出し、光の入射状態が第2の入射状態のときには第2の入射状態の受光領域から有効画素領域CA2を抽出する領域抽出部を構成する。光の入射状態は、単眼光学系61に設けられた絞り機構62の絞りにより変更される。
その結果、単眼光学系61の絞りが変更されて絞り値が変化しても、表示部4に表示される表示画像は、輝度ムラのない全体的に明るい画像となる。
なお、上述した例では、映像信号処理部32の切り出し領域制御部32bにおいて、撮像素子22からの撮像信号から、有効画素領域CA1あるいはCA2を抽出しているが、第1及び第2の実施形態で説明したように、撮像素子22の出力する撮像信号の領域を変更するように撮像装置への駆動信号中に出力する領域情報AIの信号を含めるようにしてもよい。
なお、上述した例では、映像信号処理部32の切り出し領域制御部32bにおいて、撮像素子22からの撮像信号から、有効画素領域CA1あるいはCA2を抽出しているが、第1及び第2の実施形態で説明したように、撮像素子22の出力する撮像信号の領域を変更するように撮像装置への駆動信号中に出力する領域情報AIの信号を含めるようにしてもよい。
その場合、撮像素子2が、有効画素領域CA1又はCA2の撮像信号を出力し、映像信号処理部32では、画像の切り出しが行われない。
さらになお、上述した有効画素領域CA1,CA2の形状は、矩形であるが、円形、楕円系など等の形状でもよい。
以上のように、上述した各実施形態によれば、光学系の状態が切り替えられて生成される2つの内視鏡画像において、光学特性の影響をなくすあるいはその影響の現れ方を減少する内視鏡装置を提供することができる。
なお、上述した第1~第4の実施形態の各内視鏡装置は、2つの光学系として、ステレオ計測あるいはステレオ観察用の2つの光学系を有するが、各内視鏡装置が狭角観察用と広角観察用の2つの光学系を有する場合、近点(あるいは拡大)観察用と遠点観察用の2つの光学系を有する場合、直視用と側視用の2つの光学系を有する場合、あるいは直視用と斜視用の2つの光学系を有する場合、等々にも、上述した第1~第4の実施形態は、適用可能である。
すなわち、上述した第1~第4の実施形態の各内視鏡装置は、画角が互いに異なる2以上の観察(例えば狭角観察と広角観察)の可能な内視鏡装置、近点観察と遠点観察の可能な内視鏡装置、直視と側視の可能な内視鏡装置、又は直視と斜視の可能な内視鏡装置にも適用可能である。
同様に、第5の実施形態の内視鏡装置は、単眼光学系の絞り値を変更するが、単眼光学系が近点観察用と遠点観察用の2つの状態を取り得る内視鏡装置にも、上述した第5の実施形態は、適用可能である。
さらになお、上述した各実施形態では、画像の周辺領域の収差などの影響を排除するように有効画素領域の位置あるいは大きさを変更しているが、画像の一部にハレーション、ゴーストなどの不要光が常に発生しているときには、その一部の領域を除いた領域を、有効画素領域とするようにしてもよい。
本発明は、上述した実施の形態に限定されるものではなく、本発明の要旨を変えない範囲において、種々の変更、改変等が可能である。
本出願は、2016年12月6日に日本国に出願された特願2016-237006号を優先権主張の基礎として出願するものであり、上記の開示内容は、本願明細書、請求の範囲に引用されるものとする。
Claims (11)
- 挿入部と、
前記挿入部の先端部に設けられた観察窓に入射した入射光を受光する撮像素子と、
前記観察窓からの前記光が入射され前記撮像素子へ出射する光学系であって、前記撮像素子への前記光の入射状態を、第1の入射状態と、前記第1の入射状態と異なる第2の入射状態のいずれかに切替可能な観察光学系と、
前記光の前記入射状態が前記第1の入射状態のときには前記第1の入射状態の第1の受光領域から第一の領域を抽出し、前記光の前記入射状態が前記第2の入射状態のときには前記第2の入射状態の第2の受光領域から第二の領域を抽出する領域抽出部と、
を有することを特徴とする内視鏡装置。 - 前記領域抽出部は、前記撮像素子が出力する画素領域を指定する領域指定信号を出力し、前記撮像素子が前記領域指定信号に基づいて前記第一の領域又は前記第二の領域の撮像信号を出力することによって、前記第一の領域又は前記第二の領域を抽出することを特徴とする請求項1に記載の内視鏡装置。
- 前記観察光学系は、前記挿入部の先端部に装着される光学アダプタに設けられた光学系を含むことを特徴とする請求項2に記載の内視鏡装置。
- 前記領域抽出部は、前記光学アダプタの識別情報に基づいて、前記第一の領域と前記第二の領域を変更することを特徴とする請求項3に記載の内視鏡装置。
- 前記領域抽出部は、前記撮像素子の出力する撮像信号から生成された画像から前記第一の領域又は前記第二の領域を切り出すことによって、前記第一の領域又は前記第二の領域を抽出することを特徴とする請求項1に記載の内視鏡装置。
- 前記観察光学系は、前記挿入部の先端部に装着される光学アダプタに設けられた光学系を含むことを特徴とする請求項5に記載の内視鏡装置。
- 前記領域抽出部は、前記光学アダプタの識別情報に基づいて、前記第一の領域と前記第二の領域を変更することを特徴とする請求項6に記載の内視鏡装置。
- 前記観察光学系は、光軸が互いに異なる第1の光学系と第2の光学系とを有し、
前記第1の入射状態は、前記観察窓に入射した前記入射光が前記第1の光学系を通る状態であり、
前記第2の入射状態は、前記観察窓に入射した前記入射光が前記第2の光学系を通る状態であることを特徴とする請求項1から7のいずれか1つに記載の内視鏡装置。 - 前記内視鏡装置は、前記第1の光学系と前記第2の光学系の2つの光学系による、ステレオ計測若しくはステレオ観察内視鏡装置、画角が互いに異なる2以上の観察の可能な内視鏡装置、近点観察と遠点観察の可能な内視鏡装置、直視と側視の可能な内視鏡装置、又は直視と斜視の可能な内視鏡装置であることを特徴とする請求項8に記載の内視鏡装置。
- 前記観察光学系は、単眼光学系であることを特徴とする請求項1に記載の内視鏡装置。
- 前記光の入射状態は、前記単眼光学系に設けられた絞りにより変更されることを特徴とする請求項10に記載の内視鏡装置。
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016237006 | 2016-12-06 | ||
| JP2016-237006 | 2016-12-06 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2018105396A1 true WO2018105396A1 (ja) | 2018-06-14 |
Family
ID=62490961
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2017/041963 Ceased WO2018105396A1 (ja) | 2016-12-06 | 2017-11-22 | 内視鏡装置 |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2018105396A1 (ja) |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004033487A (ja) * | 2002-07-03 | 2004-02-05 | Olympus Corp | 内視鏡装置 |
| JP2011055361A (ja) * | 2009-09-03 | 2011-03-17 | Canon Inc | 画像処理装置及び撮像装置 |
| WO2012081618A1 (ja) * | 2010-12-14 | 2012-06-21 | オリンパスメディカルシステムズ株式会社 | 撮像装置 |
| JP2014228851A (ja) * | 2013-05-27 | 2014-12-08 | オリンパス株式会社 | 内視鏡装置、画像取得方法および画像取得プログラム |
| JP2015188262A (ja) * | 2013-04-18 | 2015-10-29 | オリンパス株式会社 | 撮像素子、撮像装置および内視鏡システム |
| JP2016095458A (ja) * | 2014-11-17 | 2016-05-26 | オリンパス株式会社 | 内視鏡装置 |
-
2017
- 2017-11-22 WO PCT/JP2017/041963 patent/WO2018105396A1/ja not_active Ceased
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004033487A (ja) * | 2002-07-03 | 2004-02-05 | Olympus Corp | 内視鏡装置 |
| JP2011055361A (ja) * | 2009-09-03 | 2011-03-17 | Canon Inc | 画像処理装置及び撮像装置 |
| WO2012081618A1 (ja) * | 2010-12-14 | 2012-06-21 | オリンパスメディカルシステムズ株式会社 | 撮像装置 |
| JP2015188262A (ja) * | 2013-04-18 | 2015-10-29 | オリンパス株式会社 | 撮像素子、撮像装置および内視鏡システム |
| JP2014228851A (ja) * | 2013-05-27 | 2014-12-08 | オリンパス株式会社 | 内視鏡装置、画像取得方法および画像取得プログラム |
| JP2016095458A (ja) * | 2014-11-17 | 2016-05-26 | オリンパス株式会社 | 内視鏡装置 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12114831B2 (en) | Endoscope incorporating multiple image sensors for increased resolution | |
| JP5730339B2 (ja) | 立体内視鏡装置 | |
| US9030543B2 (en) | Endoscope system | |
| JP3257640B2 (ja) | 立体視内視鏡装置 | |
| US5278642A (en) | Color imaging system | |
| US10838189B2 (en) | Operating microscope having an image sensor and a display, and method for operating an operating microscope | |
| JPWO2018051680A1 (ja) | 内視鏡システム | |
| WO2018051679A1 (ja) | 計測支援装置、内視鏡システム、内視鏡システムのプロセッサ、及び計測支援方法 | |
| JP2008043742A (ja) | 電子内視鏡システム | |
| US12059132B2 (en) | Endoscopic camera head incorporating multiple image sensors and related system | |
| JP2001083400A (ja) | 撮像光学系 | |
| US11042021B2 (en) | Image pickup apparatus and endoscope apparatus | |
| JP7012549B2 (ja) | 内視鏡装置、内視鏡装置の制御方法、内視鏡装置の制御プログラム、および記録媒体 | |
| JPWO2015156176A1 (ja) | 内視鏡システム | |
| JPWO2016194179A1 (ja) | 撮像装置、内視鏡装置及び撮像方法 | |
| WO2018105396A1 (ja) | 内視鏡装置 | |
| JP5985117B1 (ja) | 撮像装置、画像処理装置、撮像装置の作動方法 | |
| US20250090000A1 (en) | Endoscope apparatus, processor for endoscope image, and method for generating endoscope image | |
| JP3670717B2 (ja) | 内視鏡システム | |
| JP2009028462A (ja) | 電子内視鏡装置 | |
| TWI667494B (zh) | Microscope device | |
| JP2016142777A (ja) | 撮像装置 | |
| WO2022064659A1 (ja) | オートフォーカスシステム、内視鏡システムおよび制御方法 | |
| JP2007233295A (ja) | 光学ファインダ装置および電子カメラ | |
| JP2005003993A (ja) | 実体顕微鏡 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17879392 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 17879392 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: JP |