[go: up one dir, main page]

WO2016056332A1 - 撮像システム - Google Patents

撮像システム Download PDF

Info

Publication number
WO2016056332A1
WO2016056332A1 PCT/JP2015/075082 JP2015075082W WO2016056332A1 WO 2016056332 A1 WO2016056332 A1 WO 2016056332A1 JP 2015075082 W JP2015075082 W JP 2015075082W WO 2016056332 A1 WO2016056332 A1 WO 2016056332A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
pixel
imaging
subject
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2015/075082
Other languages
English (en)
French (fr)
Inventor
祐一 綿谷
洋彦 松澤
河内 昌宏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2016530036A priority Critical patent/JP6049949B2/ja
Publication of WO2016056332A1 publication Critical patent/WO2016056332A1/ja
Priority to US15/455,213 priority patent/US10191271B2/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2476Non-optical details, e.g. housings, mountings, supports
    • G02B23/2484Arrangements in relation to a camera or imaging device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00186Optical arrangements with imaging filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00188Optical arrangements with focusing or zooming features
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0646Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements with illumination filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0655Control therefor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2461Illumination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/125Colour sequential image capture, e.g. using a colour wheel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/46Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by combining or binning pixels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/78Readout circuits for addressed sensors, e.g. output amplifiers or A/D converters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00071Insertion part of the endoscope body
    • A61B1/0008Insertion part of the endoscope body characterised by distal tip features
    • A61B1/00096Optical elements

Definitions

  • the present invention relates to an imaging system, and more particularly to an imaging system that captures light from a subject to acquire an image.
  • Japanese Unexamined Patent Application Publication No. 2011-50676 discloses a normal mode in which charges accumulated in each pixel of an image sensor are output as a photoelectric conversion signal pixel by pixel, and each pixel of the image sensor. There is disclosed an ophthalmologic photographing apparatus configured to be able to switch between a binning mode in which charges accumulated in adjacent pixels are output as a set of photoelectric conversion signals.
  • Japanese Patent Application Laid-Open No. 2011-50676 discloses a switching operation in which the binning mode is set when observing fluorescence from the fundus and the normal mode is set when photographing the fluorescence.
  • Japanese Unexamined Patent Application Publication No. 2011-50676 does not particularly disclose a configuration for switching between the normal mode and the binning mode depending on whether the subject is observed in a distant view or a close-up view. Therefore, according to the configuration disclosed in Japanese Patent Application Laid-Open No. 2011-50676, the image quality of an image obtained by imaging light from a subject is not suitable for diagnosis in at least one of a distant view and a close view. There is a problem that image quality may be obtained.
  • the present invention has been made in view of the circumstances described above, and it is possible to make the image quality of an image obtained by imaging light from a subject suitable for diagnosis both in a distant view and a close view.
  • An object is to provide an imaging system.
  • the imaging system of one embodiment of the present invention includes a light source device configured to sequentially emit light having a plurality of different wavelength bands as illumination light for illuminating a subject, and the illumination light illuminated by the illumination light
  • An objective optical system configured to image light from a subject, and a plurality of light sources for receiving the light imaged by the objective optical system and photoelectrically converting the received light to generate an electrical signal
  • An image sensor having an image pickup surface formed by arranging pixels two-dimensionally, and a determination configured to perform a determination process for determining whether the subject is observed in a distant view or a close-up view And a mode for sequentially reading out the electrical signal generated by each pixel arranged on the imaging surface one pixel at a time in accordance with the determination result obtained by the determination processing of the unit and the determination unit Is Pixel that is in a pixel readout mode or a mode that sequentially reads out an electrical signal generated by one pixel group composed of a plurality of pixels arranged adjacent to each other on the imaging surface as an electrical
  • the figure which shows the structure of the principal part of the imaging system which concerns on a 1st Example The figure which shows schematic structure of an imaging unit. The figure which shows schematic structure of the imaging surface of the image pick-up element provided in the imaging unit. The figure which shows an example of a structure of a rotation filter. The figure for demonstrating the specific example of the read-out operation performed in a light-receiving part. The figure which shows the structure of the principal part of the imaging system which concerns on a 2nd Example. The figure which shows the example different from FIG. 4 of the structure of a rotation filter. The figure for demonstrating an example of the process performed in an image process part.
  • (First embodiment) 1 to 5 relate to a first embodiment of the present invention.
  • the imaging system 1 is configured to include an endoscope 2, a light source device 3, a processor 4, and a display device 5, as shown in FIG.
  • FIG. 1 is a diagram illustrating a configuration of a main part of the imaging system according to the first embodiment.
  • the endoscope 2 includes an insertion portion 21a having a shape and a dimension that can be inserted into a body cavity of a subject, a distal end portion 21b provided on the distal end side of the insertion portion 21a, And an operation portion 21c provided on the base end side of the portion 21a. Further, a light guide 6 for transmitting the illumination light emitted from the light source device 3 to the distal end portion 21b is inserted into the insertion portion 21a.
  • the incident end face of the light guide 6 is detachably connected to the light source device 3 via an optical connector or the like (not shown). Further, the exit end face of the light guide 6 is disposed in the vicinity of an illumination optical system (not shown) provided at the distal end portion 21 b of the endoscope 2. According to such a configuration, the illumination light emitted from the light source device 3 passes through the light guide 6 connected to the light source device 3 and the illumination optical system (not shown) provided at the distal end portion 21b. Is emitted.
  • the distal end portion 21b of the endoscope 2 images light (return light) from a subject illuminated by illumination light emitted through the light guide 6, and an imaging signal corresponding to the captured light (return light). And an imaging unit 22 configured to output the generated imaging signal to the processor 4 is provided.
  • the imaging unit 22 couples light (return light) from a subject by an objective optical system including a front group lens unit 51, a moving lens unit 52, and a rear group lens unit 53. It is configured to image.
  • the imaging unit 22 includes an actuator 54 that generates a driving force for moving the movable lens unit 52 and an imaging element for imaging light imaged by the objective optical system.
  • an image sensor unit 55 having 92.
  • FIG. 2 is a diagram illustrating a schematic configuration of the imaging unit.
  • the front group lens unit 51 includes a front group lens 61 including a plurality of lenses that receive light (return light) from a subject, a front group lens frame 62 for holding the front group lens 61, and a front group lens. And an objective aperture 63 provided at the rearmost end of the frame 62.
  • the objective aperture 63 is configured to be connected to an imaging control unit 45 (described later) of the processor 4 via a signal line (not shown). Further, the objective diaphragm 63 sets an F value suitable for a pseudo change in the pixel pitch accompanying a change in a reading mode of the image sensor 92 (described later) based on the control of the imaging control unit 45 of the processor 4. So that the aperture amount can be adjusted.
  • the moving lens unit 52 receives the light that has passed through the front lens unit 51 and picks up an image while holding the moving lens 71 and the moving lens 71 formed by providing an optical index 71A on the outer edge of the light incident surface. And a moving lens frame 72 formed so as to be slidable along the optical axis O direction of the objective optical system of the unit 22.
  • the optical index 71A is formed, for example, by vapor-depositing a light-shielding substance at a predetermined position on the outer edge of the light incident surface of the moving lens 71.
  • the optical index 71A is captured by an image sensor 92 (described later) of the image sensor unit 55, for example, when the moving lens 71 is disposed at a predetermined arrangement position TP or a front side from the predetermined arrangement position TP.
  • the moving lens 71 is arranged behind the predetermined arrangement position TP, it is provided at a position where the image is picked up by the image pickup element 92 of the image sensor unit 55.
  • the rear group lens unit 53 includes a rear group lens 81 including a plurality of lenses on which light having passed through the moving lens unit 52 is incident, and a rear group lens frame 82 for holding the rear group lens 81. It is configured.
  • the actuator 54 is configured to be connected to a moving lens control unit 44 (described later) of the processor 4 via a signal line SL.
  • the actuator 54 generates a driving force for sliding the moving lens unit 52 along the optical axis O direction of the objective optical system of the imaging unit 22 according to the control of the moving lens control unit 44 of the processor 4.
  • the generated driving force is configured to be supplied to the moving lens frame 72.
  • the image sensor unit 55 is connected to an image generation unit 41 (described later) and an imaging control unit 45 (described later) of the processor 4 via a signal cable SC incorporating a plurality of signal lines. Further, the image sensor unit 55 is configured to generate an imaging signal by imaging light incident through the rear group lens unit 53 and output the generated imaging signal to the image generation unit 41 of the processor 4. ing. Further, the image sensor unit 55 receives the light that has passed through the cover glass 91 and the cover glass 91 into which the light having passed through the rear lens group unit 53 is incident, and photoelectrically converts the received light to generate an electrical signal.
  • the image sensor 92 includes a cover glass 91 and a holding frame 93 for holding the image sensor 92, and a circuit board 94 electrically connected to the image sensor 92.
  • the imaging element 92 includes, for example, an imaging surface 92A formed by arranging pixels including a CMOS sensor in a two-dimensional shape, and is configured to perform an operation according to the control of the imaging control unit 45. .
  • the imaging surface 92A includes, for example, a light receiving unit 101 and a light shielding unit 102 as shown in FIG.
  • FIG. 3 is a diagram illustrating a schematic configuration of an imaging surface of an imaging element provided in the imaging unit.
  • the light receiving unit 101 has a function as an effective pixel area, receives light that has passed through the cover glass 91, and two-dimensionally arranges a plurality of pixels for photoelectrically converting the received light to generate an electrical signal. It is formed.
  • the light receiving unit 101 has a plurality of pixels arranged adjacent to each other in a single pixel reading mode that is a mode for sequentially reading out electrical signals generated by each pixel one pixel at a time under the control of the imaging control unit 45. It is configured to be able to perform an operation in accordance with a pixel addition reading mode that is a mode for sequentially reading out an electric signal generated by one pixel group constituted by the pixels as an electric signal for one pixel. .
  • the light shielding part 102 is formed so as to cover a part of the pixels disposed on the outer edge part of the imaging surface 92A.
  • the light shielding unit 102 includes an opening 103A formed so as to allow light passing through the cover glass 91 and a light shielding member 103B formed so as to shield light passed through the cover glass 91. ing. That is, according to such a configuration of the light-shielding portion 102, light that has passed through the cover glass 91 is received at the pixel or pixel group disposed at the position of the opening 103A, and an electric signal corresponding to the received light. Is generated.
  • the circuit board 94 includes, for example, a signal processing circuit.
  • the circuit board 94 is configured to generate an imaging signal by performing predetermined processing on the electrical signal output from the imaging element 92 and output the generated imaging signal to the signal cable SC, for example. ing.
  • the operation unit 21c of the endoscope 2 is provided with a scope switch 23 including a plurality of switches capable of giving instructions to the processor 4 according to user operations.
  • the scope switch 23 is, for example, a lens driving switch capable of giving an instruction to move the moving lens unit 52 forward or backward along the optical axis O direction of the objective optical system of the imaging unit 22.
  • a switch such as an observation mode setting switch capable of giving an instruction to set the observation mode of the imaging system 1 to either the white light observation mode or the special light observation mode.
  • the light source device 3 includes a white light source 31, a light source diaphragm 32, a filter driving mechanism 33, a rotary filter 34, a condensing optical system 35, and a light source control unit 36. It is configured.
  • the white light source 31 includes, for example, a xenon lamp or a white LED, and is configured to be turned on or off according to the control of the light source control unit 36. Further, the white light source 31 is configured to emit white light with a light amount corresponding to the magnitude of the drive current supplied from the light source control unit 36. That is, according to the present embodiment, the amount of illumination light emitted from the light source device 3 can be adjusted to the amount of light according to the magnitude of the drive current supplied to the white light source 31. According to the present embodiment, for example, when the white light source 31 is configured to include a white LED, the ratio of the lighting time and the turning-off time of the white LED within a predetermined unit time by the light source control unit 36. The amount of illumination light emitted from the light source device 3 may be adjusted by performing PWM (Pulse Width Modulation) control, which is control for changing.
  • PWM Pulse Width Modulation
  • the light source diaphragm 32 is arranged on the emission light path of the white light source 31 and changes the amount of the diaphragm according to the control of the light source control unit 36 to be incident on the rotary filter 34 through the emission light path.
  • the amount of white light to be adjusted can be adjusted to a light amount corresponding to the aperture amount. That is, according to the present embodiment, the amount of illumination light emitted from the light source device 3 can be adjusted to the amount of light according to the amount of aperture of the light source aperture 32.
  • the light source diaphragm 32 has the same configuration as the electric diaphragm device disclosed in, for example, Japanese Patent Application Laid-Open No. 2006-184459.
  • the filter driving mechanism 33 is configured to generate a driving force according to the control of the light source control unit 36 and to supply the generated driving force to the rotary filter 34.
  • the filter drive mechanism 33 includes, for example, a first motor that generates a driving force for rotating the rotary filter 34 and the rotary filter 34 along a direction perpendicular to the emission light path of the white light source 31.
  • the rotary filter 34 is formed to have a disk shape as shown in FIG. 4 and is configured to rotate around the rotation axis AR in accordance with the driving force generated in the filter drive mechanism 33. ing.
  • the rotary filter 34 includes a first filter group 34 ⁇ / b> A including a plurality of filters provided along the circumferential direction on the inner circumferential side, and the circumferential direction on the outer circumferential side.
  • a second filter group 34B including a plurality of provided filters.
  • FIG. 4 is a diagram illustrating an example of the configuration of the rotation filter.
  • the first filter group 34A includes an R filter 341 that transmits red broadband light (hereinafter also referred to as R light), a G filter 342 that transmits green broadband light (hereinafter also referred to as G light), and a blue filter. And a B filter 343 that transmits broadband light (hereinafter also referred to as B light).
  • the first filter group 34A is formed so that the area ratio of the R filter 341, the G filter 342, and the B filter 343 is 1: 1: 1.
  • the R filter 341 is formed to have optical characteristics that transmit light in a wavelength band from 600 nm to 700 nm, for example.
  • the G filter 342 is formed to have optical characteristics that transmit light in a wavelength band from 500 nm to 600 nm, for example.
  • the B filter 343 is formed to have optical characteristics that transmit light in a wavelength band from 400 nm to 500 nm, for example.
  • the second filter group 34B includes a Bn filter 344 that transmits blue narrow band light (hereinafter referred to as Bn light), and a Gn filter 345 that transmits only green narrow band light (hereinafter referred to as Gn light). , And is configured.
  • Bn light blue narrow band light
  • Gn light green narrow band light
  • the Bn filter 344 is formed to have optical characteristics that transmit light in a wavelength band from 400 nm to 430 nm, for example.
  • the Gn filter 345 is formed to have optical characteristics that transmit light in a wavelength band from 530 nm to 550 nm, for example.
  • the condensing optical system 35 includes, for example, an optical member such as a lens, and is configured to condense the light that has passed through the rotary filter 34 and output it to the incident end face of the light guide 6.
  • the light source control unit 36 is configured to change the aperture amount of the light source aperture 32 in accordance with the control of the dimming control unit 46 of the processor 4. Further, the light source control unit 36 is configured to change the rotation speed of the rotary filter 34 by controlling the filter driving mechanism 33 in accordance with the control of the dimming control unit 46 of the processor 4. Further, the light source control unit 36 can supply a drive current for driving the white light source 31, and the magnitude (current value) of the drive current according to the control of the dimming control unit 46 of the processor 4. It is configured so that it can be changed.
  • the observation mode of the imaging system 1 is set to the white light observation mode by controlling the filter driving mechanism 33 according to the control of the observation mode setting unit 47 (described later) of the processor 4.
  • the first filter group 34A is arranged on the emission light path of the white light source 31, and the second filter group 34B can be retracted from the emission light path.
  • the light source control unit 36 controls the filter driving mechanism 33 according to the control of the observation mode setting unit 47 of the processor 4, for example, when the observation mode of the imaging system 1 is set to the special light observation mode.
  • the second filter group 34B is arranged on the emission light path of the white light source 31, and the first filter group 34A can be retracted from the emission light path.
  • the white light emitted from the white light source 31 passes through the first filter group 34A.
  • R light, G light, and B light are generated, and the generated R light, G light, and B light are sequentially emitted from the light source device 3 as illumination light.
  • white light emitted from the white light source 31 passes through the second filter group 34B.
  • Bn light and Gn light are generated, and the generated Bn light and Gn light are sequentially emitted from the light source device 3 as illumination light.
  • the processor 4 includes an image generation unit 41, an image processing unit 42, a brightness detection unit 43, a moving lens control unit 44, an imaging control unit 45, a dimming control unit 46, An observation mode setting unit 47 and a determination unit 48 are included.
  • the image generation unit 41 includes, for example, a noise removal circuit and an A / D conversion circuit. Further, the image generation unit 41 generates an image by performing predetermined signal processing on the imaging signal output from the endoscope 2, and generates the generated image as an image processing unit 42, a brightness detection unit 43, and the like. It is configured to output to the determination unit 48.
  • the image processing unit 42 includes, for example, an image processing circuit and a synchronization circuit.
  • the image processing unit 42 performs, for example, predetermined image processing such as masking and synchronization on the image output from the image generation unit 41 to set an outer edge portion of the image as an invisible region. Is generated, and the generated observation image is output to the display device 5. That is, according to such image processing, for example, even when an image including the optical index 71A is output from the image generation unit 41, an observation image not including the optical index 71A is displayed on the display device 5. Can be made. Further, according to the image processing as described above, for example, an observation image that does not include the opening 103A of the light shielding unit 102 can be displayed on the display device.
  • the image processing unit 42 is an image output from the image generation unit 41 according to the control of the observation mode setting unit 47.
  • the image RI obtained by imaging the return light of R light, the image GI obtained by imaging the return light of G light, and the image BI obtained by imaging the return light of B light The RGB color image is generated as an observation image.
  • the image processing unit 42 is an image output from the image generation unit 41 when the observation mode of the imaging system 1 is set to the special light observation mode, for example, according to the control of the observation mode setting unit 47.
  • a pseudo color image corresponding to an image BnI obtained by imaging the return light of Bn light and an image GnI obtained by imaging the return light of Gn light is generated as an observation image. ing.
  • the brightness detection unit 43 is configured to detect the brightness of the image output from the image generation unit 41 and output brightness information that is information indicating the detected brightness to the dimming control unit 46. Yes.
  • the brightness detection unit 43 calculates, for example, an average value of luminance values in the image output from the image generation unit 41, and uses the calculated average value of the luminance values as brightness information. It is configured to output to 46.
  • the moving lens control unit 44 is configured to perform control for moving the moving lens unit 52 in accordance with an instruction given by the lens driving switch of the scope switch 23. Further, the moving lens control unit 44 specifies, for example, the current position of the moving lens 71 in the imaging unit 22 based on the moving state of the moving lens unit 52, and lens position information indicating the current position of the specified moving lens 71. It is configured to output to the determination unit 48.
  • the imaging control unit 45 sets the readout mode in the light receiving unit 101 of the imaging element 92 to either the single pixel readout mode or the pixel addition readout mode according to the determination result obtained by the determination process (described later) of the determination unit 48. Is configured to perform control.
  • the imaging control unit 45 is configured to perform control for changing the exposure time in the light receiving unit 101 of the imaging element 92 according to a determination result obtained by a determination process (described later) of the determination unit 48.
  • the imaging control unit 45 changes the aperture amount of the objective aperture 63 as control for changing the F value of the front group lens unit 51 according to the determination result obtained by the determination process (described later) of the determination unit 48. Is configured to do.
  • the dimming control unit 46 rotates in accordance with the control of the observation mode setting unit 47 so that the brightness indicated by the brightness information output from the brightness detection unit 43 becomes the brightness suitable for the current observation mode. While keeping the rotation speed of the filter 34 constant, control is performed to change the aperture amount of the light source aperture 32 and the magnitude of the drive current supplied to the white light source 31, and the current aperture amount in the light source aperture 32 And the drive current information indicating the magnitude of the drive current currently supplied to the white light source 31 are output to the determination unit 48.
  • the dimming control unit 46 responds to the control of the observation mode setting unit 47, for example, when the observation mode of the imaging system 1 is set to the white light observation mode, from the brightness detection unit 43.
  • the aperture amount of the light source diaphragm 32 and the magnitude of the drive current supplied to the white light source 31 are changed so that the brightness indicated by the output brightness information becomes the brightness target value WT in the white light observation mode. Control to make it happen. That is, according to such control of the light control unit 46, for example, in white light observation mode, the brightness indicated by the brightness information output from the brightness detection unit 43 is less than the brightness target value WT.
  • the image generation unit 41 outputs the light source stop 32 as the diaphragm amount is reduced and / or as the magnitude of the drive current supplied to the white light source 31 is increased.
  • the brightness of the image increases.
  • the brightness indicated by the brightness information output from the brightness detection unit 43 is equal to or higher than the brightness target value WT.
  • the aperture amount of the light source diaphragm 32 is increased and / or the magnitude of the drive current supplied to the white light source 31 is decreased, the light is output from the image generation unit 41. The brightness of the image is reduced.
  • the dimming control unit 46 outputs from the brightness detection unit 43 according to the control of the observation mode setting unit 47, for example.
  • the aperture amount of the light source diaphragm 32 and the magnitude of the drive current supplied to the white light source 31 are changed so that the brightness indicated by the brightness information to be achieved becomes the brightness target value ST in the special light observation mode.
  • Control for That is, according to the control of the light control unit 46, for example, in the special light observation mode, the brightness indicated by the brightness information output from the brightness detection unit 43 is less than the brightness target value ST.
  • the image generation unit 41 outputs the light source stop 32 as the diaphragm amount is reduced and / or as the magnitude of the drive current supplied to the white light source 31 is increased.
  • the brightness of the image increases.
  • the brightness indicated by the brightness information output from the brightness detection unit 43 is equal to or higher than the brightness target value ST.
  • the aperture amount of the light source diaphragm 32 is increased and / or the magnitude of the drive current supplied to the white light source 31 is decreased, the light is output from the image generation unit 41. The brightness of the image is reduced.
  • the dimming control unit 46 is not limited to the one that performs the above-described control.
  • brightness information output from the brightness detection unit 43 according to the control of the observation mode setting unit 47. Is controlled so as to change the rotational speed of the rotary filter 34 while keeping the aperture amount of the light source aperture 32 constant so that the brightness indicated by is the brightness suitable for the current observation mode.
  • Rotational speed information indicating the current rotational speed at may be output to the determination unit 48.
  • the dimming control unit 46 responds to the control of the observation mode setting unit 47, for example, when the observation mode of the imaging system 1 is set to the white light observation mode, from the brightness detection unit 43.
  • Control for changing the rotation speed of the rotary filter 34 is performed so that the brightness indicated by the output brightness information becomes the brightness target value WT in the white light observation mode. That is, according to such control of the light control unit 46, for example, in white light observation mode, the brightness indicated by the brightness information output from the brightness detection unit 43 is less than the brightness target value WT. In that case, the rotational speed of the rotary filter 34 is reduced.
  • the brightness indicated by the brightness information output from the brightness detection unit 43 is equal to or higher than the brightness target value WT. In some cases, the rotational speed of the rotary filter 34 is increased.
  • the dimming control unit 46 outputs from the brightness detection unit 43 according to the control of the observation mode setting unit 47, for example.
  • Control for changing the rotation speed of the rotary filter 34 is performed so that the brightness indicated by the brightness information to be obtained becomes the brightness target value ST in the special light observation mode. That is, according to the control of the light control unit 46, for example, in the special light observation mode, the brightness indicated by the brightness information output from the brightness detection unit 43 is less than the brightness target value ST. In that case, the rotational speed of the rotary filter 34 is reduced.
  • the brightness indicated by the brightness information output from the brightness detection unit 43 is equal to or higher than the brightness target value ST. In some cases, the rotational speed of the rotary filter 34 is increased.
  • the dimming control unit 46 according to the present embodiment has a brightness indicated by the brightness information output from the brightness detection unit 43 that is suitable for the current observation mode.
  • the control for adjusting the light amount of the illumination light emitted from the light source device 3 is performed, and at least the aperture amount information and the drive current information indicate the current control state in the adjustment of the light amount of the illumination light. It is configured to output to the determination unit 48 as control information.
  • the observation mode setting unit 47 detects the current observation mode set by the lens observation mode setting switch of the scope switch 23, and performs an operation corresponding to the detected current observation mode by the light source control unit 36 and the image processing unit 42.
  • the dimming control unit 46 is configured to perform control.
  • the observation mode setting unit 47 detects the current observation mode set by the lens observation mode setting switch of the scope switch 23 and outputs observation mode information indicating the detected current observation mode to the determination unit 48. It is configured as follows.
  • the determination unit 48 outputs an image output from the image generation unit 41, lens position information output from the moving lens control unit 44, aperture amount information output from the dimming control unit 46, and output from the dimming control unit 46. Based on the driving current information, the rotation speed information output from the dimming control unit 46, or the observation mode information output from the observation mode setting unit 47, it is determined whether the subject is observed in a distant view or a near view. It is comprised so that the determination process for determining may be performed.
  • the determination unit 48 is configured to output the determination result obtained by the determination process described above to the imaging control unit 45.
  • the display device 5 includes, for example, a monitor and is configured to display an observation image output from the processor 4.
  • a user such as an operator turns on the power of each part of the imaging system 1 and then inserts the insertion part 21a into the body cavity of the subject while confirming the image displayed on the display device 5, thereby
  • the distal end portion 21b is arranged at a position where a desired subject can be imaged in the body cavity of the subject, and observation of the desired subject is performed in a state where the desired observation mode is set. Then, in accordance with such user operation, illumination light corresponding to a desired observation mode is sequentially emitted from the distal end portion 21b to a desired subject, and return light from the desired subject illuminated by the illumination light is imaged.
  • an imaging signal is generated, the generated imaging signal is output from the imaging unit 22 to the image generation unit 41, and an image generated by performing predetermined signal processing on the imaging signal is an image generation unit.
  • 41 is output to the image processing unit 42, the brightness detection unit 43, and the determination unit 48.
  • the determination unit 48 outputs an image output from the image generation unit 41, lens position information output from the moving lens control unit 44, aperture amount information output from the dimming control unit 46, and output from the dimming control unit 46. Based on the driving current information, the rotation speed information output from the dimming control unit 46, or the observation mode information output from the observation mode setting unit 47, it is determined whether the subject is observed in a distant view or a near view. A determination process for determining is performed.
  • the determination part 48 of a present Example shall perform one process previously determined from each process enumerated below as the above-mentioned determination process.
  • the determination unit 48 determines whether or not the luminance value of the pixel or the pixel group capturing the light that has passed through the opening 103A of the light shielding unit 102 among the pixels included in the image output from the image generation unit 41 is greater than or equal to the threshold value TH1. To detect. Then, when the determination unit 48 detects that the luminance value of the pixel or the pixel group that images the light that has passed through the opening 103A of the light shielding unit 102 is less than the threshold value TH1, the subject is observed in a distant view. The determination result is obtained.
  • the determination unit 48 detects that the luminance value of the pixel or the pixel group capturing the light that has passed through the opening 103A of the light shielding unit 102 is equal to or higher than the threshold value TH1, the subject is observed in the foreground. The determination result is obtained.
  • the determination unit 48 detects whether or not the optical index 71A is included in the image output from the image generation unit 41. When the determination unit 48 detects that the optical index 71A is included in the image output from the image generation unit 41, the determination unit 48 obtains a determination result that the subject is observed in a distant view. Further, when the determination unit 48 detects that the optical index 71A is not included in the image output from the image generation unit 41, the determination unit 48 obtains a determination result that the subject is observed in the foreground.
  • the determination unit 48 detects whether or not the current arrangement position of the moving lens 71 in the imaging unit 22 is behind the predetermined position TQ based on the lens position information output from the moving lens control unit 44. When the determination unit 48 detects that the current arrangement position of the moving lens 71 in the imaging unit 22 is behind the predetermined position TQ, the determination unit 48 determines the determination result that the subject is being observed in a distant view. obtain. When the determination unit 48 detects that the current arrangement position of the moving lens 71 in the imaging unit 22 is the predetermined position TQ or in front of the predetermined position TQ, the subject is observed in the near view. Get the result of the determination.
  • a determination process different from the above-described determination process may be performed according to the optical characteristics of each lens unit of the imaging unit 22. Specifically, for example, when the determination unit 48 of the present embodiment detects that the current arrangement position of the moving lens 71 is behind the predetermined position TQ, the subject is observed in the foreground. A determination result is obtained, and a determination result that the subject is observed in a distant view when it is detected that the current arrangement position of the moving lens 71 is the predetermined position TQ or the front side of the predetermined position TQ is obtained. It may be obtained.
  • the determination unit 48 detects whether or not the current aperture amount in the light source aperture 32 is greater than or equal to the threshold value TH2 based on the aperture amount information output from the dimming control unit 46. Then, when the determination unit 48 detects that the current stop amount of the light source stop 32 is equal to or greater than the threshold value TH2, the determination unit 48 obtains a determination result that the subject is observed in a distant view. Further, when the determination unit 48 detects that the current stop amount of the light source stop 32 is less than the threshold value TH2, the determination unit 48 obtains a determination result that the subject is observed in the foreground.
  • the determination unit 48 detects whether or not the magnitude of the drive current currently supplied to the white light source is greater than or equal to the threshold value TH3 based on the drive current information output from the dimming control unit 46. Then, when the determination unit 48 detects that the magnitude of the drive current currently supplied to the white light source is greater than or equal to the threshold value TH3, the determination unit 48 obtains a determination result that the subject is being observed in a distant view. . Further, when the determination unit 48 detects that the magnitude of the drive current currently supplied to the white light source is less than the threshold value TH3, the determination unit 48 obtains a determination result that the subject is observed in the foreground. .
  • the determination unit 48 detects whether or not the current rotation speed in the rotation filter 34 is less than the threshold value TH4 based on the rotation speed information output from the dimming control unit 46. Then, when the determination unit 48 detects that the current rotation speed in the rotation filter 34 is less than the threshold value TH4, the determination unit 48 obtains a determination result that the subject is observed in a distant view. Further, when the determination unit 48 detects that the current rotation speed in the rotation filter 34 is equal to or higher than the threshold value TH4, the determination unit 48 obtains a determination result that the subject is observed in the foreground.
  • the determination unit 48 detects whether the current observation mode is the white light observation mode or the special light observation mode based on the observation mode information output from the observation mode setting unit 47. Then, when the determination unit 48 detects that the current observation mode is the special light observation mode, the determination unit 48 obtains a determination result that the subject is observed in the foreground. That is, when the determination unit 48 detects that narrowband light is emitted from the light source device 3 as illumination light for illuminating the subject based on the observation mode information output from the observation mode setting unit 47, A determination result that the subject is observed in the foreground is obtained.
  • the determination unit 48 of the present embodiment detects that the current observation mode is the white light observation mode, the image output from the image generation unit 41 and the lens output from the moving lens control unit 44 are detected. Determination processing based on any of position information, aperture amount information output from the dimming control unit 46, drive current information output from the dimming control unit 46, or rotational speed information output from the dimming control unit 46 By performing the above, it is determined whether the subject is observed in a distant view or a close view.
  • the imaging control unit 45 performs objective control as control for increasing the F value of the front group lens unit 51 when the subject is observed in a distant view. Control is performed to increase the aperture amount of the aperture 63 to a predetermined aperture amount SA (throttle the objective aperture 63). In addition, the imaging control unit 45 performs control for reducing the F value of the front lens unit 51 when the subject is observed in the foreground according to the determination result obtained by the determination process of the determination unit 48. Then, control is performed to reduce the aperture amount of the objective aperture 63 to a predetermined aperture amount SB (open the objective aperture 63).
  • the imaging control unit 45 sets the exposure time in the light receiving unit 101 of the image sensor 92 to a predetermined exposure time EA when the subject is observed in a distant view. Control to increase. In addition, the imaging control unit 45 sets the exposure time in the light receiving unit 101 of the imaging element 92 to a predetermined exposure time when the subject is observed in the foreground according to the determination result obtained by the determination process of the determination unit 48. Control to decrease to EB is performed.
  • the imaging control unit 45 sets the readout mode in the light receiving unit 101 of the imaging element 92 to the single pixel readout mode when the subject is observed in the foreground according to the determination result obtained by the determination process of the determination unit 48. To control. Further, the imaging control unit 45 sets the readout mode in the light receiving unit 101 of the imaging element 92 to the pixel addition readout mode when the subject is observed in a distant view according to the determination result obtained by the determination process of the determination unit 48. Control to set to.
  • FIG. 5 is a diagram for explaining a specific example of the reading operation performed in the light receiving unit.
  • the light receiving unit 101 performs an operation for sequentially reading out electrical signals generated in each pixel one pixel at a time as a reading operation in the single pixel reading mode under the control of the imaging control unit 45.
  • the light receiving unit 101 performs, for example, 1 electrical signal generated in each of the pixels P11 to P14 on the horizontal line starting from the pixel P11 arranged at the upper left as the reading operation in the single pixel reading mode.
  • an operation is performed in which the electrical signals generated in the pixels P21 to P24 on the horizontal line starting from the pixel P21 arranged immediately below the pixel P11 are sequentially read one pixel at a time.
  • reading of the electrical signal for one frame is completed at the timing of reading the electrical signal generated in the pixel P44.
  • the light receiving unit 101 is generated as one pixel group including a plurality of pixels arranged adjacent to each other as a reading operation in the pixel addition reading mode in accordance with the control of the imaging control unit 45, for example.
  • An operation for sequentially reading out the electrical signals as electrical signals for one pixel is performed.
  • the electrical signal is read in a state in which some pixels of the mutually adjacent pixel groups overlap.
  • the light receiving unit 101 adds 1 electric signals generated by a pixel group including four pixels P11, P12, P21, and P22 as a reading operation in the pixel addition reading mode.
  • Read out as an electrical signal for pixels add the electrical signals generated by the pixel group composed of the four pixels P12, P13, P22, and P23 and read out as an electrical signal for one pixel.
  • a pixel group composed of four pixels P21, P22, P31 and P32 by adding the electrical signals generated by the pixel group composed of the four pixels P23 and P24 and reading out as an electrical signal for one pixel. The operation is performed such that the electrical signals generated in the above are added and read out as an electrical signal for one pixel.
  • an electrical signal generated by a pixel group composed of four pixels P33, P34, P43, and P44 is added to obtain an electrical signal for one pixel.
  • the reading of the electrical signal for one frame is completed.
  • the number of electrical signal readouts can be reduced as compared with the readout operation in the single pixel readout mode. It can be completed faster than the pixel readout mode.
  • a reading operation in the pixel addition reading mode is performed, for example, a lesion present in the body cavity of the subject.
  • an observation image with a high S / N that has a brightness suitable for specifying a subject can be displayed on the display device 5.
  • the readout operation in the single pixel readout mode is performed, for example, the detailed state of the subject such as a lesion. It is possible to display an observation image with a high resolution on the display device 5 that has a resolution suitable for confirmation of the above.
  • the image quality of the image obtained by imaging light from the subject can be set to an image quality suitable for diagnosis in both the distant view and the close view.
  • the imaging system 1 is not limited to the configuration for performing the reading operation corresponding to the single pixel reading mode and the pixel addition reading mode in the light receiving unit 101, and for example, the single pixel reading mode and the pixel addition mode.
  • the circuit board 94 may have a configuration for performing signal processing corresponding to the readout mode, or a configuration for performing image processing corresponding to the single pixel readout mode and the pixel addition readout mode in the image processing unit 42. You may have.
  • the reading operation by the light receiving unit 101 and the signal processing by the circuit board 94 may be linked.
  • the pixel addition reading mode for example, an electrical signal generated by a pixel group composed of two pixels adjacent in the vertical direction (as shown by the pixels P11 and P21 in FIG. 5) is output.
  • a readout operation for sequentially reading out electrical signals for one pixel is performed by the light receiving unit 101, and among the electrical signals sequentially read from the light receiving unit 101, electrical signals for two pixels adjacent in the horizontal direction are added.
  • the signal processing for one pixel may be performed by the circuit board 94.
  • the electrical signal in the pixel addition readout mode, is not read out in a state where some of the pixels in the adjacent pixel groups overlap each other, for example, adjacent to each other.
  • the electrical signal may be read out in a state where the pixel groups do not overlap each other.
  • the imaging system 1 ⁇ / b> A includes an endoscope 2, a light source device 3, a processor 4 ⁇ / b> A, and a display device 5.
  • FIG. 6 is a diagram illustrating a configuration of a main part of the imaging system according to the second embodiment.
  • the processor 4A includes an image generation unit 41, an image processing unit 42, a brightness detection unit 43, a moving lens control unit 44, an imaging control unit 45A, a dimming control unit 46, An observation mode setting unit 47A and a determination unit 48A are included.
  • the imaging control unit 45A is configured to detect whether the current observation mode is the white light observation mode or the special light observation mode based on the observation mode information output from the observation mode setting unit 47A.
  • the imaging control unit 45A When the imaging control unit 45A detects that the current observation mode is the special light observation mode, the imaging control unit 45A is similar to the imaging control unit 45 of the first embodiment according to the determination result obtained by the determination process of the determination unit 48. It is comprised so that operation
  • the imaging control unit 45A detects that the current observation mode is the white light observation mode, and the determination unit 48 obtains a determination result that the subject is observed in a distant view, for example, Based on the motor rotation amount or the motor rotation angle in the filter drive mechanism 33, the rotation state of the rotation filter 34 is detected, and further, the light is emitted through the first filter group 34A based on the detected rotation state of the rotation filter 34. It is configured to detect whether the light is R light, G light or B light. In other words, the imaging control unit 45A is configured to detect whether the light emitted from the light source device 3 as the illumination light for illuminating the subject is R light, G light, or B light.
  • the readout mode in the light receiving unit 101 is the same as that in the first embodiment. It is configured to perform control for setting to a single pixel readout mode in which a readout operation is performed. In addition, when the imaging control unit 45A detects that the light emitted through the first filter group 34A is R light, the pixel addition readout that performs a readout operation described later is set as the readout mode in the light receiving unit 101. It is configured to perform control for setting the mode.
  • the imaging control unit 45A of the present embodiment is not limited to the one configured as described above.
  • the readout mode in the light receiving unit 101 is set in synchronization with the emission of G light or B light from the light source device 3.
  • the control for setting to the pixel readout mode is performed, and the control for setting the readout mode in the light receiving unit 101 to the pixel addition readout mode is performed in synchronization with the emission of the R light from the light source device 3. Also good.
  • the observation mode setting unit 47A detects the current observation mode set by the lens observation mode setting switch of the scope switch 23, and performs an operation corresponding to the detected current observation mode by the light source control unit 36 and the image processing unit 42.
  • the dimming control unit 46 is configured to perform control.
  • the observation mode setting unit 47A detects the current observation mode set by the lens observation mode setting switch of the scope switch 23, and outputs observation mode information indicating the detected current observation mode to the imaging control unit 45A. Is configured to do.
  • the determination unit 48A is configured to output an image output from the image generation unit 41, lens position information output from the moving lens control unit 44, aperture amount information output from the dimming control unit 46, or output from the dimming control unit 46.
  • the same processing as that described in the first embodiment is performed as a determination process for determining whether the subject is observed in a distant view or a close view based on any of the rotation speed information Has been.
  • the determination unit 48A is configured to output the determination result obtained by the determination process described above to the imaging control unit 45A.
  • the user such as the operator turns on the power of each part of the imaging system 1A, and then inserts the insertion part 21a into the body cavity of the subject while confirming the image displayed on the display device 5, thereby
  • the distal end portion 21b is disposed at a position where a desired subject can be imaged in the body cavity of the subject, and the desired subject is observed in the state set to the white light observation mode.
  • R light, G light, and B light are sequentially irradiated from the distal end portion 21b to the desired subject as illumination light, and return light from the desired subject illuminated by the illumination light.
  • An imaging signal is generated by imaging the image, the generated imaging signal is output from the imaging unit 22 to the image generation unit 41, and an image generated by performing predetermined signal processing on the imaging signal is an image.
  • the data is output from the generation unit 41 to the image processing unit 42, the brightness detection unit 43, and the determination unit 48A.
  • the determination unit 48A is configured to output an image output from the image generation unit 41, lens position information output from the moving lens control unit 44, aperture amount information output from the dimming control unit 46, or output from the dimming control unit 46. Based on one of the rotation speed information, a determination process for determining whether the subject is observed in a distant view or a close view is performed.
  • the imaging control unit 45A sets the readout mode in the light receiving unit 101 of the imaging element 92 to the single pixel readout mode when the subject is observed in the foreground. Control for.
  • the imaging control unit 45A determines the rotation filter 34 based on the motor rotation amount or the motor rotation angle in the filter driving mechanism 33. And detecting whether the light emitted through the first filter group 34A is R light, G light, or B light based on the detected rotational state of the rotary filter 34. To do.
  • the readout mode in the light receiving unit 101 is the same as that in the first embodiment. Control for setting to a single pixel readout mode in which a readout operation is performed is performed. In addition, when the imaging control unit 45A detects that the light emitted through the first filter group 34A is R light, the readout mode in the light receiving unit 101 is set to a pixel that performs the following readout operation. Control for setting to the addition reading mode is performed.
  • the readout operation in the pixel addition readout mode set according to the control of the imaging control unit 45A will be described below.
  • the light receiving unit 101 includes 16 pixels P11 to P44 arranged as shown in FIG. 5, that is, the light receiving unit 101 includes 4 ⁇ 4 pixels.
  • the readout operation described below may be modified as appropriate so that the readout operation suitable for the number of pixels of the light receiving unit 101 may be performed.
  • the light receiving unit 101 performs, for example, an electric power generated by one pixel group including a plurality of pixels arranged adjacent to each other as a reading operation in the pixel addition reading mode in accordance with the control of the imaging control unit 45A.
  • An operation for sequentially reading out signals as electrical signals for one pixel is performed.
  • the electrical signal is read out in a state where the adjacent pixel groups do not overlap each other.
  • the light receiving unit 101 adds 1 electric signals generated by a pixel group including four pixels P11, P12, P21, and P22 as a reading operation in the pixel addition reading mode.
  • Read out as an electrical signal for the pixel add the electrical signals generated by the pixel group composed of the four pixels P13, P14, P23, and P24 to read out as an electrical signal for one pixel, and read out the pixels P31, P32, A pixel group composed of four pixels P33, P34, P43, and P44 by adding the electrical signals generated by the pixel group composed of four pixels P41 and P42 and reading out the electrical signal for one pixel.
  • the operation is performed such that the electrical signals generated in the above are added and read out as an electrical signal for one pixel.
  • a BI is generated, and an image RI having brightness that allows the structure of the microvessel to be visually recognized is generated. Therefore, according to the control described above, for example, an image having brightness suitable for observation of the microvessel while suppressing deterioration of information on the microvessel existing on the surface of the living mucous membrane is displayed on the display device 5. Can be displayed.
  • the reading mode in the light receiving unit 101 is the same as that of the first embodiment.
  • Control for setting the readout mode in 101 to the pixel addition readout mode in which the readout operation as described above is performed may be performed. According to such control, for example, an image having brightness suitable for observation of the microvessel is displayed on the display device 5 while suppressing deterioration of information on the microvessel existing on the surface of the living mucous membrane. be able to.
  • the reading mode in the light receiving unit 101 is changed to that of the first embodiment.
  • Control for setting the readout mode in 101 to the pixel addition readout mode in which the readout operation as described above is performed may be performed.
  • an image having brightness suitable for observation of the microvessel while suppressing deterioration of information on the microvessel having a characteristic structure existing on the surface of the living mucous membrane. Can be displayed on the display device 5.
  • the current observation mode is the white light observation mode and the subject is observed in a distant view
  • the light is emitted through the first filter group 34A.
  • the operation for switching the reading mode in the light receiving unit 101 is performed in accordance with the light that is present. Therefore, according to the present embodiment, when the current observation mode is the white light observation mode and the subject is observed in a distant view, for example, the subject such as a lesion existing in the body cavity of the subject
  • An observation image having a high S / N and high resolution that has brightness and resolution suitable for specific purposes can be displayed on the display device 5.
  • the electrical signal in the pixel addition readout mode, is not read out in a state where the pixel groups adjacent to each other do not overlap with each other.
  • the readout of the electrical signal may be performed in a state where the pixels of the part overlap.
  • FIG. 7 is a diagram illustrating an example of the configuration of the rotary filter that is different from FIG.
  • the area ratio of the R filter 341 that transmits R light, the G filter 342 that transmits G light, and the B filter 343 that transmits B light is 1: FG: FB. Is formed.
  • FG and FB described above are both predetermined values of 2 or more. That is, according to such a configuration of the first filter group 34C, the G light and the B light can be emitted in an emission time that is twice or more that of the R light.
  • the current observation mode is the white light observation mode, and the subject is observed in a distant view
  • the image RI An RGB color image is generated by combining GI and BI.
  • the image processing unit 42 enlarges the size of the image RI four times, and further generates an RGB color image by performing processing such as combining the enlarged image RI, the image GI, and the image BI. To do.
  • FIG. 8 is a diagram for explaining an example of processing performed in the image processing unit.
  • the luminance values of the four pixels PX1 to PX4 adjacent to each other have the same luminance value. Become RB.
  • the pixel value of the pixel PX1 is RB, GB1, and BB1
  • the pixel value of the pixel PX2 is RB, GB2, and BB2
  • the pixel value of the pixel PX3 is RB, GB3, and BB3
  • the pixel value of the pixel PX4 is RB, GB4, and BB4.
  • the current observation mode is the white light observation mode and the subject is observed in a distant view.
  • the S / N of the observation image displayed on the display device 5 can be further improved.
  • the first filter group 34A is configured by adding an IR filter having an optical characteristic that transmits IR light, which is near-infrared light, and thereby the R light and , G light, B light, and IR light may be sequentially emitted from the light source device 3.
  • the object is observed in a distant view and the light emitted through the first filter group 34A is emitted.
  • control for setting the readout mode in the light receiving unit 101 to the single pixel readout mode is performed, the subject is observed in a distant view, and the first filter
  • control for setting the reading mode in the light receiving unit 101 to the pixel addition reading mode may be performed. According to such control, for example, it is possible to display an image including a large-diameter blood vessel existing in the deep part of the biological mucous membrane on the display device 5, and as a result, in the treatment using an electric knife or the like, Damage can be prevented.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Astronomy & Astrophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

 撮像システムは、被写体を照明するための照明光を出射する光源装置と、照明光により照明された被写体からの光を結像する対物光学系と、対物光学系により結像された光を受光し、受光した光を光電変換して電気信号を生成するための複数の画素を具備する撮像素子と、被写体が遠景または近景のどちらで観察されているかを判定する判定部と、判定部の判定結果に応じ、撮像素子における読出モードを、各画素で生成された電気信号を1画素分ずつ順次読み出す単画素読出モード、または、複数の画素により構成される1つの画素群で生成された電気信号を1画素分の電気信号として順次読み出す画素加算読出モードのいずれかに設定するための制御を行う撮像制御部と、を有する。

Description

撮像システム
 本発明は、撮像システムに関し、特に、被写体からの光を撮像して画像を取得する撮像システムに関するものである。
 被写体からの微弱な光を撮像素子において撮像して得られる画像のS/Nを確保するための技術として、例えば、当該撮像素子における当該被写体の撮像に伴って生成される複数画素分の信号を加算することにより1画素分の信号として扱うような技術が従来知られている。
 具体的には、例えば、日本国特開2011-50676号公報には、撮像素子の各画素において蓄積された電荷を1画素ずつ光電変換信号として出力する通常モードと、当該撮像素子の各画素のうちの隣接する画素において蓄積された電荷をひとかたまりの光電変換信号として出力するビニングモードと、を切り替えることができるように構成された眼科撮影装置が開示されている。また、日本国特開2011-50676号公報には、眼底からの蛍光の観察時にビニングモードに設定するとともに、当該蛍光の撮影時に通常モードに設定するような切り替え動作が開示されている。
 ところで、例えば、内視鏡観察においては、被検者の体腔内に存在する病変等の被写体を遠景で特定するような状況と、当該特定した被写体の詳細な状態を近景で確認するような状況と、が発生し得る。そのため、内視鏡観察においては、例えば、体腔内の病変のスクリーニングに適した明るさを具備する画像が遠景時に取得されるとともに、当該病変の詳細な構造の確認に適した解像力を具備する画像が近景時に取得されることが望ましい。
 しかし、日本国特開2011-50676号公報には、被写体が遠景または近景のどちらで観察されているかに応じ、通常モード及びビニングモードの切り替えを行うための構成について特に開示等されていない。そのため、日本国特開2011-50676号公報に開示された構成によれば、遠景時及び近景時の少なくともいずれか一方において、被写体からの光を撮像して得られる画像の画質が診断に適さない画質になってしまう場合がある、という課題が発生している。
 本発明は、前述した事情に鑑みてなされたものであり、遠景時及び近景時の両方において、被写体からの光を撮像して得られる画像の画質を診断に適した画質にすることが可能な撮像システムを提供することを目的としている。
 本発明の一態様の撮像システムは、被写体を照明するための照明光として、相互に異なる複数の波長帯域の光を順次出射するように構成された光源装置と、前記照明光により照明された前記被写体からの光を結像するように構成された対物光学系と、前記対物光学系により結像された光を受光し、当該受光した光を光電変換して電気信号を生成するための複数の画素を2次元状に配設して形成された撮像面を具備する撮像素子と、前記被写体が遠景または近景のどちらで観察されているかを判定するための判定処理を行うように構成された判定部と、前記判定部の判定処理により得られた判定結果に応じ、前記撮像素子における読出モードを、前記撮像面に配設された各画素で生成された電気信号を1画素分ずつ順次読み出すモードである単画素読出モード、または、前記撮像面において相互に隣接して配設された複数の画素により構成される1つの画素群で生成された電気信号を1画素分の電気信号として順次読み出すモードである画素加算読出モードのいずれかに設定するための制御を行うように構成された撮像制御部と、を有する。
第1の実施例に係る撮像システムの要部の構成を示す図。 撮像ユニットの概略構成を示す図。 撮像ユニットに設けられた撮像素子の撮像面の概略構成を示す図。 回転フィルタの構成の一例を示す図。 受光部において行われる読出動作の具体例を説明するための図。 第2の実施例に係る撮像システムの要部の構成を示す図。 回転フィルタの構成の、図4とは異なる例を示す図。 画像処理部において行われる処理の一例を説明するための図。
 以下、本発明の実施の形態について、図面を参照しつつ説明を行う。
(第1の実施例)
 図1から図5は、本発明の第1の実施例に係るものである。
 撮像システム1は、図1に示すように、内視鏡2と、光源装置3と、プロセッサ4と、表示装置5と、を有して構成されている。図1は、第1の実施例に係る撮像システムの要部の構成を示す図である。
 内視鏡2は、図1に示すように、被検者の体腔内に挿入可能な形状及び寸法を備えた挿入部21aと、挿入部21aの先端側に設けられた先端部21bと、挿入部21aの基端側に設けられた操作部21cと、を有して構成されている。また、挿入部21aの内部には、光源装置3から出射された照明光を先端部21bへ伝送するためのライトガイド6が挿通されている。
 ライトガイド6の入射端面は、図示しない光コネクタ等を介し、光源装置3に対して着脱自在に接続される。また、ライトガイド6の出射端面は、内視鏡2の先端部21bに設けられた図示しない照明光学系の近傍に配置されている。そして、このような構成によれば、光源装置3から出射された照明光が、光源装置3に接続されたライトガイド6と、先端部21bに設けられた図示しない照明光学系と、を経て被写体へ出射される。
 内視鏡2の先端部21bには、ライトガイド6を経て出射される照明光により照明された被写体からの光(戻り光)を撮像し、当該撮像した光(戻り光)に応じた撮像信号を生成し、当該生成した撮像信号をプロセッサ4へ出力するように構成された撮像ユニット22が設けられている。
 撮像ユニット22は、図2に示すように、前群レンズユニット51と、移動レンズユニット52と、後群レンズユニット53と、を具備する対物光学系により、被写体からの光(戻り光)を結像するように構成されている。また、撮像ユニット22は、図2に示すように、移動レンズユニット52を移動させるための駆動力を発生するアクチュエータ54と、前述の対物光学系により結像された光を撮像するための撮像素子92を備えたイメージセンサユニット55と、を有して構成されている。図2は、撮像ユニットの概略構成を示す図である。
 前群レンズユニット51は、被写体からの光(戻り光)が入射される複数のレンズを備えた前群レンズ61と、前群レンズ61を保持するための前群レンズ枠62と、前群レンズ枠62の最後端に設けられた対物絞り63と、を有して構成されている。
 対物絞り63は、図示しない信号線を介し、プロセッサ4の撮像制御部45(後述)に接続されるように構成されている。また、対物絞り63は、プロセッサ4の撮像制御部45の制御に基づき、撮像素子92(後述)の読出モードの変更に伴う画素ピッチの擬似的な変化に適したF値を前群レンズユニット51が具備するように、絞り量を調整することができるように構成されている。
 移動レンズユニット52は、前群レンズユニット51を経た光が入射されるとともに、光入射面の外縁部に光学的指標71Aを設けて形成された移動レンズ71と、移動レンズ71を保持しながら撮像ユニット22の対物光学系の光軸O方向に沿ってスライドすることができるように形成された移動レンズ枠72と、を有して構成されている。
 光学的指標71Aは、例えば、移動レンズ71の光入射面の外縁部における所定の位置に、遮光性を有する物質を蒸着することにより形成されている。また、光学的指標71Aは、例えば、移動レンズ71が所定の配置位置TPまたは所定の配置位置TPより前方側に配置されている場合には、イメージセンサユニット55の撮像素子92(後述)により撮像されないような位置であるとともに、移動レンズ71が所定の配置位置TPより後方側に配置されている場合には、イメージセンサユニット55の撮像素子92により撮像されるような位置に設けられている。
 後群レンズユニット53は、移動レンズユニット52を経た光が入射される複数のレンズを備えた後群レンズ81と、後群レンズ81を保持するための後群レンズ枠82と、を有して構成されている。
 アクチュエータ54は、信号線SLを介し、プロセッサ4の移動レンズ制御部44(後述)に接続されるように構成されている。また、アクチュエータ54は、プロセッサ4の移動レンズ制御部44の制御に応じ、移動レンズユニット52を撮像ユニット22の対物光学系の光軸O方向に沿ってスライドさせるための駆動力を発生するとともに、当該発生した駆動力を移動レンズ枠72に供給するように構成されている。
 イメージセンサユニット55は、複数の信号線が内蔵された信号ケーブルSCを介し、プロセッサ4の画像生成部41(後述)及び撮像制御部45(後述)にそれぞれ接続されている。また、イメージセンサユニット55は、後群レンズユニット53を経て入射される光を撮像することにより撮像信号を生成し、当該生成した撮像信号をプロセッサ4の画像生成部41へ出力するように構成されている。また、イメージセンサユニット55は、後群レンズユニット53を経た光が入射されるカバーガラス91と、カバーガラス91を経た光を受光するとともに、当該受光した光を光電変換して電気信号を生成する撮像素子92と、カバーガラス91及び撮像素子92を保持するための保持枠93と、撮像素子92に電気的に接続されている回路基板94と、を有して構成されている。
 撮像素子92は、例えば、CMOSセンサを含む画素を2次元状に配設して形成された撮像面92Aを具備するとともに、撮像制御部45の制御に応じた動作を行うように構成されている。
 撮像面92Aは、例えば、図3に示すように、受光部101と、遮光部102と、を有して構成されている。図3は、撮像ユニットに設けられた撮像素子の撮像面の概略構成を示す図である。
 受光部101は、有効画素領域としての機能を具備し、カバーガラス91を経た光を受光し、当該受光した光を光電変換して電気信号を生成するための複数の画素を2次元状に配設して形成されている。また、受光部101は、撮像制御部45の制御に応じ、各画素で生成された電気信号を1画素分ずつ順次読み出すモードである単画素読出モードと、相互に隣接して配設された複数の画素により構成される1つの画素群で生成された電気信号を1画素分の電気信号として順次読み出すモードである画素加算読出モードと、に応じた動作を行うことができるように構成されている。
 遮光部102は、撮像面92Aの外縁部に配設された一部の画素を覆うように形成されている。また、遮光部102は、カバーガラス91を経た光を通過させるように形成された開口103Aと、カバーガラス91を経た光を遮光するように形成された遮光部材103Bと、を有して構成されている。すなわち、このような遮光部102の構成によれば、開口103Aの位置に配設された画素または画素群において、カバーガラス91を経た光が受光されるとともに、当該受光した光に応じた電気信号が生成される。
 回路基板94は、例えば、信号処理回路等を具備して構成されている。また、回路基板94は、例えば、撮像素子92から出力される電気信号に対して所定の処理を施すことにより撮像信号を生成し、当該生成した撮像信号を信号ケーブルSCへ出力するように構成されている。
 内視鏡2の操作部21cには、ユーザの操作に応じた指示をプロセッサ4に対して行うことが可能な複数のスイッチを備えたスコープスイッチ23が設けられている。
 具体的には、スコープスイッチ23は、例えば、移動レンズユニット52を撮像ユニット22の対物光学系の光軸O方向に沿って前方または後方に移動させるための指示を行うことが可能なレンズ駆動スイッチ、及び、撮像システム1の観察モードを白色光観察モードまたは特殊光観察モードのいずれかに設定するための指示を行うことが可能な観察モード設定スイッチ等のスイッチを具備して構成されている。
 光源装置3は、図1に示すように、白色光源31と、光源絞り32と、フィルタ駆動機構33と、回転フィルタ34と、集光光学系35と、光源制御部36と、を有して構成されている。
 白色光源31は、例えば、キセノンランプまたは白色LED等を具備し、光源制御部36の制御に応じてオンまたはオフに切り替わるように構成されている。また、白色光源31は、光源制御部36から供給される駆動電流の大きさに応じた光量の白色光を発することができるように構成されている。すなわち、本実施例によれば、光源装置3から出射される照明光の光量を、白色光源31に供給される駆動電流の大きさに応じた光量に調整することができる。なお、本実施例によれば、例えば、白色光源31が白色LEDを具備して構成されている場合に、光源制御部36が所定の単位時間内における当該白色LEDの点灯時間及び消灯時間の割合を変化させる制御であるPWM(Pulse Width Modulation)制御を行うことにより、光源装置3から出射される照明光の光量が調整されるようにしてもよい。
 光源絞り32は、例えば、白色光源31の出射光路上に配置されているとともに、光源制御部36の制御に応じて絞り量を変化させることにより、当該出射光路を経て回転フィルタ34に入射される白色光の光量を当該絞り量に応じた光量に調整することができるように構成されている。すなわち、本実施例によれば、光源装置3から出射される照明光の光量を、光源絞り32の絞り量に応じた光量に調整することができる。
 具体的には、光源絞り32は、例えば、日本国特開2006-184459号公報に開示された電動絞り装置と同様の構成を具備している。
 フィルタ駆動機構33は、光源制御部36の制御に応じた駆動力を発生するとともに、当該発生した駆動力を回転フィルタ34に供給するように構成されている。
 具体的には、フィルタ駆動機構33は、例えば、回転フィルタ34を回転させるための駆動力を発生する第1のモータと、回転フィルタ34を白色光源31の出射光路に垂直な方向に沿って移動させるための駆動力を発生する第2のモータと、当該第1のモータ及び当該第2のモータにおいて発生した駆動力を回転フィルタ34にそれぞれ伝達するためのギア機構と、を具備して構成されている。
 回転フィルタ34は、例えば、図4に示すような円板形状を具備して形成されているとともに、フィルタ駆動機構33において発生した駆動力に応じ、回転軸ARを中心に回転するように構成されている。また、回転フィルタ34は、例えば、図4に示すように、内周側の周方向に沿って設けられた複数のフィルタを具備する第1のフィルタ群34Aと、外周側の周方向に沿って設けられた複数のフィルタを具備する第2のフィルタ群34Bと、を有している。なお、回転フィルタ34において、第1のフィルタ群34A及び第2のフィルタ群34Bの各フィルタが配置されている部分以外は、遮光部材により構成されているものとする。図4は、回転フィルタの構成の一例を示す図である。
 第1のフィルタ群34Aは、赤色の広帯域光(以降、R光とも称する)を透過させるRフィルタ341と、緑色の広帯域光(以降、G光とも称する)を透過させるGフィルタ342と、青色の広帯域光(以降、B光とも称する)を透過させるBフィルタ343と、を有して構成されている。また、第1のフィルタ群34Aは、Rフィルタ341と、Gフィルタ342と、Bフィルタ343と、の面積比が1:1:1になるように形成されている。
 具体的には、Rフィルタ341は、例えば、600nmから700nmまでの波長帯域の光を透過させるような光学特性を具備して形成されている。また、Gフィルタ342は、例えば、500nmから600nmまでの波長帯域の光を透過させるような光学特性を具備して形成されている。また、Bフィルタ343は、例えば、400nmから500nmまでの波長帯域の光を透過させるような光学特性を具備して形成されている。
 第2のフィルタ群34Bは、青色の狭帯域光(以降、Bn光と称する)を透過させるBnフィルタ344と、緑色の狭帯域光(以降、Gn光と称する)のみを透過させるGnフィルタ345と、を有して構成されている。
 具体的には、Bnフィルタ344は、例えば、400nmから430nmまでの波長帯域の光を透過させるような光学特性を具備して形成されている。また、Gnフィルタ345は、例えば、530nmから550nmまでの波長帯域の光を透過させるような光学特性を具備して形成されている。
 集光光学系35は、例えば、レンズ等の光学部材を具備し、回転フィルタ34を通過した光を集光してライトガイド6の入射端面に出射するように構成されている。
 光源制御部36は、プロセッサ4の調光制御部46の制御に応じ、光源絞り32の絞り量を変化させることができるように構成されている。また、光源制御部36は、プロセッサ4の調光制御部46の制御に応じてフィルタ駆動機構33を制御することにより、回転フィルタ34の回転速度を変化させることができるように構成されている。また、光源制御部36は、白色光源31を駆動するための駆動電流を供給することができるとともに、当該駆動電流の大きさ(電流値)をプロセッサ4の調光制御部46の制御に応じて変化させることができるように構成されている。
 光源制御部36は、プロセッサ4の観察モード設定部47(後述)の制御に応じてフィルタ駆動機構33を制御することにより、例えば、撮像システム1の観察モードが白色光観察モードに設定されている場合には、第1のフィルタ群34Aを白色光源31の出射光路上に配置させるとともに、第2のフィルタ群34Bを当該出射光路上から退避させることができるように構成されている。また、光源制御部36は、プロセッサ4の観察モード設定部47の制御に応じてフィルタ駆動機構33を制御することにより、例えば、撮像システム1の観察モードが特殊光観察モードに設定されている場合には、第2のフィルタ群34Bを白色光源31の出射光路上に配置させるとともに、第1のフィルタ群34Aを当該出射光路上から退避させることができるように構成されている。
 すなわち、以上に述べたような構成によれば、撮像システム1の観察モードが白色光観察モードに設定された場合には、白色光源31から発せられた白色光が第1のフィルタ群34Aを通過することによりR光、G光及びB光が生成されるとともに、当該生成されたR光、G光及びB光が照明光として光源装置3から順次出射される。また、以上に述べたような構成によれば、撮像システム1の観察モードが特殊光観察モードに設定された場合には、白色光源31から発せられた白色光が第2のフィルタ群34Bを通過することによりBn光及びGn光が生成されるとともに、当該生成されたBn光及びGn光が照明光として光源装置3から順次出射される。
 プロセッサ4は、図1に示すように、画像生成部41と、画像処理部42と、明るさ検出部43と、移動レンズ制御部44と、撮像制御部45と、調光制御部46と、観察モード設定部47と、判定部48と、を有して構成されている。
 画像生成部41は、例えば、ノイズ除去回路及びA/D変換回路等を具備して構成されている。また、画像生成部41は、内視鏡2から出力される撮像信号に対して所定の信号処理を施すことにより画像を生成し、当該生成した画像を画像処理部42、明るさ検出部43及び判定部48へ出力するように構成されている。
 画像処理部42は、例えば、画像処理回路及び同時化回路等を具備して構成されている。
 また、画像処理部42は、画像生成部41から出力される画像に対し、例えば、マスキング及び同時化等の所定の画像処理を施すことにより、当該画像の外縁部を不可視領域に設定した観察画像を生成し、当該生成した観察画像を表示装置5へ出力するように構成されている。すなわち、このような画像処理によれば、例えば、光学的指標71Aを含む画像が画像生成部41から出力された場合であっても、光学的指標71Aを含まない観察画像を表示装置5に表示させることができる。また、前述のような画像処理によれば、例えば、遮光部102の開口103Aを含まない観察画像を表示装置に表示させることも出来る。
 画像処理部42は、観察モード設定部47の制御に応じ、例えば、撮像システム1の観察モードが白色光観察モードに設定されている場合には、画像生成部41から出力される画像である、R光の戻り光を撮像して得られた画像RIと、G光の戻り光を撮像して得られた画像GIと、B光の戻り光を撮像して得られた画像BIと、に応じたRGBカラー画像を観察画像として生成するように構成されている。また、画像処理部42は、観察モード設定部47の制御に応じ、例えば、撮像システム1の観察モードが特殊光観察モードに設定されている場合には、画像生成部41から出力される画像である、Bn光の戻り光を撮像して得られた画像BnIと、Gn光の戻り光を撮像して得られた画像GnIと、に応じた擬似カラー画像を観察画像として生成するように構成されている。
 明るさ検出部43は、画像生成部41から出力される画像の明るさを検出し、当該検出した明るさを示す情報である明るさ情報を調光制御部46へ出力するように構成されている。
 具体的には、明るさ検出部43は、例えば、画像生成部41から出力される画像における輝度値の平均値を算出し、当該算出した輝度値の平均値を明るさ情報として調光制御部46へ出力するように構成されている。
 移動レンズ制御部44は、スコープスイッチ23のレンズ駆動スイッチにおいてなされた指示に応じて移動レンズユニット52を移動させるための制御を行うように構成されている。また、移動レンズ制御部44は、例えば、撮像ユニット22における移動レンズ71の現在位置を移動レンズユニット52の移動状態に基づいて特定し、当該特定した移動レンズ71の現在位置を示すレンズ位置情報を判定部48へ出力するように構成されている。
 撮像制御部45は、判定部48の判定処理(後述)により得られた判定結果に応じ、撮像素子92の受光部101における読出モードを単画素読出モードまたは画素加算読出モードのいずれかに設定するための制御を行うように構成されている。
 撮像制御部45は、判定部48の判定処理(後述)により得られた判定結果に応じ、撮像素子92の受光部101における露光時間を変化させるための制御を行うように構成されている。
 撮像制御部45は、判定部48の判定処理(後述)により得られた判定結果に応じ、前群レンズユニット51のF値を変化させるための制御として、対物絞り63の絞り量を変化させる制御を行うように構成されている。
 調光制御部46は、観察モード設定部47の制御に応じ、明るさ検出部43から出力される明るさ情報により示される明るさが現在の観察モードに適した明るさになるように、回転フィルタ34の回転速度を一定にしつつ、光源絞り32の絞り量及び白色光源31に対して供給される駆動電流の大きさをそれぞれ変化させるための制御を行うとともに、光源絞り32における現在の絞り量を示す絞り量情報と、白色光源31に対して現在供給されている駆動電流の大きさを示す駆動電流情報と、を判定部48へ出力するように構成されている。
 具体的には、調光制御部46は、観察モード設定部47の制御に応じ、例えば、撮像システム1の観察モードが白色光観察モードに設定されている場合には、明るさ検出部43から出力される明るさ情報により示される明るさが白色光観察モードにおける明るさ目標値WTになるように光源絞り32の絞り量及び白色光源31に対して供給される駆動電流の大きさをそれぞれ変化させるための制御を行う。すなわち、このような調光制御部46の制御によれば、例えば、白色光観察モードにおいて、明るさ検出部43から出力される明るさ情報により示される明るさが明るさ目標値WT未満である場合には、光源絞り32の絞り量が減少されるに伴い、及び/または、白色光源31に対して供給される駆動電流の大きさが増加されるに伴い、画像生成部41から出力される画像の明るさが増加する。また、前述のような調光制御部46の制御によれば、例えば、白色光観察モードにおいて、明るさ検出部43から出力される明るさ情報により示される明るさが明るさ目標値WT以上である場合には、光源絞り32の絞り量が増加されるに伴い、及び/または、白色光源31に対して供給される駆動電流の大きさが減少されるに伴い、画像生成部41から出力される画像の明るさが減少する。
 一方、調光制御部46は、例えば、観察モード設定部47の制御に応じ、例えば、撮像システム1の観察モードが特殊光観察モードに設定されている場合には、明るさ検出部43から出力される明るさ情報により示される明るさが特殊光観察モードにおける明るさ目標値STになるように光源絞り32の絞り量及び白色光源31に対して供給される駆動電流の大きさをそれぞれ変化させるための制御を行う。すなわち、このような調光制御部46の制御によれば、例えば、特殊光観察モードにおいて、明るさ検出部43から出力される明るさ情報により示される明るさが明るさ目標値ST未満である場合には、光源絞り32の絞り量が減少されるに伴い、及び/または、白色光源31に対して供給される駆動電流の大きさが増加されるに伴い、画像生成部41から出力される画像の明るさが増加する。また、前述のような調光制御部46の制御によれば、例えば、特殊光観察モードにおいて、明るさ検出部43から出力される明るさ情報により示される明るさが明るさ目標値ST以上である場合には、光源絞り32の絞り量が増加されるに伴い、及び/または、白色光源31に対して供給される駆動電流の大きさが減少されるに伴い、画像生成部41から出力される画像の明るさが減少する。
 なお、本実施例の調光制御部46は、前述のような制御等を行うものに限らず、例えば、観察モード設定部47の制御に応じ、明るさ検出部43から出力される明るさ情報により示される明るさが現在の観察モードに適した明るさになるように、光源絞り32の絞り量を一定にしつつ、回転フィルタ34の回転速度を変化させるための制御を行うとともに、回転フィルタ34における現在の回転速度を示す回転速度情報を判定部48へ出力するように構成されていてもよい。
 具体的には、調光制御部46は、観察モード設定部47の制御に応じ、例えば、撮像システム1の観察モードが白色光観察モードに設定されている場合には、明るさ検出部43から出力される明るさ情報により示される明るさが白色光観察モードにおける明るさ目標値WTになるように回転フィルタ34の回転速度を変化させるための制御を行う。すなわち、このような調光制御部46の制御によれば、例えば、白色光観察モードにおいて、明るさ検出部43から出力される明るさ情報により示される明るさが明るさ目標値WT未満である場合には、回転フィルタ34の回転速度が減少される。また、前述のような調光制御部46の制御によれば、例えば、白色光観察モードにおいて、明るさ検出部43から出力される明るさ情報により示される明るさが明るさ目標値WT以上である場合には、回転フィルタ34の回転速度が増加される。
 一方、調光制御部46は、例えば、観察モード設定部47の制御に応じ、例えば、撮像システム1の観察モードが特殊光観察モードに設定されている場合には、明るさ検出部43から出力される明るさ情報により示される明るさが特殊光観察モードにおける明るさ目標値STになるように回転フィルタ34の回転速度を変化させるための制御を行う。すなわち、このような調光制御部46の制御によれば、例えば、特殊光観察モードにおいて、明るさ検出部43から出力される明るさ情報により示される明るさが明るさ目標値ST未満である場合には、回転フィルタ34の回転速度が減少される。また、前述のような調光制御部46の制御によれば、例えば、特殊光観察モードにおいて、明るさ検出部43から出力される明るさ情報により示される明るさが明るさ目標値ST以上である場合には、回転フィルタ34の回転速度が増加される。
 すなわち、本実施例の調光制御部46は、観察モード設定部47の制御に応じ、明るさ検出部43から出力される明るさ情報により示される明るさが現在の観察モードに適した明るさになるように、光源装置3から出射される照明光の光量を調整するための制御を行うとともに、少なくとも絞り量情報及び駆動電流情報を、当該照明光の光量の調整における現在の制御状態を示す制御情報として判定部48へ出力するように構成されている。
 観察モード設定部47は、スコープスイッチ23のレンズ観察モード設定スイッチにおいて設定されている現在の観察モードを検出し、当該検出した現在の観察モードに応じた動作を光源制御部36、画像処理部42及び調光制御部46において行わせるための制御を行うように構成されている。また、観察モード設定部47は、スコープスイッチ23のレンズ観察モード設定スイッチにおいて設定されている現在の観察モードを検出し、当該検出した現在の観察モードを示す観察モード情報を判定部48へ出力するように構成されている。
 判定部48は、画像生成部41から出力される画像、移動レンズ制御部44から出力されるレンズ位置情報、調光制御部46から出力される絞り量情報、調光制御部46から出力される駆動電流情報、調光制御部46から出力される回転速度情報、または、観察モード設定部47から出力される観察モード情報のいずれかに基づき、被写体が遠景または近景のどちらで観察されているかを判定するための判定処理を行うように構成されている。また、判定部48は、前述の判定処理により得られた判定結果を撮像制御部45へ出力するように構成されている。
 表示装置5は、例えば、モニタ等を具備し、プロセッサ4から出力される観察画像を表示することができるように構成されている。
 続いて、以上に述べたような構成を具備する撮像システム1の作用について説明する。
 術者等のユーザは、撮像システム1の各部の電源を投入した後、表示装置5に表示される画像を確認しながら挿入部21aを被検者の体腔内に挿入してゆくことにより、当該被検者の体腔内における所望の被写体を撮像可能な位置に先端部21bを配置するとともに、所望の観察モードに設定した状態で当該所望の被写体の観察を実施する。そして、このようなユーザの操作に応じ、所望の観察モードに応じた照明光が先端部21bから所望の被写体へ順次照射され、当該照明光により照明された当該所望の被写体からの戻り光を撮像することにより撮像信号が生成され、当該生成された撮像信号が撮像ユニット22から画像生成部41へ出力され、当該撮像信号に対して所定の信号処理を施すことにより生成された画像が画像生成部41から画像処理部42、明るさ検出部43及び判定部48へ出力される。
 判定部48は、画像生成部41から出力される画像、移動レンズ制御部44から出力されるレンズ位置情報、調光制御部46から出力される絞り量情報、調光制御部46から出力される駆動電流情報、調光制御部46から出力される回転速度情報、または、観察モード設定部47から出力される観察モード情報のいずれかに基づき、被写体が遠景または近景のどちらで観察されているかを判定するための判定処理を行う。
 ここで、本実施例の判定部48により実施される判定処理の具体例について、以下に説明する。なお、本実施例の判定部48は、前述の判定処理として、以下に列挙する各処理の中から予め決められた1つの処理を行うものとする。
 判定部48は、画像生成部41から出力される画像に含まれる各画素のうち、遮光部102の開口103Aを通過した光を撮像した画素または画素群の輝度値が閾値TH1以上であるか否かを検出する。そして、判定部48は、遮光部102の開口103Aを通過した光を撮像した画素または画素群の輝度値が閾値TH1未満であることを検出した場合には、被写体が遠景で観察されているとの判定結果を得る。また、判定部48は、遮光部102の開口103Aを通過した光を撮像した画素または画素群の輝度値が閾値TH1以上であることを検出した場合には、被写体が近景で観察されているとの判定結果を得る。
 判定部48は、画像生成部41から出力される画像に光学的指標71Aが含まれているか否かを検出する。そして、判定部48は、画像生成部41から出力される画像に光学的指標71Aが含まれていることを検出した場合には、被写体が遠景で観察されているとの判定結果を得る。また、判定部48は、画像生成部41から出力される画像に光学的指標71Aが含まれていないことを検出した場合には、被写体が近景で観察されているとの判定結果を得る。
 判定部48は、移動レンズ制御部44から出力されるレンズ位置情報に基づき、撮像ユニット22における移動レンズ71の現在の配置位置が所定の位置TQより後方側であるか否かを検出する。そして、判定部48は、撮像ユニット22における移動レンズ71の現在の配置位置が所定の位置TQより後方側であることを検出した場合には、被写体が遠景で観察されているとの判定結果を得る。また、判定部48は、撮像ユニット22における移動レンズ71の現在の配置位置が所定の位置TQであるまたは所定の位置TQより前方側であることを検出した場合には、被写体が近景で観察されているとの判定結果を得る。
 なお、本実施例においては、判定部48の判定処理により、光学的な深度の遠近に対応する判定結果が得られればよい。そのため、本実施例においては、撮像ユニット22の各レンズユニットの光学特性に応じ、前述の判定処理とは異なる判定処理が行われるようにしてもよい。具体的には、本実施例の判定部48は、例えば、移動レンズ71の現在の配置位置が所定の位置TQより後方側であることを検出した場合に被写体が近景で観察されているとの判定結果を得るとともに、移動レンズ71の現在の配置位置が所定の位置TQであるまたは所定の位置TQより前方側であることを検出した場合に被写体が遠景で観察されているとの判定結果を得るものであってもよい。
 判定部48は、調光制御部46から出力される絞り量情報に基づき、光源絞り32における現在の絞り量が閾値TH2以上であるか否かを検出する。そして、判定部48は、光源絞り32における現在の絞り量が閾値TH2以上であることを検出した場合には、被写体が遠景で観察されているとの判定結果を得る。また、判定部48は、光源絞り32における現在の絞り量が閾値TH2未満であることを検出した場合には、被写体が近景で観察されているとの判定結果を得る。
 判定部48は、調光制御部46から出力される駆動電流情報に基づき、白色光源に対して現在供給されている駆動電流の大きさが閾値TH3以上であるか否かを検出する。そして、判定部48は、白色光源に対して現在供給されている駆動電流の大きさが閾値TH3以上であることを検出した場合には、被写体が遠景で観察されているとの判定結果を得る。また、判定部48は、白色光源に対して現在供給されている駆動電流の大きさが閾値TH3未満であることを検出した場合には、被写体が近景で観察されているとの判定結果を得る。
 判定部48は、調光制御部46から出力される回転速度情報に基づき、回転フィルタ34における現在の回転速度が閾値TH4未満であるか否かを検出する。そして、判定部48は、回転フィルタ34における現在の回転速度が閾値TH4未満であることを検出した場合には、被写体が遠景で観察されているとの判定結果を得る。また、判定部48は、回転フィルタ34における現在の回転速度が閾値TH4以上であることを検出した場合には、被写体が近景で観察されているとの判定結果を得る。
 判定部48は、観察モード設定部47から出力される観察モード情報に基づき、現在の観察モードが白色光観察モードまたは特殊光観察モードのいずれであるかを検出する。そして、判定部48は、現在の観察モードが特殊光観察モードであることを検出した場合には、被写体が近景で観察されているとの判定結果を得る。すなわち、判定部48は、観察モード設定部47から出力される観察モード情報に基づき、被写体を照明するための照明光として光源装置3から狭帯域光が出射されていることを検出した場合に、被写体が近景で観察されているとの判定結果を得る。
 なお、本実施例の判定部48は、現在の観察モードが白色光観察モードであることを検出した場合には、画像生成部41から出力される画像、移動レンズ制御部44から出力されるレンズ位置情報、調光制御部46から出力される絞り量情報、調光制御部46から出力される駆動電流情報、または、調光制御部46から出力される回転速度情報のいずれかに基づく判定処理を行うことにより、被写体が遠景または近景のどちらで観察されているかを判定するものとする。
 撮像制御部45は、判定部48の判定処理により得られた判定結果に応じ、被写体が遠景で観察されている場合には、前群レンズユニット51のF値を増加させるための制御として、対物絞り63の絞り量を所定の絞り量SAまで増加させる(対物絞り63を絞る)制御を行う。また、撮像制御部45は、判定部48の判定処理により得られた判定結果に応じ、被写体が近景で観察されている場合には、前群レンズユニット51のF値を減少させるための制御として、対物絞り63の絞り量を所定の絞り量SBまで減少させる(対物絞り63を開く)制御を行う。
 撮像制御部45は、判定部48の判定処理により得られた判定結果に応じ、被写体が遠景で観察されている場合には、撮像素子92の受光部101における露光時間を所定の露光時間EAまで増加させる制御を行う。また、撮像制御部45は、判定部48の判定処理により得られた判定結果に応じ、被写体が近景で観察されている場合には、撮像素子92の受光部101における露光時間を所定の露光時間EBまで減少させる制御を行う。
 撮像制御部45は、判定部48の判定処理により得られた判定結果に応じ、被写体が近景で観察されている場合には、撮像素子92の受光部101における読出モードを単画素読出モードに設定するための制御を行う。また、撮像制御部45は、判定部48の判定処理により得られた判定結果に応じ、被写体が遠景で観察されている場合には、撮像素子92の受光部101における読出モードを画素加算読出モードに設定するための制御を行う。
 ここで、撮像制御部45の制御に応じて設定される単画素読出モード及び画素加算読出モードにおける読出動作の具体例について、以下に説明する。なお、以下の説明においては、簡単のため、受光部101が図5に示すように配置された16個の画素P11~P44を具備する場合、すなわち、受光部101が4×4画素で構成されている場合を一例として挙げて説明する。また、本実施例においては、以下に説明する読出動作を適宜変形することにより、受光部101の画素数に適合した読出動作を行わせるようにしてもよい。図5は、受光部において行われる読出動作の具体例を説明するための図である。
 受光部101は、撮像制御部45の制御に応じ、単画素読出モードの読出動作として、各画素において生成された電気信号を1画素分ずつ順次読み出すための動作を行う。
 具体的には、受光部101は、単画素読出モードの読出動作として、例えば、最も左上に配置された画素P11を起点とする水平ライン上の各画素P11~P14において生成された電気信号を1画素分ずつ順次読み出した後、さらに、画素P11の直下に配置された画素P21を起点とする水平ライン上の各画素P21~P24において生成された電気信号を1画素分ずつ順次読み出すような動作を行う。すなわち、このような単画素読出モードの読出動作によれば、画素P44において生成された電気信号を読み出したタイミングにおいて、1フレーム分の電気信号の読み出しが完了する。
 また、受光部101は、撮像制御部45の制御に応じ、画素加算読出モードの読出動作として、例えば、相互に隣接して配設された複数の画素により構成される1つの画素群で生成された電気信号を1画素分の電気信号として順次読み出すための動作を行う。但し、撮像制御部45の制御に応じて設定される画素加算読出モードにおいては、相互に隣接する画素群同士の一部の画素が重複した状態で電気信号の読み出しが行われるものとする。
 具体的には、受光部101は、画素加算読出モードの読出動作として、例えば、画素P11、P12、P21及びP22の4つの画素により構成される画素群で生成された電気信号を加算して1画素分の電気信号として読み出し、画素P12、P13、P22及びP23の4つの画素により構成される画素群で生成された電気信号を加算して1画素分の電気信号として読み出し、画素P13、P14、P23及びP24の4つの画素により構成される画素群で生成された電気信号を加算して1画素分の電気信号として読み出し、画素P21、P22、P31及びP32の4つの画素により構成される画素群で生成された電気信号を加算して1画素分の電気信号として読み出すような動作を行う。すなわち、このような画素加算読出モードの読出動作によれば、画素P33、P34、P43及びP44の4つの画素により構成される画素群で生成された電気信号を加算して1画素分の電気信号として読み出したタイミングにおいて、1フレーム分の電気信号の読み出しが完了する。また、前述のような画素加算読出モードの読出動作によれば、単画素読出モードの読出動作に比べて電気信号の読み出し回数を少なくすることができるため、1フレーム分の電気信号の読み出しを単画素読出モードよりも高速に完了することができる。
 以上に述べたように、本実施例によれば、被写体が遠景で観察されている場合に、画素加算読出モードによる読出動作が行われることにより、例えば、被検者の体腔内に存在する病変等の被写体の特定に適した明るさを具備するような、S/Nの高い観察画像を表示装置5に表示させることができる。また、以上に述べたように、本実施例によれば、被写体が近景で観察されている場合に、単画素読出モードによる読出動作が行われることにより、例えば、病変等の被写体の詳細な状態の確認に適した解像力を具備するような、解像度の高い観察画像を表示装置5に表示させることができる。
 従って、本実施例によれば、遠景時及び近景時の両方において、被写体からの光を撮像して得られる画像の画質を診断に適した画質にすることができる。
 なお、本実施例の撮像システム1は、単画素読出モード及び画素加算読出モードに相当する読出動作を受光部101において行うための構成を有するものに限らず、例えば、単画素読出モード及び画素加算読出モードに相当する信号処理を回路基板94において行うための構成を有していてもよく、または、単画素読出モード及び画素加算読出モードに相当する画像処理を画像処理部42において行うための構成を有していてもよい。
 また、本実施例によれば、例えば、画素加算読出モードにおいて、受光部101による読出動作と、回路基板94による信号処理と、を連動させるようにしてもよい。具体的には、画素加算読出モードにおいて、例えば、(図5の画素P11及びP21等に示されるような、)垂直方向に隣接する2つの画素により構成される画素群で生成された電気信号を1画素分の電気信号として順次読み出すための読出動作が受光部101により行われるとともに、受光部101から順次読み出された電気信号のうち、水平方向に隣接する2画素分の電気信号を加算して1画素分とするような信号処理が回路基板94により行われるようにしてもよい。
 また、本実施例によれば、画素加算読出モードにおいて、相互に隣接する画素群同士の一部の画素が重複した状態で電気信号の読み出しが行われるものに限らず、例えば、相互に隣接する画素群同士が重複しない状態で電気信号の読み出しが行われるものであってもよい。
(第2の実施例)
 図6及び図7は、本発明の第2の実施例に係るものである。
 なお、本実施例においては、第1の実施例と同様の構成等を有する部分に関する詳細な説明を省略するとともに、第1の実施例と異なる構成等を有する部分に関して主に説明を行う。
 撮像システム1Aは、図6に示すように、内視鏡2と、光源装置3と、プロセッサ4Aと、表示装置5と、を有して構成されている。図6は、第2の実施例に係る撮像システムの要部の構成を示す図である。
 プロセッサ4Aは、図6に示すように、画像生成部41と、画像処理部42と、明るさ検出部43と、移動レンズ制御部44と、撮像制御部45Aと、調光制御部46と、観察モード設定部47Aと、判定部48Aと、を有して構成されている。
 撮像制御部45Aは、観察モード設定部47Aから出力される観察モード情報に基づき、現在の観察モードが白色光観察モードまたは特殊光観察モードのいずれであるかを検出するように構成されている。
 撮像制御部45Aは、現在の観察モードが特殊光観察モードであることを検出した場合、判定部48の判定処理により得られた判定結果に応じ、第1の実施例の撮像制御部45と同様の動作を行うように構成されている。また、撮像制御部45Aは、被写体が近景で観察されているとの判定結果が判定部48により得られた場合、第1の実施例の撮像制御部45と同様の動作を行うように構成されている。
 一方、撮像制御部45Aは、現在の観察モードが白色光観察モードであることを検出し、かつ、被写体が遠景で観察されているとの判定結果が判定部48により得られた場合、例えば、フィルタ駆動機構33におけるモータ回転量またはモータ回転角度等に基づいて回転フィルタ34の回転状態を検出し、さらに、当該検出した回転フィルタ34の回転状態に基づき、第1のフィルタ群34Aを経て出射されている光がR光、G光またはB光のいずれであるかを検出するように構成されている。すなわち、撮像制御部45Aは、被写体を照明するための照明光として光源装置3から出射されている光がR光、G光またはB光のいずれであるかを検出するように構成されている。
 撮像制御部45Aは、第1のフィルタ群34Aを経て出射されている光がG光またはB光であることを検出した場合において、受光部101における読出モードを、第1の実施例と同様の読出動作を行う単画素読出モードに設定するための制御を行うように構成されている。また、撮像制御部45Aは、第1のフィルタ群34Aを経て出射されている光がR光であることを検出した場合において、受光部101における読出モードを、後述の読出動作を行う画素加算読出モードに設定するための制御を行うように構成されている。
 なお、本実施例の撮像制御部45Aは、前述のように構成されたものに限らず、例えば、光源装置3からのG光またはB光の出射に同期して受光部101における読出モードを単画素読出モードに設定するための制御を行い、光源装置3からのR光の出射に同期して受光部101における読出モードを画素加算読出モードに設定するための制御を行うように構成されていてもよい。
 観察モード設定部47Aは、スコープスイッチ23のレンズ観察モード設定スイッチにおいて設定されている現在の観察モードを検出し、当該検出した現在の観察モードに応じた動作を光源制御部36、画像処理部42及び調光制御部46において行わせるための制御を行うように構成されている。また、観察モード設定部47Aは、スコープスイッチ23のレンズ観察モード設定スイッチにおいて設定されている現在の観察モードを検出し、当該検出した現在の観察モードを示す観察モード情報を撮像制御部45Aへ出力するように構成されている。
 判定部48Aは、画像生成部41から出力される画像、移動レンズ制御部44から出力されるレンズ位置情報、調光制御部46から出力される絞り量情報、または、調光制御部46から出力される回転速度情報のいずれかに基づき、被写体が遠景または近景のどちらで観察されているかを判定するための判定処理として、第1の実施例において説明したものと同様の処理を行うように構成されている。また、判定部48Aは、前述の判定処理により得られた判定結果を撮像制御部45Aへ出力するように構成されている。
 続いて、以上に述べたような構成を具備する撮像システム1Aの作用について説明する。
 術者等のユーザは、撮像システム1Aの各部の電源を投入した後、表示装置5に表示される画像を確認しながら挿入部21aを被検者の体腔内に挿入してゆくことにより、当該被検者の体腔内における所望の被写体を撮像可能な位置に先端部21bを配置するとともに、白色光観察モードに設定した状態で当該所望の被写体の観察を実施する。そして、このようなユーザの操作に応じ、R光、G光及びB光が照明光として先端部21bから所望の被写体へ順次照射され、当該照明光により照明された当該所望の被写体からの戻り光を撮像することにより撮像信号が生成され、当該生成された撮像信号が撮像ユニット22から画像生成部41へ出力され、当該撮像信号に対して所定の信号処理を施すことにより生成された画像が画像生成部41から画像処理部42、明るさ検出部43及び判定部48Aへ出力される。
 判定部48Aは、画像生成部41から出力される画像、移動レンズ制御部44から出力されるレンズ位置情報、調光制御部46から出力される絞り量情報、または、調光制御部46から出力される回転速度情報のいずれかに基づき、被写体が遠景または近景のどちらで観察されているかを判定するための判定処理を行う。
 撮像制御部45Aは、判定部48Aの判定処理により得られた判定結果に応じ、被写体が近景で観察されている場合に、撮像素子92の受光部101における読出モードを単画素読出モードに設定するための制御を行う。
 また、撮像制御部45Aは、被写体が遠景で観察されているとの判定結果が判定部48により得られた場合に、フィルタ駆動機構33におけるモータ回転量またはモータ回転角度等に基づいて回転フィルタ34の回転状態を検出し、さらに、当該検出した回転フィルタ34の回転状態に基づき、第1のフィルタ群34Aを経て出射されている光がR光、G光またはB光のいずれであるかを検出する。
 撮像制御部45Aは、第1のフィルタ群34Aを経て出射されている光がG光またはB光であることを検出した場合において、受光部101における読出モードを、第1の実施例と同様の読出動作を行う単画素読出モードに設定するための制御を行う。また、撮像制御部45Aは、第1のフィルタ群34Aを経て出射されている光がR光であることを検出した場合において、受光部101における読出モードを、以下のような読出動作を行う画素加算読出モードに設定するための制御を行うように構成されている。
 ここで、撮像制御部45Aの制御に応じて設定される画素加算読出モードの読出動作の具体例について、以下に説明する。なお、以下の説明においては、簡単のため、受光部101が図5に示すように配置された16個の画素P11~P44を具備する場合、すなわち、受光部101が4×4画素で構成されている場合を一例として挙げて説明する。また、本実施例においては、以下に説明する読出動作を適宜変形することにより、受光部101の画素数に適合した読出動作を行わせるようにしてもよい。
 受光部101は、撮像制御部45Aの制御に応じ、画素加算読出モードの読出動作として、例えば、相互に隣接して配設された複数の画素により構成される1つの画素群で生成された電気信号を1画素分の電気信号として順次読み出すための動作を行う。但し、撮像制御部45Aの制御に応じて設定される画素加算読出モードにおいては、相互に隣接する画素群同士が重複しない状態で電気信号の読み出しが行われるものとする。
 具体的には、受光部101は、画素加算読出モードの読出動作として、例えば、画素P11、P12、P21及びP22の4つの画素により構成される画素群で生成された電気信号を加算して1画素分の電気信号として読み出し、画素P13、P14、P23及びP24の4つの画素により構成される画素群で生成された電気信号を加算して1画素分の電気信号として読み出し、画素P31、P32、P41及びP42の4つの画素により構成される画素群で生成された電気信号を加算して1画素分の電気信号として読み出し、画素P33、P34、P43及びP44の4つの画素により構成される画素群で生成された電気信号を加算して1画素分の電気信号として読み出すような動作を行う。すなわち、このような画素加算読出モードの読出動作によれば、画素P33、P34、P43及びP44の4つの画素により構成される画素群で生成された電気信号を加算して1画素分の電気信号として読み出したタイミングにおいて、1フレーム分の電気信号の読み出しが完了する。
 ここで、以上に述べたような制御によれば、例えば、生体粘膜表層を被写体として撮像した際に、当該生体粘膜表層に存在する微小血管の構造を特定可能な解像力を具備する画像GI及び画像BIが生成されるとともに、当該微小血管の構造を視認可能な明るさを具備する画像RIが生成される。そのため、以上に述べたような制御によれば、例えば、生体粘膜表層に存在する微小血管の情報の劣化を抑制しつつ、当該微小血管の観察に適した明るさを具備する画像を表示装置5に表示させることができる。
 なお、本実施例によれば、例えば、第1のフィルタ群34Aを経て出射されている光がB光であることを検出した場合において、受光部101における読出モードを、第1の実施例と同様の読出動作を行う単画素読出モードに設定するための制御を行うとともに、第1のフィルタ群34Aを経て出射されている光がR光またはG光であることを検出した場合において、受光部101における読出モードを、前述のような読出動作を行う画素加算読出モードに設定するための制御を行うようにしてもよい。そして、このような制御によれば、例えば、生体粘膜表層に存在する微小血管の情報の劣化を抑制しつつ、当該微小血管の観察に適した明るさを具備する画像を表示装置5に表示させることができる。
 また、本実施例によれば、例えば、第1のフィルタ群34Aを経て出射されている光がG光であることを検出した場合において、受光部101における読出モードを、第1の実施例と同様の読出動作を行う単画素読出モードに設定するための制御を行うとともに、第1のフィルタ群34Aを経て出射されている光がB光またはR光であることを検出した場合において、受光部101における読出モードを、前述のような読出動作を行う画素加算読出モードに設定するための制御を行うようにしてもよい。そして、このような制御によれば、例えば、生体粘膜表層に存在する特徴的な構造を具備する微小血管の情報の劣化を抑制しつつ、当該微小血管の観察に適した明るさを具備する画像を表示装置5に表示させることができる。
 以上に述べたように、本実施例によれば、現在の観察モードが白色光観察モードであり、かつ、被写体が遠景で観察されている場合において、第1のフィルタ群34Aを経て出射されている光に応じ、受光部101における読出モードを切り替えるための動作が行われる。そのため、本実施例によれば、現在の観察モードが白色光観察モードであり、かつ、被写体が遠景で観察されている場合において、例えば、被検者の体腔内に存在する病変等の被写体の特定に適した明るさ及び解像力を具備するような、S/N及び解像度の高い観察画像を表示装置5に表示させることができる。
 なお、本実施例によれば、画素加算読出モードにおいて、相互に隣接する画素群同士が重複しない状態で電気信号の読み出しが行われるものに限らず、例えば、相互に隣接する画素群同士の一部の画素が重複した状態で電気信号の読み出しが行われるものであってもよい。
 また、本実施例においては、第1のフィルタ群34Aの代わりに、例えば、図7に示すような第1のフィルタ群34Cを設けて回転フィルタ34を構成してもよい。図7は、回転フィルタの構成の、図4とは異なる例を示す図である。
 第1のフィルタ群34Cは、R光を透過させるRフィルタ341と、G光を透過させるGフィルタ342と、B光を透過させるBフィルタ343と、の面積比が1:FG:FBになるように形成されている。但し、前述のFG及びFBは、いずれも2以上の所定の値であるものとする。すなわち、このような第1のフィルタ群34Cの構成によれば、G光及びB光をR光の2倍以上の出射時間でそれぞれ出射することができる。
 一方、画像処理部42は、第1のフィルタ群34Cが回転フィルタ34に設けられ、現在の観察モードが白色光観察モードであり、かつ、被写体が遠景で観察されている場合において、画像RI、GI及びBIを合成することにより、RGBカラー画像を生成する。
 ここで、画素加算読出モードにおいて、例えば、相互に隣接する4つの画素により構成される画素群で生成された電気信号を加算して1画素分の電気信号として読み出す読出動作が行われた場合、画像処理部42は、画像RIのサイズを4倍に拡大し、さらに、拡大後の画像RIと、画像GIと、画像BIと、を合成するような処理を行うことにより、RGBカラー画像を生成する。図8は、画像処理部において行われる処理の一例を説明するための図である。
 そして、前述のような画像処理部42の処理によれば、例えば、図8に示すように、拡大後の画像RIにおいて、相互に隣接する4つの画素PX1~PX4の輝度値が同一の輝度値RBになる。また、前述のような画像処理部42の処理によれば、例えば、図8に示すように、RGBカラー画像において、画素PX1の画素値がRB、GB1及びBB1になり、画素PX2の画素値がRB、GB2及びBB2になり、画素PX3の画素値がRB、GB3及びBB3になり、画素PX4の画素値がRB、GB4及びBB4になる。
 そのため、第1のフィルタ群34Aの代わりに第1のフィルタ群34Cを設けて回転フィルタ34を構成することにより、現在の観察モードが白色光観察モードであり、かつ、被写体が遠景で観察されている場合において、表示装置5に表示される観察画像のS/Nをさらに向上させることができる。
 また、本実施例によれば、例えば、近赤外域の光であるIR光を透過させるような光学特性を具備するIRフィルタを加えて第1のフィルタ群34Aを構成することにより、R光と、G光と、B光と、IR光と、が光源装置3から順次出射されるようにしてもよい。また、本実施例によれば、前述のような第1のフィルタ群34Aの構成に応じ、例えば、被写体が遠景で観察されており、かつ、第1のフィルタ群34Aを経て出射されている光がB光またはG光であることを検出した場合において、受光部101における読出モードを単画素読出モードに設定するための制御を行い、被写体が遠景で観察されており、かつ、第1のフィルタ群34Aを経て出射されている光がR光またはIR光であることを検出した場合において、受光部101における読出モードを画素加算読出モードに設定するための制御を行うようにしてもよい。そして、このような制御によれば、例えば、生体粘膜深部に存在する太径の血管を含む画像を表示装置5に表示させることができ、その結果、電気メス等を用いた処置において当該血管の損傷を防止することができる。
 なお、本発明は、上述した各実施例に限定されるものではなく、発明の趣旨を逸脱しない範囲内において種々の変更や応用が可能であることは勿論である。
 本出願は、2014年10月6日に日本国に出願された特願2014-205855号を優先権主張の基礎として出願するものであり、上記の開示内容は、本願明細書、請求の範囲、図面に引用されたものとする。

Claims (17)

  1.  被写体を照明するための照明光として、相互に異なる複数の波長帯域の光を順次出射するように構成された光源装置と、
     前記照明光により照明された前記被写体からの光を結像するように構成された対物光学系と、
     前記対物光学系により結像された光を受光し、当該受光した光を光電変換して電気信号を生成するための複数の画素を2次元状に配設して形成された撮像面を具備する撮像素子と、
     前記被写体が遠景または近景のどちらで観察されているかを判定するための判定処理を行うように構成された判定部と、
     前記判定部の判定処理により得られた判定結果に応じ、前記撮像素子における読出モードを、前記撮像面に配設された各画素で生成された電気信号を1画素分ずつ順次読み出すモードである単画素読出モード、または、前記撮像面において相互に隣接して配設された複数の画素により構成される1つの画素群で生成された電気信号を1画素分の電気信号として順次読み出すモードである画素加算読出モードのいずれかに設定するための制御を行うように構成された撮像制御部と、
     を有することを特徴とする撮像システム。
  2.  前記撮像制御部は、前記撮像素子における読出モードを前記画素加算読出モードに設定した際に、前記撮像面において相互に隣接する画素群同士の一部の画素が重複した状態で電気信号の読み出しを行わせるための制御を行うことを特徴とする請求項1に記載の撮像システム。
  3.  前記撮像制御部は、前記撮像素子における読出モードを前記画素加算読出モードに設定した際に、前記撮像面において相互に隣接する画素群同士が重複しない状態で電気信号の読み出しを行わせるための制御を行うことを特徴とする請求項1に記載の撮像システム。
  4.  前記判定部は、前記撮像素子から読み出された電気信号の出力値を検出することにより、前記被写体が遠景または近景のどちらで観察されているかを判定することを特徴とする請求項1に記載の撮像システム。
  5.  前記撮像面の外縁部には、前記対物光学系により結像された光を通過させるように形成された開口と、前記対物光学系により結像された光を遮光するように形成された遮光部材と、を有して構成された遮光部が設けられており、
     前記判定部は、前記開口に位置する画素または画素群から読み出された電気信号の出力値を検出することにより、前記被写体が遠景または近景のどちらで観察されているかを判定することを特徴とする請求項4に記載の撮像システム。
  6.  前記対物光学系に設けられ、前記対物光学系の光軸方向に沿って移動することができるように構成された移動レンズをさらに有し、
     前記判定部は、前記移動レンズの現在の配置位置を検出することにより、前記被写体が遠景または近景のどちらで観察されているかを判定することを特徴とする請求項1に記載の撮像システム。
  7.  前記移動レンズの光入射面の外縁部に設けられた光学的指標と、
     前記撮像素子から出力される信号に応じた画像を生成するように構成された画像生成部と、をさらに有し、
     前記判定部は、前記画像生成部において生成された画像に前記光学的指標が含まれているか否かを検出することにより、前記被写体が遠景または近景のどちらで観察されているかを判定することを特徴とする請求項6に記載の撮像システム。
  8.  前記光源装置から出射される前記照明光の光量を調整するための制御を行うとともに、前記照明光の光量の調整における現在の制御状態を示す制御情報を出力するように構成された調光制御部をさらに有し、
     前記判定部は、前記調光制御部から出力される前記制御情報に基づき、前記被写体が遠景または近景のどちらで観察されているかを判定することを特徴とする請求項1に記載の撮像システム。
  9.  前記光源装置は、前記照明光の光量を絞り量に応じた光量に調整することができるように構成された絞り装置を有し、
     前記調光制御部は、前記照明光の光量を調整するための制御を前記絞り装置に対して行うとともに、前記絞り装置における現在の絞り量を示す情報を前記制御情報として出力することを特徴とする請求項8に記載の撮像システム。
  10.  前記光源装置は、前記照明光の光量を駆動電流の大きさに応じた光量に調整することができるように構成された光源を有し、
     前記調光制御部は、前記照明光の光量を調整するための制御を前記光源に対して行うとともに、前記光源に対して現在供給されている駆動電流の大きさを示す情報を前記制御情報として出力することを特徴とする請求項8に記載の撮像システム。
  11.  前記対物光学系を経て前記撮像素子に結像される光の光量を絞り量に応じた光量に調整することができるように構成された絞り装置をさらに有し、
     前記撮像制御部は、前記判定部の判定処理により得られた判定結果に応じ、前記絞り装置における絞り量を変化させるための制御を行うことを特徴とする請求項1に記載の撮像システム。
  12.  前記光源装置は、前記照明光として順次出射する光を、複数色の広帯域光または複数色の狭帯域光のいずれかに切り替えることができるように構成されており、
     前記判定部は、前記光源装置から出射されている光が前記狭帯域光であることを検出した際に、前記被写体が近景で観察されているとの判定結果を得ることを特徴とする請求項1に記載の撮像システム。
  13.  前記光源装置は、前記照明光として、赤色の波長帯域の光と、緑色の波長帯域の光と、
    青色の波長帯域の光と、を順次出射するように構成されており、
     前記撮像制御部は、前記被写体が遠景で観察されているとの判定結果が得られ、かつ、前記光源装置から前記照明光として前記緑色の波長帯域の光または前記青色の波長帯域の光が出射されていることを検出した場合に、前記撮像素子における読出モードを前記単画素読出モードに設定するための制御を行い、前記被写体が遠景で観察されているとの判定結果が得られ、かつ、前記光源装置から前記照明光として前記赤色の波長帯域の光が出射されていることを検出した場合に、前記撮像素子における読出モードを前記画素加算読出モードに設定するための制御を行うことを特徴とする請求項1に記載の撮像システム。
  14.  前記光源装置は、前記緑色の波長帯域の光及び前記青色の波長帯域の光を、前記赤色の波長帯域の光の2倍以上の出射時間でそれぞれ出射するように構成されていることを特徴とする請求項13に記載の撮像システム。
  15.  前記光源装置は、前記照明光として、赤色の波長帯域の光と、緑色の波長帯域の光と、
    青色の波長帯域の光と、を順次出射するように構成されており、
     前記撮像制御部は、前記被写体が遠景で観察されているとの判定結果が得られ、かつ、前記光源装置から前記照明光として前記青色の波長帯域の光が出射されていることを検出した場合に、前記撮像素子における読出モードを前記単画素読出モードに設定するための制御を行い、前記被写体が遠景で観察されているとの判定結果が得られ、かつ、前記光源装置から前記照明光として前記赤色の波長帯域の光または前記緑色の波長帯域の光が出射されていることを検出した場合に、前記撮像素子における読出モードを前記画素加算読出モードに設定するための制御を行うことを特徴とする請求項1に記載の撮像システム。
  16.  前記光源装置は、前記照明光として、赤色の波長帯域の光と、緑色の波長帯域の光と、青色の波長帯域の光と、近赤外域の光と、を順次出射するように構成されており、
     前記撮像制御部は、前記被写体が遠景で観察されているとの判定結果が得られ、かつ、前記光源装置から前記照明光として前記緑色の波長帯域の光または前記青色の波長帯域の光が出射されていることを検出した場合に、前記撮像素子における読出モードを前記単画素読出モードに設定するための制御を行い、前記被写体が遠景で観察されているとの判定結果が得られ、かつ、前記光源装置から前記照明光として前記赤色の波長帯域の光または前記近赤外域の光が出射されていることを検出した場合に、前記撮像素子における読出モードを前記画素加算読出モードに設定するための制御を行うことを特徴とする請求項1に記載の撮像システム。
  17.  前記対物光学系及び前記撮像素子が、被検者の体腔内に挿入される内視鏡挿入部の先端部に設けられていることを特徴とする請求項1に記載の撮像システム。
PCT/JP2015/075082 2014-10-06 2015-09-03 撮像システム Ceased WO2016056332A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016530036A JP6049949B2 (ja) 2014-10-06 2015-09-03 撮像システム
US15/455,213 US10191271B2 (en) 2014-10-06 2017-03-10 Image pickup system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014205855 2014-10-06
JP2014-205855 2014-10-06

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/455,213 Continuation US10191271B2 (en) 2014-10-06 2017-03-10 Image pickup system

Publications (1)

Publication Number Publication Date
WO2016056332A1 true WO2016056332A1 (ja) 2016-04-14

Family

ID=55652955

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/075082 Ceased WO2016056332A1 (ja) 2014-10-06 2015-09-03 撮像システム

Country Status (3)

Country Link
US (1) US10191271B2 (ja)
JP (1) JP6049949B2 (ja)
WO (1) WO2016056332A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2017183392A1 (ja) * 2016-04-22 2018-12-13 オリンパス株式会社 検査システムおよび内視鏡システム
US20200397266A1 (en) * 2017-03-10 2020-12-24 Transenterix Surgical, Inc. Apparatus and method for enhanced tissue visualization
US11259892B2 (en) 2017-03-10 2022-03-01 Asensus Surgical Us, Inc. Instrument for optical tissue interrogation
US12489960B2 (en) 2016-11-10 2025-12-02 Asensus Surgical Us, Inc. Communication of detected grasping forces in a surgical robotic platform

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019176253A1 (ja) * 2018-03-15 2019-09-19 ソニー・オリンパスメディカルソリューションズ株式会社 医療用観察システム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10170840A (ja) * 1996-12-09 1998-06-26 Fuji Photo Optical Co Ltd 内視鏡用光源装置
JP2007020728A (ja) * 2005-07-13 2007-02-01 Olympus Medical Systems Corp 画像処理装置
JP2011147707A (ja) * 2010-01-25 2011-08-04 Olympus Corp 撮像装置、内視鏡システム及び撮像装置の制御方法
JP2012045265A (ja) * 2010-08-30 2012-03-08 Fujifilm Corp 電子内視鏡システム、電子内視鏡システムのプロセッサ装置及び電子内視鏡システムにおける撮像制御方法
JP2012125331A (ja) * 2010-12-14 2012-07-05 Fujifilm Corp 内視鏡システム
JP2012235281A (ja) * 2011-04-28 2012-11-29 Jvc Kenwood Corp 3d画像撮像装置及びプログラム
JP2014068894A (ja) * 2012-09-28 2014-04-21 Fujifilm Corp 内視鏡システム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3967500B2 (ja) * 1999-09-08 2007-08-29 富士フイルム株式会社 固体撮像装置および信号読出し方法
JP2001147707A (ja) * 1999-11-24 2001-05-29 Olympus Optical Co Ltd 加工実績記録装置
JP3548504B2 (ja) * 2000-06-26 2004-07-28 キヤノン株式会社 信号処理装置、信号処理方法、及び撮像装置
JP4503823B2 (ja) * 2000-12-22 2010-07-14 富士フイルム株式会社 画像信号処理方法
JP2006121650A (ja) * 2004-09-24 2006-05-11 Fuji Photo Film Co Ltd 固体撮像装置
JP5629442B2 (ja) 2009-09-04 2014-11-19 株式会社トプコン 眼科撮影装置
JP5496852B2 (ja) * 2010-10-26 2014-05-21 富士フイルム株式会社 電子内視鏡システム、電子内視鏡システムのプロセッサ装置、及び電子内視鏡システムの作動方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10170840A (ja) * 1996-12-09 1998-06-26 Fuji Photo Optical Co Ltd 内視鏡用光源装置
JP2007020728A (ja) * 2005-07-13 2007-02-01 Olympus Medical Systems Corp 画像処理装置
JP2011147707A (ja) * 2010-01-25 2011-08-04 Olympus Corp 撮像装置、内視鏡システム及び撮像装置の制御方法
JP2012045265A (ja) * 2010-08-30 2012-03-08 Fujifilm Corp 電子内視鏡システム、電子内視鏡システムのプロセッサ装置及び電子内視鏡システムにおける撮像制御方法
JP2012125331A (ja) * 2010-12-14 2012-07-05 Fujifilm Corp 内視鏡システム
JP2012235281A (ja) * 2011-04-28 2012-11-29 Jvc Kenwood Corp 3d画像撮像装置及びプログラム
JP2014068894A (ja) * 2012-09-28 2014-04-21 Fujifilm Corp 内視鏡システム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2017183392A1 (ja) * 2016-04-22 2018-12-13 オリンパス株式会社 検査システムおよび内視鏡システム
US12489960B2 (en) 2016-11-10 2025-12-02 Asensus Surgical Us, Inc. Communication of detected grasping forces in a surgical robotic platform
US20200397266A1 (en) * 2017-03-10 2020-12-24 Transenterix Surgical, Inc. Apparatus and method for enhanced tissue visualization
US11259892B2 (en) 2017-03-10 2022-03-01 Asensus Surgical Us, Inc. Instrument for optical tissue interrogation
US12102487B2 (en) 2017-03-10 2024-10-01 Asensus Surgical Us, Inc. Instrument for optical tissue interrogation

Also Published As

Publication number Publication date
JPWO2016056332A1 (ja) 2017-04-27
US10191271B2 (en) 2019-01-29
US20170184838A1 (en) 2017-06-29
JP6049949B2 (ja) 2016-12-21

Similar Documents

Publication Publication Date Title
CN103347433B (zh) 医疗设备
US10335014B2 (en) Endoscope system, processor device, and method for operating endoscope system
JP5259882B2 (ja) 撮像装置
JP5670264B2 (ja) 内視鏡システム、及び内視鏡システムの作動方法
JP6435275B2 (ja) 内視鏡装置
JP6049949B2 (ja) 撮像システム
JP6072374B2 (ja) 観察装置
JP5558635B2 (ja) 内視鏡装置
WO2014125724A1 (ja) 内視鏡装置
WO2013024788A1 (ja) 撮像装置
JP2010012102A (ja) 光源装置及びこの光源装置を用いた内視鏡装置
CN106255441B (zh) 内窥镜装置
JP6137892B2 (ja) 撮像システム
JP6937902B2 (ja) 内視鏡システム
JP5467970B2 (ja) 電子内視鏡システム
JP5467972B2 (ja) 電子内視鏡システム、電子内視鏡システムのプロセッサ装置及び電子内視鏡システムの作動方法
JPWO2016059906A1 (ja) 内視鏡装置及び内視鏡用光源装置
JP5371941B2 (ja) 内視鏡システム
JP2845276B2 (ja) 内視鏡装置
CN115280212A (zh) 医疗观察系统、控制装置及控制方法
JP6801990B2 (ja) 画像処理システムおよび画像処理装置
JP5072404B2 (ja) 蛍光観察電子内視鏡装置
JPH03162820A (ja) 内視鏡装置

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2016530036

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15848827

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15848827

Country of ref document: EP

Kind code of ref document: A1