[go: up one dir, main page]

WO2025244129A1 - 撮像装置及び蛍光内視鏡装置 - Google Patents

撮像装置及び蛍光内視鏡装置

Info

Publication number
WO2025244129A1
WO2025244129A1 PCT/JP2025/018739 JP2025018739W WO2025244129A1 WO 2025244129 A1 WO2025244129 A1 WO 2025244129A1 JP 2025018739 W JP2025018739 W JP 2025018739W WO 2025244129 A1 WO2025244129 A1 WO 2025244129A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
wavelength band
image
fluorescence
wavelength
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
PCT/JP2025/018739
Other languages
English (en)
French (fr)
Inventor
真広 吉野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Medical Systems Corp
Original Assignee
Olympus Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Medical Systems Corp filed Critical Olympus Medical Systems Corp
Publication of WO2025244129A1 publication Critical patent/WO2025244129A1/ja
Pending legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements

Definitions

  • the present invention relates to an imaging device and a fluorescence endoscope device.
  • a fluorescent endoscope device that irradiates an object of observation (such as a human subject) with visible light, such as excitation light or white light, emitted from a light source device, and observes the fluorescence emitted from a fluorescent reagent contained in the object of observation in response to the irradiation of the excitation light (see, for example, Patent Document 1).
  • the fluorescence endoscope device described in Patent Document 1 is capable of observing first and second fluorescence in two different wavelength bands corresponding to two types of first and second fluorescent reagents.
  • the fluorescence endoscope device includes a first light source that emits visible light (hereinafter referred to as white light), a second light source that emits first excitation light corresponding to the first fluorescent reagent, and a third light source that emits second excitation light corresponding to the second fluorescent reagent.
  • the fluorescence endoscope device also includes first and second image capture elements. The first image capture element is irradiated onto the observation object and captures the white light reflected by the observation object.
  • the second image capture element captures both the first fluorescence emitted from the first fluorescent reagent contained in the observation object when irradiated with the first excitation light, and the second fluorescence emitted from the second fluorescent reagent contained in the observation object when irradiated with the second excitation light.
  • a known first fluorescent reagent is one that emits a first fluorescent light having a peak wavelength near 700 nm when irradiated with a first excitation light.
  • a known second fluorescent reagent is one that emits a second fluorescent light having a peak wavelength near 800 nm when irradiated with a second excitation light.
  • the first fluorescent reagent is also sensitive to the second excitation light, and may emit the first fluorescent light even when irradiated with the second excitation light.
  • the second fluorescent reagent is also sensitive to the first excitation light, and may emit the second fluorescent light even when irradiated with the first excitation light.
  • the first and second fluorescence are captured by the same first image capturing element, and therefore, when attempting to simultaneously observe the first and second fluorescence, it is difficult to determine whether a high-luminance region in the captured image obtained by imaging with the first image capturing element is due to the first fluorescence or the second fluorescence.
  • the present invention was made in consideration of the above, and aims to provide an imaging device and a fluorescence endoscope device that can easily distinguish between the first and second fluorescence.
  • the imaging device of the present invention comprises a color separation optical element that separates incident light into three light beams: light in a first wavelength band that includes the wavelength band of a first fluorescence emitted from a first fluorescent reagent whose peak fluorescence wavelength is from 700 nm to 800 nm; light in a second wavelength band that includes the wavelength band of a second fluorescence emitted from a second fluorescent reagent whose peak fluorescence wavelength is longer than the peak wavelength of the first fluorescence; and light in a third wavelength band that includes part of the wavelength band of visible light; a first imaging element that captures the light in the first wavelength band; a second imaging element that captures the light in the second wavelength band; and a third imaging element that captures the light in the third wavelength band.
  • the fluorescence endoscope device includes a first light source that emits normal light including a wavelength band of visible light, a second light source that emits first excitation light for exciting a first fluorescent reagent having a peak fluorescence emission wavelength in the vicinity of 700 nm, a third light source that emits second excitation light for exciting a second fluorescent reagent having a peak fluorescence emission wavelength in the vicinity of 800 nm, and a third light source that outputs incident light including light in a first wavelength band that includes the wavelength band of the first fluorescence emitted from the first fluorescent reagent and light in a second wavelength band that includes the wavelength band of the second fluorescence emitted from the second fluorescent reagent.
  • a color separation optical element that separates light into three light beams: light in a first wavelength band and light in a third wavelength band including a part of the wavelength band of visible light; a first image capture element that captures the light in the first wavelength band; a second image capture element that captures the light in the second wavelength band; and a third image capture element that captures the light in the third wavelength band; and a processor that controls operations of the first light source, the second light source, the third light source, the first image capture element, the second image capture element, and the third image capture element, wherein the first wavelength band includes a red wavelength band of visible light, and The second wavelength band includes a blue wavelength band of visible light, and the third wavelength band includes a green wavelength band of visible light.
  • the processor alternately turns on the first light source and at least one of the second light source and the third light source.
  • the processor generates a normal light image corresponding to the normal light based on a first captured image obtained by capturing light of the first wavelength band using the first image sensor, a second captured image obtained by capturing light of the second wavelength band using the second image sensor, and a third captured image obtained by capturing light of the third wavelength band using the third image sensor.
  • the processor At the timing when the at least one light source is turned on, the processor generates a fluorescence image corresponding to at least one of the first fluorescence and the second fluorescence based on at least one of the first captured image obtained by capturing light of the first wavelength band using the first image sensor and the second captured image obtained by capturing light of the second wavelength band using the second image sensor.
  • the fluorescence endoscope device comprises a first light source that emits normal light including a wavelength band of visible light, a second light source that emits first excitation light for exciting a first fluorescent reagent having a peak fluorescence emission wavelength near 700 nm, a third light source that emits second excitation light for exciting a second fluorescent reagent having a peak fluorescence emission wavelength near 800 nm, a color separation optical element that separates incident light into three light beams: light in a first wavelength band that includes the wavelength band of the first fluorescence emitted from the first fluorescent reagent, light in a second wavelength band that includes the wavelength band of the second fluorescence emitted from the second fluorescent reagent, and light in a third wavelength band that includes a portion of the wavelength band of visible light, a first image sensor that captures the light in the first wavelength band, a second image sensor that captures the light in the second wavelength band, and a third image sensor that captures the light in the third wavelength band, and a
  • the imaging device and fluorescence endoscope device according to the present invention make it easy to distinguish between the first and second fluorescence.
  • FIG. 1 is a diagram showing the configuration of a fluorescence endoscope apparatus according to an embodiment.
  • FIG. 2 is a diagram showing the absorption spectrum of the first fluorescent reagent.
  • FIG. 3 is a diagram showing the absorption spectrum of the second fluorescent reagent.
  • FIG. 4 is a diagram illustrating the wavelengths of the first and second excitation lights.
  • FIG. 5 is a block diagram showing the configuration of the camera head and the control device.
  • FIG. 6 is a diagram showing the configuration of the imaging unit.
  • FIG. 7 is a diagram showing the wavelength band (first wavelength band) of light captured by the first image sensor.
  • FIG. 8 is a diagram showing a wavelength band (third wavelength band) of light captured by the third image sensor.
  • FIG. 1 is a diagram showing the configuration of a fluorescence endoscope apparatus according to an embodiment.
  • FIG. 2 is a diagram showing the absorption spectrum of the first fluorescent reagent.
  • FIG. 3 is a diagram showing the absorption spectrum of the second fluorescent
  • FIG. 9 is a diagram showing the wavelength band (second wavelength band) of light captured by the second image sensor.
  • FIG. 10 is a diagram showing the operations of the light source device and the first to third image pickup elements in the third fluorescence observation mode.
  • FIG. 11 is a diagram showing the operations of the light source device and the first to third image pickup elements in the first fluorescence observation mode.
  • FIG. 12 is a diagram showing the operations of the light source device and the first to third image pickup elements in the second fluorescence observation mode.
  • FIG. 13 is a diagram illustrating a first modification of the embodiment.
  • FIG. 14 is a diagram illustrating a first modification of the embodiment.
  • FIG. 15 is a diagram illustrating a first modification of the embodiment.
  • FIG. 16 is a diagram illustrating a first modification of the embodiment.
  • FIG. 17 is a diagram illustrating a first modification of the embodiment.
  • FIG. 18 is a diagram illustrating a second modification of the embodiment.
  • FIG. 19 is a diagram illustrating a
  • FIG. 1 is a diagram showing the configuration of a fluorescence endoscope apparatus 1 according to an embodiment.
  • the fluorescence endoscope device 1 is an endoscope device that uses an endoscope to perform fluorescence observation of an observation target (inside a living body).
  • the fluorescence endoscope device 1 includes an insertion section 2, a light source device 3, a light guide 4, a camera head 5, a first transmission cable 6, a display device 7, a second transmission cable 8, a control device 9, and a third transmission cable 10.
  • the insertion section 2 is a rigid endoscope. That is, the insertion section 2 has an elongated shape that is either entirely rigid or partially flexible and partially rigid, and is inserted into the object to be observed. Inside this insertion section 2 is an optical system (not shown) that is configured using one or more lenses and focuses the normal light and first and second excitation light reflected by the object to be observed, as well as the first and second fluorescence emitted from the first and second fluorescent reagents contained in the object to be observed.
  • the normal light and first and second excitation light reflected by the object to be observed, as well as the first and second fluorescence emitted from the first and second fluorescent reagents contained in the object to be observed, will be referred to below as the subject image.
  • an excitation light cut filter 22 (Figure 1) is provided at the base end (eyepiece 21) of the insertion section 2 to remove the first and second excitation light contained in the focused subject image.
  • the excitation light cut filter 22 is not limited to being provided in the insertion section 2, and may also be provided within the camera head 5.
  • the light source device 3 includes first to third light sources 31 to 33, as shown in FIG.
  • the first light source 31 supplies normal light (hereinafter referred to as white light) including a wavelength band of visible light to one end of the light guide 4 under the control of the control device 9 .
  • the second light source 32 supplies one end of the light guide 4 with first excitation light for exciting a first fluorescent reagent contained in the observation target.
  • the third light source 33 supplies second excitation light to one end of the light guide 4 for exciting a second fluorescent reagent contained in the observation target.
  • the first to third light sources 31 to 33 may be configured using LEDs (Light Emitting Diodes) or semiconductor lasers.
  • the first fluorescent reagent has the following properties.
  • 2 is a diagram showing the absorption spectrum of the first fluorescent reagent, in which the horizontal axis represents wavelength [nm] and the vertical axis represents absorbance of the absorption spectrum.
  • the peak wavelength of the absorption spectrum of the first fluorescent reagent is near 680 nm, as shown in Figure 2. Therefore, in order to increase the intensity of the first fluorescence emitted from the first fluorescent reagent, it is preferable to use excitation light having a wavelength near 680 nm as the first excitation light. Furthermore, when excited by the first excitation light, the first fluorescent reagent emits first fluorescence having a wavelength near 700 nm.
  • the second fluorescent reagent has the following properties: 3 is a diagram showing the absorption spectrum of the second fluorescent reagent, in which the horizontal axis represents wavelength [nm] and the vertical axis represents absorbance of the absorption spectrum.
  • the peak wavelength of the absorption spectrum of the second fluorescent reagent is near 800 [nm], as shown in Figure 3. Therefore, in order to increase the intensity of the second fluorescence emitted from the second fluorescent reagent, it is preferable to use excitation light having a wavelength near 800 [nm] as the second excitation light. Furthermore, when excited by the second excitation light, the second fluorescent reagent emits second fluorescence having a wavelength near 800 [nm].
  • Figure 4 is a diagram explaining the wavelengths of the first and second excitation light. Specifically, Figure 4 is a diagram showing the wavelengths of the first and second excitation light relative to the absorption spectra of the first and second fluorescent reagents shown in Figures 2 and 3.
  • the curve indicated by the symbol “CL1” shows the absorption spectrum of the first fluorescent reagent.
  • the curve indicated by the symbol “CL2” shows the absorption spectrum of the second fluorescent reagent.
  • the wavelength indicated by the symbol “P1” shows the wavelength of the first excitation light.
  • the wavelength indicated by the symbol “P2” shows the wavelength of the second excitation light.
  • the second fluorescent reagent is also sensitive to the first excitation light having a wavelength P1 in the vicinity of 680 nm, and emits the second fluorescent light even when irradiated with the first excitation light. For this reason, it is difficult to distinguish between the first and second fluorescent lights when observing them simultaneously.
  • the first fluorescent reagent is insensitive to the second excitation light, which has a wavelength P2 in the vicinity of 800 nm, and does not emit the first fluorescence even when irradiated with the second excitation light.
  • the light source device 3 is configured as a separate unit from the control device 9, but this is not limiting, and the light source device 3 may also be configured to be provided in the same housing as the control device 9.
  • the light guide 4 propagates the white light and first and second excitation light supplied from the light source device 3 (first to third light sources 31 to 33) from one end to the other, supplying them to the insertion section 2.
  • the white light and first and second excitation light supplied to the insertion section 2 are emitted from the tip of the insertion section 2 and irradiated onto the observation object.
  • the white light and first and second excitation light irradiated onto the observation object and reflected by the observation object, as well as the first and second fluorescence (subject images) emitted from the first and second fluorescent reagents contained in the observation object, are each focused by the optical system within the insertion section 2.
  • the camera head 5 is detachably connected to the proximal end (eyepiece 21 ( FIG. 1 )) of the insertion section 2.
  • the camera head 5 captures an image of a subject after light is collected by the insertion section 2 and the first and second excitation lights have been removed by the excitation light cut filter 22.
  • the image signal obtained by capturing an image with the camera head 5 will hereinafter be collectively referred to as a captured image.
  • the subject image after the first and second excitation lights have been removed by the excitation light cut filter 22 will be referred to as an excitation light-removed subject image.
  • the detailed configuration of the camera head 5 will be described later in the section "Configuration of the Camera Head.”
  • the first transmission cable 6 transmits captured images output from the camera head 5 to the control device 9, and also transmits control signals, synchronization signals, clocks, power, etc. sent from the control device 9 to the camera head 5.
  • the captured images and other data transmitted from the camera head 5 to the control device 9 via the first transmission cable 6 may be transmitted as optical signals or electrical signals. The same applies to the transmission of control signals, synchronization signals, and clocks from the control device 9 to the camera head 5 via the first transmission cable 6.
  • the display device 7 is composed of a display using liquid crystal or organic EL (Electro Luminescence) or the like, and displays images based on video signals from the control device 9 under the control of the control device 9.
  • liquid crystal or organic EL Electro Luminescence
  • One end of the second transmission cable 8 is detachably connected to the display device 7.
  • the other end of the second transmission cable 8 is detachably connected to the control device 9.
  • the second transmission cable 8 then transmits the video signal processed by the control device 9 to the display device 7.
  • the control device 9 includes controllers such as a CPU (Central Processing Unit) and an MPU (Micro Processing Unit), and comprehensively controls the operations of the light source device 3, the camera head 5, and the display device 7.
  • controllers such as a CPU (Central Processing Unit) and an MPU (Micro Processing Unit), and comprehensively controls the operations of the light source device 3, the camera head 5, and the display device 7.
  • the control device 9 is not limited to a CPU or an MPU, and may include an ASIC (Application Specific Integrated Circuit), an FPGA (Field-Programmable Gate Array), a GPU (Graphics Processing Unit), or the like.
  • ASIC Application Specific Integrated Circuit
  • FPGA Field-Programmable Gate Array
  • GPU Graphics Processing Unit
  • One end of the third transmission cable 10 is detachably connected to the light source device 3.
  • the other end of the third transmission cable 10 is detachably connected to the control device 9.
  • the third transmission cable 10 transmits control signals from the control device 9 to the light source device 3.
  • FIG. 5 is a block diagram showing the configuration of the camera head 5 and the control device 9.
  • the camera head 5 includes a lens unit 51 , an imaging unit 52 , and a communication unit 53 .
  • the lens unit 51 is composed of one or more lenses. The lens unit 51 then forms an image of the subject from which excitation light has been removed onto the imaging surfaces of the first to third image sensors 522 to 524, respectively.
  • FIG. 6 is a diagram showing the configuration of the imaging unit 52.
  • FIG. 7 is a diagram showing the wavelength band (first wavelength band) of light imaged by the first imaging element 522.
  • FIG. 8 is a diagram showing the wavelength band (third wavelength band) of light imaged by the third imaging element 524.
  • FIG. 9 is a diagram showing the wavelength band (second wavelength band) of light imaged by the second imaging element 523. Note that in FIGS. 7 to 9, the horizontal axis represents Wavelength [nm] and the vertical axis represents Transmittance [%]. Also, in FIGS.
  • the red, green, and blue wavelength bands are represented by the letters “R,” “G,” and “B,” respectively, the wavelength band of the first fluorescence is represented by the letter “700,” and the wavelength band of the second fluorescence is represented by the letter "800.”
  • the imaging unit 52 corresponds to the imaging device according to the present invention. This imaging unit 52 generates a captured image by capturing an image of a subject from which excitation light has been removed. As shown in Figures 5 and 6, the imaging unit 52 includes a prism 521, first to third image sensors 522 to 524, and a signal processing unit 525.
  • Prism 521 corresponds to the color separation optical element according to the present invention. Prism 521 separates the incident light into three light beams: light L1 ( Figure 6) in a first wavelength band that includes the wavelength band of the first fluorescent light, light L2 ( Figure 6) in a second wavelength band that includes the wavelength band of the second fluorescent light, and light L3 ( Figure 6) in a third wavelength band that includes part of the wavelength band of visible light.
  • the light L1 of the first wavelength band is light in the wavelength band from 600 nm to 760 nm, which includes the red wavelength band of visible light and the wavelength band of the first fluorescence.
  • the light L2 of the second wavelength band is light in the wavelength band that includes the blue wavelength band of visible light from 400 nm to 500 nm and the wavelength band of the second fluorescence from 800 nm to 900 nm.
  • the light L3 of the third wavelength band is light in the green wavelength band of visible light.
  • the prism 521 is a prism formed by combining three light-transmitting members 521a to 521c.
  • the two light-transmitting members 521a and 521c have a triangular prism shape extending in a direction perpendicular to the plane of FIG. 6.
  • the light-transmitting member 521c has a quadrangular prism shape extending in a direction perpendicular to the plane of FIG. 6.
  • a first dichroic filter 521d is provided at the interface between the two light-transmitting members 521a and 521b.
  • a second dichroic filter 521e is provided at the interface between the two light-transmitting members 521b and 521c.
  • the first dichroic filter 521d corresponds to the first reflective optical element according to the present invention.
  • This first dichroic filter 521d has the property of reflecting light L2 in the second wavelength band and transmitting light in other wavelength bands. Therefore, of the subject image from which excitation light has been removed that is incident on the prism 521, light L2 in the second wavelength band is reflected by the first dichroic filter 521d, is totally reflected within the translucent member 521a, and then travels toward the second image sensor 523 ( Figures 6 and 9).
  • the second dichroic filter 521e corresponds to the second reflective optical element according to the present invention.
  • This second dichroic filter 521e has the property of reflecting light L1 in a first wavelength band and transmitting light in other wavelength bands. Therefore, of the light that passes through the first dichroic filter 521e, light L1 in the first wavelength band is reflected by the second dichroic filter 521e, is totally reflected within the translucent member 521b, and then travels toward the first image sensor 522 ( Figures 6 and 7).
  • light L3 in a third wavelength band that passes through the second dichroic filter 521e passes through the translucent member 521c, and then travels toward the third image sensor 524 ( Figures 6 and 8).
  • the first to third image sensors 522-524 receive incident light and convert it into an electrical signal (analog signal).
  • Examples of these first to third image sensors 522-524 include a CMOS (Complementary Metal Oxide Semiconductor), which is a rolling shutter type image sensor in which multiple pixels are arranged two-dimensionally in horizontal line units, or a CCD (Charge Coupled Device), which is a global shutter type image sensor.
  • CMOS Complementary Metal Oxide Semiconductor
  • CCD Charge Coupled Device
  • the first image sensor 522 captures the light L1 of the first wavelength band separated by the prism 521 from the subject image from which the excitation light has been removed.
  • the image generated by the first image sensor 522 will be referred to as the first captured image below.
  • the second image sensor 523 captures light L2 of the second wavelength band separated by the prism 521 from the subject image from which the excitation light has been removed.
  • the image generated by the second image sensor 523 will be referred to as the second captured image below.
  • the third image sensor 524 captures light L3 of a third wavelength band separated by the prism 521 from the subject image from which the excitation light has been removed.
  • the image generated by the third image sensor 524 will be referred to as the third captured image below.
  • the light-receiving surfaces of the first to third image sensors 522 to 524 are not provided with color filters, which are arranged in a specific format (e.g., a Bayer array) with three filter groups grouped according to the wavelength bands of light to be transmitted (red, green, blue).
  • the first to third image sensors 522 to 524 are so-called monochrome image sensors.
  • the number of pixels in the first to third captured images may be different from each other, or may be the same.
  • the signal processing unit 525 performs signal processing on the captured images (analog signals) generated by the first to third image sensors 522 to 524, and outputs the captured images (digital signals). For example, the signal processing unit 525 performs signal processing such as removing reset noise from the captured images (analog signals) generated by the first to third image sensors 522 to 524, multiplying the analog signals by an analog gain that amplifies the analog signals (hereinafter referred to as analog gain adjustment), and A/D conversion.
  • analog gain adjustment an analog gain that amplifies the analog signals
  • the communication unit 53 functions as a transmitter that transmits the captured images sequentially output from the imaging unit 52 to the control device 9 via the first transmission cable 6.
  • the communication unit 53 may transmit the first to third captured images to the control device 9 in sequence, or may transmit the first to third captured images simultaneously.
  • control device 9 corresponds to a processor according to the present invention. As shown in Fig. 5 , the control device 9 includes a communication unit 91, a processing module 92, a control unit 93, an input unit 94, an output unit 95, and a storage unit 96.
  • the communication unit 91 functions as a receiver that receives captured images sequentially transmitted from the camera head 5 (communication unit 53) via the first transmission cable 6.
  • the processing module 92 processes the captured images sequentially transmitted from the camera head 5 (communication unit 53) and received by the communication unit 91. As shown in FIG. 5, this processing module 92 includes an image processing unit 921 and a display control unit 922.
  • the image processing unit 921 performs image processing on the input captured image (the captured image received by the communication unit 91). Examples of this image processing include optical black subtraction processing (clamping processing), white balance adjustment processing, demosaic processing, color correction matrix processing, gamma correction processing, YC processing that converts RGB signals into luminance color difference signals (Y, Cb/Cr signals), digital gain adjustment that multiplies by digital gain, noise removal, and filter processing that enhances structure.
  • optical black subtraction processing clamping processing
  • white balance adjustment processing demosaic processing
  • color correction matrix processing color correction matrix processing
  • gamma correction processing gamma correction processing
  • YC processing that converts RGB signals into luminance color difference signals (Y, Cb/Cr signals)
  • digital gain adjustment that multiplies by digital gain, noise removal, and filter processing that enhances structure.
  • image processing performed on the first to third captured images may be different from each other, or may be the same.
  • the display control unit 922 Under the control of the control unit 93, the display control unit 922 generates a video signal for displaying the captured image after image processing has been performed by the image processing unit 921. The display control unit 922 then outputs the video signal to the display device 7 via the second transmission cable 8.
  • the control unit 93 is realized by a controller such as a CPU or MPU executing various programs stored in the memory unit 96, and controls the operation of the light source device 3, camera head 5, and display device 7, as well as the operation of the entire control device 9.
  • the control unit 93 is not limited to a CPU or MPU, and may also include an ASIC, FPGA, GPU, etc.
  • the input unit 94 is configured using operation devices such as a mouse, keyboard, and touch panel, and accepts user operations by a user such as a surgeon. The input unit 94 then outputs an operation signal corresponding to the user operation to the control unit 93.
  • the output unit 95 is composed of a speaker, printer, etc., and outputs various information.
  • the memory unit 96 stores programs executed by the control unit 93, information necessary for the control unit 93's processing, etc.
  • the fluorescence endoscope device 1 is set to one of first to third fluorescence observation modes in response to, for example, a user operation on the input unit 94.
  • the first fluorescence observation mode is a mode in which fluorescence observation is performed using the first fluorescence.
  • the second fluorescence observation mode is a mode in which fluorescence observation is performed using the second fluorescence.
  • the third fluorescence observation mode is a mode in which fluorescence observation is performed using both the first and second fluorescence.
  • the operation of the fluorescence endoscope device 1 will be described below for each of the first to third fluorescence observation modes, assuming that the observation target contains both the first and second fluorescent reagents.
  • FIG. 10 is a diagram showing the operation of the light source device 3 and the first to third image pickup elements 522 to 524 in the third fluorescence observation mode.
  • (a) of FIG. 10 is a time chart showing the operating state of the first light source 31.
  • (b) of FIG. 10 is a time chart showing the operating state of the second light source 32.
  • (c) of FIG. 10 is a time chart showing the operating state of the third light source 33.
  • (d) of FIG. 10 is a time chart showing the operating state of the first image pickup element 522.
  • (e) of FIG. 10 is a time chart showing the operating state of the third image pickup element 524.
  • 10 is a time chart showing the operating state of the second image pickup element 523.
  • the white light is represented by the letters "WLI”
  • the first excitation light is represented by the letters "700”
  • the second excitation light is represented by the letters "800.”
  • the first captured image generated by capturing light in the red wavelength band is represented by the letters "R”
  • the first captured image generated by capturing the first fluorescent light is represented by the letters "700”
  • the third captured image generated by capturing light in the green wavelength band (light L3 of the third wavelength band) is represented by the letters "G”
  • the second captured image generated by capturing light in the blue wavelength band is represented by the letters "B”
  • the second captured image generated by capturing the second fluorescent light is represented by the letters "800.”
  • the control unit 93 controls the operations of the light source device 3 and the first to third image pickup elements 522 to 524 as follows.
  • the control unit 93 turns on the first light source 31 and turns off the second and third light sources 32 and 33 during the first frame period T1.
  • the first and second frame periods T1 and T2 are the same period and are alternately repeated.
  • control unit 93 turns off the first light source 31 and turns on the second and third light sources 32 and 33 during the second frame period T2 of the first and second frame periods T1 and T2.
  • control unit 93 causes the first to third image sensors 522 to 524 to perform imaging operations during the alternating first and second frame periods T1 and T2.
  • the first image sensor 522 captures light in the red wavelength band (light L1 in the first wavelength band) separated by the prism 521 from the subject image from which the excitation light has been removed, and generates a first captured image (hereinafter referred to as a red channel image). Furthermore, during the second frame period T2, the first image sensor 522 captures first fluorescence (light L1 in the first wavelength band) separated by the prism 521 from the subject image from which the excitation light has been removed, and generates a first captured image (hereinafter referred to as a first fluorescence image).
  • the second image sensor 523 captures light in the blue wavelength band (light L2 in the second wavelength band) separated by the prism 521 from the subject image from which the excitation light has been removed, and generates a second captured image (hereinafter referred to as the blue channel image). Furthermore, during the second frame period T2, the second image sensor 523 captures second fluorescence (light L2 in the second wavelength band) separated by the prism 521 from the subject image from which the excitation light has been removed, and generates a second captured image (hereinafter referred to as the second fluorescence image).
  • the third image sensor 524 captures light in the green wavelength band (light L3 in the third wavelength band) separated by the prism 521 from the subject image from which the excitation light has been removed, and generates a third captured image (hereinafter referred to as the green channel image). Furthermore, during the second frame period T2, the third image sensor 524 captures an image in a state where the amount of incident light is approximately zero, and generates a third captured image.
  • the image processing unit 921 performs image processing on each of the first to third captured images received by the communication unit 91.
  • the image processing unit 921 also generates a normal light image, which is a color image corresponding to white light, from the red channel image, green channel image, and blue channel image.
  • the image processing unit 921 then superimposes the normal light image with the first and second fluorescent light images using, for example, known alpha blending or additive blending, to generate a superimposed image in which the area where the first fluorescent light is emitted and the area where the second fluorescent light is emitted can be distinguished.
  • the display control unit 922 then generates a video signal corresponding to the superimposed image and outputs it to the display device 7. As a result, the superimposed image is displayed on the display device 7.
  • Fig. 11 is a diagram showing the operations of the light source device 3 and the first to third image sensors 522 to 524 in the first fluorescence observation mode. Specifically, Fig. 11(a) to Fig. 11(f) correspond to Fig. 10(a) to Fig. 10(f), respectively.
  • the control unit 93 controls the operations of the light source device 3 and the first to third image pickup elements 522 to 524 as follows.
  • control unit 93 turns on the first light source 31 and turns off the second and third light sources 32 and 33 during the first frame period T1 of the first and second frame periods T1 and T2.
  • control unit 93 turns off the first and third light sources 31 and 33 and turns on the second light source 32 during the second frame period T2 of the first and second frame periods T1 and T2.
  • the third light source 33 is not used in the first fluorescence observation mode.
  • control unit 93 causes the first to third image sensors 522 to 524 to perform imaging operations during the alternating first and second frame periods T1 and T2.
  • the first image sensor 522 captures light in the red wavelength band (light L1 in the first wavelength band) separated by the prism 521 from the subject image from which the excitation light has been removed, and generates a first captured image (red channel image). Furthermore, during the second frame period T2, the first image sensor 522 captures first fluorescence (light L1 in the first wavelength band) separated by the prism 521 from the subject image from which the excitation light has been removed, and generates a first captured image (first fluorescence image).
  • the second image sensor 523 captures light in the blue wavelength band (light L2 in the second wavelength band) separated by the prism 521 from the subject image from which the excitation light has been removed, and generates a second captured image (blue channel image). Furthermore, during the second frame period T2, the second image sensor 523 captures an image in a state where the amount of incident light is approximately zero, and generates a second captured image.
  • the third image sensor 524 captures light in the green wavelength band (light L3 in the third wavelength band) separated by the prism 521 from the subject image from which the excitation light has been removed, and generates a third captured image (green channel image). Furthermore, during the second frame period T2, the third image sensor 524 captures an image in a state where the amount of incident light is approximately zero, and generates a third captured image.
  • the image processing unit 921 performs image processing on each of the first to third captured images received by the communication unit 91.
  • the image processing unit 921 also generates a normal light image, which is a color image corresponding to white light, from the red channel image, green channel image, and blue channel image.
  • the image processing unit 921 then superimposes the normal light image and the first fluorescent light image, for example, using known alpha blending or additive blending, to generate a superimposed image in which the area from which the first fluorescent light is emitted is identifiable.
  • the display control unit 922 then generates a video signal corresponding to the superimposed image and outputs it to the display device 7. As a result, the superimposed image is displayed on the display device 7.
  • Fig. 12 is a diagram showing the operations of the light source device 3 and the first to third image sensors 522 to 524 in the second fluorescence observation mode. Specifically, Fig. 12(a) to Fig. 12(f) correspond to Fig. 10(a) to Fig. 11(f), respectively.
  • the control unit 93 controls the operations of the light source device 3 and the first to third image pickup elements 522 to 524 as follows.
  • control unit 93 turns on the first light source 31 and turns off the second and third light sources 32 and 33 during the first frame period T1 of the first and second frame periods T1 and T2.
  • control unit 93 turns off the first and second light sources 31 and 32 and turns on the third light source 33 during the second frame period T2 of the first and second frame periods T1 and T2.
  • the second light source 32 is not used in the second fluorescence observation mode.
  • control unit 93 causes the first to third image sensors 522 to 524 to perform imaging operations during the alternating first and second frame periods T1 and T2.
  • the first image sensor 522 captures light in the red wavelength band (light L1 in the first wavelength band) separated by the prism 521 from the subject image from which excitation light has been removed, and generates a first captured image (red channel image). Furthermore, during the second frame period T2, the first image sensor 522 captures an image in a state where the amount of incident light is substantially zero, and generates a first captured image.
  • the second image sensor 523 captures light in the blue wavelength band (light L2 in the second wavelength band) separated by the prism 521 from the subject image from which the excitation light has been removed, and generates a second captured image (blue channel image). Furthermore, during the second frame period T2, the second image sensor 523 captures second fluorescence (light L2 in the second wavelength band) separated by the prism 521 from the subject image from which the excitation light has been removed, and generates a second captured image (second fluorescence image).
  • the third image sensor 524 captures light in the green wavelength band (light L3 in the third wavelength band) separated by the prism 521 from the subject image from which the excitation light has been removed, and generates a third captured image (green channel image). Furthermore, during the second frame period T2, the third image sensor 524 captures an image in a state where the amount of incident light is approximately zero, and generates a third captured image.
  • the image processing unit 921 performs image processing on each of the first to third captured images received by the communication unit 91.
  • the image processing unit 921 also generates a normal light image, which is a color image corresponding to white light, from the red channel image, green channel image, and blue channel image.
  • the image processing unit 921 then superimposes the normal light image and the second fluorescent light image, for example, using known alpha blending or additive blending, to generate a superimposed image in which the area from which the second fluorescent light is emitted is identifiable.
  • the display control unit 922 then generates a video signal corresponding to the superimposed image and outputs it to the display device 7. As a result, the superimposed image is displayed on the display device 7.
  • the image capturing unit 52 includes a prism 521 that separates incident light into three light beams L1 to L3 of first to third wavelength bands, and first to third image capturing elements 522 to 524 that capture the light beams L1 to L3 of the first to third wavelength bands, respectively. That is, the incident light containing the first and second fluorescence is separated into the first fluorescence (light beam L1 of the first wavelength band) and the second fluorescence (light beam L2 of the second wavelength band), and the first and second fluorescence beams are captured by the first and second image capturing elements 522 and 523, which are separate image capturing elements. Therefore, the image capturing section 52 according to the present embodiment can easily distinguish between the first and second fluorescent lights.
  • autofluorescence may occur as described below. Specifically, when the white light and the first and second excitation lights emitted from the light source device 3 propagate to the observation object, autofluorescence is generated from components forming the propagation path when the white light and the first and second excitation lights are irradiated onto the components. The same is true when the subject image collected by the insertion portion 2 propagates to the imaging unit 52.
  • Such autofluorescence has a wavelength band that includes the wavelength bands of the first and second fluorescence, and becomes noise in fluorescence observation.
  • the prism 521 limits the wavelength band of light that reaches the first image sensor 522.
  • the prism 521 limits the wavelength band of light that reaches the second image sensor 523. This makes it possible to limit the noise components due to autofluorescence described above when performing fluorescence observation using the first fluorescence, allowing for satisfactory fluorescence observation using the first fluorescence. Similarly, this makes it possible to limit the noise components due to autofluorescence described above when performing fluorescence observation using the second fluorescence, allowing for satisfactory fluorescence observation using the second fluorescence.
  • the first wavelength band includes the wavelength band of the first fluorescence and the red wavelength band.
  • the second wavelength band includes the wavelength band of the second fluorescence and the blue wavelength band.
  • the first fluorescence image will also be in focus.
  • the position of the second image sensor 523 is adjusted so that the second captured image (second fluorescence image) captured by the second image sensor 523 of the second fluorescence is in focus. This configuration allows the first and second fluorescent images to have good resolution.
  • the peak wavelength of the first fluorescence is not limited to around 700 nm, but may be around 800 nm, which is on the longer wavelength side.
  • the peak wavelength of the second fluorescence is longer than the peak wavelength of the first fluorescence, and may be around 1000 nm.
  • Figures 13 to 17 are diagrams illustrating a first modified example of the embodiment. Specifically, Figure 13 is a diagram corresponding to Figure 6. Figures 14 to 16 are diagrams corresponding to Figures 7 to 9, respectively. Figures 17(a) to 17(f) are diagrams corresponding to Figures 10(a) to 10(f), respectively. Note that in Figure 17(e), for convenience of explanation, the third captured image generated by capturing light in the red, green, and blue wavelength bands (light L3 in the third wavelength band) is represented by the letters "WLI.”
  • the imaging unit 52 of this modification 1 differs from the imaging unit 52 described in the above-described embodiment in that it has different characteristics from the first and second dichroic filters 521d and 521e, and that a color filter 524a is provided on the imaging surface of the third imaging element 524.
  • the first dichroic filter 521d according to this first modification has the property of reflecting light L2 in the second wavelength band and transmitting light in other wavelength bands.
  • the light L2 in the second wavelength band according to this first modification is light in the wavelength band from 800 nm to 900 nm, which includes the wavelength band of the second fluorescence. Therefore, of the subject image from which excitation light has been removed that is incident on the prism 521, light L2 in the second wavelength band is reflected by the first dichroic filter 521d, is totally reflected within the translucent member 521a, and then travels toward the second image sensor 523 ( Figures 13 and 16).
  • the second dichroic filter 521e according to this first modification has the property of reflecting light L1 in a first wavelength band and transmitting light in other wavelength bands.
  • the light L1 in the first wavelength band according to this first modification is light in the wavelength band from 700 nm to 800 nm, which includes the wavelength band of the first fluorescence. Therefore, of the light transmitted through the first dichroic filter 521, the light L1 in the first wavelength band is reflected by the second dichroic filter 521e, is totally reflected within the translucent member 521b, and then travels toward the first image sensor 522 ( Figures 13 and 14).
  • the light in the red, green, and blue wavelength bands transmitted through the second dichroic filter 521e travels through the translucent member 521c and then travels toward the third image sensor 524 ( Figures 13 and 15).
  • Color filter 524a is a color filter in which three filter groups are arranged in a specific format (e.g., Bayer array) according to the wavelength bands of light (red, green, blue) that they transmit. Specifically, color filter 524a has an R filter group that primarily transmits light in the red wavelength band, a B filter group that primarily transmits light in the blue wavelength band, and a G filter group that primarily transmits light in the green wavelength band.
  • the control unit 93 controls the operations of the light source device 3 and the first to third image pickup elements 522 to 524 as follows.
  • control unit 93 constantly lights up the first to third light sources 31 to 33 during the first and second frame periods T1 and T2.
  • control unit 93 causes the first to third image sensors 522 to 524 to perform imaging operations during the alternating first and second frame periods T1 and T2.
  • the first image sensor 522 captures the first fluorescence (light L1 in the first wavelength band) separated by the prism 521 from the subject image from which the excitation light has been removed, and generates the first captured image (first fluorescence image).
  • the second image sensor 523 captures the second fluorescence (light L2 of the second wavelength band) separated by the prism 521 from the subject image from which the excitation light has been removed during the first and second frame periods T1 and T2, respectively, and generates second captured images (second fluorescence images).
  • the third image sensor 524 captures light in the red, green, and blue wavelength bands (light L3 in the third wavelength band) separated by the prism 521 from the subject image from which the excitation light has been removed during the first and second frame periods T1 and T2, respectively, and generates third captured images (hereinafter referred to as normal light images).
  • the image processing unit 921 performs image processing on each of the first to third captured images received by the communication unit 91.
  • the image processing unit 921 also superimposes the normal light image and the first and second fluorescent light images using, for example, known alpha blending or additive blending, to generate a superimposed image in which the area where the first fluorescent light is emitted and the area where the second fluorescent light is emitted can be distinguished.
  • the display control unit 922 then generates a video signal corresponding to the superimposed image and outputs it to the display device 7. As a result, the superimposed image is displayed on the display device 7.
  • FIGS. 18 and 19 are diagrams illustrating a second modification of the embodiment. Specifically, FIG. 18 corresponds to FIG. 1.
  • FIGS. 19(a) to 19(c) and 19(e) to 19(g) correspond to FIGS. 10(a) to 10(f), respectively.
  • FIG. 19(d) is a time chart showing the operating state of the fourth light source 34. Note that in FIG. 19(d), for ease of explanation, the third excitation light is represented by the number "500.” In FIG. 19(f), for ease of explanation, the third captured image generated by capturing the third fluorescence is represented by the number "500.”
  • the light source device 3 of this modified example 2 has a fourth light source 34 added to the light source device 3 described in the above embodiment.
  • the fourth light source 34 supplies third excitation light to one end of the light guide 4 to excite a third fluorescent reagent contained in the object of observation.
  • the fourth light source 34 may be configured as an LED or a semiconductor laser.
  • the third fluorescent reagent when excited by the third excitation light, it emits a third fluorescent light having a peak wavelength around 500 nm.
  • excitation light cut filter 22 in this second modification removes the first to third excitation light beams contained in the subject image collected by the insertion section 2.
  • the subject image from which excitation light has been removed described below is the subject image after the first to third excitation light beams have been removed by the excitation light cut filter 22.
  • the control unit 93 controls the operations of the light source device 3 and the first to third image pickup elements 522 to 524 as follows.
  • control unit 93 turns on the first light source 31 and turns off the second to fourth light sources 32 to 34 during the first frame period T1 of the first and second frame periods T1 and T2.
  • control unit 93 turns off the first light source 31 and turns on the second to fourth light sources 32 to 34 during the second frame period T2 of the first and second frame periods T1 and T2.
  • control unit 93 causes the first to third image sensors 522 to 524 to perform imaging operations during the alternating first and second frame periods T1 and T2.
  • the first image sensor 522 captures light in the red wavelength band (light L1 in the first wavelength band) separated by the prism 521 from the subject image from which the excitation light has been removed, and generates a first captured image (red channel image). Furthermore, during the second frame period T2, the first image sensor 522 captures first fluorescence (light L1 in the first wavelength band) separated by the prism 521 from the subject image from which the excitation light has been removed, and generates a first captured image (first fluorescence image).
  • the second image sensor 523 captures light in the blue wavelength band (light L2 in the second wavelength band) separated by the prism 521 from the subject image from which the excitation light has been removed, and generates a second captured image (blue channel image). Furthermore, during the second frame period T2, the second image sensor 523 captures second fluorescence (light L2 in the second wavelength band) separated by the prism 521 from the subject image from which the excitation light has been removed, and generates a second captured image (second fluorescence image).
  • the third image sensor 524 captures light in the green wavelength band (light L3 in the third wavelength band) separated by the prism 521 from the subject image from which the excitation light has been removed, and generates a third captured image (green channel image). Furthermore, during the second frame period T2, the third image sensor 524 captures third fluorescence (light L3 in the third wavelength band) separated by the prism 521 from the subject image from which the excitation light has been removed, and generates a third captured image (hereinafter referred to as the third fluorescence image).
  • the image processing unit 921 performs image processing on each of the first to third captured images received by the communication unit 91.
  • the image processing unit 921 also generates a normal light image, which is a color image corresponding to white light, from the red channel image, green channel image, and blue channel image.
  • the image processing unit 921 superimposes the normal light image and the first to third fluorescent light images using, for example, known alpha blending or additive blending, to generate a superimposed image in which the areas where the first fluorescent light is emitted, the areas where the second fluorescent light is emitted, and the areas where the third fluorescent light is emitted can be distinguished.
  • the display control unit 922 then generates a video signal corresponding to the superimposed image and outputs it to the display device 7. As a result, the superimposed image is displayed on the display device 7.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Endoscopes (AREA)

Abstract

撮像装置52は、入射光を700nmから800nmが蛍光発光のピーク波長となる第1の蛍光試薬から発せられる第1の蛍光の波長帯域を含む第1の波長帯域の光L1と、第1の蛍光のピーク波長よりも長波長側が蛍光発光のピーク波長となる第2の蛍光試薬から発せられる第2の蛍光の波長帯域を含む第2の波長帯域の光L2と、可視光の波長帯域の一部を含む第3の波長帯域の光L3との3つの光に分離する色分離光学素子521と、第1の波長帯域の光L1を撮像する第1の撮像素子522と、第2の波長帯域の光L2を撮像する第2の撮像素子523と、第3の波長帯域の光L3を撮像する第3の撮像素子524とを備える。

Description

撮像装置及び蛍光内視鏡装置
 本発明は、撮像装置及び蛍光内視鏡装置に関する。
 従来、光源装置から出射された励起光や白色光等の可視光を観察対象(人等の被検体)に照射し、当該励起光の照射によって当該観察対象に含まれる蛍光試薬から発せられる蛍光を観察する蛍光内視鏡装置が知られている(例えば、特許文献1参照)。
 特許文献1に記載の蛍光内視鏡装置では、2種類の第1,第2の蛍光試薬に応じた2種類の異なる波長帯域の第1,第2の蛍光を観察可能とする。具体的に、当該蛍光内視鏡装置は、可視光(以下、白色光と記載)を出射する第1の光源と、第1の蛍光試薬に応じた第1の励起光を出射する第2の光源と、第2の蛍光試薬に応じた第2の励起光を出射する第3の光源とを備える。また、当該蛍光内視鏡装置は、第1,第2の撮像素子を備える。当該第1の撮像素子は、観察対象に照射され、当該観察対象によって反射された白色光の反射光を撮像する。当該第2の撮像素子は、第1の励起光が照射されることによって観察対象に含まれる第1の蛍光試薬から発せられる第1の蛍光と、第2の励起光が照射されることによって観察対象に含まれる第2の蛍光試薬から発せられる第2の蛍光との双方を撮像する。
国際公開第2017/047140号
 ところで、第1の蛍光試薬として、第1の励起光の照射により、700nm近傍のピーク波長を有する第1の蛍光を発する蛍光試薬が知られている。また、第2の蛍光試薬として、第2の励起光の照射により、800nm近傍のピーク波長を有する第2の蛍光を発する蛍光試薬が知られている。ここで、第1の蛍光試薬は、第2の励起光に対しても感度を有し、当該第2の励起光が照射されたとしても、第1の蛍光を発してしまう場合がある。また、第2の蛍光試薬は、第1の励起光に対しても感度を有し、当該第1の励起光が照射されたとしても、第2の蛍光を発してしまう場合がある。そして、特許文献1に記載の蛍光内視鏡装置において、このような第1,第2の蛍光試薬を用いた場合には、以下の問題がある。
 すなわち、第1,第2の蛍光を同一の第1の撮像素子により撮像している。このため、第1,第2の蛍光を同時に観察しようとすると、第1の撮像素子の撮像によって得られた撮像画像において、輝度の高い領域が第1の蛍光によるものであるか、または、第2の蛍光によるものであるかを判別することが難しい。
 そこで、第1,第2の蛍光の判別を容易に行うことができる技術が要望されている。
 本発明は、上記に鑑みてなされたものであって、第1,第2の蛍光の判別を容易に行うことができる撮像装置及び蛍光内視鏡装置を提供することを目的とする。
 上述した課題を解決し、目的を達成するために、本発明に係る撮像装置は、入射光を700nmから800nmが蛍光発光のピーク波長となる第1の蛍光試薬から発せられる第1の蛍光の波長帯域を含む第1の波長帯域の光と、前記第1の蛍光のピーク波長よりも長波長側が蛍光発光のピーク波長となる第2の蛍光試薬から発せられる第2の蛍光の波長帯域を含む第2の波長帯域の光と、可視光の波長帯域の一部を含む第3の波長帯域の光との3つの光に分離する色分離光学素子と、前記第1の波長帯域の光を撮像する第1の撮像素子と、前記第2の波長帯域の光を撮像する第2の撮像素子と、前記第3の波長帯域の光を撮像する第3の撮像素子とを備える。
 また、本発明に係る蛍光内視鏡装置は、可視光の波長帯域を含む通常光を出射する第1の光源と、700nm近傍が蛍光発光のピーク波長となる第1の蛍光試薬を励起するための第1の励起光を出射する第2の光源と、800nm近傍が蛍光発光のピーク波長となる第2の蛍光試薬を励起するための第2の励起光を出射する第3の光源と、入射光を前記第1の蛍光試薬から発せられる第1の蛍光の波長帯域を含む第1の波長帯域の光と、前記第2の蛍光試薬から発せられる第2の蛍光の波長帯域を含む第2の波長帯域の光と、可視光の波長帯域の一部を含む第3の波長帯域の光との3つの光に分離する色分離光学素子と、前記第1の波長帯域の光を撮像する第1の撮像素子と、前記第2の波長帯域の光を撮像する第2の撮像素子と、前記第3の波長帯域の光を撮像する第3の撮像素子と、前記第1の光源、前記第2の光源、前記第3の光源、前記第1の撮像素子、前記第2の撮像素子、及び前記第3の撮像素子の動作を制御するプロセッサとを備え、前記第1の波長帯域は、可視光における赤の波長帯域を含み、前記第2の波長帯域は、可視光における青の波長帯域を含み、前記第3の波長帯域は、可視光における緑の波長帯域を含み、前記プロセッサは、前記第1の光源と前記第2の光源及び前記第3の光源の少なくとも一方の光源とを交互に点灯させ、前記第1の光源を点灯させるタイミングにおいて、前記第1の撮像素子によって前記第1の波長帯域の光を撮像させて得られた第1の撮像画像、前記第2の撮像素子によって前記第2の波長帯域の光を撮像させて得られた第2の撮像画像、及び前記第3の撮像素子によって前記第3の波長帯域の光を撮像させて得られた第3の撮像画像に基づいて前記通常光に応じた通常光画像を生成し、前記少なくとも一方の光源を点灯させるタイミングにおいて、前記第1の撮像素子によって前記第1の波長帯域の光を撮像させて得られた前記第1の撮像画像、及び前記第2の撮像素子によって前記第2の波長帯域の光を撮像させて得られた第2の撮像画像の少なくとも一方の撮像画像に基づいて前記第1の蛍光及び前記第2の蛍光の少なくとも一方の蛍光に応じた蛍光画像を生成する。
 また、本発明に係る蛍光内視鏡装置は、可視光の波長帯域を含む通常光を出射する第1の光源と、700nm近傍が蛍光発光のピーク波長となる第1の蛍光試薬を励起するための第1の励起光を出射する第2の光源と、800nm近傍が蛍光発光のピーク波長となる第2の蛍光試薬を励起するための第2の励起光を出射する第3の光源と、入射光を前記第1の蛍光試薬から発せられる第1の蛍光の波長帯域を含む第1の波長帯域の光と、前記第2の蛍光試薬から発せられる第2の蛍光の波長帯域を含む第2の波長帯域の光と、可視光の波長帯域の一部を含む第3の波長帯域の光との3つの光に分離する色分離光学素子と、前記第1の波長帯域の光を撮像する第1の撮像素子と、前記第2の波長帯域の光を撮像する第2の撮像素子と、前記第3の波長帯域の光を撮像する第3の撮像素子と、前記第1の光源、前記第2の光源、前記第3の光源、前記第1の撮像素子、前記第2の撮像素子、及び前記第3の撮像素子の動作を制御するプロセッサとを備え、前記第3の波長帯域は、可視光における赤、緑、及び青の波長帯域を含み、前記プロセッサは、前記第1の光源と前記第2の光源及び前記第3の光源の少なくとも一方の光源とを同時に点灯させ、前記第1の撮像素子によって前記第1の波長帯域の光を撮像させて得られた第1の撮像画像、及び前記第2の撮像素子によって前記第2の波長帯域の光を撮像させて得られた第2の撮像画像の少なくとも一方の撮像画像に基づいて前記第1の蛍光及び前記第2の蛍光の少なくとも一方の蛍光に応じた蛍光画像を生成し、前記第3の撮像素子によって前記第3の波長帯域の光を撮像させて得られた第3の撮像画像を前記通常光に応じた通常光画像として生成する。
 本発明に係る撮像装置及び蛍光内視鏡装置によれば、第1,第2の蛍光の判別を容易に行うことができる。
図1は、実施の形態に係る蛍光内視鏡装置の構成を示す図である。 図2は、第1の蛍光試薬の吸収スペクトルを示す図である。 図3は、第2の蛍光試薬の吸収スペクトルを示す図である。 図4は、第1,第2の励起光の波長を説明する図である。 図5は、カメラヘッド及び制御装置の構成を示すブロック図である。 図6は、撮像部の構成を示す図である。 図7は、第1の撮像素子によって撮像される光の波長帯域(第1の波長帯域)を示す図である。 図8は、第3の撮像素子によって撮像される光の波長帯域(第3の波長帯域)を示す図である。 図9は、第2の撮像素子によって撮像される光の波長帯域(第2の波長帯域)を示す図である。 図10は、第3の蛍光観察モードにおける光源装置及び第1~第3の撮像素子の動作を示す図である。 図11は、第1の蛍光観察モードにおける光源装置及び第1~第3の撮像素子の動作を示す図である。 図12は、第2の蛍光観察モードにおける光源装置及び第1~第3の撮像素子の動作を示す図である。 図13は、実施の形態の変形例1を説明する図である。 図14は、実施の形態の変形例1を説明する図である。 図15は、実施の形態の変形例1を説明する図である。 図16は、実施の形態の変形例1を説明する図である。 図17は、実施の形態の変形例1を説明する図である。 図18は、実施の形態の変形例2を説明する図である。 図19は、実施の形態の変形例2を説明する図である。
 以下に、図面を参照して、本発明を実施するための形態(以下、実施の形態)について説明する。なお、以下に説明する実施の形態によって本発明が限定されるものではない。さらに、図面の記載において、同一の部分には同一の符号を付している。
 〔蛍光内視鏡装置の構成〕
 図1は、実施の形態に係る蛍光内視鏡装置1の構成を示す図である。
 蛍光内視鏡装置1は、内視鏡を用いて観察対象(生体内)を蛍光観察する内視鏡装置である。この蛍光内視鏡装置1は、図1に示すように、挿入部2と、光源装置3と、ライトガイド4と、カメラヘッド5と、第1の伝送ケーブル6と、表示装置7と、第2の伝送ケーブル8と、制御装置9と、第3の伝送ケーブル10とを備える。
 本実施の形態では、挿入部2は、硬性内視鏡で構成されている。すなわち、挿入部2は、全体が硬質、または一部が軟質で他の部分が硬質である細長形状を有し、観察対象に挿入される。この挿入部2内には、1または複数のレンズを用いて構成され、観察対象によって反射した通常光及び第1,第2の励起光、並びに、当該観察対象に含まれる第1,第2の蛍光試薬から発せられる第1,第2の蛍光を集光する光学系(図示略)が設けられている。以下では、説明の便宜上、観察対象によって反射した通常光及び第1,第2の励起光、並びに、当該観察対象に含まれる第1,第2の蛍光試薬から発せられる第1,第2の蛍光を被写体像と記載する。
 また、挿入部2の基端(接眼部21)には、集光した被写体像に含まれる第1,第2の励起光を除去する励起光カットフィルタ22(図1)が配設されている。なお、励起光カットフィルタ22は、挿入部2に限らず、カメラヘッド5内に配設しても構わない。
 光源装置3には、ライトガイド4の一端が接続される。そして、光源装置3は、図1に示すように、第1~第3の光源31~33を備える。
 第1の光源31は、制御装置9による制御の下、ライトガイド4の一端に、可視光の波長帯域を含む通常光(以下、白色光と記載)を供給する。
 第2の光源32は、ライトガイド4の一端に、観察対象に含まれる第1の蛍光試薬を励起させるための第1の励起光を供給する。
 第3の光源33は、ライトガイド4の一端に、観察対象に含まれる第2の蛍光試薬を励起させるための第2の励起光を供給する。
 なお、第1~第3の光源31~33としては、LED(Light Emitting Diode)によって構成してもよく、あるいは、半導体レーザによって構成しても構わない。
 ここで、第1の蛍光試薬としては、以下の特性を有する。
 図2は、第1の蛍光試薬の吸収スペクトルを示す図である。なお、図2では、Wavelength[nm]を横軸で示し、吸収スペクトルのAbsorbanceを縦軸で示している。
 第1の蛍光試薬の吸収スペクトルのピーク波長は、図2に示すように、680[nm]近傍である。このため、第1の励起光としては、第1の蛍光試薬から発せられる第1の蛍光の強度を高くするために、680[nm]近傍の波長を有する励起光とすることが好ましい。また、第1の蛍光試薬は、当該第1の励起光により励起されると、700[nm]近傍の波長を有する第1の蛍光を発光する。
 また、第2の蛍光試薬としては、以下の特性を有する。
 図3は、第2の蛍光試薬の吸収スペクトルを示す図である。なお、図3では、Wavelength[nm]を横軸で示し、吸収スペクトルのAbsorbanceを縦軸で示している。
 第2の蛍光試薬の吸収スペクトルのピーク波長は、図3に示すように、800[nm]近傍である。このため、第2の励起光としては、第2の蛍光試薬から発せられる第2の蛍光の強度を高くするために、800[nm]近傍の波長を有する励起光とすることが好ましい。また、第2の蛍光試薬は、当該第2の励起光により励起されると、800[nm]近傍の波長を有する第2の蛍光を発する。
 図4は、第1,第2の励起光の波長を説明する図である。具体的に、図4は、図2及び図3に示した第1,第2の蛍光試薬の吸収スペクトルに対して、第1,第2の励起光の波長を示した図である。図4において、符号「CL1」で示す曲線は、第1の蛍光試薬の吸収スペクトルを示している。符号「CL2」で示す曲線は、第2の蛍光試薬の吸収スペクトルを示している。符号「P1」で示す波長は、第1の励起光の波長を示している。符号「P2」で示す波長は、第2の励起光の波長を示している。
 そして、図4の曲線CL2で示した第2の蛍光試薬の吸収スペクトルを見てわかるように、第2の蛍光試薬は、680[nm]近傍の波長P1を有する第1の励起光に対しても感度を有し、当該第1の励起光が照射されたとしても、第2の蛍光を発してしまう。このため、第1,第2の蛍光を同時に観察する場合には、第1,第2の蛍光の判別が難しい。
 また、図4の曲線CL1で示した第1の蛍光試薬の吸収スペクトルを見てわかるように、第1の蛍光試薬は、800[nm]近傍の波長P2である第2の励起光に対しては感度が無く、当該第2の励起光が照射されたとしても、第1の蛍光を発しない。
 なお、本実施の形態では、光源装置3は、制御装置9とは別体で構成されているが、これに限らず、当該制御装置9と同一の筐体内に設けられた構成を採用しても構わない。
 ライトガイド4の一端は、光源装置3に着脱自在に接続される。また、ライトガイド4の他端は、挿入部2に着脱自在に接続される。そして、ライトガイド4は、光源装置3(第1~第3の光源31~33)から供給された白色光及び第1,第2の励起光を一端から他端にそれぞれ伝搬し、挿入部2にそれぞれ供給する。挿入部2に供給された白色光及び第1,第2の励起光は、当該挿入部2の先端からそれぞれ出射され、観察対象にそれぞれ照射される。観察対象に照射され、当該観察対象によって反射した白色光及び第1,第2の励起光、並びに、当該観察対象に含まれる第1,第2の蛍光試薬から発せられる第1,第2の蛍光(被写体像)は、挿入部2内の光学系にてそれぞれ集光される。
 カメラヘッド5は、挿入部2の基端(接眼部21(図1))に着脱自在に接続される。そして、カメラヘッド5は、挿入部2にて集光され、励起光カットフィルタ22によって第1,第2の励起光が除去された後の被写体像を撮像する。以下では、説明の便宜上、カメラヘッド5によって撮像することにより得られた画像信号を纏めて撮像画像と記載する。また、励起光カットフィルタ22によって第1,第2の励起光が除去された後の被写体像を励起光除去済みの被写体像と記載する。
 なお、カメラヘッド5の詳細な構成については、後述する「カメラヘッドの構成」において説明する。
 第1の伝送ケーブル6の一端は、制御装置9に着脱自在に接続される。また、第1の伝送ケーブル6の他端は、カメラヘッド5に着脱自在に接続される。そして、第1の伝送ケーブル6は、カメラヘッド5から出力された撮像画像を制御装置9に伝送するとともに、当該制御装置9から送信された制御信号、同期信号、クロック、及び電力等をカメラヘッド5にそれぞれ伝送する。
 なお、第1の伝送ケーブル6を介してカメラヘッド5から制御装置9に伝送される撮像画像等は、光信号で伝送されてもよく、あるいは、電気信号で伝送されても構わない。第1の伝送ケーブル6を介した制御装置9からカメラヘッド5への制御信号、同期信号、及びクロックの伝送も同様である。
 表示装置7は、液晶または有機EL(Electro Luminescence)等を用いた表示ディスプレイで構成され、制御装置9による制御の下、当該制御装置9からの映像信号に基づく画像を表示する。
 第2の伝送ケーブル8の一端は、表示装置7に着脱自在に接続される。また、第2の伝送ケーブル8の他端は、制御装置9に着脱自在に接続される。そして、第2の伝送ケーブル8は、制御装置9にて処理された映像信号を表示装置7に伝送する。
 制御装置9は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等のコントローラを含み、光源装置3、カメラヘッド5、及び表示装置7の動作を統括的に制御する。なお、制御装置9は、CPUやMPUに限らず、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、あるいはGPU(Graphics Processing Unit)等を含んでも構わない。
 なお、制御装置9の詳細な構成については、後述する「制御装置の構成」において説明する。
 第3の伝送ケーブル10の一端は、光源装置3に着脱自在に接続される。また、第3の伝送ケーブル10の他端は、制御装置9に着脱自在に接続される。そして、第3の伝送ケーブル10は、制御装置9からの制御信号を光源装置3に伝送する。
 〔カメラヘッドの構成〕
 次に、カメラヘッド5の構成について説明する。
 図5は、カメラヘッド5及び制御装置9の構成を示すブロック図である。
 カメラヘッド5は、図5に示すように、レンズユニット51と、撮像部52と、通信部53とを備える。
 レンズユニット51は、1または複数のレンズを用いて構成されている。そして、レンズユニット51は、励起光除去済みの被写体像を第1~第3の撮像素子522~524の撮像面にそれぞれ結像する。
 図6は、撮像部52の構成を示す図である。図7は、第1の撮像素子522によって撮像される光の波長帯域(第1の波長帯域)を示す図である。図8は、第3の撮像素子524によって撮像される光の波長帯域(第3の波長帯域)を示す図である。図9は、第2の撮像素子523によって撮像される光の波長帯域(第2の波長帯域)を示す図である。なお、図7ないし図9では、Wavelength[nm]を横軸で示し、Transmittance[%]を縦軸で示している。また、図7ないし図9では、赤,緑,青の各波長帯域を「R」,「G」,「B」の文字によってそれぞれ表現し、第1の蛍光の波長帯域を「700」の文字によって表現し、第2の蛍光の波長帯域を「800」の文字によって表現している。
 撮像部52は、本発明に係る撮像装置に相当する。この撮像部52は、励起光除去済みの被写体像を撮像することにより撮像画像を生成する。そして、撮像部52は、図5及び図6に示すように、プリズム521と、第1~第3の撮像素子522~524と、信号処理部525とを備える。
 プリズム521は、本発明に係る色分離光学素子に相当する。そして、プリズム521は、入射光を第1の蛍光の波長帯域を含む第1の波長帯域の光L1(図6)、第2の蛍光の波長帯域を含む第2の波長帯域の光L2(図6)、及び可視光の波長帯域の一部を含む第3の波長帯域の光L3(図6)の3つの光に分離する。
 本実施の形態では、第1の波長帯域の光L1は、可視光における赤の波長帯域と第1の蛍光の波長帯域とを含む600[nm]から760[nm]までの波長帯域の光である。また、第2の波長帯域の光L2は、400[nm]から500[nm]までの可視光における青の波長帯域と、800[nm]から900[nm]までの第2の蛍光の波長帯域とを含む波長帯域の光である。さらに、第3の波長帯域の光L3は、可視光における緑の波長帯域の光である。
 具体的に、プリズム521は、図6に示すように、3つの透光性部材521a~521cを組み合わせたプリズムである。ここで、2つの透光性部材521a,521cは、図6の紙面に直交する方向に延在する三角柱形状を有する。また、透光性部材521cは、図6の紙面に直交する方向に延在する四角柱形状を有する。そして、2つの透光性部材521a,521bの界面には、第1のダイクロイックフィルタ521dが設けられている。また、2つの透光性部材521b,521cの界面には、第2のダイクロイックフィルタ521eが設けられている。
 第1のダイクロイックフィルタ521dは、本発明に係る第1の反射光学素子に相当する。この第1のダイクロイックフィルタ521dは、第2の波長帯域の光L2を反射し、他の波長帯域の光を透過する特性を有する。このため、プリズム521に入射した励起光除去済みの被写体像のうち、第2の波長帯域の光L2は、第1のダイクロイックフィルタ521dによって反射され、透光性部材521a内において全反射した後、第2の撮像素子523に向けて進行する(図6,図9)。
 第2のダイクロイックフィルタ521eは、本発明に係る第2の反射光学素子に相当する。この第2のダイクロイックフィルタ521eは、第1の波長帯域の光L1を反射し、他の波長帯域の光を透過する特性を有する。このため、第1のダイクロイックフィルタ521eを透過した光のうち、第1の波長帯域の光L1は、第2のダイクロイックフィルタ521eによって反射され、透光性部材521b内において全反射した後、第1の撮像素子522に向けて進行する(図6,図7)。一方、第2のダイクロイックフィルタ521eを透過した第3の波長帯域の光L3は、透光性部材521cを透過した後、第3の撮像素子524に向けて進行する(図6,図8)。
 第1~第3の撮像素子522~524は、入射した光を受光して電気信号(アナログ信号)に変換する。これら第1~第3の撮像素子522~524としては、複数の画素が水平ライン単位で2次元状に配列されたローリングシャッタ方式の撮像素子であるCMOS(Complementary Metal Oxide Semiconductor)、または、グローバルシャッタ方式の撮像素子であるCCD(Charge Coupled Device)を例示することができる。
 そして、第1の撮像素子522は、制御装置9による制御の下、励起光除去済みの被写体像からプリズム521によって分離された第1の波長帯域の光L1を撮像する。以下では、説明の便宜上、第1の撮像素子522が撮像することによって生成した撮像画像を第1の撮像画像と記載する。
 また、第2の撮像素子523は、制御装置9による制御の下、励起光除去済みの被写体像からプリズム521によって分離された第2の波長帯域の光L2を撮像する。以下では、説明の便宜上、第2の撮像素子523が撮像することによって生成した撮像画像を第2の撮像画像と記載する。
 さらに、第3の撮像素子524は、制御装置9による制御の下、励起光除去済みの被写体像からプリズム521によって分離された第3の波長帯域の光L3を撮像する。以下では、説明の便宜上、第3の撮像素子524が撮像することによって生成した撮像画像を第3の撮像画像と記載する。
 なお、第1~第3の撮像素子522~524の各受光面には、透過させる光(赤,緑,青)の波長帯域に応じてグループ分けされた3つのフィルタ群が特定の形式(例えば、ベイヤ配列)で配列されたカラーフィルタが設けられていない。すなわち、第1~第3の撮像素子522~524は、所謂、モノクロイメージセンサである。
 なお、第1~第3の撮像画像の画素数は、互いに異なっていてもよく、あるいは、同一であっても構わない。
 信号処理部525は、制御装置9による制御の下、第1~第3の撮像素子522~524によって生成された撮像画像(アナログ信号)に対して信号処理を行って撮像画像(デジタル信号)を出力する。
 例えば、信号処理部525は、第1~第3の撮像素子522~524によって生成された撮像画像(アナログ信号)に対して、リセットノイズを除去する処理、当該アナログ信号を増幅するアナログゲインを乗算する処理(以下、アナログゲイン調整と記載)、及びA/D変換等の信号処理を行う。
 通信部53は、第1の伝送ケーブル6を介して、撮像部52から順次、出力される撮像画像を制御装置9に送信するトランスミッタとして機能する。
 なお、通信部53は、制御装置9に対して第1~第3の撮像画像を順に送信してもよく、あるいは、これらの第1~第3の撮像画像を同時に送信しても構わない。
 〔制御装置の構成〕
 次に、制御装置9の構成について図5を参照しながら説明する。
 制御装置9は、本発明に係るプロセッサに相当する。この制御装置9は、図5に示すように、通信部91と、処理モジュール92と、制御部93と、入力部94と、出力部95と、記憶部96とを備える。
 通信部91は、第1の伝送ケーブル6を介して、カメラヘッド5(通信部53)から順次、送信される撮像画像を受信するレシーバとして機能する。
 処理モジュール92は、制御部93による制御の下、カメラヘッド5(通信部53)から順次、送信され、通信部91にて受信した撮像画像を処理する。この処理モジュール92は、図5に示すように、画像処理部921と、表示制御部922とを備える。
 画像処理部921は、入力した撮像画像(通信部91によって受信した撮像画像)に対して画像処理を実行する。当該画像処理としては、オプティカルブラック減算処理(クランプ処理)、ホワイトバランス調整処理、デモザイク処理、色補正マトリクス処理、ガンマ補正処理、RGB信号を輝度色差信号(Y,Cb/Cr信号)に変換するYC処理、デジタルゲインを乗算するデジタルゲイン調整、ノイズ除去、構造強調をするフィルタ処理等を例示することができる。
 なお、第1~第3の撮像画像に対して実行する画像処理は、互いに異なる画像処理であってもよく、あるいは、同一の画像処理であっても構わない。
 表示制御部922は、制御部93による制御の下、画像処理部921にて画像処理が実行された後の撮像画像を表示するための映像信号を生成する。そして、表示制御部922は、第2の伝送ケーブル8を介して、当該映像信号を表示装置7に出力する。
 制御部93は、CPUやMPU等のコントローラによって、記憶部96に記憶された各種のプログラムが実行されることにより実現され、光源装置3、カメラヘッド5、及び表示装置7の動作を制御するとともに、制御装置9全体の動作を制御する。なお、制御部93は、CPUやMPUに限らず、ASIC、FPGA、あるいはGPU等を含んでも構わない。
 入力部94は、マウス、キーボード、及びタッチパネル等の操作デバイスを用いて構成され、術者等のユーザによるユーザ操作を受け付ける。そして、入力部94は、当該ユーザ操作に応じた操作信号を制御部93に出力する。
 出力部95は、スピーカやプリンタ等を用いて構成され、各種情報を出力する。
 記憶部96は、制御部93が実行するプログラムや、制御部93の処理に必要な情報等を記憶する。
 〔蛍光内視鏡装置の動作〕
 次に、上述した蛍光内視鏡装置1の動作について説明する。
 本実施の形態では、蛍光内視鏡装置1は、例えば入力部94へのユーザ操作に応じて、第1~第3の蛍光観察モードに設定される。第1の蛍光観察モードは、第1の蛍光を利用して蛍光観察を行うモードである。第2の蛍光観察モードは、第2の蛍光を利用して蛍光観察を行うモードである。第3の蛍光観察モードは、第1,第2の蛍光の双方を利用して蛍光観察を行うモードである。
 以下、第1~第3の蛍光観察モード毎に、蛍光内視鏡装置1の動作を説明する。なお、観察対象には、第1,第2の蛍光試薬の双方が含まれているものとする。
 〔第3の蛍光観察モードにおける蛍光内視鏡装置の動作〕
 図10は、第3の蛍光観察モードにおける光源装置3及び第1~第3の撮像素子522~524の動作を示す図である。具体的に、図10の(a)は、第1の光源31の動作状態を示すタイムチャートである。図10の(b)は、第2の光源32の動作状態を示すタイムチャートである。図10の(c)は、第3の光源33の動作状態を示すタイムチャートである。図10の(d)は、第1の撮像素子522の動作状態を示すタイムチャートである。図10の(e)は、第3の撮像素子524の動作状態を示すタイムチャートである。図10の(f)は、第2の撮像素子523の動作状態を示すタイムチャートである。なお、図10の(a)ないし図10の(c)では、説明の便宜上、白色光を「WLI」の文字によって表現し、第1の励起光を「700」の文字によって表現し、第2の励起光を「800」の文字によって表現している。また、図10の(d)ないし図10の(f)では、説明の便宜上、赤の波長帯域の光を撮像することによって生成された第1の撮像画像を「R」の文字によって表現し、第1の蛍光を撮像することによって生成された第1の撮像画像を「700」の文字によって表現し、緑の波長帯域の光(第3の波長帯域の光L3)を撮像することによって生成された第3の撮像画像を「G」の文字によって表現し、青の波長帯域の光を撮像することによって生成された第2の撮像画像を「B」の文字によって表現し、第2の蛍光を撮像することによって生成された第2の撮像画像を「800」の文字によって表現している。
 第3の蛍光観察モードでは、制御部93は、以下に示すように、光源装置3及び第1~第3の撮像素子522~524の動作を制御する。
 制御部93は、図10の(a)ないし図10の(c)に示すように、第1,第2のフレーム期間T1,T2のうち、第1のフレーム期間T1において、第1の光源31を点灯させ、第2,第3の光源32,33を消灯させる。ここで、第1,第2のフレーム期間T1,T2は、同一の期間であって、交互に繰り返す期間である。
 また、制御部93は、図10の(a)ないし図10の(c)に示すように、第1,第2のフレーム期間T1,T2のうち、第2のフレーム期間T2において、第1の光源31を消灯させ、第2,第3の光源32,33を点灯させる。
 そして、制御部93は、交互に繰り返す第1,第2のフレーム期間T1,T2において、第1~第3の撮像素子522~524に撮像動作を実行させる。
 具体的に、第1の撮像素子522は、第1のフレーム期間T1において、励起光除去済みの被写体像からプリズム521によって分離された赤の波長帯域の光(第1の波長帯域の光L1)を撮像し、第1の撮像画像(以下、赤チャネル画像と記載)を生成する。また、第1の撮像素子522は、第2のフレーム期間T2において、励起光除去済みの被写体像からプリズム521によって分離された第1の蛍光(第1の波長帯域の光L1)を撮像し、第1の撮像画像(以下、第1の蛍光画像と記載)を生成する。
 また、第2の撮像素子523は、第1のフレーム期間T1において、励起光除去済みの被写体像からプリズム521によって分離された青の波長帯域の光(第2の波長帯域の光L2)を撮像し、第2の撮像画像(以下、青チャネル画像と記載)を生成する。また、第2の撮像素子523は、第2のフレーム期間T2において、励起光除去済みの被写体像からプリズム521によって分離された第2の蛍光(第2の波長帯域の光L2)を撮像し、第2の撮像画像(以下、第2の蛍光画像と記載)を生成する。
 さらに、第3の撮像素子524は、第1のフレーム期間T1において、励起光除去済みの被写体像からプリズム521によって分離された緑の波長帯域の光(第3の波長帯域の光L3)を撮像し、第3の撮像画像(以下、緑チャネル画像と記載)を生成する。また、第3の撮像素子524は、第2のフレーム期間T2において、入射する光が略0の状態で撮像し、第3の撮像画像を生成する。
 画像処理部921は、制御部93による制御の下、通信部91によって受信した第1~第3の撮像画像に対して画像処理をそれぞれ実行する。また、画像処理部921は、赤チャネル画像、緑チャネル画像、及び青チャネル画像から白色光に応じたカラー画像である通常光画像を生成する。さらに、画像処理部921は、例えば、通常光画像と第1,第2の蛍光画像とを公知のアルファブレンド処理または加算ブレンド処理によって重畳し、第1の蛍光が発せられた領域と第2の蛍光が発せられた領域とを識別可能な重畳画像を生成する。そして、表示制御部922は、重畳画像に応じた映像信号を生成し、表示装置7に出力する。これにより、表示装置7には、重畳画像が表示される。
 〔第1の蛍光観察モードにおける蛍光内視鏡装置の動作〕
 図11は、第1の蛍光観察モードにおける光源装置3及び第1~第3の撮像素子522~524の動作を示す図である。具体的に、図11の(a)ないし図11の(f)は、図10の(a)ないし図11の(f)にそれぞれ対応した図である。
 第1の蛍光観察モードでは、制御部93は、以下に示すように、光源装置3及び第1~第3の撮像素子522~524の動作を制御する。
 制御部93は、図11の(a)ないし図11の(c)に示すように、第1,第2のフレーム期間T1,T2のうち、第1のフレーム期間T1において、第1の光源31を点灯させ、第2,第3の光源32,33を消灯させる。
 また、制御部93は、図11の(a)ないし図11の(c)に示すように、第1,第2のフレーム期間T1,T2のうち、第2のフレーム期間T2において、第1,第3の光源31,33を消灯させ、第2の光源32を点灯させる。すなわち、第1の蛍光観察モードでは、第3の光源33を用いない。
 そして、制御部93は、交互に繰り返す第1,第2のフレーム期間T1,T2において、第1~第3の撮像素子522~524に撮像動作を実行させる。
 具体的に、第1の撮像素子522は、第1のフレーム期間T1において、励起光除去済みの被写体像からプリズム521によって分離された赤の波長帯域の光(第1の波長帯域の光L1)を撮像し、第1の撮像画像(赤チャネル画像)を生成する。また、第1の撮像素子522は、第2のフレーム期間T2において、励起光除去済みの被写体像からプリズム521によって分離された第1の蛍光(第1の波長帯域の光L1)を撮像し、第1の撮像画像(第1の蛍光画像)を生成する。
 また、第2の撮像素子523は、第1のフレーム期間T1において、励起光除去済みの被写体像からプリズム521によって分離された青の波長帯域の光(第2の波長帯域の光L2)を撮像し、第2の撮像画像(青チャネル画像)を生成する。また、第2の撮像素子523は、第2のフレーム期間T2において、入射する光が略0の状態で撮像し、第2の撮像画像を生成する。
 さらに、第3の撮像素子524は、第1のフレーム期間T1において、励起光除去済みの被写体像からプリズム521によって分離された緑の波長帯域の光(第3の波長帯域の光L3)を撮像し、第3の撮像画像(緑チャネル画像)を生成する。また、第3の撮像素子524は、第2のフレーム期間T2において、入射する光が略0の状態で撮像し、第3の撮像画像を生成する。
 画像処理部921は、制御部93による制御の下、通信部91によって受信した第1~第3の撮像画像に対して画像処理をそれぞれ実行する。また、画像処理部921は、赤チャネル画像、緑チャネル画像、及び青チャネル画像から白色光に応じたカラー画像である通常光画像を生成する。さらに、画像処理部921は、例えば、通常光画像と第1の蛍光画像とを公知のアルファブレンド処理または加算ブレンド処理によって重畳し、第1の蛍光が発せられた領域を識別可能な重畳画像を生成する。そして、表示制御部922は、重畳画像に応じた映像信号を生成し、表示装置7に出力する。これにより、表示装置7には、重畳画像が表示される。
 〔第2の蛍光観察モードにおける蛍光内視鏡装置の動作〕
 図12は、第2の蛍光観察モードにおける光源装置3及び第1~第3の撮像素子522~524の動作を示す図である。具体的に、図12の(a)ないし図12の(f)は、図10の(a)ないし図11の(f)にそれぞれ対応した図である。
 第2の蛍光観察モードでは、制御部93は、以下に示すように、光源装置3及び第1~第3の撮像素子522~524の動作を制御する。
 制御部93は、図12の(a)ないし図12の(c)に示すように、第1,第2のフレーム期間T1,T2のうち、第1のフレーム期間T1において、第1の光源31を点灯させ、第2,第3の光源32,33を消灯させる。
 また、制御部93は、図12の(a)ないし図12の(c)に示すように、第1,第2のフレーム期間T1,T2のうち、第2のフレーム期間T2において、第1,第2の光源31,32を消灯させ、第3の光源33を点灯させる。すなわち、第2の蛍光観察モードでは、第2の光源32を用いない。
 そして、制御部93は、交互に繰り返す第1,第2のフレーム期間T1,T2において、第1~第3の撮像素子522~524に撮像動作を実行させる。
 具体的に、第1の撮像素子522は、第1のフレーム期間T1において、励起光除去済みの被写体像からプリズム521によって分離された赤の波長帯域の光(第1の波長帯域の光L1)を撮像し、第1の撮像画像(赤チャネル画像)を生成する。また、第1の撮像素子522は、第2のフレーム期間T2において、入射する光が略0の状態で撮像し、第1の撮像画像を生成する。
 また、第2の撮像素子523は、第1のフレーム期間T1において、励起光除去済みの被写体像からプリズム521によって分離された青の波長帯域の光(第2の波長帯域の光L2)を撮像し、第2の撮像画像(青チャネル画像)を生成する。また、第2の撮像素子523は、第2のフレーム期間T2において、励起光除去済みの被写体像からプリズム521によって分離された第2の蛍光(第2の波長帯域の光L2)を撮像し、第2の撮像画像(第2の蛍光画像)を生成する。
 さらに、第3の撮像素子524は、第1のフレーム期間T1において、励起光除去済みの被写体像からプリズム521によって分離された緑の波長帯域の光(第3の波長帯域の光L3)を撮像し、第3の撮像画像(緑チャネル画像)を生成する。また、第3の撮像素子524は、第2のフレーム期間T2において、入射する光が略0の状態で撮像し、第3の撮像画像を生成する。
 画像処理部921は、制御部93による制御の下、通信部91によって受信した第1~第3の撮像画像に対して画像処理をそれぞれ実行する。また、画像処理部921は、赤チャネル画像、緑チャネル画像、及び青チャネル画像から白色光に応じたカラー画像である通常光画像を生成する。さらに、画像処理部921は、例えば、通常光画像と第2の蛍光画像とを公知のアルファブレンド処理または加算ブレンド処理によって重畳し、第2の蛍光が発せられた領域を識別可能な重畳画像を生成する。そして、表示制御部922は、重畳画像に応じた映像信号を生成し、表示装置7に出力する。これにより、表示装置7には、重畳画像が表示される。
 以上説明した本実施の形態によれば、以下の効果を奏する。
 本実施の形態に係る撮像部52は、入射光を第1~第3の波長帯域の光L1~L3の3つの光に分離するプリズム521と、当該第1~第3の波長帯域の光L1~L3をそれぞれ撮像する第1~第3の撮像素子522~524とを備える。すなわち、第1,第2の蛍光を含む入射光を第1の蛍光(第1の波長帯域の光L1)と第2の蛍光(第2の波長帯域の光L2)とに分離し、別々の撮像素子である第1,第2の撮像素子522,523によって第1,第2の蛍光を撮像する。
 したがって、本実施の形態に係る撮像部52によれば、第1,第2の蛍光の判別を容易に行うことができる。
 ところで、光源装置3から白色光、第1,第2の励起光を出射した場合には、以下に示す自家蛍光が発生する場合がある。
 具体的に、光源装置3から出射された白色光、第1,第2の励起光が観察対象まで伝搬する際、当該伝搬経路を形成する部材に白色光、第1,第2の励起光が照射されると、当該部材から自家蛍光が発生する。挿入部2によって集光した被写体像が撮像部52まで伝搬する際でも同様である。このような自家蛍光は、第1,第2の蛍光の波長帯域を含む波長帯域を有し、蛍光観察を行う上でのノイズとなる。
 本実施の形態では、プリズム521によって第1の撮像素子522に到達する光の波長帯域を制限している。同様に、プリズム521によって第2の撮像素子523に到達する光の波長帯域を制限している。このため、第1の蛍光による蛍光観察を行う際での上述した自家蛍光によるノイズの成分を制限することができるため、当該第1の蛍光による蛍光観察を良好に行うことができる。同様に、第2の蛍光による蛍光観察を行う際での上述した自家蛍光によるノイズの成分を制限することができるため、当該第2の蛍光による蛍光観察を良好に行うことができる。
 ここで、第1の波長帯域は、第1の蛍光の波長帯域と、赤の波長帯域とを含む。また、第2の波長帯域は、第2の蛍光の波長帯域と、青の波長帯域とを含む。すなわち、第1の蛍光の波長帯域と赤の波長帯域とが非常に近接した波長帯域であるため、例えば、赤の波長帯域の光を第1の撮像素子522によって撮像した第1の撮像画像(Rチャネル画像)が合焦状態となるように当該第1の撮像素子522の位置を合わせておけば、第1の蛍光画像も合焦状態となる。また、青の波長帯域の光を第2の撮像素子523によって撮像した第2の撮像画像(Bチャネル画像)が合焦状態となっていなくても、通常光画像の解像度にはそれほど影響しない。このため、第2の蛍光を第2の撮像素子523によって撮像した第2の撮像画像(第2の蛍光画像)が合焦状態となるように当該第2の撮像素子523の位置を合わせておく。このように構成すれば、第1,第2の蛍光画像を良好な解像度とすることができる。
(その他の実施の形態)
 ここまで、本発明を実施するための形態を説明してきたが、本発明は上述した実施の形態によってのみ限定されるべきものではない。
 上述した実施の形態において、第1の蛍光のピーク波長は、700nm近傍に限らず、より長波長側の800nm近傍でも構わない。この場合には、第2の蛍光のピーク波長は、第1の蛍光のピーク波長よりも長波長側となり、1000nm近傍となる場合もある。
 上述した実施の形態において、以下に示す変形例1,2を採用しても構わない。
(変形例1)
 図13ないし図17は、実施の形態の変形例1を説明する図である。具体的に、図13は、図6に対応した図である。図14ないし図16は、図7ないし図9にそれぞれ対応した図である。図17の(a)ないし図17の(f)は、図10(a)ないし図10の(f)にそれぞれ対応した図である。なお、図17の(e)では、説明の便宜上、赤、緑、青の波長帯域の光(第3の波長帯域の光L3)を撮像することによって生成された第3の撮像画像を「WLI」の文字によって表現している。
 本変形例1に係る撮像部52は、図13に示すように、上述した実施の形態において説明した撮像部52に対して、第1,第2のダイクロイックフィルタ521d,521eの特性と、第3の撮像素子524の撮像面にカラーフィルタ524aが設けられている点とが異なる。
 本変形例1に係る第1のダイクロイックフィルタ521dは、第2の波長帯域の光L2を反射し、他の波長帯域の光を透過する特性を有する。ここで、本変形例1に係る第2の波長帯域の光L2は、第2の蛍光の波長帯域を含む800[nm]から900[nm]までの波長帯域の光である。このため、プリズム521に入射した励起光除去済みの被写体像のうち、第2の波長帯域の光L2は、第1のダイクロイックフィルタ521dによって反射され、透光性部材521a内において全反射した後、第2の撮像素子523に向けて進行する(図13,図16)。
 本変形例1に係る第2のダイクロイックフィルタ521eは、第1の波長帯域の光L1を反射し、他の波長帯域の光を透過する特性を有する。ここで、本変形例1に係る第1の波長帯域の光L1は、第1の蛍光の波長帯域を含む700[nm]から800[nm]までの波長帯域の光である。このため、第1のダイクロイックフィルタ521を透過した光のうち、第1の波長帯域の光L1は、第2のダイクロイックフィルタ521eによって反射され、透光性部材521b内において全反射した後、第1の撮像素子522に向けて進行する(図13,図14)。一方、第2のダイクロイックフィルタ521eを透過した赤、緑、及び青の波長帯域の光(第3の波長帯域の光L3)は、透光性部材521cを透過した後、第3の撮像素子524に向けて進行する(図13,図15)。
 カラーフィルタ524aは、透過させる光(赤,緑,青)の波長帯域に応じてグループ分けされた3つのフィルタ群が特定の形式(例えば、ベイヤ配列)で配列されたカラーフィルタである。具体的に、カラーフィルタ524aは、赤の波長帯域の光を主に透過させるRフィルタ群と、青の波長帯域の光を主に透過させるBフィルタ群と、緑の波長帯域の光を主に透過させるGフィルタ群とを有する。
 次に、本変形例1に係る蛍光内視鏡装置1の動作について説明する。なお、以下では、説明の便宜上、第1~第3の蛍光観察モードのうち、第3の蛍光観察モードにおける蛍光内視鏡装置1の動作について説明する。
 第3の蛍光観察モードでは、制御部93は、以下に示すように、光源装置3及び第1~第3の撮像素子522~524の動作を制御する。
 制御部93は、図17の(a)ないし図17の(c)に示すように、第1,第2のフレーム期間T1,T2において、第1~第3の光源31~33を常時、点灯させる。
 そして、制御部93は、交互に繰り返す第1,第2のフレーム期間T1,T2において、第1~第3の撮像素子522~524に撮像動作を実行させる。
 具体的に、第1の撮像素子522は、第1,第2のフレーム期間T1,T2において、励起光除去済みの被写体像からプリズム521によって分離された第1の蛍光(第1の波長帯域の光L1)をそれぞれ撮像し、第1の撮像画像(第1の蛍光画像)をそれぞれ生成する。
 また、第2の撮像素子523は、第1,第2のフレーム期間T1,T2において、励起光除去済みの被写体像からプリズム521によって分離された第2の蛍光(第2の波長帯域の光L2)をそれぞれ撮像し、第2の撮像画像(第2の蛍光画像)をそれぞれ生成する。
 さらに、第3の撮像素子524は、第1,第2のフレーム期間T1,T2において、励起光除去済みの被写体像からプリズム521によって分離された赤、緑、及び青の波長帯域の光(第3の波長帯域の光L3)をそれぞれ撮像し、第3の撮像画像(以下、通常光画像と記載)をそれぞれ生成する。
 画像処理部921は、制御部93による制御の下、通信部91によって受信した第1~第3の撮像画像に対して画像処理をそれぞれ実行する。また、画像処理部921は、例えば、通常光画像と第1,第2の蛍光画像とを公知のアルファブレンド処理または加算ブレンド処理によって重畳し、第1の蛍光が発せられた領域と第2の蛍光が発せられた領域とを識別可能な重畳画像を生成する。そして、表示制御部922は、重畳画像に応じた映像信号を生成し、表示装置7に出力する。これにより、表示装置7には、重畳画像が表示される。
 以上説明した本変形例1に係る構成を採用した場合であっても、上述した実施の形態と同様の効果を奏する。
(変形例2)
 図18及び図19は、実施の形態の変形例2を説明する図である。具体的に、図18は、図1に対応した図である。図19の(a)~図19の(c)及び図19の(e)~図19の(g)は、図10(a)ないし図10の(f)にそれぞれ対応した図である。また、図19の(d)は、第4の光源34の動作状態を示すタイムチャートである。なお、図19の(d)では、説明の便宜上、第3の励起光を「500」の文字によって表現している。また、図19の(f)では、説明の便宜上、第3の蛍光を撮像することによって生成された第3の撮像画像を「500」の文字によって表現している。
 本変形例2に係る光源装置3は、図18に示すように、上述した実施の形態において説明した光源装置3に対して、第4の光源34が追加されている。
 第4の光源34は、ライトガイド4の一端に、観察対象に含まれる第3の蛍光試薬を励起させるための第3の励起光を供給する。なお、第4の光源34としては、LEDによって構成してもよく、あるいは、半導体レーザによって構成しても構わない。
 ここで、第3の蛍光試薬は、第3の励起光によって励起されると、500[nm]近傍をピーク波長とする第3の蛍光を発する。
 なお、本変形例2に係る励起光カットフィルタ22は、挿入部2によって集光された被写体像に含まれる第1~第3の励起光を除去する。以下で記載する励起光除去済みの被写体像は、励起光カットフィルタ22によって第1~第3の励起光が除去された後の被写体像である。
 次に、本変形例2に係る蛍光内視鏡装置1の動作について説明する。なお、以下では、説明の便宜上、第1~第3の蛍光を利用して蛍光観察を行う第4の蛍光観察モードにおける蛍光内視鏡装置1の動作について説明する。なお、観察対象には、第1~第3の蛍光試薬の全てが含まれているものとする。
 第4の蛍光観察モードでは、制御部93は、以下に示すように、光源装置3及び第1~第3の撮像素子522~524の動作を制御する。
 制御部93は、図19の(a)ないし図10の(d)に示すように、第1,第2のフレーム期間T1,T2のうち、第1のフレーム期間T1において、第1の光源31を点灯させ、第2~第4の光源32~34を消灯させる。
 また、制御部93は、図19の(a)ないし図19の(d)に示すように、第1,第2のフレーム期間T1,T2のうち、第2のフレーム期間T2において、第1の光源31を消灯させ、第2~第4の光源32~34を点灯させる。
 そして、制御部93は、交互に繰り返す第1,第2のフレーム期間T1,T2において、第1~第3の撮像素子522~524に撮像動作を実行させる。
 具体的に、第1の撮像素子522は、第1のフレーム期間T1において、励起光除去済みの被写体像からプリズム521によって分離された赤の波長帯域の光(第1の波長帯域の光L1)を撮像し、第1の撮像画像(赤チャネル画像)を生成する。また、第1の撮像素子522は、第2のフレーム期間T2において、励起光除去済みの被写体像からプリズム521によって分離された第1の蛍光(第1の波長帯域の光L1)を撮像し、第1の撮像画像(第1の蛍光画像)を生成する。
 また、第2の撮像素子523は、第1のフレーム期間T1において、励起光除去済みの被写体像からプリズム521によって分離された青の波長帯域の光(第2の波長帯域の光L2)を撮像し、第2の撮像画像(青チャネル画像)を生成する。また、第2の撮像素子523は、第2のフレーム期間T2において、励起光除去済みの被写体像からプリズム521によって分離された第2の蛍光(第2の波長帯域の光L2)を撮像し、第2の撮像画像(第2の蛍光画像)を生成する。
 さらに、第3の撮像素子524は、第1のフレーム期間T1において、励起光除去済みの被写体像からプリズム521によって分離された緑の波長帯域の光(第3の波長帯域の光L3)を撮像し、第3の撮像画像(緑チャネル画像)を生成する。また、第3の撮像素子524は、第2のフレーム期間T2において、励起光除去済みの被写体像からプリズム521によって分離された第3の蛍光(第3の波長帯域の光L3)を撮像し、第3の撮像画像(以下、第3の蛍光画像と記載)を生成する。
 画像処理部921は、制御部93による制御の下、通信部91によって受信した第1~第3の撮像画像に対して画像処理をそれぞれ実行する。また、画像処理部921は、赤チャネル画像、緑チャネル画像、及び青チャネル画像から白色光に応じたカラー画像である通常光画像を生成する。さらに、画像処理部921は、例えば、通常光画像と第1~第3の蛍光画像とを公知のアルファブレンド処理または加算ブレンド処理によって重畳し、第1の蛍光が発せられた領域と第2の蛍光が発せられた領域と第3の蛍光が発せられた領域とを識別可能な重畳画像を生成する。そして、表示制御部922は、重畳画像に応じた映像信号を生成し、表示装置7に出力する。これにより、表示装置7には、重畳画像が表示される。
 以上説明した本変形例2に係る構成を採用した場合であっても、上述した実施の形態と同様の効果を奏する。
 1 蛍光内視鏡装置
 2 挿入部
 3 光源装置
 4 ライトガイド
 5 カメラヘッド
 6 第1の伝送ケーブル
 7 表示装置
 8 第2の伝送ケーブル
 9 制御装置
 10 第3の伝送ケーブル
 21 接眼部
 22 励起光カットフィルタ
 31 第1の光源
 32 第2の光源
 33 第3の光源
 34 第4の光源
 51 レンズユニット
 52 撮像部
 53 通信部
 91 通信部
 92 処理モジュール
 93 制御部
 94 入力部
 95 出力部
 96 記憶部
 521 プリズム
 521a~521c 透光性部材
 521d 第1のダイクロイックフィルタ
 521e 第2のダイクロイックフィルタ
 522 第1の撮像素子
 523 第2の撮像素子
 524 第3の撮像素子
 524a カラーフィルタ
 525 信号処理部
 921 画像処理部
 922 表示制御部
 CL1,CL2 曲線
 L1 第1の波長帯域の光
 L2 第2の波長帯域の光
 L3 第3の波長帯域の光
 P1,P2 波長
 T1 第1のフレーム期間
 T2 第2のフレーム期間

Claims (8)

  1.  入射光を700nmから800nmが蛍光発光のピーク波長となる第1の蛍光試薬から発せられる第1の蛍光の波長帯域を含む第1の波長帯域の光と、前記第1の蛍光のピーク波長よりも長波長側が蛍光発光のピーク波長となる第2の蛍光試薬から発せられる第2の蛍光の波長帯域を含む第2の波長帯域の光と、可視光の波長帯域の一部を含む第3の波長帯域の光との3つの光に分離する色分離光学素子と、
     前記第1の波長帯域の光を撮像する第1の撮像素子と、
     前記第2の波長帯域の光を撮像する第2の撮像素子と、
     前記第3の波長帯域の光を撮像する第3の撮像素子とを備える撮像装置。
  2.  前記第1の蛍光のピーク波長は、
     700nm近傍であり、
     前記第2の蛍光のピーク波長は、
     800nm近傍である請求項1に記載の撮像装置。
  3.  前記第1の波長帯域は、
     可視光における赤の波長帯域を含み、
     前記第2の波長帯域は、
     可視光における青の波長帯域を含み、
     前記第3の波長帯域は、
     可視光における緑の波長帯域を含む請求項2に記載の撮像装置。
  4.  前記色分離光学素子は、
     第1の反射光学素子と、第2の反射光学素子とを備え、
     前記第1の反射光学素子は、
     400nmから500nmまでの前記青の波長帯域と、800nmから900nmまでの前記第2の蛍光の波長帯域とを含む前記第2の波長帯域の光を反射し、
     前記第2の反射光学素子は、
     前記第1の反射光学素子を透過した光のうち、前記赤の波長帯域と前記第1の蛍光の波長帯域とを含む600nmから760nmまでの前記第1の波長帯域の光を反射し、前記緑の波長帯域の光を透過する請求項3に記載の撮像装置。
  5.  前記第3の波長帯域は、
     可視光における赤、緑、及び青の波長帯域を含む請求項2に記載の撮像装置。
  6.  前記色分離光学素子は、
     第1の反射光学素子と、第2の反射光学素子とを備え、
     前記第1の反射光学素子は、
     前記第2の蛍光の波長帯域を含む800nmから900nmまでの前記第2の波長帯域の光を反射し、
     前記第2の反射光学素子は、
     前記第1の反射光学素子を透過した光のうち、前記第1の蛍光の波長帯域を含む700nmから800nmまでの前記第2の波長帯域の光を反射し、前記赤、緑、及び青の波長帯域の光を透過する請求項5に記載の撮像装置。
  7.  可視光の波長帯域を含む通常光を出射する第1の光源と、
     700nm近傍が蛍光発光のピーク波長となる第1の蛍光試薬を励起するための第1の励起光を出射する第2の光源と、
     800nm近傍が蛍光発光のピーク波長となる第2の蛍光試薬を励起するための第2の励起光を出射する第3の光源と、
     入射光を前記第1の蛍光試薬から発せられる第1の蛍光の波長帯域を含む第1の波長帯域の光と、前記第2の蛍光試薬から発せられる第2の蛍光の波長帯域を含む第2の波長帯域の光と、可視光の波長帯域の一部を含む第3の波長帯域の光との3つの光に分離する色分離光学素子と、
     前記第1の波長帯域の光を撮像する第1の撮像素子と、
     前記第2の波長帯域の光を撮像する第2の撮像素子と、
     前記第3の波長帯域の光を撮像する第3の撮像素子と、
     前記第1の光源、前記第2の光源、前記第3の光源、前記第1の撮像素子、前記第2の撮像素子、及び前記第3の撮像素子の動作を制御するプロセッサとを備え、
     前記第1の波長帯域は、
     可視光における赤の波長帯域を含み、
     前記第2の波長帯域は、
     可視光における青の波長帯域を含み、
     前記第3の波長帯域は、
     可視光における緑の波長帯域を含み、
     前記プロセッサは、
     前記第1の光源と前記第2の光源及び前記第3の光源の少なくとも一方の光源とを交互に点灯させ、
     前記第1の光源を点灯させるタイミングにおいて、前記第1の撮像素子によって前記第1の波長帯域の光を撮像させて得られた第1の撮像画像、前記第2の撮像素子によって前記第2の波長帯域の光を撮像させて得られた第2の撮像画像、及び前記第3の撮像素子によって前記第3の波長帯域の光を撮像させて得られた第3の撮像画像に基づいて前記通常光に応じた通常光画像を生成し、
     前記少なくとも一方の光源を点灯させるタイミングにおいて、前記第1の撮像素子によって前記第1の波長帯域の光を撮像させて得られた前記第1の撮像画像、及び前記第2の撮像素子によって前記第2の波長帯域の光を撮像させて得られた第2の撮像画像の少なくとも一方の撮像画像に基づいて前記第1の蛍光及び前記第2の蛍光の少なくとも一方の蛍光に応じた蛍光画像を生成する蛍光内視鏡装置。
  8.  可視光の波長帯域を含む通常光を出射する第1の光源と、
     700nm近傍が蛍光発光のピーク波長となる第1の蛍光試薬を励起するための第1の励起光を出射する第2の光源と、
     800nm近傍が蛍光発光のピーク波長となる第2の蛍光試薬を励起するための第2の励起光を出射する第3の光源と、
     入射光を前記第1の蛍光試薬から発せられる第1の蛍光の波長帯域を含む第1の波長帯域の光と、前記第2の蛍光試薬から発せられる第2の蛍光の波長帯域を含む第2の波長帯域の光と、可視光の波長帯域の一部を含む第3の波長帯域の光との3つの光に分離する色分離光学素子と、
     前記第1の波長帯域の光を撮像する第1の撮像素子と、
     前記第2の波長帯域の光を撮像する第2の撮像素子と、
     前記第3の波長帯域の光を撮像する第3の撮像素子と、
     前記第1の光源、前記第2の光源、前記第3の光源、前記第1の撮像素子、前記第2の撮像素子、及び前記第3の撮像素子の動作を制御するプロセッサとを備え、
     前記第3の波長帯域は、
     可視光における赤、緑、及び青の波長帯域を含み、
     前記プロセッサは、
     前記第1の光源と前記第2の光源及び前記第3の光源の少なくとも一方の光源とを同時に点灯させ、
     前記第1の撮像素子によって前記第1の波長帯域の光を撮像させて得られた第1の撮像画像、及び前記第2の撮像素子によって前記第2の波長帯域の光を撮像させて得られた第2の撮像画像の少なくとも一方の撮像画像に基づいて前記第1の蛍光及び前記第2の蛍光の少なくとも一方の蛍光に応じた蛍光画像を生成し、前記第3の撮像素子によって前記第3の波長帯域の光を撮像させて得られた第3の撮像画像を前記通常光に応じた通常光画像として生成する蛍光内視鏡装置。
PCT/JP2025/018739 2024-05-23 2025-05-23 撮像装置及び蛍光内視鏡装置 Pending WO2025244129A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US202463650969P 2024-05-23 2024-05-23
US63/650,969 2024-05-23

Publications (1)

Publication Number Publication Date
WO2025244129A1 true WO2025244129A1 (ja) 2025-11-27

Family

ID=97795485

Family Applications (4)

Application Number Title Priority Date Filing Date
PCT/JP2025/018739 Pending WO2025244129A1 (ja) 2024-05-23 2025-05-23 撮像装置及び蛍光内視鏡装置
PCT/JP2025/018756 Pending WO2025244131A1 (ja) 2024-05-23 2025-05-23 蛍光内視鏡装置
PCT/JP2025/018743 Pending WO2025244130A1 (ja) 2024-05-23 2025-05-23 蛍光内視鏡装置
PCT/JP2025/018732 Pending WO2025244127A1 (ja) 2024-05-23 2025-05-23 蛍光内視鏡装置

Family Applications After (3)

Application Number Title Priority Date Filing Date
PCT/JP2025/018756 Pending WO2025244131A1 (ja) 2024-05-23 2025-05-23 蛍光内視鏡装置
PCT/JP2025/018743 Pending WO2025244130A1 (ja) 2024-05-23 2025-05-23 蛍光内視鏡装置
PCT/JP2025/018732 Pending WO2025244127A1 (ja) 2024-05-23 2025-05-23 蛍光内視鏡装置

Country Status (1)

Country Link
WO (4) WO2025244129A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016117071A1 (ja) * 2015-01-22 2016-07-28 オリンパス株式会社 撮像装置
JP2021029508A (ja) * 2019-08-22 2021-03-01 キヤノン株式会社 撮像装置
JP2023168108A (ja) * 2022-05-13 2023-11-24 株式会社タムロン 画像形成装置
US20240156348A1 (en) * 2022-11-15 2024-05-16 Quest Photonic Devices B.V. Method of measuring a fluorescence signal and a visible light image, image capturing and processing device

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005287964A (ja) * 2004-04-02 2005-10-20 Olympus Corp 生体・臓器・組織の観察装置
JP5208430B2 (ja) * 2007-01-31 2013-06-12 オリンパス株式会社 生体組織用蛍光観察装置
JP5721959B2 (ja) * 2010-03-16 2015-05-20 オリンパス株式会社 蛍光内視鏡装置
CN103140157B (zh) * 2011-03-15 2014-10-01 奥林巴斯医疗株式会社 医疗装置
CN105007798A (zh) * 2013-02-13 2015-10-28 奥林巴斯株式会社 荧光观察装置
CN105934191B (zh) * 2014-01-31 2018-01-02 奥林巴斯株式会社 荧光观察装置
CN107209118B (zh) * 2014-09-29 2021-05-28 史赛克欧洲运营有限公司 在自体荧光存在下生物材料中目标荧光团的成像
JP6234621B2 (ja) * 2015-09-18 2017-11-22 オリンパス株式会社 内視鏡装置
JP6138386B1 (ja) * 2015-09-18 2017-05-31 オリンパス株式会社 内視鏡装置及び内視鏡システム
DE102020132978A1 (de) * 2020-12-10 2022-06-15 Karl Storz Se & Co. Kg Erfassung von Bildern eines medizinischen Objekts in Weißlicht und Fluoreszenzlicht
DE102020132982A1 (de) * 2020-12-10 2022-06-15 Karl Storz Se & Co. Kg Erfassung von Bildern eines medizinischen Objekts in Weißlicht und Fluoreszenzlicht
JPWO2022270519A1 (ja) * 2021-06-23 2022-12-29
CN114869207B (zh) * 2022-05-20 2025-12-02 上海微觅医疗器械有限公司 电子内窥镜成像系统、方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016117071A1 (ja) * 2015-01-22 2016-07-28 オリンパス株式会社 撮像装置
JP2021029508A (ja) * 2019-08-22 2021-03-01 キヤノン株式会社 撮像装置
JP2023168108A (ja) * 2022-05-13 2023-11-24 株式会社タムロン 画像形成装置
US20240156348A1 (en) * 2022-11-15 2024-05-16 Quest Photonic Devices B.V. Method of measuring a fluorescence signal and a visible light image, image capturing and processing device

Also Published As

Publication number Publication date
WO2025244131A1 (ja) 2025-11-27
WO2025244130A1 (ja) 2025-11-27
WO2025244127A1 (ja) 2025-11-27

Similar Documents

Publication Publication Date Title
US20130338438A1 (en) Fluorescence endoscope apparatus
US11197603B2 (en) Endoscope apparatus
KR100939400B1 (ko) 생체 관측 장치
EP3135185A1 (en) Imaging system
JP7374600B2 (ja) 医療用画像処理装置及び医療用観察システム
US20190350448A1 (en) Endoscope system
US20240306883A1 (en) Medical image processing apparatus and medical observation system
JP5930474B2 (ja) 内視鏡システム及びその作動方法
JP6388240B2 (ja) 光学装置
US11483489B2 (en) Medical control device and medical observation system using a different wavelength band than that of fluorescence of an observation target to control autofocus
JP6293392B1 (ja) 生体観察システム
JP7069290B2 (ja) 内視鏡システム及びその作動方法
WO2025244129A1 (ja) 撮像装置及び蛍光内視鏡装置
US12075970B2 (en) Medical control device and medical observation system
JP7551465B2 (ja) 医療用画像処理装置及び医療用観察システム
US20230233070A1 (en) Endoscope light source device, endoscope system, and method of changing illumination light in endoscope light source device
JP6570490B2 (ja) 内視鏡システム及び内視鏡システムの作動方法
JP6132251B1 (ja) 内視鏡及び内視鏡システム
US11737646B2 (en) Medical image processing device and medical observation system
JP6388237B2 (ja) 4色プリズム
JP2021029509A (ja) 撮像装置
JP2021003347A (ja) 医療用画像処理装置及び医療用観察システム
US12295553B2 (en) Medical image processing apparatus and medical observation system