WO2013146311A1 - 撮像装置、及びこれを備える内視鏡装置 - Google Patents
撮像装置、及びこれを備える内視鏡装置 Download PDFInfo
- Publication number
- WO2013146311A1 WO2013146311A1 PCT/JP2013/057256 JP2013057256W WO2013146311A1 WO 2013146311 A1 WO2013146311 A1 WO 2013146311A1 JP 2013057256 W JP2013057256 W JP 2013057256W WO 2013146311 A1 WO2013146311 A1 WO 2013146311A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- light
- exposure
- horizontal pixel
- imaging
- pixel line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B23/00—Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
- G02B23/24—Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
- G02B23/2407—Optical details
- G02B23/2461—Illumination
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00043—Operational features of endoscopes provided with output arrangements
- A61B1/00045—Display arrangement
- A61B1/0005—Display arrangement combining images e.g. side-by-side, superimposed or tiled
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/045—Control thereof
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/05—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/06—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
- A61B1/0638—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/06—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
- A61B1/0655—Control therefor
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B23/00—Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
- G02B23/24—Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
- G02B23/2476—Non-optical details, e.g. housings, mountings, supports
- G02B23/2484—Arrangements in relation to a camera or imaging device
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
- H04N23/125—Colour sequential image capture, e.g. using a colour wheel
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/56—Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/73—Circuitry for compensating brightness variation in the scene by influencing the exposure time
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/74—Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/50—Control of the SSIS exposure
- H04N25/53—Control of the integration time
- H04N25/531—Control of the integration time by controlling rolling shutters in CMOS SSIS
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/50—Control of the SSIS exposure
- H04N25/53—Control of the integration time
- H04N25/533—Control of the integration time by using differing integration times for different sensor regions
- H04N25/534—Control of the integration time by using differing integration times for different sensor regions depending on the spectral component
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B23/00—Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
- G02B23/24—Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
- G02B23/2407—Optical details
- G02B23/2461—Illumination
- G02B23/2469—Illumination using optical fibres
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/555—Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
Definitions
- the present invention relates to an imaging apparatus and an endoscope apparatus including the same.
- an imaging apparatus that sequentially irradiates a subject with illumination lights having different spectra from each other in synchronization with the imaging timing and performs imaging in a surface sequential manner.
- a global shutter type batch exposure type image pickup device is used as the image pickup device, a picked-up image illuminated with different illumination light is obtained for each image pickup frame.
- An endoscope apparatus that obtains an endoscope image by imaging in such a frame sequential method is described in Patent Document 1, for example.
- semiconductor light sources such as laser light sources and LED light sources have been adopted as light sources to replace white light sources such as xenon lamps because of their high efficiency and good maintainability.
- the CMOS type image sensor is a rolling shutter system, and the exposure period of the horizontal pixel line is different for each line.
- the exposure period of a specific horizontal pixel line may straddle the timing at which the illumination light is switched.
- the captured image obtained in that case becomes an unnatural image exposed by a plurality of illumination lights, and does not become a normal captured image.
- the illumination light is switched in units of imaging frames.
- the rolling shutter method requires a larger number of imaging frames for generating a combined image than the global shutter method. For this reason, there is a disadvantage in that when a moving subject is imaged due to a decrease in moving image responsiveness, a color shift is likely to occur in the captured image.
- the present invention improves imaging response and improves color reproducibility even when a plurality of types of illumination light are sequentially switched and imaged in a surface sequential manner using a rolling shutter type imaging device.
- An object is to provide an apparatus and an endoscope apparatus including the apparatus.
- An imaging device includes a light source capable of emitting a plurality of types of illumination light having different spectra, and a plurality of horizontal pixels including a plurality of pixels arranged in a horizontal direction and a vertical direction, and pixels arranged in the horizontal direction.
- An imaging unit having an image sensor that has a line and is driven by a rolling shutter system, a light source control unit that switches illumination light emitted from the light source, a unit irradiation period in which any illumination light is emitted, and any one
- a second exposure frame to be formed is generated, and a frame group in which a second exposure frame is provided before and after one first exposure frame or two consecutive first exposure frames is defined as 1
- the same illumination light is output during the unit irradiation period by using the detection signal amount read from the pixel of each horizontal pixel line in each exposure frame included in the frame group and the frame image control unit that is output as a period.
- an imaging signal generation unit that generates an imaging signal amount obtained from the pixel when the exposure is
- An endoscope apparatus includes the imaging apparatus.
- the moving image response is improved and the color reproducibility is excellent.
- FIG. 1 It is a figure for describing an embodiment of the present invention, and is a block block diagram showing a schematic structure of an endoscope apparatus. It is an external view which shows one specific structural example of an endoscope apparatus. It is typical explanatory drawing which shows the exposure timing of the image pick-up element by a rolling shutter system.
- a general exposure time chart showing a state in which white illumination light (W light) and blue narrow band wavelength illumination light (N light) are alternately irradiated and imaged by a rolling shutter type imaging device in a surface sequential manner. It is.
- the light source control unit alternately irradiates white illumination light (W light) and blue narrow band wavelength illumination light (N light), and inserts a frame that does not irradiate illumination light before and after the frame to perform rolling.
- FIG. 6 is an exposure time chart showing each exposure frame shown in FIG. 5 without a shift corresponding to a horizontal scanning period of each horizontal pixel line. It is explanatory drawing which expands and shows the exposure frames Exp2 and Exp3 shown in FIG. It is explanatory drawing which expands and shows the exposure frames Exp1 and Exp2 shown in FIG. It is an exposure time chart in which the exposure period of each horizontal pixel line is a back-aligned exposure period Ts shorter than the maximum exposure period.
- the light source control unit alternately irradiates white illumination light (W light) and blue narrow band wavelength illumination light (N light), and inserts a frame that does not irradiate illumination light before and after the frame to perform rolling.
- 12 is an exposure time chart in which each exposure frame shown in FIG. 11 is represented without a shift corresponding to a horizontal scanning period of each horizontal pixel line.
- 12 is an exposure time chart in which each exposure frame shown in FIG. 11 is represented without a shift corresponding to a horizontal scanning period of each horizontal pixel line.
- FIG. 1 is a diagram for explaining an embodiment of the present invention, and is a block configuration diagram showing a schematic configuration of an endoscope apparatus, and FIG. 2 is an external view showing a specific configuration example of the endoscope apparatus.
- the endoscope apparatus 100 includes an endoscope scope (hereinafter referred to as an endoscope) 11, a control device 13 to which the endoscope 11 is connected, and a control device 13.
- a display unit 15 such as a liquid crystal monitor to be connected and an input unit 17 such as a keyboard and a mouse for inputting information to the control device 13 are provided.
- the control device 13 includes a light source device 19 that generates illumination light and a processor 21 that performs signal processing of a captured image.
- the endoscope 11 includes a main body operation unit 23 and an insertion unit 25 connected to the main body operation unit 23 and inserted into a body cavity.
- the universal cord 27 is connected to the main body operation unit 23.
- the light guide connector 29A provided at one end of the universal cord 27 is connected to the light source device 19, and the video connector 29B provided at the other end is connected to the processor 21.
- An illumination window 31 and an observation window 33 are provided at the distal end of the insertion section 25 of the endoscope 11 opposite to the main body operation section 23.
- the illumination window 31 emits illumination light guided through the light guide 35 toward the subject, and the observation window 33 provides an observation image to the image sensor 37.
- the light source device 19 includes a light source 39 that introduces emitted light into the light guide 35 and a light source control unit 41 that controls the amount of light emitted from the light source 39 by pulse driving.
- the processor 21 includes an imaging signal processing unit 43, an endoscope control unit 45, an image processing unit 47, and a memory 49.
- the endoscope 11 includes an imaging control unit 51 for driving and controlling the imaging element 37.
- the imaging control unit 51 controls driving of the imaging element 37 in accordance with an instruction from the endoscope control unit 45.
- the imaging element 37 and the imaging control unit 51 function as an imaging unit.
- the image sensor 37 is a CMOS image sensor driven by a rolling shutter system.
- the imaging device 37 images the reflected light from the subject by the illumination light irradiated from the illumination window 31 through the observation window 33 and a lens (not shown).
- the image sensor 37 outputs a video signal of the observed observation image to the processor 21.
- the endoscope control unit 45 is connected to a memory 49 serving as a storage unit that stores observation images and various types of information.
- the image processing unit 47 performs appropriate image processing on the video signal output from the imaging signal processing unit 43. And is displayed on the display unit 15.
- the endoscope control unit 45 is connected to a network such as a LAN (not shown) and controls the entire endoscope apparatus 100 such as distributing information including an imaging signal.
- the endoscope control unit 45 functions as an imaging signal generation unit that generates an imaging signal for each illumination light described later.
- the observation image formed and captured on the light receiving surface of the image sensor 37 is converted into an electric signal and input to the image signal processor 43 of the processor 21.
- the imaging signal processing unit 43 converts the input observation image signal into an imaging signal.
- the light source 39 includes one or more laser light sources that are semiconductor light emitting elements.
- the light source 39 may be configured to irradiate a specific wavelength light alone or simultaneously with a plurality of wavelength lights besides generating white light.
- Specific wavelength light includes blue narrow-band wavelength light that is narrower than the wavelength width of white illumination light, wavelength light for fluorescence observation, near-infrared light for infrared observation, and the like.
- a laser light source that outputs blue laser light having a central wavelength of 445 nm, and a plurality of types of phosphors that absorb and emit green to yellow light by absorbing a part of the blue laser light (for example, YAG type)
- a wavelength conversion member including a phosphor or a phosphor containing BAM (BaMgAl 10 O 37 ) or the like.
- this laser light source for example, a broad area type InGaN laser diode can be used.
- the blue laser light from the laser light source and the green to yellow excitation light obtained by wavelength-converting the blue laser light are combined to generate white light.
- the intensity of light emitted from the light source 39 is arbitrarily adjusted by pulse modulation driving.
- a wavelength conversion member (not shown) is disposed in the light source 39. White light from the wavelength conversion member is guided to the illumination window 31 disposed at the distal end of the endoscope insertion portion 25 through a light guide 35 formed of a fiber bundle made up of a number of fiber bundles.
- the light source 39 includes, for example, a laser light source that outputs laser light having a central wavelength of 405 nm in addition to the white light laser light source, and generates illumination light suitable for observing capillaries and fine patterns on the surface of living tissue. Can be made.
- the light source 39 is configured to use mixed light obtained by simultaneously irradiating laser light having a central wavelength of 405 nm and white light by laser light having a central wavelength of 445 nm at an arbitrary ratio as illumination light for endoscope observation. Good.
- the light source 39 may have a configuration in which the wavelength conversion member is disposed at a position closest to the illumination window 31.
- the light guide 35 instead of the light guide 35, one or a plurality of single-mode optical fibers can be laid along the endoscope insertion portion 25 so that the light emission end emits light toward the wavelength conversion member. In that case, the diameter of the endoscope insertion portion can be reduced.
- the light source 39 may be formed of a light emitting diode instead of the laser light source.
- desired light such as red light (R light), green light (G light), blue light (B light), or blue narrow band light can be obtained by combining white light and a color filter that selectively extracts light of a specific wavelength. It is good also as a structure which obtains the wavelength light.
- FIG. 3 is a schematic explanatory view showing the exposure timing of the image pickup element by the rolling shutter system.
- each horizontal pixel line L (1), L (2),... L (n) is sequentially scanned in the vertical direction V from the upper end line to the lower end line, each horizontal pixel line L (1), L (2),.
- the exposure start timing is set to be shifted in the direction of delaying sequentially for each horizontal pixel line by the horizontal scanning period t sequentially from the upper end line on one end side in the vertical direction.
- This delay amount is set so that the exposure end timing of the lower end line coincides with the exposure start timing of the upper end line in the next frame.
- the horizontal scanning period t is a requirement per line required for a command on a logic circuit such as a reset and readout of a stored charge line for one line of one horizontal pixel line (hereinafter also referred to simply as a line). This is time, and is expressed as the difference in exposure start time between the line L (1) and the line L (2) shown in FIG.
- FIG. 4 shows a general exposure time in which white illumination light (W light) and blue narrow-band wavelength illumination light (N light) are alternately irradiated, and imaged by a surface-sequential method using a rolling shutter image sensor. A chart is shown.
- the endoscope control unit 45 (see FIG. 1) performs W light or N light during two frame periods (twice the one frame period FL) necessary for obtaining an image of one frame from the image sensor 37. Are continuously emitted.
- the light source control unit 41 sets a unit irradiation period T for each exposure start timing t 0 in the horizontal pixel line on the upper end side of the image sensor 37, and emits any illumination light from the light source 39 for each unit irradiation period.
- the exposure frame Exp2 that is the next frame of the exposure frame Exp1 is a frame image exposed when the W light is irradiated.
- the exposure frame Exp4 that is the next frame of the exposure frame Exp3 is a frame image exposed at the time of irradiation with N light.
- the light source control unit 41 alternately irradiates white illumination light (W light) and blue narrow-band wavelength illumination light (N light), and a frame that does not irradiate illumination frames on the front and rear frames.
- the exposure time chart which inserts and images by a frame sequential system with the image sensor of a rolling shutter system is shown. Note that the exposure period of each horizontal pixel line in FIG. 5 is shown as the maximum settable exposure period.
- the light source controller 41 emits W light and N light every unit irradiation period T. Further, a unit irradiation period T in which the illumination light is not emitted is provided before and after a plurality of continuous unit irradiation periods T in which the W light and the N light are emitted.
- the light source control unit 41 controls “illumination light” by repeating this cycle with “no illumination light emission”, “W light emission”, “N light emission”, and “no illumination light emission” as one cycle. .
- the first exposure frame Exp1 is formed by a unit irradiation period T in which W light is emitted and a unit irradiation period T in which no illumination light is emitted.
- the second exposure frame Exp2 is formed by a unit irradiation period T in which W light is emitted and a unit irradiation period T in which N light is emitted.
- the third exposure frame Exp3 is formed by a unit irradiation period T in which N light is emitted and a unit irradiation period T in which no illumination light is emitted.
- FIG. 6 is an exposure time chart in which each exposure frame shown in FIG. 5 is represented without a shift corresponding to the horizontal scanning period of each horizontal pixel line.
- an area represented by a hatched portion is an exposure period corresponding to either exposure with W light or exposure with N light.
- the switching timing of the illumination light for each exposure frame is determined according to the shift of the horizontal pixel line by the horizontal scanning period t (see FIG. 3) by the rolling shutter of the image sensor, and depends on the image sensor and the drive control pattern of the image sensor. It is determined uniquely.
- Intermediate line i n / 2 (n is the total number of lines) is an exposure period in which the exposure period in which no illumination light is emitted and the exposure period in which W light is emitted are equal.
- an exposure period in which the W light is irradiated and an exposure period in which the N light is irradiated are mixed.
- an exposure period in which the N light is irradiated and no exposure light is emitted. The period is mixed.
- the exposure frames Exp1, Exp2, and Exp3 shown in FIG. 6 are obtained from each pixel when all pixels are exposed with the same illumination light for a set exposure time (the length of one frame FL in FIG. 5). A procedure for generating an imaging signal will be described.
- FIG. 7 is an explanatory view showing the exposure frames Exp2 and Exp3 shown in FIG. 6 in an enlarged manner.
- the horizontal pixel lines are divided into the second line group A2 on the (lower end side).
- ta / (ta + tb) becomes the signal amount ⁇ Wa> by W light
- tb / ( ta + tb) is the signal amount ⁇ Nb> of N light.
- the total exposure period in the line L (i) is the sum of an exposure period ta in which N light is emitted and the image sensor 37 is exposed, and an exposure period tb in which no illumination light is emitted. .
- the endoscope control unit 45 determines that the ratio of the imaging signal amount by N light with respect to each horizontal pixel line in the imaging signal In (i) is one of the first line group A1 and the second line group A2. Calculation is performed using an imaging signal obtained from the larger line group.
- the imaging signal Iw (i) by the W light in the first line group A1 is the imaging signal of the first line group A1 of the exposure frame Exp2 in which the ratio of the exposure amount by the W light is large and the exposure signal Exp3 of the adjacent exposure frame Exp3. It is obtained using the imaging signal of one line group A1.
- the imaging signal amount Iw (i) obtained from each pixel of the horizontal pixel line L (i) is equal to the imaging signal amount Wa shown in FIG. ta + tb) / ta ⁇ times.
- the imaging signal amount Wa shown in FIG. 7 is obtained by subtracting the imaging signal amount Nb of FIG. 7 from RD2, assuming that the imaging signal amount read from the pixels of the horizontal pixel line L (i) at the readout timing RD2 is RD2. It is done.
- the imaging signal amount Nb shown in FIG. 7 is obtained by calculation of Na ⁇ (tb / ta).
- Na matches the amount of image signal read from the pixels of the horizontal pixel line L (i) at the read timing RD3.
- the imaging signal amount Iw (i) obtained from each pixel of the horizontal pixel line L (i) is in the range of 0 ⁇ i ⁇ (n / 2). It is obtained by the following formula (1).
- FIG. 8 is an explanatory view showing the exposure frames Exp1 and Exp2 shown in FIG. 6 in an enlarged manner.
- the entire exposure period in the line L (i) is an exposure period ta in which illumination light is not emitted
- W This is the sum of the exposure period tb in which light is emitted and the image sensor 37 is exposed.
- the imaging signal amount of the line L (i) (the imaging signal amount read at the readout timing RD1 in FIG. 5) is all based on the W light.
- the signal amount is ⁇ Wb>.
- the imaging signal Iw (i) in the second line group A2 is (2 / n) ⁇ i ⁇ n, where RD1 is the amount of imaging signal read out from the pixels of the horizontal pixel line L (i) at the readout timing RD1.
- the range is represented by the formula (2).
- the endoscope control unit 45 generates an imaging signal Iw (i) corresponding to each horizontal pixel line from the horizontal pixel lines L (0) to L (n) by the above formulas (1) and (2). .
- imaging signal In (i) for N light 0 ⁇ i ⁇ (n / 2)
- the imaging signal In (i) by N light in the first line group A1 is obtained from the imaging signal of the first line group A1 of the exposure frame Exp3 in which the ratio of the exposure amount by N light is large.
- the imaging signal In (i) is expressed by Expression (3) in the range of 0 ⁇ i ⁇ (n / 2).
- the imaging signal In (i) is expressed by Expression (4) in the range of (2 / n) ⁇ i ⁇ n.
- the endoscope control unit 45 generates an imaging signal In (i) corresponding to each horizontal pixel line from the horizontal pixel lines L (0) to L (n) by the above formulas (3) and (4).
- the information of each equation is stored in the memory 49 in advance, and the endoscope control unit 45 substitutes the RD1 to RD3 actually obtained for each equation and uses the imaging signals Iw (i) and In (i). calculate.
- the calculated imaging signals Iw (i) and In (i) are output to the image processing unit 47.
- the image processing unit 47 generates captured image data by image processing using each imaging signal and outputs the captured image data to the display unit 15. Further, each imaging signal may be stored in a storage medium (not shown) or the like.
- the imaging signal Iw (i) using W light and the imaging signal In (i) using N light can be individually generated. According to this exposure control, one frame is shortened from the four frames required in the case of general exposure control, and the moving image response can be improved. In addition, occurrence of color misregistration with respect to the captured image can be suppressed.
- the endoscope control unit 45 determines that the line groups A1 and A2 are divided when the exposure period of each horizontal pixel line is a back-aligned exposure period Ts shorter than the maximum exposure period. Instead, the line is divided as follows.
- the horizontal pixel line group is divided into a first line group A1 on one end side (upper end side) in the vertical direction and a second line group A2 on the other end side (lower end side) with this intermediate line as a boundary.
- the endoscope control unit 45 obtains the imaging signals for the first line group A1 and the second line group A2 for the specific illumination light in the same manner as described above.
- the imaging signal read from the third line group A3 is used as it is. use.
- FIG. 10 shows a general exposure time chart in which R light, G light, and B light are alternately irradiated and an image is picked up in a frame sequential manner by a rolling shutter image pickup device.
- the endoscope control unit 45 continues the R light, the G light, and the B light during each of the two frame periods necessary for obtaining an image of one frame from the image sensor 37. To emit.
- the exposure frame Exp2 that is the next frame of the exposure frame Exp1 is a frame image that is exposed when the R light is irradiated.
- An exposure frame Exp4 that is the next frame of the exposure frame Exp3 is a frame image that is exposed when the G light is irradiated.
- An exposure frame Exp6 that is the next frame of the exposure frame Exp5 is a frame image that is exposed when the B light is irradiated.
- the light source control unit 41 continuously irradiates the R light, the G light, and the B light, inserts a frame that does not irradiate the illumination light into the preceding and succeeding frames, and performs surface sequential using a rolling shutter type imaging device.
- the exposure time chart which images with a system is shown.
- the light source control unit 41 emits R light, G light, and B light every unit irradiation period T, and illuminates before and after a plurality of continuous unit irradiation periods T in which R light, G light, and B light are emitted.
- a unit irradiation period T in which light is not emitted is provided.
- the light source control unit 41 sets “no illumination light emission”, “R light emission”, “G light emission”, “B light emission”, and “no illumination light emission” as one cycle. Control the illumination light repeatedly.
- the first exposure frame Exp1 is formed by a unit irradiation period T in which R light is emitted and a unit irradiation period T in which no illumination light is emitted.
- the second exposure frame Exp2 is formed by a unit irradiation period T in which R light is emitted and a unit irradiation period T in which G light is emitted.
- the third exposure frame Exp3 is formed by a unit irradiation period T in which G light is emitted and a unit irradiation period T in which B light is emitted.
- the fourth exposure frame Exp4 is formed by a unit irradiation period T in which B light is emitted and a unit irradiation period T in which no illumination light is emitted.
- FIG. 12 is an exposure time chart in which each exposure frame shown in FIG. 11 is represented without any deviation of the horizontal scanning period of each horizontal pixel line.
- a region represented by a hatched portion in each of the exposure frames Exp1, Exp2, Exp3, and Exp4 is an exposure period corresponding to one of exposure with R light, exposure with G light, and exposure with B light.
- the switching timing of the illumination light for each exposure frame is determined according to the shift of the horizontal pixel line by the horizontal scanning period t (see FIG. 3) by the rolling shutter of the image sensor, and depends on the image sensor and the drive control pattern of the image sensor. It is determined uniquely.
- the imaging signal Ir (i) by the R light has the imaging signal amount read at the readout timings RD2, RD3, and RD4 in FIG.
- the equation (5) is obtained, and in the range of (2 / n) ⁇ i ⁇ n, the equation (6) is obtained.
- the imaging signal Ib (i) by the B light is expressed by the equations (7), (2) within the range of 0 ⁇ i ⁇ (n / 2), where RD1 is the amount of imaging signal read at the readout timing RD1 in FIG. / N) In the range of ⁇ i ⁇ n, it is obtained by the formula (8).
- the imaging signal Ig (i) by G light is obtained as follows.
- the sum of RD2 and RD3 in each horizontal pixel line of exposure frames Exp2 and Exp3 includes the image signal amount by R light and the image signal amount by B light. It is.
- the imaging signal Ir (i) using the R light, the imaging signal Ig (i) using the G light, and the imaging signal Ib (i) using the B light. Can be generated.
- the imaging signal In (i) by the N light in the first line group A1 uses the imaging signal amount RD3 of the first line group A1 of the exposure frame Exp3 in which the ratio of the exposure amount by the N light is large. 10).
- imaging signal Iw (i) 0 ⁇ i ⁇ (n / 2)
- the imaging signal Iw (i) by the W light in the first line group A1 is obtained by the imaging signal amount RD2 of the first line group A1 in the exposure frame Exp2 in which the ratio of the exposure amount by the W light is large and the equation (10). Calculation is performed using In (i).
- RD2 is represented by the following formula (11) using Iw (i) and In (i).
- Equation (11) is obtained by transforming Equation (11).
- the imaging signal Iw (i) by the W light in the first line group A1 can be calculated from this equation (13).
- the imaging signal Iw (i) by the W light in the second line group A2 uses the imaging signal amount RD1 of the second line group A2 of the exposure frame Exp1 in which the ratio of the exposure amount by the W light is large, using the following formula ( 14).
- the imaging signal In (i) by the N light in the second line group A2 is obtained by the imaging signal amount RD2 of the second line group A2 of the exposure frame Exp2 in which the ratio of the exposure amount by the N light is large and the equation (14). It is calculated using Iw (i).
- the imaging signal In (i) by N light in the second line group A2 can be calculated from this equation (15).
- the imaging signal Ib (i) by the B light in the first line group A1 uses the imaging signal amount RD4 of the first line group A1 of the exposure frame Exp4 in which the ratio of the exposure amount by the B light is large. 16).
- imaging signal Ig (i) 0 ⁇ i ⁇ (n / 2)
- the imaging signal Ig (i) by the G light in the first line group A1 is obtained by the imaging signal amount RD3 of the first line group A1 of the exposure frame Exp3 in which the ratio of the exposure amount by the G light is large and the equation (16). Calculation is performed using Ib (i).
- RD3 is represented by the following formula (17) using Iw (i) and In (i).
- Equation (18) is obtained by transforming Equation (17).
- the imaging signal Ig (i) by the G light in the first line group A1 can be calculated from this equation (19).
- imaging signal Ir (i) 0 ⁇ i ⁇ (n / 2)
- the imaging signal Ir (i) by the R light in the first line group A1 is obtained by the imaging signal amount RD2 of the first line group A1 of the exposure frame Exp2 in which the ratio of the exposure amount by the R light is large and the equation (19). It is calculated using Ig (i).
- RD2 is represented by the following formula (20) using Ir (i) and Ig (i).
- Equation (21) is obtained by transforming Equation (20).
- Formula (22) is obtained by substituting Formula (19) into Formula (21).
- the imaging signal Ir (i) by the R light in the second line group A2 uses the imaging signal quantity RD1 of the second line group A2 of the exposure frame Exp1 in which the ratio of the exposure quantity by the R light is large, using the following formula ( 23).
- the imaging signal Ig (i) by the G light in the second line group A2 is obtained by the imaging signal amount RD2 of the second line group A2 of the exposure frame Exp2 in which the ratio of the exposure amount by the G light is large and the equation (23).
- Ir (i) calculation is performed by the following formula (24) in the same manner as described above.
- > The imaging signal Ib (i) by the B light in the second line group A2 is obtained by the imaging signal amount RD3 of the second line group A2 of the exposure frame Exp3 in which the ratio of the exposure amount by the B light is large and the equation (24).
- Ig (i) it is calculated by the following formula (25) as described above.
- the imaging signal amount can be calculated with less error.
- the present invention is not limited to the above-described embodiment, and the present invention can be modified or applied by a person skilled in the art based on the description of the specification and well-known techniques, by combining the configurations of the embodiments. Is included in the scope of seeking protection.
- the image sensor with this configuration is not limited to a CMOS image sensor, and any image sensor that functions in a rolling shutter system can be used.
- the boundary line between the first line group A1 and the second line group A2 can be set at an arbitrary position.
- the disclosed imaging device includes a light source capable of emitting a plurality of types of illumination light having different spectra, and a plurality of horizontal pixels including a plurality of pixels arranged in a horizontal direction and a vertical direction and arranged in a horizontal direction.
- An imaging unit having an image sensor having a line and driven by a rolling shutter system, a light source control unit that switches illumination light emitted from the light source, and a unit irradiation period during which any one of the illumination lights is emitted, A first exposure frame formed in a unit irradiation period in which illumination light different from any one of the illumination lights is emitted, and a unit irradiation period in which any one of the illumination lights is emitted and any illumination light is not emitted.
- a second exposure frame formed with a unit irradiation period is generated, and the second exposure frame is provided before and after one first exposure frame or two consecutive first exposure frames.
- a frame image control unit that outputs a frame group provided with a frame as one cycle, and a detection signal amount read from a pixel of each horizontal pixel line in each exposure frame included in the frame group,
- An imaging signal generation unit that generates an imaging signal amount obtained from the pixel when exposed using the same illumination light during the unit irradiation period.
- the imaging signal generation unit of the disclosed imaging device is configured to detect a horizontal pixel line for a horizontal pixel line in which the illumination light is switched within an exposure period of each horizontal pixel line of the first exposure frame and the second exposure frame. Using the ratio of the first period from the exposure start timing to the timing at which the illumination light switches to the second period from the timing at which the illumination light switches to the exposure end timing of the horizontal pixel line, the horizontal pixel line The imaging signal amount for the pixels is generated.
- the imaging signal generation unit of the disclosed imaging apparatus generates the imaging signal amount for the pixels of the horizontal pixel line using a coefficient determined by the position of the horizontal pixel line in the vertical direction.
- the exposure end timing of the horizontal pixel line on the other end side is the one end in the next frame. It is driven by shifting the exposure start timing of each horizontal pixel line so that it coincides with the exposure start timing of the horizontal pixel line on the side.
- the imaging signal generation unit of the disclosed imaging device includes a horizontal pixel line group from the horizontal pixel line on one end side in the vertical direction to a horizontal scanning line at an exposure start timing that coincides with an exposure end timing for the horizontal pixel line.
- a line that divides the horizontal pixel line group into two in the vertical direction is defined as a division line, and the first line group on one end side in the vertical direction and a second line on the other end side with the division line as a boundary.
- the horizontal pixel line group is divided into line groups, and the imaging signal amount is changed by changing the detection signal amount used for the pixels in the first line group and the detection signal amount used for the pixels in the second line group. A signal amount is generated.
- the disclosed imaging apparatus is configured to detect the illumination from the exposure start timing of the horizontal pixel line with respect to a horizontal pixel line in which the illumination light is switched within an exposure period of each horizontal pixel line of the first exposure frame and the second exposure frame.
- the first period until the timing when the light is switched and the second period from the timing when the illumination light is switched to the exposure end timing of the horizontal pixel line are shifted in the exposure start timing with respect to the horizontal pixel line of the rolling shutter. It is decided according to.
- the plurality of types of illumination light in the disclosed imaging device includes white illumination light and narrowband wavelength light narrower than the wavelength width of the white illumination light.
- the plurality of types of illumination light in the disclosed imaging device includes at least red light, green light, and blue light.
- the light source includes a semiconductor light emitting element.
- the disclosed endoscope apparatus includes the imaging device.
Landscapes
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Surgery (AREA)
- Optics & Photonics (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Biophysics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Veterinary Medicine (AREA)
- Biomedical Technology (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Physics & Mathematics (AREA)
- Astronomy & Astrophysics (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Endoscopes (AREA)
- Color Television Image Signal Generators (AREA)
- Studio Devices (AREA)
- Instruments For Viewing The Inside Of Hollow Bodies (AREA)
- Transforming Light Signals Into Electric Signals (AREA)
Description
本発明は、撮像装置及びこれを備える内視鏡装置に関する。
互いに異なるスペクトルの照明光を撮像タイミングと同期させて順次に被検体へ照射し、面順次方式にて撮像する撮像装置がある。撮像素子としてグローバルシャッタ方式の一括露光式による撮像素子を用いる場合、撮像フレーム毎に異なる照明光により照明された撮像画像が得られる。このような面順次方式で撮像して内視鏡画像を得る内視鏡装置が、例えば特許文献1に記載されている。
近年になり、キセノンランプ等の白色光源に代わる光源として、レーザ光源やLED光源等の半導体光源が、高効率でメンテナンス性もよいことから採用されるようになってきた。
また、撮像素子は、CCD(Charge Coupled Device)型イメージセンサより低消費電力で読み出し速度が速いCMOS(Complementary Metal Oxide Semiconductor)型イメージセンサが広く採用されるようになってきた。
しかしながら、CMOS型イメージセンサは、ローリングシャッタ方式であり、水平画素ラインの露光期間がライン毎に異なる。
そのため、複数種類の照明光を切り替えて面順次方式にて撮像する場合、照明光の出射タイミングによっては、特定の水平画素ラインの露光期間が照明光の切り替わるタイミングを跨ぐことがある。その場合に得られる撮像画像は、複数の照明光により露光された不自然な画像となり、正常な撮像画像にならない。
そこで、ローリングシャッタ方式の撮像素子を用いて面順次式にて撮像する場合には、撮像フレーム単位で照明光を切り替えることになる。しかし、複数種類の照明光それぞれで撮像した各画像を合わせた合成画像を生成する場合、ローリングシャッタ方式では、グローバルシャッタ方式と比較すると合成画像生成のために多数の撮像フレームが必要になる。そのため、動画応答性が低下して、動きの速い被検体を撮像した場合、撮像画像に色ずれが発生し易くなる不利がある。
そこで本発明は、複数種類の照明光を順次切り替えて、ローリングシャッタ方式の撮像素子により面順次式にて撮像する場合であっても、動画応答性を向上して、色再現性に優れた撮像装置及びこれを備える内視鏡装置を提供することを目的とする。
本発明の撮像装置は、互いに異なるスペクトルを有する複数種類の照明光が出射可能な光源と、複数の画素が水平方向及び垂直方向に配列されてなり、水平方向に並ぶ画素からなる複数の水平画素ラインを有し、かつローリングシャッタ方式により駆動される撮像素子を有する撮像部と、光源から出射する照明光を切り替える光源制御部と、いずれかの照明光が出射される単位照射期間といずれかの照明光とは異なる照明光が出射される単位照射期間で形成される第1露光フレーム、及び、いずれかの照明光が出射される単位照射期間といずれの照明光も出射されない単位照射期間とで形成される第2露光フレームを生成し、1つの第1露光フレーム又は連続する2つの第1露光フレームの前後に第2露光フレームを設けたフレーム群を1周期として出力するフレーム画像制御部と、フレーム群に含まれる各露光フレームにおいて、各水平画素ラインの画素から読み出される検出信号量を用いて、当該画素を単位照射期間の間に、同一の照明光を用いて露光したときに当該画素から得られる撮像信号量を生成する撮像信号生成部と、を備えるものである。
本発明の内視鏡装置は、前記撮像装置を備えるものである。
本発明によれば、複数種類の照明光を順次切り替えて、ローリングシャッタ方式の撮像素子により面順次式にて撮像する場合であっても、動画応答性を向上して、色再現性に優れた構成にできる。
以下、本発明の実施形態について、図面を参照して詳細に説明する。
図1は本発明の実施形態を説明するための図で、内視鏡装置の概略構成を示すブロック構成図、図2は内視鏡装置の具体的な一構成例を示す外観図である。
<内視鏡装置の構成>
内視鏡装置100は、図1、図2に示すように、内視鏡スコープ(以下、内視鏡と称する)11と、内視鏡11が接続される制御装置13と、制御装置13に接続される液晶モニタ等の表示部15と、制御装置13に情報を入力するキーボードやマウス等の入力部17とを備える。
内視鏡装置100は、図1、図2に示すように、内視鏡スコープ(以下、内視鏡と称する)11と、内視鏡11が接続される制御装置13と、制御装置13に接続される液晶モニタ等の表示部15と、制御装置13に情報を入力するキーボードやマウス等の入力部17とを備える。
制御装置13は、照明光を生成する光源装置19と、撮像画像の信号処理を行うプロセッサ21とを有して構成される。
内視鏡11は、本体操作部23と、この本体操作部23に連設され体腔内に挿入される挿入部25とを備える。
本体操作部23は、ユニバーサルコード27が接続される。このユニバーサルコード27の一方の先端に設けたライトガイドコネクタ29Aは光源装置19に接続され、他方の先端に設けたビデオコネクタ29Bはプロセッサ21に接続される。
内視鏡11の挿入部25の本体操作部23とは反対側の先端には、照明窓31と観察窓33が設けてある。
照明窓31はライトガイド35を通じて導光された照明光を被検体に向けて出射し、観察窓33は撮像素子37に観察像を提供する。
光源装置19は、ライトガイド35に出射光を導入する光源39と、光源39の出射光量をパルス駆動により制御する光源制御部41を備える。
プロセッサ21は、撮像信号処理部43と、内視鏡制御部45と、画像処理部47と、メモリ49とを備える。
また、内視鏡11は、撮像素子37を駆動制御するための撮像制御部51を備える。
撮像制御部51は、内視鏡制御部45からの指示に応じて撮像素子37の駆動を制御する。これら撮像素子37と撮像制御部51は撮像部として機能する。
撮像素子37は、ローリングシャッタ方式で駆動されるCMOS型イメージセンサである。
撮像素子37は、照明窓31から照射される照明光による被検体からの反射光を、観察窓33及び図示しないレンズを通じて撮像する。撮像素子37は、撮像した観察画像の映像信号をプロセッサ21に出力する。
内視鏡制御部45は、観察画像や各種情報を保存する記憶手段としてのメモリ49と接続され、撮像信号処理部43から出力される映像信号を画像処理部47により適宜な画像処理を施して、表示部15に映出する。
また、内視鏡制御部45は、図示しないLAN等のネットワークに接続され、撮像信号を含む情報を配信する等、内視鏡装置100全体を制御する。
内視鏡制御部45は、後述する照明光別の撮像信号を生成する撮像信号生成部として機能する。
撮像素子37の受光面に結像されて取り込まれる観察像は、電気信号に変換されてプロセッサ21の撮像信号処理部43に入力される。撮像信号処理部43は、入力された観察像の信号を撮像信号に変換する。
光源39は、半導体発光素子であるレーザ光源を1つ又は複数備える。
光源39は、白色光を生成する以外にも、特定の波長光を単独で又は複数の波長光と同時に照射する構成としてもよい。特定の波長光としては、白色照明光の波長幅より狭い青色狭帯域波長光、蛍光観察用の波長光や赤外観察用の近赤外光等が挙げられる。
白色光を生成する光源としては、中心波長445nmの青色レーザ光を出力するレーザ光源と、この青色レーザ光の一部を吸収して緑色~黄色に励起発光する複数種類の蛍光体(例えばYAG系蛍光体、或いはBAM(BaMgAl10O37)等を含む蛍光体等)を含む波長変換部材と、を有して構成される。
このレーザ光源としては、例えばブロードエリア型のInGaN系レーザダイオードが使用できる。上記構成によれば、レーザ光源からの青色レーザ光と、この青色レーザ光が波長変換された緑色~黄色の励起光とが合成され、白色光が生成される。光源39からの出射光強度は、パルス変調駆動により任意に調整される。
図示しない波長変換部材は、光源39内に配置される。波長変換部材からの白色光は、多数本のファイバ束からなるファイババンドルで構成されたライトガイド35を通じて、内視鏡挿入部25の先端に配置される照明窓31まで導光される。
光源39は、上記白色光用のレーザ光源以外にも、例えば、中心波長405nmのレーザ光を出力するレーザ光源を備えることで生体組織表層の毛細血管や微細模様の観察に適した照明光を生成させることができる。
その場合、光源39を、中心波長405nmのレーザ光と、中心波長445nmのレーザ光による白色光とを任意の割合で同時照射した混合光を、内視鏡観察用の照明光として用いる構成にするとよい。
また、光源39は、波長変換部材を照明窓31の直近位置に配置する構成としてもよい。その場合、ライトガイド35の代わりに、一本または複数本のシングルモード光ファイバを内視鏡挿入部25に沿って敷設し、光出射端を波長変換部材に向けて光出射させる構成にできる。その場合、内視鏡挿入部の細径化が図られる。
更に、光源39は、レーザ光源に代えて発光ダイオードで構成してもよい。また、白色光と特定波長光を選択的に抽出するカラーフィルタとを組み合わせて、赤色光(R光)、緑色光(G光)、青色光(B光)、或いは青色狭帯域光等の所望の波長光を得る構成としてもよい。
次に、上記構成の内視鏡装置100により、ローリングシャッタ動作によるフレーム露光を実施する様子を説明する。
図3にローリングシャッタ方式による撮像素子の露光タイミングを示す模式的な説明図を示す。
本構成例のローリングシャッタ方式は、水平方向H及び垂直方向Vに多数の光電変換素子からなる画素が配列された撮像素子の画素領域において、水平方向Hに並ぶ各水平画素ラインL(1),L(2),・・・L(n)を、上端ラインから下端ラインまで垂直方向Vに順次走査する際、各水平画素ラインL(1),L(2),・・・L(n)の露光開始タイミングを、垂直方向一端側の上端ラインから順次水平走査周期tだけ、1水平画素ライン毎に順次遅延させる方向にずらして設定する方式である。
この遅延量としては、下端ラインの露光終了タイミングが次フレームにおける上端ラインの露光開始タイミングと一致するように設定する。
水平走査周期tとは、1水平画素ライン(以下、単にラインと称することもある)の1ラインに対して、リセット、蓄積電荷ライン読み出し等の論理回路上での指令に要する一ライン当たりの所要時間であり、図3に示すラインL(1)とラインL(2)の露光開始時間差として表される。
なお、ローリングシャッタ方式には各種の駆動方式があるが、本発明の主旨を逸脱しない範囲であれば他の駆動方式を適用することもできる。
図4に、白色照明光(W光)と、青色狭帯域波長の照明光(N光)とを交互に照射して、ローリングシャッタ方式の撮像素子により面順次方式で撮像する一般的な露光タイムチャートを示す。
この場合、内視鏡制御部45(図1参照)は、撮像素子37から1フレームの画像を得るために必要な2フレーム期間(1フレーム期間FLの2倍)の間、W光又はN光を連続して出射させる。
光源制御部41は、撮像素子37の上端側の水平画素ラインにおける露光開始タイミングt0毎に単位照射期間Tを設定し、単位照射期間毎に、いずれかの照明光を光源39から出射させる。
つまり、露光フレームExp1の次フレームである露光フレームExp2は、W光の照射時に露光されたフレーム画像となる。
また、露光フレームExp3の次フレームである露光フレームExp4は、N光の照射時に露光されたフレーム画像となる。
従って、W光照明によるフレーム撮像信号とN光照明によるフレーム撮像信号を取得し終えるには、合計4フレームが必要となる。
上記露光制御に代えて、W光照明によるフレーム撮像信号とN光照明によるフレーム撮像信号を合計3フレームで取得し終える露光制御について次に説明する。
図5に、光源制御部41が、白色照明光(W光)と、青色狭帯域波長の照明光(N光)とを交互に照射するとともに、その前後のフレームに照明光を照射しないフレームを挿入して、ローリングシャッタ方式の撮像素子により面順次方式で撮像する露光タイムチャートを示す。なお、図5における各水平画素ラインの露光期間は、設定可能な最大の露光期間として示している。
光源制御部41は、W光とN光とを単位照射期間T毎に出射させる。また、W光とN光を出射した連続する複数の単位照射期間Tの前後に、照明光を出射させない単位照射期間Tを設ける。
つまり、光源制御部41は、「照明光の出射なし」、「W光出射」、「N光出射」、「照明光の出射なし」を1周期として、この周期を繰り返して照明光を制御する。
その結果、第1の露光フレームExp1は、W光が出射される単位照射期間Tといずれの照明光も出射されない単位照射期間Tとで形成される。
第2の露光フレームExp2は、W光が出射される単位照射期間T、及びN光が出射される単位照射期間Tにより形成される。
第3の露光フレームExp3は、N光が出射される単位照射期間T、及びいずれの照明光も出射されない単位照射期間Tにより形成される。
図6は、図5に示す各露光フレームを各水平画素ラインの水平走査周期分のずれを無くして表した露光タイムチャートである。
各露光フレームExp1,Exp2,Exp3における斜線部で表される領域が、W光による露光、N光による露光のいずれかに相当する露光期間である。
各露光フレームに対する照明光の切り替わりのタイミングは、撮像素子のローリングシャッタによる水平画素ラインの水平走査周期t(図3参照)分のずれに応じて定まり、撮像素子とその撮像素子の駆動制御パターンによって一義的に定まるものである。
露光フレームExp1においては、撮像素子の水平画素ライン一端側となるラインi=0は、いずれの照明光も出射されない露光期間である。
中間ラインi=n/2(nは全ライン数)は、いずれの照明光も出射されない露光期間とW光が出射される露光期間とが等しい割合となる露光期間である。
そして、他端側となるラインi=nは、全期間W光が出射される露光期間である。
露光フレームExp2においては、W光が照射される露光期間とN光が照射される露光期間が混在し、露光フレームExp3においては、N光が照射される露光期間といずれの照明光も出射されない露光期間が混在する。
次に、図6に示す露光フレームExp1,Exp2,Exp3から、設定された露光時間(図5の1フレームFLの長さ)で同一の照明光により全画素を露光したときに各画素から得られる撮像信号を生成する手順を説明する。
図7は、図6に示す露光フレームExp2,Exp3を拡大して示す説明図である。
内視鏡制御部45は、撮像素子37の全水平画素ラインに対する垂直方向の中間ラインi=n/2を境界として、垂直方向一端側(上端側)の第1ライン群A1と、他端側(下端側)の第2ライン群A2に水平画素ラインを区分する。
露光フレームExp2において、第1のライン群A1中の任意の水平画素ラインL(i)を例に説明すると、ラインL(i)における全露光期間は、W光が出射されて撮像素子37が露光される露光期間taと、N光が出射されて撮像素子37が露光される露光期間tbとの和である。
露光期間taでは、ラインL(i)の撮像信号量(図5の読み出しタイミングRD2で読み出される撮像信号量)のうち、ta/(ta+tb)がW光による信号量<Wa>となり、tb/(ta+tb)がN光による信号量<Nb>となる。
露光フレームExp3においては、ラインL(i)における全露光期間は、N光が出射されて撮像素子37が露光される露光期間taと、照明光が出射されていない露光期間tbとの和である。
露光フレームExp3の露光期間tbは、照明光が出射されていない期間であるため、ラインL(i)の撮像信号量(図5の読み出しタイミングRD3で読み出される撮像信号量)は、全てN光による信号量<Na>となる。
内視鏡制御部45は、ラインL(i)の全露光期間をW光によって露光した場合のラインL(i)の各画素から得られる撮像信号Iw(i)と、ラインL(i)の全露光期間をN光によって露光した場合のラインL(i)の各画素から得られる撮像信号In(i)とを演算により求める。
内視鏡制御部45は、撮像信号Iw(i)については、各水平画素ラインに対するW光による撮像信号量の割合が、第1のライン群A1と第2のライン群A2のうち、いずれか大きい側のライン群から得られる撮像信号を用いて算出する。
内視鏡制御部45は、撮像信号In(i)については、各水平画素ラインに対するN光による撮像信号量の割合が、第1のライン群A1と第2のライン群A2のうち、いずれか大きい側のライン群から得られる撮像信号を用いて算出する。
以下、照明光別の各画素の撮像信号を生成する手順を説明する。
<撮像信号Iw(i)|0≦i<(n/2)の場合|>
第1のライン群A1におけるW光による撮像信号Iw(i)は、W光による露光量の割合が大きい露光フレームExp2の第1のライン群A1の撮像信号と、その隣の露光フレームExp3の第1のライン群A1の撮像信号とを用いて求める。
第1のライン群A1におけるW光による撮像信号Iw(i)は、W光による露光量の割合が大きい露光フレームExp2の第1のライン群A1の撮像信号と、その隣の露光フレームExp3の第1のライン群A1の撮像信号とを用いて求める。
露光フレームExp2において、全露光期間をW光によって露光した場合に水平画素ラインL(i)の各画素から得られる撮像信号量Iw(i)は、図7に示した撮像信号量Waの{(ta+tb)/ta}倍となる。
図7に示した撮像信号量Waは、水平画素ラインL(i)の画素から読み出しタイミングRD2で読み出される撮像信号量をRD2とすると、RD2から図7の撮像信号量Nbを減算することで得られる。
図7に示した撮像信号量Nbは、Na×(tb/ta)の演算によって求まる。ここで、Naは、読み出しタイミングRD3によって水平画素ラインL(i)の画素から読み出される撮像信号量と一致している。
このため、図7に示したNbは、水平画素ラインL(i)の画素から読み出しタイミングRD3で読み出される撮像信号量をRD3とすると、Nb=RD3×(tb/ta)で表される。
以上のことから、全露光期間をW光によって露光した場合に水平画素ラインL(i)の各画素から得られる撮像信号量Iw(i)は、0≦i<(n/2)の範囲では以下の式(1)によって求まる。
内視鏡制御部45は、上記Iw(i)を、各水平画素ラインL(i)(i=0~n/2)上の各画素に対してそれぞれ求めることで、水平画素ラインL(0)~L(n/2)まで各水平画素ラインに対応する撮像信号Iw(i)を生成する。
<撮像信号Iw(i)|(2/n)≦i≦nの場合|>
第2のライン群A2におけるW光による撮像信号Iw(i)は、W光による露光量の割合が大きい露光フレームExp1の第2のライン群A2の撮像信号と、その隣の露光フレームExp2の第2のライン群A2の撮像信号とを用いて求める。
第2のライン群A2におけるW光による撮像信号Iw(i)は、W光による露光量の割合が大きい露光フレームExp1の第2のライン群A2の撮像信号と、その隣の露光フレームExp2の第2のライン群A2の撮像信号とを用いて求める。
図8は、図6に示す露光フレームExp1,Exp2を拡大して示す説明図である。
露光フレームExp1において、第2のライン群A2中の任意の水平画素ラインL(i)を例に説明すると、ラインL(i)における全露光期間は、照明光が出射されない露光期間taと、W光が出射されて撮像素子37が露光される露光期間tbとの和である。
露光フレームExp1の露光期間taは、照明光が出射されていない期間であるため、ラインL(i)の撮像信号量(図5の読み出しタイミングRD1で読み出される撮像信号量)は、全てW光による信号量<Wb>となる。
したがって、第2のライン群A2における撮像信号Iw(i)は、水平画素ラインL(i)の画素から読み出しタイミングRD1で読み出される撮像信号量をRD1として、(2/n)≦i≦nの範囲では式(2)で表される。
なお、中間ラインi=n/2は、全ライン数nが奇数であれば1本の中間ラインとし、偶数であれば2本の中間ラインとして扱えばよい。
内視鏡制御部45は、上記式(1)及び式(2)により、水平画素ラインL(0)~L(n)までの各水平画素ラインに対応する撮像信号Iw(i)を生成する。
<N光に対する撮像信号In(i)|0≦i<(n/2)の場合|>
第1のライン群A1におけるN光による撮像信号In(i)は、N光による露光量の割合が大きい露光フレームExp3の第1のライン群A1の撮像信号から求める。撮像信号In(i)は、0≦i<(n/2)の範囲では式(3)で表される。
第1のライン群A1におけるN光による撮像信号In(i)は、N光による露光量の割合が大きい露光フレームExp3の第1のライン群A1の撮像信号から求める。撮像信号In(i)は、0≦i<(n/2)の範囲では式(3)で表される。
内視鏡制御部45は、上記In(i)を、各水平画素ラインL(i)(i=0~n/2)上の各画素に対してそれぞれ求めることで、水平画素ラインL(1)~L(n/2)まで各水平画素ラインに対応する撮像信号In(i)を生成する。
<N光に対する撮像信号In(i)|(2/n)≦i≦nの場合|>
第2のライン群A2におけるN光による撮像信号In(i)は、N光による露光量の割合が大きい露光フレームExp2の第2のライン群A2の撮像信号から求める。撮像信号In(i)は、(2/n)≦i≦nの範囲では式(4)で表される。
第2のライン群A2におけるN光による撮像信号In(i)は、N光による露光量の割合が大きい露光フレームExp2の第2のライン群A2の撮像信号から求める。撮像信号In(i)は、(2/n)≦i≦nの範囲では式(4)で表される。
内視鏡制御部45は、上記式(3)及び式(4)により、水平画素ラインL(0)~L(n)まで各水平画素ラインに対応する撮像信号In(i)を生成する。
上記各式の情報は、予めメモリ49に保存されており、内視鏡制御部45が、各式に実際に得られるRD1~RD3を代入して撮像信号Iw(i)、In(i)を算出する。
算出された撮像信号Iw(i),In(i)は、画像処理部47に出力される。画像処理部47は、各撮像信号を用いた画像処理により、撮像画像データを生成して表示部15に出力する。また、各撮像信号は、図示しない記憶媒体等に保存されることでもよい。
以上のように、図6に示す露光フレームExp1,Exp2,Exp3の3フレームから、各水平画素ラインの露光開始タイミングから照明光の切り替わりタイミングまでの第1の期間taと、照明光の切り替わりタイミングから露光終了タイミングまでの第2の期間tbとの比に基づいて、同一の照明光によって露光したときの各画素の撮像信号量を水平画素ライン毎に求められる。
これにより、W光による撮像信号Iw(i),N光による撮像信号In(i)を個別に生成できる。この露光制御によれば、一般的な露光制御の場合に必要とされた4フレームから1フレーム分が短縮され、動画応答性を向上できる。また、撮像画像に対する色ずれの発生を抑制できる。
なお、内視鏡制御部45は、図9に示すように、各水平画素ラインの露光期間が、最大露光期間より短い後ろ詰めの露光期間Tsである場合、上記のライン群A1,A2の区分に代えて、次のようにラインを区分する。
即ち、内視鏡制御部45は、撮像素子37の垂直方向一端側の水平画素ライン(i=0のライン)から、この水平画素ラインに対する露光終了タイミングと一致する露光開始タイミングを有する水平走査ライン(i=pのライン)までの間の水平画素ライン群に対して、この水平画素ライン群を垂直方向に2等分するラインを中間ライン(i=qのライン)とする。
この中間ラインを境界として、垂直方向一端側(上端側)の第1のライン群A1と、他端側(下端側)の第2のライン群A2に水平画素ライン群を区分する。
内視鏡制御部45は、特定の照明光に対する第1のライン群A1,第2のライン群A2に対しての撮像信号を上記同様に求める。
第2のライン群A2より他端側の水平画素ラインからなる第3のライン群A3については、露光期間内に照明光の混在がないため、第3のライン群A3から読み出される撮像信号をそのまま使用する。
次に、照明光の種類をR光,G光,B光とした露光制御例について説明する。
図10に、R光と、G光と、B光とを交互に照射して、ローリングシャッタ方式の撮像素子により面順次方式で撮像する一般的な露光タイムチャートを示す。
この場合、内視鏡制御部45(図1参照)は、撮像素子37から1フレームの画像を得るために必要な2フレーム期間の間、R光、G光、B光をそれぞれの期間で連続して出射させる。
つまり、露光フレームExp1の次フレームである露光フレームExp2は、R光の照射時に露光されたフレーム画像となる。また、露光フレームExp3の次フレームである露光フレームExp4は、G光の照射時に露光されたフレーム画像となる。また、露光フレームExp5の次フレームである露光フレームExp6は、B光の照射時に露光されたフレーム画像となる。
従って、R光照明によるフレーム撮像信号とG光照明によるフレーム撮像信号とB光照射によるフレーム撮像信号を取得し終えるには、合計6フレームが必要となる。
上記露光制御に代えて、R光照明によるフレーム撮像信号とG光照明によるフレーム撮像信号とB光照射によるフレーム撮像信号を合計4フレームで取得し終える露光制御について次に説明する。
図11に、光源制御部41が、R光とG光とB光を続けて照射するとともに、その前後のフレームに照明光を照射しないフレームを挿入して、ローリングシャッタ方式の撮像素子により面順次方式で撮像する露光タイムチャートを示す。
光源制御部41は、R光、G光、B光を単位照射期間T毎に出射し、R光、G光、B光がそれぞれ出射される連続した複数の単位照射期間Tの前後に、照明光を出射させない単位照射期間Tを設ける。
つまり、光源制御部41は、「照明光の出射なし」、「R光出射」、「G光出射」、「B光出射」、「照明光の出射なし」、を1周期として、この周期を繰り返して照明光を制御する。
第1の露光フレームExp1は、R光が出射される単位照射期間Tといずれの照明光も出射されない単位照射期間Tとで形成される。
第2の露光フレームExp2は、R光が出射される単位照射期間TとG光が出射される単位照射期間Tとで形成される。
第3の露光フレームExp3は、G光が出射される単位照射期間TとB光が出射される単位照射期間Tとで形成される。
第4の露光フレームExp4は、B光が出射される単位照射期間Tといずれの照明光も出射されない単位照射期間Tとで形成される。
図12は、図11に示す各露光フレームを各水平画素ラインの水平走査周期分のずれを無くして表した露光タイムチャートである。各露光フレームExp1,Exp2,Exp3,Exp4における斜線部で表される領域が、R光による露光、G光による露光、B光による露光のいずれかに相当する露光期間である。
各露光フレームに対する照明光の切り替わりのタイミングは、撮像素子のローリングシャッタによる水平画素ラインの水平走査周期t(図3参照)分のずれに応じて定まり、撮像素子とその撮像素子の駆動制御パターンによって一義的に定まるものである。
以下、照明光別の各画素の撮像信号を生成する手順を説明する。
R光による撮像信号Ir(i)は、前述したW光とN光の照明光の場合と同様に、図11の読み出しタイミングRD2,RD3,RD4でそれぞれ読み出される撮像信号量をRD2,RD3,RD4として、0≦i<(n/2)の範囲では式(5)、(2/n)≦i≦nの範囲では式(6)で求められる。
B光による撮像信号Ib(i)は、前述同様に、図11の読み出しタイミングRD1で読み出される撮像信号量をRD1として、0≦i<(n/2)の範囲では式(7)、(2/n)≦i≦nの範囲では式(8)で求められる。
G光による撮像信号Ig(i)は、次のように求める。
図13に各露光フレームを模式的に示すように、露光フレームExp2,Exp3の各水平画素ラインにおけるRD2とRD3の和は、G光による撮像信号量にR光、B光による撮像信号量が含まれる。
そこで、RD2とRD3の和から、露光フレームExp1のR光による撮像信号量、露光フレームExp4のG光による撮像信号量を減算すれば、G光のみの撮像信号量を求めることができる。したがって、G光による撮像信号量は、露光フレームExp1,Exp2,Exp3,Exp4を用いて、i=0~nの全範囲において式(9)から求める。
以上より、図11に示す露光フレームExp1,Exp2,Exp3,Exp4の4フレームから、R光による撮像信号Ir(i),G光による撮像信号Ig(i),B光による撮像信号Ib(i)を生成できる。
上記のように、複数種類の照明光を順次切り替えて、ローリングシャッタ方式の撮像素子により面順次式で撮像する場合であっても、各照明光を高速に切り替えて撮像でき、動画応答性を向上できる。
また、上記方法によれば、混色の発生がなく、色再現性に優れた照明光別の撮像信号を生成できる。よって、グローバルシャッタ方式の撮像素子と比較しても遜色ない面順次方式による撮像が行える。
次に、W光とN光の照明光別の撮像信号の生成方法の別の例を説明する。
<撮像信号In(i)|0≦i<(n/2)の場合|>
第1のライン群A1におけるN光による撮像信号In(i)は、N光による露光量の割合が大きい露光フレームExp3の第1のライン群A1の撮像信号量RD3を用いて、以下の式(10)により求める。
第1のライン群A1におけるN光による撮像信号In(i)は、N光による露光量の割合が大きい露光フレームExp3の第1のライン群A1の撮像信号量RD3を用いて、以下の式(10)により求める。
<撮像信号Iw(i)|0≦i<(n/2)の場合|>
第1のライン群A1におけるW光による撮像信号Iw(i)は、W光による露光量の割合が大きい露光フレームExp2の第1のライン群A1の撮像信号量RD2と式(10)により求めたIn(i)とを用いて算出する。
第1のライン群A1におけるW光による撮像信号Iw(i)は、W光による露光量の割合が大きい露光フレームExp2の第1のライン群A1の撮像信号量RD2と式(10)により求めたIn(i)とを用いて算出する。
RD2は、Iw(i)とIn(i)を用いて以下の式(11)で表される。
式(11)を変形すると式(12)が得られる。
式(12)に式(10)を代入すると式(13)が得られる。
この式(13)により、第1のライン群A1におけるW光による撮像信号Iw(i)を算出することができる。
<撮像信号Iw(i)|(2/n)≦i≦nの場合|>
第2のライン群A2におけるW光による撮像信号Iw(i)は、W光による露光量の割合が大きい露光フレームExp1の第2のライン群A2の撮像信号量RD1を用いて、以下の式(14)により求める。
第2のライン群A2におけるW光による撮像信号Iw(i)は、W光による露光量の割合が大きい露光フレームExp1の第2のライン群A2の撮像信号量RD1を用いて、以下の式(14)により求める。
<撮像信号In(i)|(2/n)≦i≦nの場合|>
第2のライン群A2におけるN光による撮像信号In(i)は、N光による露光量の割合が大きい露光フレームExp2の第2のライン群A2の撮像信号量RD2と式(14)により求めたIw(i)とを用いて算出する。
第2のライン群A2におけるN光による撮像信号In(i)は、N光による露光量の割合が大きい露光フレームExp2の第2のライン群A2の撮像信号量RD2と式(14)により求めたIw(i)とを用いて算出する。
上記式(12)に式(14)を代入して変形すると下記式(15)が得られる。
この式(15)により、第2のライン群A2におけるN光による撮像信号In(i)を算出することができる。
次に、R光とG光とB光の照明光別の撮像信号の生成方法の別の例を説明する。
<撮像信号Ib(i)|0≦i<(n/2)の場合|>
第1のライン群A1におけるB光による撮像信号Ib(i)は、B光による露光量の割合が大きい露光フレームExp4の第1のライン群A1の撮像信号量RD4を用いて、以下の式(16)により求める。
第1のライン群A1におけるB光による撮像信号Ib(i)は、B光による露光量の割合が大きい露光フレームExp4の第1のライン群A1の撮像信号量RD4を用いて、以下の式(16)により求める。
<撮像信号Ig(i)|0≦i<(n/2)の場合|>
第1のライン群A1におけるG光による撮像信号Ig(i)は、G光による露光量の割合が大きい露光フレームExp3の第1のライン群A1の撮像信号量RD3と式(16)により求めたIb(i)とを用いて算出する。
第1のライン群A1におけるG光による撮像信号Ig(i)は、G光による露光量の割合が大きい露光フレームExp3の第1のライン群A1の撮像信号量RD3と式(16)により求めたIb(i)とを用いて算出する。
RD3は、Iw(i)とIn(i)を用いて以下の式(17)で表される。
式(17)を変形すると式(18)が得られる。
式(18)に式(16)を代入すると式(19)が得られる。
この式(19)により、第1のライン群A1におけるG光による撮像信号Ig(i)を算出することができる。
<撮像信号Ir(i)|0≦i<(n/2)の場合|>
第1のライン群A1におけるR光による撮像信号Ir(i)は、R光による露光量の割合が大きい露光フレームExp2の第1のライン群A1の撮像信号量RD2と式(19)により求めたIg(i)とを用いて算出する。
第1のライン群A1におけるR光による撮像信号Ir(i)は、R光による露光量の割合が大きい露光フレームExp2の第1のライン群A1の撮像信号量RD2と式(19)により求めたIg(i)とを用いて算出する。
RD2は、Ir(i)とIg(i)を用いて以下の式(20)で表される。
式(20)を変形すると式(21)が得られる。
式(21)に式(19)を代入すると式(22)が得られる。
この式(22)により、第1のライン群A1におけるR光による撮像信号Ir(i)を算出することができる。
<撮像信号Ir(i)|(2/n)≦i≦nの場合|>
第2のライン群A2におけるR光による撮像信号Ir(i)は、R光による露光量の割合が大きい露光フレームExp1の第2のライン群A2の撮像信号量RD1を用いて、以下の式(23)により求める。
第2のライン群A2におけるR光による撮像信号Ir(i)は、R光による露光量の割合が大きい露光フレームExp1の第2のライン群A2の撮像信号量RD1を用いて、以下の式(23)により求める。
<撮像信号Ig(i)|(2/n)≦i≦nの場合|>
第2のライン群A2におけるG光による撮像信号Ig(i)は、G光による露光量の割合が大きい露光フレームExp2の第2のライン群A2の撮像信号量RD2と式(23)により求めたIr(i)とを用いて、前述と同様に下記式(24)により算出する。
第2のライン群A2におけるG光による撮像信号Ig(i)は、G光による露光量の割合が大きい露光フレームExp2の第2のライン群A2の撮像信号量RD2と式(23)により求めたIr(i)とを用いて、前述と同様に下記式(24)により算出する。
<撮像信号Ib(i)|(2/n)≦i≦nの場合|>
第2のライン群A2におけるB光による撮像信号Ib(i)は、B光による露光量の割合が大きい露光フレームExp3の第2のライン群A2の撮像信号量RD3と式(24)により求めたIg(i)とを用いて、前述と同様に下記式(25)により算出する。
第2のライン群A2におけるB光による撮像信号Ib(i)は、B光による露光量の割合が大きい露光フレームExp3の第2のライン群A2の撮像信号量RD3と式(24)により求めたIg(i)とを用いて、前述と同様に下記式(25)により算出する。
以上のように、水平画素ラインの垂直方向における位置によって決まる係数(n/i,i/(n-i),n/(n-i),(n-i)/n,(n-i)/i)と、撮像信号量RD1~RD4を用いた演算によっても、撮像信号量を誤差を少なくして算出することができる。
本発明は上記の実施形態に限定されるものではなく、実施形態の各構成を相互に組み合わせることや、明細書の記載及び周知の技術に基づいて、当業者が変更、応用することも本発明の予定するところであり、保護を求める範囲に含まれる。
例えば、本構成の撮像素子としては、CMOS型イメージセンサに限らず、ローリングシャッタ方式で機能する撮像素子であれば利用可能である。
また、上記説明では、撮像素子37の全水平画素ラインに対する垂直方向の中間ラインi=n/2を境界として第1ライン群A1と第2ライン群A2に水平画素ラインを区分するものとしたが、これに限らず、第1ライン群A1と第2ライン群A2の境界線は、任意の位置に設定することができる。
以上の通り、本明細書には次の事項が開示されている。
開示された撮像装置は、互いに異なるスペクトルを有する複数種類の照明光が出射可能な光源と、複数の画素が水平方向及び垂直方向に配列されてなり、水平方向に並ぶ画素からなる複数の水平画素ラインを有し、かつローリングシャッタ方式にて駆動される撮像素子を有する撮像部と、前記光源から出射する照明光を切り替える光源制御部と、前記いずれかの照明光が出射される単位照射期間と前記いずれかの照明光とは異なる照明光が出射される単位照射期間で形成される第1露光フレーム、及び、前記いずれかの照明光が出射される単位照射期間といずれの照明光も出射されない単位照射期間とで形成される第2露光フレームを生成し、1つの前記第1露光フレーム又は連続する2つの前記第1露光フレームの前後に前記第2露光フレームを設けたフレーム群を1周期として出力するフレーム画像制御部と、前記フレーム群に含まれる各露光フレームにおいて、各水平画素ラインの画素から読み出される検出信号量を用いて、当該画素を前記単位照射期間の間に、同一の照明光を用いて露光したときに当該画素から得られる撮像信号量を生成する撮像信号生成部と、を備えるものである。
開示された撮像装置の前記撮像信号生成部は、前記第1露光フレームと前記第2露光フレームの各水平画素ラインの露光期間内で前記照明光が切り替わる水平画素ラインに対し、当該水平画素ラインの露光開始タイミングから前記照明光が切り替わるタイミングまでの第1の期間と、当該照明光が切り替わるタイミングから当該水平画素ラインの露光終了タイミングまでの第2の期間との比を用いて、当該水平画素ラインの画素についての前記撮像信号量を生成するものである。
開示された撮像装置の前記撮像信号生成部は、前記水平画素ラインの垂直方向における位置によって決まる係数を用いて、当該水平画素ラインの画素についての前記撮像信号量を生成するものである。
開示された撮像装置の前記撮像部は、前記水平画素ラインの垂直方向一端側から他端側に順次走査駆動する際に、前記他端側の水平画素ラインの露光終了タイミングが次フレームにおける前記一端側の水平画素ラインの露光開始タイミングと一致するように、各水平画素ラインの露光開始タイミングをずらして駆動するものである。
開示された撮像装置の前記撮像信号生成部は、前記垂直方向一端側の水平画素ラインから、当該水平画素ラインに対する露光終了タイミングと一致する露光開始タイミングの水平走査ラインまでの間の水平画素ライン群に対して、該水平画素ライン群を前記垂直方向に2つに分割するラインを分割ラインとし、該分割ラインを境界として、前記垂直方向一端側の第1ライン群と、他端側の第2ライン群に前記水平画素ライン群を区分し、前記第1ライン群にある前記画素に用いる前記検出信号量と、前記第2ライン群にある前記画素に用いる前記検出信号量とを変えて前記撮像信号量を生成するものである。
開示された撮像装置は、前記第1露光フレームと前記第2露光フレームの各水平画素ラインの露光期間内で前記照明光が切り替わる水平画素ラインに対し、当該水平画素ラインの露光開始タイミングから前記照明光が切り替わるタイミングまでの第1の期間と、当該照明光が切り替わるタイミングから当該水平画素ラインの露光終了タイミングまでの第2の期間は、前記ローリングシャッタの前記水平画素ラインに対する前記露光開始タイミングのずれに応じて決定されるものである。
開示された撮像装置における前記複数種類の照明光は、白色照明光と、該白色照明光の波長幅より狭い狭帯域波長光とを含むものである。
開示された撮像装置における前記複数種類の照明光は、少なくとも赤色光、緑色光、青色光を含むものである。
開示された撮像装置の前記光源が半導体発光素子から構成されるものを含む。
開示された内視鏡装置は、前記撮像装置を備えるものである。
11 内視鏡
13 制御装置
19 光源装置
21 プロセッサ
37 撮像素子
39 光源
41 光源制御部
43 撮像信号処理部
45 内視鏡制御部(フレーム画像制御部、撮像信号制御部)
47 画像処理部
49 メモリ
51 撮像制御部
100 内視鏡装置
13 制御装置
19 光源装置
21 プロセッサ
37 撮像素子
39 光源
41 光源制御部
43 撮像信号処理部
45 内視鏡制御部(フレーム画像制御部、撮像信号制御部)
47 画像処理部
49 メモリ
51 撮像制御部
100 内視鏡装置
Claims (10)
- 互いに異なるスペクトルを有する複数種類の照明光を出射可能な光源と、
複数の画素が水平方向及び垂直方向に配列されてなり、前記水平方向に並ぶ画素からなる複数の水平画素ラインを有し、かつローリングシャッタ方式により駆動される撮像素子を有する撮像部と、
前記光源から出射する照明光を切り替える光源制御部と、
前記いずれかの照明光が出射される単位照射期間と前記いずれかの照明光とは異なる照明光が出射される単位照射期間で形成される第1露光フレーム、及び、前記いずれかの照明光が出射される単位照射期間といずれの照明光も出射されない単位照射期間とで形成される第2露光フレームを生成し、1つの前記第1露光フレーム又は連続する2つの前記第1露光フレームの前後に前記第2露光フレームを設けたフレーム群を1周期として出力するフレーム画像制御部と、
前記フレーム群に含まれる各露光フレームにおいて、前記各水平画素ラインの画素から読み出される検出信号量を用いて、当該画素を前記単位照射期間の間に同一の照明光を用いて露光したときに当該画素から得られる撮像信号量を生成する撮像信号生成部と、
を備える撮像装置。 - 請求項1記載の撮像装置であって、
前記撮像信号生成部は、前記第1露光フレームと前記第2露光フレームの各水平画素ラインの露光期間内で前記照明光が切り替わる水平画素ラインに対し、当該水平画素ラインの露光開始タイミングから前記照明光が切り替わるタイミングまでの第1の期間と、当該照明光が切り替わるタイミングから当該水平画素ラインの露光終了タイミングまでの第2の期間との比を用いて、当該水平画素ラインの画素の前記撮像信号量を生成する撮像装置。 - 請求項1記載の撮像装置であって、
前記撮像信号生成部は、前記水平画素ラインの垂直方向における位置によって決まる係数を用いて、当該水平画素ラインの画素についての前記撮像信号量を生成する撮像装置。 - 請求項1~3のいずれか1項記載の撮像装置であって、
前記撮像部は、前記水平画素ラインの垂直方向一端側から他端側に順次走査駆動する場合に、前記他端側の水平画素ラインの露光終了タイミングが次フレームにおける前記一端側の水平画素ラインの露光開始タイミングと一致するように、各水平画素ラインの露光開始タイミングをずらして駆動する撮像装置。 - 請求項4記載の撮像装置であって、
前記撮像信号生成部は、前記垂直方向一端側の水平画素ラインから、当該水平画素ラインに対する露光終了タイミングと一致する露光開始タイミングの水平画素ラインまでの間の水平画素ライン群に対して、該水平画素ライン群を前記垂直方向に2つに分割するラインを分割ラインとし、
該分割ラインを境界として、前記垂直方向一端側の第1ライン群と、他端側の第2ライン群に前記水平画素ライン群を区分し、
前記第1ライン群にある前記画素に用いる前記検出信号量と、前記第2ライン群にある前記画素に用いる前記検出信号量とを変えて前記撮像信号量を生成する撮像装置。 - 請求項1~請求項5のいずれか一項記載の撮像装置であって、
前記第1露光フレームと前記第2露光フレームの各水平画素ラインの露光期間内で前記照明光が切り替わる水平画素ラインに対し、当該水平画素ラインの露光開始タイミングから前記照明光が切り替わるタイミングまでの第1の期間と、当該照明光が切り替わるタイミングから当該水平画素ラインの露光終了タイミングまでの第2の期間は、前記ローリングシャッタの前記水平画素ラインに対する前記露光開始タイミングのずれに応じて決定される撮像装置。 - 請求項1~請求項6のいずれか一項記載の撮像装置であって、
前記複数種類の照明光は、白色照明光と、該白色照明光の波長幅より狭い狭帯域波長光とを含む撮像装置。 - 請求項1~請求項7のいずれか一項記載の撮像装置であって、
前記複数種類の照明光は、少なくとも赤色光、緑色光、青色光を含む撮像装置。 - 請求項1~請求項8のいずれか一項記載の撮像装置であって、
前記光源が半導体発光素子から構成される撮像装置。 - 請求項1~請求項9のいずれか一項記載の撮像装置を備える内視鏡装置。
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2014507672A JP5860952B2 (ja) | 2012-03-28 | 2013-03-14 | 撮像装置、及びこれを備える内視鏡装置 |
| CN201380012395.0A CN104168814B (zh) | 2012-03-28 | 2013-03-14 | 摄像装置以及具备该摄像装置的内窥镜装置 |
| US14/465,030 US10257429B2 (en) | 2012-03-28 | 2014-08-21 | Rolling shutter imaging device and endoscope apparatus including the same |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012-074246 | 2012-03-28 | ||
| JP2012074246 | 2012-03-28 |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| US14/465,030 Continuation US10257429B2 (en) | 2012-03-28 | 2014-08-21 | Rolling shutter imaging device and endoscope apparatus including the same |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2013146311A1 true WO2013146311A1 (ja) | 2013-10-03 |
Family
ID=49259574
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2013/057256 Ceased WO2013146311A1 (ja) | 2012-03-28 | 2013-03-14 | 撮像装置、及びこれを備える内視鏡装置 |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US10257429B2 (ja) |
| JP (1) | JP5860952B2 (ja) |
| CN (1) | CN104168814B (ja) |
| WO (1) | WO2013146311A1 (ja) |
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2015125083A (ja) * | 2013-12-27 | 2015-07-06 | セイコーエプソン株式会社 | 光学モジュール、電子機器、及び光学モジュールの駆動方法 |
| WO2015186396A1 (ja) * | 2014-06-04 | 2015-12-10 | オリンパス株式会社 | 内視鏡システムおよび内視鏡装置 |
| JP2016049258A (ja) * | 2014-08-29 | 2016-04-11 | アルプス電気株式会社 | 照明撮像装置及びそれを備えた視線検出装置 |
| WO2016114231A1 (ja) * | 2015-01-16 | 2016-07-21 | オリンパス株式会社 | 内視鏡システムおよび処理装置 |
| CN105934942A (zh) * | 2014-09-05 | 2016-09-07 | 奥林巴斯株式会社 | 摄像装置和处理装置 |
| EP2981064A4 (en) * | 2013-11-18 | 2016-09-21 | Hangzhou Hikvision Digital Tec | METHOD FOR IMPLEMENTING HIGH DEFINITION CAMERA AND HIGH DEFINITION CAMERA |
| JP6113385B1 (ja) * | 2015-10-07 | 2017-04-12 | オリンパス株式会社 | 撮像システム |
| JPWO2018038269A1 (ja) * | 2016-08-25 | 2019-01-24 | Hoya株式会社 | 電子内視鏡用プロセッサ及び電子内視鏡システム |
Families Citing this family (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN104604213B (zh) * | 2013-09-04 | 2017-11-14 | 奥林巴斯株式会社 | 摄像系统 |
| JP6101615B2 (ja) * | 2013-10-03 | 2017-03-22 | 富士フイルム株式会社 | 内視鏡装置 |
| DE102014115540A1 (de) * | 2014-10-24 | 2016-04-28 | Sick Ag | Kamera und Verfahren zur Erfassung von Objekten |
| US10182181B2 (en) * | 2014-12-23 | 2019-01-15 | Intel Corporation | Synchronization of rolling shutter camera and dynamic flash light |
| KR101690887B1 (ko) * | 2015-09-15 | 2016-12-28 | 한국과학기술원 | 일반카메라를 활용한 초고속 주기신호 복원 및 롤링셔터효과 보상 방법 |
| CN108778090B (zh) * | 2016-03-17 | 2020-08-04 | 奥林巴斯株式会社 | 内窥镜装置和视频处理器 |
| US11448757B2 (en) * | 2016-11-29 | 2022-09-20 | Nuvoton Technology Corporation Japan | Distance measuring device |
| CN110506417B (zh) | 2017-02-06 | 2022-04-05 | 直观外科手术操作公司 | 用于从卷帘快门传感器中提取多个馈送的系统和方法 |
| CN107454341B (zh) * | 2017-07-28 | 2020-02-21 | 信利光电股份有限公司 | 一种多光源拍图的切换方法及系统 |
| JP6740481B2 (ja) * | 2017-08-22 | 2020-08-12 | 富士フイルム株式会社 | 光源装置、内視鏡システム、及び光源装置の作動方法 |
| WO2019054031A1 (ja) * | 2017-09-15 | 2019-03-21 | 富士フイルム株式会社 | 撮像制御装置、撮像装置、撮像制御方法、及び撮像制御プログラム |
| CN108111784B (zh) * | 2017-12-22 | 2020-06-26 | 成都先锋材料有限公司 | 一种生物活体影像监控系统 |
| US10638921B2 (en) | 2018-07-20 | 2020-05-05 | Arthrex, Inc. | Medical imaging system |
| JP2020151402A (ja) * | 2019-03-22 | 2020-09-24 | ソニー・オリンパスメディカルソリューションズ株式会社 | 医療用制御装置及び内視鏡システム |
| FR3094857B1 (fr) | 2019-04-03 | 2022-03-18 | Fluoptics | Procédé d’imagerie avec lumière pulsée |
| US11213194B2 (en) * | 2019-06-20 | 2022-01-04 | Cilag Gmbh International | Optical fiber waveguide in an endoscopic system for hyperspectral, fluorescence, and laser mapping imaging |
| CN113674685B (zh) * | 2021-08-25 | 2023-02-24 | 维沃移动通信有限公司 | 像素阵列的控制方法、装置、电子设备和可读存储介质 |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007275243A (ja) * | 2006-04-05 | 2007-10-25 | Media Technology:Kk | 面順次方式電子内視鏡装置 |
| JP2009284959A (ja) * | 2008-05-27 | 2009-12-10 | Hoya Corp | 内視鏡装置 |
| JP2012019983A (ja) * | 2010-07-15 | 2012-02-02 | Fujifilm Corp | 内視鏡光源装置及び内視鏡システム |
Family Cites Families (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPS6182731A (ja) * | 1984-09-28 | 1986-04-26 | オリンパス光学工業株式会社 | 内視鏡装置 |
| US7499081B2 (en) * | 2003-04-30 | 2009-03-03 | Hewlett-Packard Development Company, L.P. | Digital video imaging devices and methods of processing image data of different moments in time |
| KR100953788B1 (ko) * | 2005-05-12 | 2010-04-21 | 올림푸스 메디칼 시스템즈 가부시키가이샤 | 생체 관측 장치 |
| US7593040B2 (en) * | 2006-01-30 | 2009-09-22 | Omnivision Technologies, Inc. | Image anti-shake in digital cameras |
| JP4823743B2 (ja) * | 2006-04-03 | 2011-11-24 | 三星電子株式会社 | 撮像装置,及び撮像方法 |
| JP2007329658A (ja) * | 2006-06-07 | 2007-12-20 | Canon Inc | 撮像装置及び撮像装置の駆動方法 |
| JP5319347B2 (ja) * | 2009-03-17 | 2013-10-16 | キヤノン株式会社 | 撮像装置及びその制御方法 |
| JP5641200B2 (ja) * | 2010-05-28 | 2014-12-17 | ソニー株式会社 | 画像処理装置、画像処理方法および画像処理プログラムならびに記録媒体 |
| JP2011250926A (ja) * | 2010-06-01 | 2011-12-15 | Fujifilm Corp | 電子内視鏡システム |
| EP2760339A4 (en) * | 2011-09-28 | 2015-07-08 | Bruker Biospin Corp | FRAME-SEQUENCIAL MULTI-WAVELENGTH IMAGING SYSTEM AND METHOD |
| US9119544B2 (en) * | 2012-09-19 | 2015-09-01 | Omnivision Technologies, Inc. | Acquiring global shutter-type video images with CMOS pixel array by strobing light during vertical blanking period in otherwise dark environment |
| JP5735479B2 (ja) * | 2012-12-14 | 2015-06-17 | 富士フイルム株式会社 | 内視鏡及装置びその作動方法 |
| JP5735478B2 (ja) * | 2012-12-14 | 2015-06-17 | 富士フイルム株式会社 | 内視鏡装置及びその作動方法 |
| EP2896354A4 (en) * | 2013-02-12 | 2016-08-31 | Olympus Corp | ENDOSCOPE DEVICE |
| WO2015136963A1 (ja) * | 2014-03-12 | 2015-09-17 | 富士フイルム株式会社 | 内視鏡システム、内視鏡システムのプロセッサ装置、及び内視鏡システムの作動方法 |
| JP5989284B1 (ja) * | 2014-10-10 | 2016-09-07 | オリンパス株式会社 | 撮像システム及び光源装置 |
| WO2017065053A1 (ja) * | 2015-10-16 | 2017-04-20 | オリンパス株式会社 | 内視鏡装置 |
-
2013
- 2013-03-14 WO PCT/JP2013/057256 patent/WO2013146311A1/ja not_active Ceased
- 2013-03-14 JP JP2014507672A patent/JP5860952B2/ja active Active
- 2013-03-14 CN CN201380012395.0A patent/CN104168814B/zh active Active
-
2014
- 2014-08-21 US US14/465,030 patent/US10257429B2/en active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007275243A (ja) * | 2006-04-05 | 2007-10-25 | Media Technology:Kk | 面順次方式電子内視鏡装置 |
| JP2009284959A (ja) * | 2008-05-27 | 2009-12-10 | Hoya Corp | 内視鏡装置 |
| JP2012019983A (ja) * | 2010-07-15 | 2012-02-02 | Fujifilm Corp | 内視鏡光源装置及び内視鏡システム |
Cited By (21)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP2981064A4 (en) * | 2013-11-18 | 2016-09-21 | Hangzhou Hikvision Digital Tec | METHOD FOR IMPLEMENTING HIGH DEFINITION CAMERA AND HIGH DEFINITION CAMERA |
| US9854193B2 (en) | 2013-11-18 | 2017-12-26 | Hangzhou Hikvision Digital Technology Co., Ltd. | High definition camera and method |
| JP2015125083A (ja) * | 2013-12-27 | 2015-07-06 | セイコーエプソン株式会社 | 光学モジュール、電子機器、及び光学モジュールの駆動方法 |
| WO2015186396A1 (ja) * | 2014-06-04 | 2015-12-10 | オリンパス株式会社 | 内視鏡システムおよび内視鏡装置 |
| JP5927356B2 (ja) * | 2014-06-04 | 2016-06-01 | オリンパス株式会社 | 内視鏡システムおよび内視鏡装置 |
| JP2016049258A (ja) * | 2014-08-29 | 2016-04-11 | アルプス電気株式会社 | 照明撮像装置及びそれを備えた視線検出装置 |
| CN105934942B (zh) * | 2014-09-05 | 2019-09-24 | 奥林巴斯株式会社 | 摄像装置和处理装置 |
| CN105934942A (zh) * | 2014-09-05 | 2016-09-07 | 奥林巴斯株式会社 | 摄像装置和处理装置 |
| EP3190785A4 (en) * | 2014-09-05 | 2018-03-28 | Olympus Corporation | Imaging device and processing device |
| CN107072516A (zh) * | 2015-01-16 | 2017-08-18 | 奥林巴斯株式会社 | 内窥镜系统和处理装置 |
| US20170238791A1 (en) * | 2015-01-16 | 2017-08-24 | Olympus Corporation | Endoscope system |
| JP6072372B2 (ja) * | 2015-01-16 | 2017-02-01 | オリンパス株式会社 | 内視鏡システム |
| CN107072516B (zh) * | 2015-01-16 | 2018-11-16 | 奥林巴斯株式会社 | 内窥镜系统 |
| WO2016114231A1 (ja) * | 2015-01-16 | 2016-07-21 | オリンパス株式会社 | 内視鏡システムおよび処理装置 |
| US10575720B2 (en) | 2015-01-16 | 2020-03-03 | Olympus Corporation | Endoscope system |
| WO2017061284A1 (ja) * | 2015-10-07 | 2017-04-13 | オリンパス株式会社 | 撮像システム、制御装置、制御方法及び制御プログラム |
| US9838610B2 (en) | 2015-10-07 | 2017-12-05 | Olympus Corporation | Imaging system |
| JP6113385B1 (ja) * | 2015-10-07 | 2017-04-12 | オリンパス株式会社 | 撮像システム |
| JPWO2018038269A1 (ja) * | 2016-08-25 | 2019-01-24 | Hoya株式会社 | 電子内視鏡用プロセッサ及び電子内視鏡システム |
| JP2020185394A (ja) * | 2016-08-25 | 2020-11-19 | Hoya株式会社 | 電子内視鏡用プロセッサ及び電子内視鏡システム |
| US11607110B2 (en) | 2016-08-25 | 2023-03-21 | Hoya Corporation | Electronic endoscope processor and electronic endoscope system |
Also Published As
| Publication number | Publication date |
|---|---|
| US20140364690A1 (en) | 2014-12-11 |
| CN104168814B (zh) | 2016-08-17 |
| CN104168814A (zh) | 2014-11-26 |
| JP5860952B2 (ja) | 2016-02-16 |
| JPWO2013146311A1 (ja) | 2015-12-10 |
| US10257429B2 (en) | 2019-04-09 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5860952B2 (ja) | 撮像装置、及びこれを備える内視鏡装置 | |
| CN104135908B (zh) | 摄像装置以及具备其的内窥镜装置 | |
| JP6318206B2 (ja) | 撮像装置 | |
| CN102334971B (zh) | 内窥镜光束源设备和内窥镜系统 | |
| CN104717917B (zh) | 内窥镜装置 | |
| JP5899172B2 (ja) | 内視鏡装置 | |
| JP5670264B2 (ja) | 内視鏡システム、及び内視鏡システムの作動方法 | |
| JP5427316B2 (ja) | 撮像装置 | |
| WO2019123796A1 (ja) | 内視鏡システム | |
| US10901199B2 (en) | Endoscope system having variable focal length lens that switches between two or more values | |
| CN107113405B (zh) | 图像处理装置、图像处理装置的工作方法、记录介质和内窥镜装置 | |
| JP6588043B2 (ja) | 画像処理装置、内視鏡システム、画像処理装置の作動方法およびプログラム | |
| US20160353972A1 (en) | Endoscope system, processor apparatus for endoscope system, and method for operating endoscope system | |
| CN102334972A (zh) | 内窥镜系统 | |
| CN114144658A (zh) | 根据激光标测成像系统中的抖动规范来驱动光发射 | |
| JPWO2019069414A1 (ja) | 内視鏡装置、画像処理方法およびプログラム | |
| JP7702294B2 (ja) | 内視鏡システム及びその作動方法 | |
| JP5622529B2 (ja) | 内視鏡装置 | |
| JP6660823B2 (ja) | 内視鏡装置 | |
| JP6190906B2 (ja) | 撮像モジュール、及び内視鏡装置 | |
| WO2013146858A1 (ja) | 撮像装置、及びこれを備える内視鏡装置 | |
| JP6660824B2 (ja) | 内視鏡装置 | |
| JP7224963B2 (ja) | 医療用制御装置及び医療用観察システム | |
| JP2022082298A (ja) | 医療用制御装置及び医療用観察システム | |
| JP2021146198A (ja) | 医療用画像処理装置及び医療用観察システム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 13768847 Country of ref document: EP Kind code of ref document: A1 |
|
| ENP | Entry into the national phase |
Ref document number: 2014507672 Country of ref document: JP Kind code of ref document: A |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 13768847 Country of ref document: EP Kind code of ref document: A1 |