[go: up one dir, main page]

WO2013024788A1 - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
WO2013024788A1
WO2013024788A1 PCT/JP2012/070366 JP2012070366W WO2013024788A1 WO 2013024788 A1 WO2013024788 A1 WO 2013024788A1 JP 2012070366 W JP2012070366 W JP 2012070366W WO 2013024788 A1 WO2013024788 A1 WO 2013024788A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
imaging
light receiving
receiving unit
pixel information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2012/070366
Other languages
English (en)
French (fr)
Inventor
大野 渉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Medical Systems Corp
Original Assignee
Olympus Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Medical Systems Corp filed Critical Olympus Medical Systems Corp
Priority to JP2013505220A priority Critical patent/JP5245022B1/ja
Priority to EP12824407.6A priority patent/EP2636359B1/en
Priority to CN201280004004.6A priority patent/CN103260499B/zh
Priority to US13/757,918 priority patent/US8823789B2/en
Publication of WO2013024788A1 publication Critical patent/WO2013024788A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00193Optical arrangements adapted for stereoscopic vision
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • A61B1/051Details of CCD assembly
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0655Control therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/44Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array
    • H04N25/445Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array by skipping some contiguous pixels within the read portion of the array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/46Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by combining or binning pixels

Definitions

  • the present invention relates to an imaging apparatus including a plurality of imaging units capable of outputting, as pixel information, an electrical signal after photoelectric conversion from a pixel arbitrarily designated as a readout target among a plurality of pixels for imaging.
  • an endoscope system has been used to observe the inside of an organ of a subject.
  • an endoscope system inserts a flexible insertion portion having an elongated shape into a body cavity of a subject such as a patient, and irradiates a living tissue in the body cavity with white light through the insertion section.
  • the reflected light is received by the imaging unit at the distal end of the insertion unit, and is a type of imaging device that captures an in-vivo image.
  • the image signal of the biological image captured in this way is transmitted to an external image processing apparatus via a transmission cable in the insertion unit, and after being subjected to image processing in the image processing apparatus, displayed on the monitor of the endoscope system. Is done.
  • a user such as a doctor observes the inside of the body cavity of the subject through the in-vivo image displayed on the monitor.
  • an imaging device including an endoscope system two imaging units are provided, and two transmission paths and two image processing units are provided corresponding to each imaging unit, so that images captured by the imaging units can be displayed simultaneously.
  • a configuration has been proposed (see, for example, Patent Document 1).
  • an imaging apparatus including an endoscope system a configuration is proposed in which a switching mechanism and an adjustment mechanism for each imaging optical system and filter are provided, and a color image and another image are acquired with one imaging element. .
  • Patent Document 1 Since the insertion part of the endoscope system is introduced into the body cavity of the subject, a reduction in diameter is required, and the usable space is limited.
  • the configuration of Patent Document 1 in order to acquire a plurality of types of images, it is necessary to mount two transmission paths in the endoscope insertion unit corresponding to the two imaging units, respectively. There was a problem that it was difficult to reduce the diameter. Further, the configuration of Patent Document 1 has a problem that the image processing apparatus has to be provided with two image processing units corresponding to the two imaging units, and the configuration of the image processing apparatus becomes complicated.
  • the present invention has been made in view of the above, and an object thereof is to provide an imaging apparatus capable of acquiring a plurality of types of images with a simple configuration.
  • an imaging apparatus uses, as pixel information, an electrical signal after photoelectric conversion from a pixel arbitrarily set as a readout target among a plurality of pixels for imaging.
  • a first imaging unit and a second imaging unit that are capable of outputting; a readout unit that reads out pixel information from pixels set as readout targets in the first imaging unit and the second imaging unit; and the readout unit Sets the pixel to be read in the first imaging unit and the second imaging unit so that pixel information is alternately read from the first imaging unit and the second imaging unit, and the first imaging unit Timing of exposure processing in the imaging unit and the second imaging unit, and pixel information for the first imaging unit and the second imaging unit by the readout unit
  • a control unit that correlates and controls the timing of the extraction process, a transmission unit that transmits pixel information read from the first imaging unit and the second imaging unit through the same transmission path, and the transmission unit And an image processing unit for generating an image based on the pixel information transmitted
  • the plurality of pixels are two-dimensionally arranged in a matrix, and the control unit is configured such that the reading unit is predetermined from the first imaging unit and the second imaging unit.
  • the readout target pixels in the first imaging unit and the second imaging unit are set so that the pixel information of the horizontal line is alternately read at a line interval of.
  • the imaging device is characterized in that the first imaging unit and the second imaging unit have the same imaging characteristics.
  • the imaging apparatus is characterized in that the first imaging unit and the second imaging unit have different imaging characteristics.
  • the first imaging unit has a characteristic of capturing a color image
  • the second imaging unit has a characteristic of capturing a monochrome image
  • the pixel information includes a luminance value
  • the control unit includes a predetermined number of pixels as the luminance value of the pixel of the second imaging unit in the reading unit.
  • the luminance value of a pixel is added and output in a block.
  • control unit divides a unit period, and in the divided period, the exposure processing in the first imaging unit and the second imaging unit, and the reading unit Control is performed so that pixel information readout processing for the first imaging unit and the second imaging unit is alternately performed.
  • the imaging device is characterized in that the control unit divides the unit period into different time periods in accordance with characteristics of the first imaging unit and the second imaging unit. To do.
  • the plurality of pixels are two-dimensionally arranged vertically and horizontally
  • the control unit is configured such that the reading unit is at least one of the first imaging unit and the second imaging unit. Is characterized in that the readout target pixels in the first imaging unit and the second imaging unit are set so as to read out pixel information of one horizontal line at a predetermined line interval.
  • the unit period is a period required for an exposure process in the first imaging unit and a readout process for all pixels of the first imaging unit.
  • the imaging apparatus further includes a conversion unit that performs parallel / serial conversion on the pixel information read by the reading unit and outputs the converted information to the transmission unit.
  • the image processing unit may be configured such that the reading unit is configured to read the first imaging unit based on pixel information alternately read from the first imaging unit and the second imaging unit. And two images corresponding to the second imaging unit are generated.
  • the image processing unit generates one image using the pixel information that the reading unit alternately reads from the first imaging unit and the second imaging unit. It is characterized by that.
  • an imaging apparatus includes the first imaging unit, the second imaging unit, the reading unit, and the control unit, a distal end portion that is introduced into a subject, and the image processing unit. And a signal processing device connected to the distal end portion by the transmission unit, the display device displaying an image generated by the image processing unit. .
  • the imaging apparatus sets pixels to be read in the first imaging unit and the second imaging unit so that pixel information is alternately read from the first imaging unit and the second imaging unit by the reading unit.
  • the timing of the exposure processing in the first imaging unit and the second imaging unit and the timing of the pixel information readout processing for the first imaging unit and the second imaging unit by the readout unit are correlated and controlled.
  • the pixel information read from the first imaging unit and the second imaging unit can be appropriately transmitted using the same transmission path, and a plurality of types of images can be obtained even with a simple device configuration. Can be acquired appropriately.
  • FIG. 1 is a diagram illustrating a schematic configuration of an endoscope portion according to the first embodiment.
  • FIG. 2 is a diagram showing a distal end surface of the distal end portion of the endoscope shown in FIG.
  • FIG. 3 is a view showing a part of the cut surface obtained by cutting the tip portion shown in FIG. 2 along the line AA.
  • 4 is a view showing a part of a cut surface obtained by cutting the tip portion shown in FIG. 2 along the line BB.
  • FIG. 5 is a diagram for explaining the main surface of the substrate shown in FIG.
  • FIG. 6 is a block diagram of a configuration of the endoscope system according to the first embodiment.
  • FIG. 7A is a diagram for explaining pixels to be read by the first light receiving unit in the first embodiment.
  • FIG. 7A is a diagram for explaining pixels to be read by the first light receiving unit in the first embodiment.
  • FIG. 7B is a diagram illustrating pixels to be read by the second light receiving unit in the first embodiment.
  • FIG. 7C is a diagram for describing pixel information transmission processing according to Embodiment 1.
  • FIG. 7D is a diagram illustrating an image generated by the image processing unit in the first embodiment.
  • FIG. 8A is a diagram for explaining pixels to be read by the first light receiving unit in the first modification of the first embodiment.
  • FIG. 8B is a diagram for explaining a pixel to be read by the second light receiving unit in the first modification of the first embodiment.
  • FIG. 8C is a diagram illustrating pixel information transmission processing according to Modification 1 of Embodiment 1.
  • FIG. 8D is a diagram for describing an image generated by the image processing unit in the first modification of the first embodiment.
  • FIG. 8A is a diagram for explaining pixels to be read by the first light receiving unit in the first modification of the first embodiment.
  • FIG. 8B is a diagram for explaining a pixel to be read by the second light receiving unit
  • FIG. 9 is a diagram illustrating a part of a cut surface obtained by cutting the distal end portion of the endoscope according to the second modification of the first embodiment.
  • FIG. 10A is a diagram for explaining pixels to be read out of the first light receiving unit in the second modification of the first embodiment.
  • FIG. 10B is a diagram for explaining a pixel to be read by the second light receiving unit in the second modification of the first embodiment.
  • FIG. 11 is a diagram for explaining the reading process and the pixel signal transfer process in the second modification of the first embodiment.
  • FIG. 12 is a diagram for explaining another example of the reading process and the pixel signal transfer process in the second modification of the first embodiment.
  • FIG. 13 is a diagram for explaining the exposure process in the first light receiving unit and the second light receiving unit and the pixel information reading process for the first light receiving unit and the second light receiving unit in the second embodiment.
  • FIG. 14 is a diagram for explaining the simultaneous exposure time in the all-line reading method and the line thinning-out reading method.
  • FIG. 15 is a circuit diagram illustrating a configuration of a unit pixel of the light receiving unit.
  • FIG. 16 is a diagram including a timing chart regarding on / off control for the transistor illustrated in FIG. 15.
  • FIG. 17 is a diagram for explaining the exposure processing in the first light receiving unit and the second light receiving unit and the pixel information reading process for the first light receiving unit and the second light receiving unit in the first modification of the second embodiment. is there.
  • FIG. 18 shows another example of the exposure process in the first light receiving unit and the second light receiving unit and the pixel information read process for the first light receiving unit and the second light receiving unit in the first modification of the second embodiment. It is a figure explaining.
  • a medical endoscope system that includes an imaging device at the distal end of an insertion portion and captures and displays an image of a body cavity of a subject such as a patient will be described.
  • the present invention is not limited to the embodiments.
  • the same parts are denoted by the same reference numerals.
  • the drawings are schematic, and it is necessary to note that the relationship between the thickness and width of each member, the ratio of each member, and the like are different from the actual ones. Also in the drawings, there are included portions having different dimensional relationships and ratios.
  • FIG. 1 is a diagram illustrating a schematic configuration of an endoscope portion of the endoscope system according to the first embodiment.
  • an endoscope 1 according to the first embodiment includes an elongated insertion portion 2 and an operation portion 3 on the proximal end side of the insertion portion 2 and held by an endoscope apparatus operator.
  • the flexible universal cord 4 extends from the side of the operation unit 3.
  • the universal cord 4 includes a light guide cable, an electric cable, and the like.
  • the insertion portion 2 is a distal end portion 5 incorporating a CMOS sensor as an image sensor, a bending portion 6 that is configured by a plurality of bending pieces, and is provided on the proximal end side of the bending portion 6. And a long flexible tube portion 7 having flexibility.
  • the connector 8 is provided at the end of the universal cord 4.
  • the connector portion 8 includes a light guide connector 9 that is detachably connected to the light source device, and an electrical contact that is connected to the control device to transmit an electrical signal of the subject image photoelectrically converted by the CMOS sensor to the signal processing control device.
  • An air supply base 11 for sending air to the nozzles of the part 10 and the tip part 5 is provided.
  • the light source device includes a white light source, a special light source, and the like, and supplies light from the white light source or the special light source as illumination light to the endoscope 1 connected via the light guide connector 9.
  • the control device is a device that supplies power to the image sensor and receives an electrical signal photoelectrically converted from the image sensor, and processes the electrical signal imaged by the image sensor to display an image on a display unit that is connected. In addition to displaying, a drive signal for controlling and driving the gain adjustment of the image sensor is output.
  • the operation section 3 includes a bending knob 12 that bends the bending section 6 in the vertical direction and the left-right direction, a treatment instrument insertion section 13 that inserts a treatment instrument 16 such as a biopsy forceps and a laser probe into the body cavity, a control device, and a light source device.
  • a plurality of switches 14 for operating peripheral devices such as air supply, water supply, and gas supply means are provided.
  • the treatment tool 16 inserted from the treatment tool insertion portion 13 is exposed from the opening 15 at the distal end of the insertion portion 2 through a treatment tool channel provided inside. For example, when the treatment tool 16 is a biopsy forceps, a biopsy is performed in which the affected tissue is collected with the biopsy forceps.
  • FIG. 2 is a view showing the distal end surface of the distal end portion 5 of the endoscope 1 shown in FIG.
  • FIG. 3 is a view showing a part of the cut surface obtained by cutting the tip 5 shown in FIG. 2 along the line AA.
  • FIG. 4 is a view showing a part of a cut surface obtained by cutting the tip 5 shown in FIG. 2 along the line BB.
  • a treatment tool exposing opening 15, a cleaning nozzle 17, an illumination window 18 through which illumination light is emitted, and observation A window 21 and an observation window 22 are provided.
  • the illumination window 18 white light or special light supplied from the light source device is emitted from the illumination lens 18a via a light guide 19 composed of a glass fiber bundle or the like.
  • the treatment tool expression opening 15 communicates with the treatment tool channel 20.
  • the observation window 21 and the observation window 22 are closed.
  • the light incident from the outside through the observation window 21 enters the first optical system 23A configured by the plurality of lenses 23a and 23b, is condensed, and then enters the first light receiving unit 28A.
  • the light incident from the outside through the observation window 22 enters the second optical system 23B configured by the plurality of lenses 23c and 23d, is condensed, and then enters the second light receiving unit 28B.
  • the first light receiving unit 28A has a plurality of pixels for imaging arranged two-dimensionally in a matrix, and is arranged so that light emitted from the first optical system 23A is incident thereon.
  • the first light receiving unit 28A receives the light incident through the first optical system 23A and images the inside of the body cavity.
  • a cover glass 25A is provided on the light receiving surface side of the first light receiving unit 28A. Between the cover glass 25A and the first light receiving unit 28A, a red (R), green (G) or blue (B) filter is arranged corresponding to the pixel arrangement of the first light receiving unit 28A.
  • a chip filter 27A is provided, and the first light receiving unit 28A captures a color image.
  • the on-chip filter 27A may be a complementary color filter in which cyan, magenta, yellow, and green filters are arranged.
  • the second light receiving unit 28B has a plurality of imaging pixels arranged two-dimensionally in a matrix, and is arranged so that light emitted from the second optical system 23B is incident thereon.
  • a spectral filter 24 that transmits only light in a predetermined wavelength band and a cover glass 25B are provided on the light receiving surface side of the second light receiving section 28B, and the second light receiving section 28B is fluorescent in a predetermined wavelength band.
  • the image for fluorescence observation corresponding to is picked up as a monochrome image.
  • the first light receiving unit 28A and the second light receiving unit 28B instruct the imaging timing to the first light receiving unit 28A and the second light receiving unit 28B and supply power, and the first light receiving unit 28A and the second light receiving unit 28B. It is mounted on the circuit board 26 together with a conversion circuit 30 that reads out an image signal from the second light receiving unit 28B and converts it into an electrical signal. As shown in FIG. 5, the first light receiving unit 28 ⁇ / b> A and the second light receiving unit 28 ⁇ / b> B are mounted on the circuit board 26 with the light receiving surfaces arranged side by side. An electrode 32 is provided on the circuit board 26.
  • the electrode 32 is connected to a signal line 31a that transmits an electrical signal to and from the control device via, for example, an anisotropic conductive resin film.
  • the collective cable 31 is formed by a plurality of signal lines including a signal line for transmitting a control signal from the control device in addition to a signal line 31a for transmitting an image signal which is an electrical signal output from the light receiving unit.
  • CMOS image pickup capable of reading out only a pixel at an arbitrarily set address among the pixels of the first light receiving unit 28A and the second light receiving unit 28B.
  • Element 80 is employed.
  • pixel information is alternately read from the first light receiving unit 28A and the second light receiving unit 28B, and the first light receiving unit 28A and the second light receiving unit 28B. The timings of the exposure process and the pixel information reading process for the first light receiving unit 28A and the second light receiving unit 28B are synchronously controlled.
  • the pixel information read from the first light receiving unit 28A and the second light receiving unit 28B is transmitted through the same transmission path, and the transmitted pixel information is used as the pixel information.
  • An image is generated based on the original.
  • FIG. 6 is a block diagram illustrating a configuration of the endoscope system according to the first embodiment.
  • the endoscope system 100 according to the first embodiment includes a control device 40 that is connected to a CMOS image sensor 80 provided at the distal end portion 5 via a collective cable 31 having a plurality of signal lines.
  • a light source device 60 that supplies white light or special light, a display unit 71 that displays an in-vivo image captured by the CMOS image sensor 80, an output unit 73 that outputs information related to in-vivo observation, and various instruction information required for in-vivo observation
  • An input unit 72 for input and a storage unit 74 for storing in-vivo images and the like are provided.
  • a CMOS image sensor 80 is provided at the tip 5.
  • the CMOS image sensor 80 includes an AFE (Analog Front End) unit 35A configured by a first light receiving unit 28A, a control circuit 33A, a timing generator 34A, a noise removing unit 36A, a gain adjusting unit 37A, and an A / D conversion unit 38A.
  • AFE Analog Front End
  • AFE (Analog Front End) unit 35B configured by a second light receiving unit 28B, a control circuit 33B, a timing generator 34B, a noise removing unit 36B, a gain adjusting unit 37B, and an A / D conversion unit 38B, an input digital signal Is composed of a P / S conversion unit 39 that converts a parallel signal into a serial signal, and a tuning unit 81.
  • the first light receiving unit 28A, the second light receiving unit 28B, and the CMOS sensor peripheral circuit constituting the CMOS image sensor 80 are formed on one chip, for example.
  • the first light receiving unit 28A and the second light receiving unit 28B receive electrical signals after photoelectric conversion from a pixel arbitrarily designated as a reading target among a plurality of pixels for imaging arranged two-dimensionally in a matrix. Output as pixel information. Each pixel information includes a luminance value.
  • the first light receiving unit 28A functions as the first imaging unit in the claims.
  • the first light receiving unit 28A captures a color image using white light.
  • the second light receiving unit 28B functions as the second imaging unit in the claims, and captures a monochrome image that is a fluorescence observation image corresponding to fluorescence in a predetermined wavelength band.
  • the control circuit 33A controls the exposure process in the first light receiving unit 28A, the imaging process for the first light receiving unit 28A, and the first under the control of the tuning unit 81 to be described later according to the setting data output from the control device 40.
  • the imaging speed of the light receiving unit 28A, the reading process of pixel information from the pixels of the first light receiving unit 28A, and the transmission process of the read pixel information are controlled.
  • the control circuit 33B performs an exposure process in the second light receiving unit 28B, an imaging process for the second light receiving unit 28B, an imaging speed of the second light receiving unit 28B, and a second light reception.
  • the pixel information reading process from the pixels of the unit 28B and the read pixel information transmission process are controlled.
  • the timing generator 34A is a position designated as a reading target in a plurality of pixels constituting the first light receiving unit 28A in accordance with the reading order according to the setting of the reading address setting unit 53 under the control of the tuning unit 81 described later.
  • the electrical signal after photoelectric conversion is output from the pixel at (address) as pixel information.
  • the timing generator 34B has the same function as the timing generator 34A, and outputs an electrical signal after photoelectric conversion as pixel information from a pixel at a position designated as a reading target in a plurality of pixels constituting the second light receiving unit 28B.
  • the noise removing unit 36A removes noise of the pixel information signal output from the predetermined pixel of the first light receiving unit 28A.
  • the gain adjustment unit 37A amplifies the luminance value of the pixel information output from the noise removal unit 36A with the amplification factor indicated in the setting data output from the control unit 55, and then outputs the amplified value to the A / D conversion unit 38A.
  • the A / D conversion unit 38A converts the pixel information signal from which noise has been removed from an analog signal into a digital signal, and outputs the signal to the P / S conversion unit 39.
  • the noise removing unit 36B removes noise from a pixel information signal output from a predetermined pixel of the second light receiving unit 28B.
  • the gain adjustment unit 37B amplifies the luminance value of the pixel information output from the noise removal unit 36B with the amplification factor indicated in the setting data output from the control unit 55, and then outputs the amplified value to the A / D conversion unit 38B. .
  • the A / D converter 38B converts the pixel information signal from which noise has been removed from an analog signal into a digital signal, and outputs the signal to the P / S converter 39.
  • the P / S conversion unit 39 is read out from the first light receiving unit 28A by the timing generator 34A and the AFE unit 35A, and read out from the second light receiving unit 28B by the timing generator 34B and the AFE unit 35B.
  • the converted pixel information is converted into a serial image signal and then output to a predetermined signal line of the collective cable 31.
  • the timing generator 34A and the AFE unit 35A and the timing generator 34B and the AFE unit 35B function as a reading unit in the claims.
  • the tuning unit 81 responds to the setting of the read address setting unit 53 so that the pixel information is alternately read from the first light receiving unit 28A and the second light receiving unit 28B by the timing generators 34A and 34B and the AFE units 35A and 35B. Then, the readout target pixels of the first light receiving unit 28A and the second light receiving unit 28B are set.
  • the tuning unit 81 performs the exposure processing in the first light receiving unit 28A and the second light receiving unit 28B, and the first light receiving unit 28A and the second light receiving unit 28B by the timing generators 34A and 34B and the AFE units 35A and 35B. The timing of pixel information readout processing is correlated and controlled.
  • the pixel information read from the first light receiving unit 28A and the second light receiving unit 28B is transmitted through the same transmission path. That is, the pixel information read from the first light receiving unit 28A and the second light receiving unit 28B via the predetermined signal line of the collective cable 31 is the same signal line among the signal lines in the collective cable 31. To the control device 40.
  • the control device 40 processes the image signal to display the in-vivo image on the display unit 71, and controls each component of the endoscope system 100.
  • the control device 40 includes an S / P converter 41, an image processor 42, a brightness detector 51, a dimmer 52, a read address setting unit 53, a CMOS drive signal generator 54, a controller 55, and a reference clock generator 56.
  • the S / P converter 41 converts the image signal, which is a digital signal received from the tip 5, from a serial signal to a parallel signal.
  • the parallel image signals output from the S / P conversion unit 41 that is, the timing generators 34A and 34B and the AFE units 35A and 35B are supplied from the first light receiving unit 28A and the second light receiving unit 28B. Based on the pixel information of the alternately read pixels, an image to be displayed on the display unit 71 is generated.
  • the image processing unit 42 generates an in-vivo image based on the pixel address of the first light receiving unit 28A and the pixel address of the second light receiving unit 28B read by the timing generators 34A and 34B and the AFE units 35A and 35B. .
  • the image processing unit 42 adjusts the image processing timing in accordance with the output timing of the parallel image signal output from the S / P conversion unit 41.
  • the image processing unit 42 includes a synchronization unit 43, a WB adjustment unit 44, a gain adjustment unit 45, a ⁇ correction unit 46, a D / A conversion unit 47, a format change unit 48, a sample memory 49, and a still image memory 50. .
  • the synchronization unit 43 inputs the input image signals of the R, G, and B pixels to a memory (not shown) provided for each pixel, and the timing generators 34A and 34B and the AFE units 35A and 35B read out the signals.
  • the values of the memories are held while being sequentially updated with the input image signals in correspondence with the addresses of the pixels of the first light receiving unit 28A and the second light receiving unit 28B, and the image signals of these three memories are also stored.
  • the synchronization unit 43 associates each pixel information output from the S / P conversion unit 41 with which one of the first light receiving unit 28A and the second light receiving unit 28B is read out, and then the frame memory 43a. Memorize temporarily.
  • the synchronized RGB image signals are sequentially output to the WB adjustment unit 44, and some of the synchronized RGB image signals are also output to the sample memory 49 for image analysis such as brightness detection. , Retained.
  • the WB adjustment unit 44 adjusts the white balance of the RGB image signal.
  • the gain adjusting unit 45 adjusts the gain of the RGB image signal.
  • the ⁇ correction unit 46 performs gradation conversion of the RGB image signal corresponding to the display unit 71.
  • the D / A converter 47 converts the RGB image signal after gradation conversion from a digital signal to an analog signal.
  • the format changing unit 48 changes the image signal converted into the analog signal into a format such as a high-definition method and outputs the same to the display unit 71. As a result, one in-vivo image is displayed on the display unit 71.
  • a part of the RGB image signal gain-adjusted by the gain adjusting unit 45 is also held in the still image memory 50 for still image display, enlarged image display, or emphasized image display.
  • the brightness detection unit 51 detects a brightness level corresponding to each pixel from the RGB image signals held in the sample memory 49, and the detected brightness level is stored in a memory provided in the brightness detection unit 51.
  • the brightness detection unit 51 calculates a gain adjustment value and a light irradiation amount based on the detected brightness level.
  • the calculated gain adjustment value is output to the gain adjustment unit 45, and the calculated light irradiation amount is output to the dimming unit 52. Further, the detection result by the brightness detection unit 51 is also output to the control unit 55.
  • the dimming unit 52 sets the amount of current supplied to each light source and the driving condition of the neutral density filter based on the light irradiation amount output from the brightness detection unit 51 under the control of the control unit 55.
  • the light source synchronization signal including the setting conditions is output to the light source device 60.
  • the dimmer 52 sets the type, amount of light, and light emission timing of the light emitted from the light source device 60.
  • the read address setting unit 53 can arbitrarily set the pixel to be read and the reading order in the light receiving unit 28. That is, the read address setting unit 53 can arbitrarily set the pixel addresses of the first light receiving unit 28A and the second light receiving unit 28B read by the timing generators 34A and 34B and the AFE units 35A and 35B. Further, the read address setting unit 53 outputs the set address of the pixel to be read to the synchronization unit 43.
  • the CMOS drive signal generation unit 54 generates a driving timing signal for driving the light receiving unit 28 and the CMOS sensor peripheral circuit, and outputs the timing signal to the timing generators 34A and 34B via a predetermined signal line in the collective cable 31. To do.
  • This timing signal includes the address of the pixel to be read out.
  • the control unit 55 is constituted by a CPU or the like, reads various programs stored in a memory (not shown), and executes each processing procedure indicated in the program, thereby controlling each drive of each component, and each of these components Information input / output control and information processing for inputting / outputting various types of information to / from these components.
  • the control device 40 outputs setting data for imaging control to the control circuit 33 of the distal end portion 5 via a predetermined signal line in the collective cable 31.
  • the setting data includes the exposure processing in the first light receiving unit 28A and the second light receiving unit 28B, the imaging speed of the first light receiving unit 28A and the second light receiving unit 28B, the first light receiving unit 28A and the second light receiving unit.
  • 28B includes instruction information for instructing a reading speed of pixel information from an arbitrary pixel 28B, instruction information for instructing an amplification factor of the luminance value of the read pixel information, transmission control information for the read pixel information, and the like.
  • the control unit 55 changes the pixel to be read and the read order set by the read address setting unit 53. Then, the control unit 55 changes the pixel to be read and the reading order set by the read address setting unit 53 according to the image to be acquired.
  • the control unit 55 corresponds to the image to be acquired, sets the pixel to be read by the read address setting unit 53, the read processing of the timing generators 34A and 34B and the AFE units 35A and 35B, and the image generation by the image processing unit 42. Control processing.
  • the reference clock generation unit 56 generates a reference clock signal that is an operation reference of each component of the endoscope system 100 and supplies the generated reference clock signal to each component of the endoscope system 100.
  • the light source device 60 performs light irradiation processing under the control of the control unit 55.
  • the light source device 60 is a white light source 61 that irradiates white light composed of LEDs or the like, and is any one of RGB light that has a wavelength band different from the white irradiation light and is narrowed by a narrow band pass filter.
  • a special light source 62 that emits light as special light
  • a light source drive circuit that controls the amount of current supplied to the white light source 61 or the special light source 62 and the drive of the neutral density filter according to the light source synchronization signal transmitted from the light control unit 52 63, an LED driver 64 for supplying a predetermined amount of current to the white light source 61 or the special light source 62 under the control of the light source driving circuit 63.
  • the light emitted from the white light source 61 or the special light source 62 is supplied to the insertion portion 2 via the light guide 19 and is emitted to the outside from the tip of the tip portion 5.
  • the pixel information read from the two light receiving portions of the first light receiving portion 28A and the second light receiving portion 28B is transmitted through the same transmission path.
  • one frame period is a period required for the exposure process in the first light receiving unit 28A and the reading and transfer processes for all the pixels of the first light receiving unit 28A.
  • pixel information is obtained not from all the pixels of the first light receiving unit 28A and all the pixels of the second light receiving unit 28B, but only from the pixels of the first light receiving unit 28A and the second light receiving unit 28B.
  • the signal line for transmitting the image signal of the collective cable 31 per unit time is equivalent to the case where pixel information of all pixels is read from one light receiving unit and transmitted, and the frame period is equivalent to the case where one light receiving unit is provided. Therefore, in the first embodiment, the images captured by the first light receiving unit 28A and the second light receiving unit 28B are simultaneously displayed at the same frame rate as the frame rate in the case of having one light receiving unit.
  • pixel information of the line pair Lap1 constituted by the horizontal lines La1 and La2 and the line pair Lap3 constituted by the horizontal lines La5 and La6 is read and controlled. Transferred to device 40. On the other hand, the pixel information of the next line pair Lap2 of the line pair Lap1 and the next line pair Lap4 of the line pair Lap3 is not read and is not transferred. Similarly, as shown in FIG. 7B, also in the second light receiving unit 28B, pixel information is read out every two horizontal lines adjacent in the vertical direction.
  • the pixel information of the line pair Lbp1 constituted by the horizontal lines Lb1 and Lb2 and the pixel information of the line pair Lbp3 are read and transferred, and the line pair The pixel information of the next line pair Lbp2 of Lbp1 and the pixel information of the next line pair Lbp4 of the line pair Lbp3 are not read and are not transferred.
  • the tuning unit 81 causes the pixel information of the horizontal line to be read and transferred alternately from the first light receiving unit 28A and the second light receiving unit 28B at the predetermined line intervals described above.
  • the timing of the exposure process in the first light receiving unit 28A and the second light receiving unit 28B and the timing of the pixel information reading process for the first light receiving unit 28A and the second light receiving unit 28B are synchronized. Specifically, as shown in FIG.
  • the image processing unit 42 captures each image captured by the first light receiving unit 28A and the second light receiving unit 28B based on the pixel information of the line pairs transferred in the order shown in FIG. 7C.
  • One image is generated using the image.
  • the image processing unit 42 arranges the pixel information of the line pairs Lap1, Lbp1, Lap3, and Lbp3 transferred in the order shown in FIG. 7C one line at a time in the transfer order as shown in FIG. 7D.
  • an image G1 is generated by superimposing a normal color image and a fluorescent image that is a special image.
  • the image G1 is displayed on the display unit 71.
  • the image processing unit 42 has separated the pixel information of the line pair transferred in the order shown in FIG.
  • a color image and a fluorescence image are each produced
  • the color image and the fluorescence image generated in this case are images in which pixel information is thinned out every two horizontal lines.
  • the pixel information on the horizontal line is alternately read and transferred while the pixel information of the two light receiving parts of the first light receiving part 28A and the second light receiving part 28B is thinned out at a predetermined line interval.
  • the transmission amount per unit time of the signal lines for transmitting the image signals of the collective cable 31 is made equal to the case where the pixel information read from all the lines of one light receiving unit is transmitted, and the first Each image captured by the light receiving unit 28A and the second light receiving unit 28B can be displayed simultaneously at the same frame rate as the frame rate in the configuration having one light receiving unit.
  • two transmission paths are respectively associated with the two light receiving units. It is not necessary to mount the endoscope in the endoscope insertion portion, and the insertion portion can be kept thin.
  • the tuning unit 81 controls and synchronizes the exposure process and the readout process of the first light receiving unit 28A and the second light receiving unit 28B based on the setting data and timing signal output from the control device 40.
  • the tuning unit 81 synchronizes the control circuit 33A with the first light receiving unit 28A controlling the exposure process and the reading process based on the setting data and the timing signal output from the control device 40, and the second The exposure process and readout process of the light receiving unit 28B are controlled.
  • the second light receiving unit 28B is composed of the same number of pixels and elements having the same sensitivity as those of the first light receiving unit 28A, and is an element having a smaller number of pixels and higher sensitivity than the first light receiving unit 28A. It may be configured.
  • pixel information is read every two horizontal lines adjacent in the vertical direction. That is, the pixel information of the line pair Lap1 and the line pair Lap3 among the horizontal lines constituting the first light receiving unit 28A is read and transferred, and the pixel information of the line pair Lap2 and the line pair Lap4 is read. Not.
  • the second light receiving unit 28B pixel information is read from the horizontal lines at the horizontal line intervals of the upper and lower two columns. Then, in the second light receiving unit 28B, a binning process is performed in which the luminance values of the pixels are added and output in the block P including four pixels, and the luminance values are transferred in units of the block P. That is, as shown in FIG. 8B, in the second light receiving unit 28B, the pixel information of the line pair Lbp1 and the pixel information of the line pair Lbp3 are read out and transferred after being read out. On the other hand, in the second light receiving unit 28B, the pixel information of the line pair Lbp2 and the line pair Lbp4 is not read out.
  • Pixel information (Lbp1-B) of the lines Lb1 and Lb2 is transferred.
  • the information amount of the pixel information (Lbp1-B) of the line pair of the second light receiving unit 28B is: This is one fourth of the information amount of the pixel information of the line pair Lap1 of the first light receiving unit 28A.
  • the transfer time of pixel information per line pair of the second light receiving unit 28B is shortened than the transfer time of pixel information per line pair of the first light receiving unit 28A.
  • the tuning unit 81 controls the second light receiving unit 28B to distribute the remaining time T1 by shortening the transfer time to the exposure time and to extend the exposure time. Since the intensity of the fluorescence is originally weak, it is possible to increase the amount of received fluorescence in the second light receiving unit 28B by extending the exposure time, and to detect the amount of received fluorescence with high sensitivity.
  • the image processing unit 42 arranges the pixel information of the line pairs Lap1, Lbp1-B, Lap3, and Lbp3-B one by one vertically in the transfer order as shown in FIG. 8D.
  • an image G2 is generated by superimposing a normal color image using white light and a fluorescent image which is a special image.
  • the pixel information of the line pairs Lbp1 and Lbp3 is pixel information Lbp1-B and Lbp3-B in which luminance values are added for each block composed of four pixels.
  • the image processing unit 42 separates the pixel information of each transferred line pair into pixel information corresponding to the first light receiving unit 28A and pixel information corresponding to the second light receiving unit 28B, and then the color image. And a fluorescence image may be generated respectively.
  • the amount of transmission per unit time of the signal lines that transmit the image signals of the aggregate cable 31 by causing the second light receiving unit 28B to perform the binning process. Can be reduced more than the transmission amount in the first embodiment. Furthermore, in the first modification of the first embodiment, since the transfer time of the pixel information of the second light receiving unit 28B can be shortened, the exposure time is extended correspondingly, and the high sensitivity in the second light receiving unit 28B is increased. Imaging can also be realized.
  • FIG. 9 is a diagram illustrating a part of a cut surface obtained by cutting the distal end portion of the endoscope according to the second modification of the first embodiment.
  • the distal end portion 105 of the second modification of the first embodiment has a characteristic of picking up a color image in the same manner as the first light receiving portion 28A instead of the second light receiving portion 28B.
  • On-chip having the same configuration as the on-chip filter 27A is provided between the cover glass 25B and the cover glass 25B on the light-receiving surface side of the second light-receiving unit 128B, similar to the first light-receiving unit 28A.
  • a filter 127B is provided.
  • the first light receiving unit 28A and the second light receiving unit 128B are mounted on the circuit board 26 with the light receiving surfaces arranged side by side, and the first light receiving unit 28A captures a right image, for example, and the second light receiving unit. 128B takes a left image, for example.
  • pixel information is read every two horizontal lines adjacent in the vertical direction. That is, as shown in FIGS. 10A and 11, pixel information of the line pair Lap1 and the line pair Lap3 among the horizontal lines constituting the first light receiving unit 28A is read and transferred, and the line pair Lap2 and the line The pixel information of the pair Lap4 is not read out.
  • pixel information is read from the horizontal lines at the horizontal line intervals of the upper and lower two columns. That is, as shown in FIG. 10B and FIG. 11, in the second light receiving unit 128B, the pixel information of the line line pair Lbp1-1 and the pixel information of the line pair Lbp1-3 are transferred after being read, The pixel information of the line pair Lbp1-2 and the line pair Lbp1-4 is not read out.
  • the image processing unit includes the pixel information of the line pair of the first light receiving unit 28A and the pixel information of the line pair of the second light receiving unit 128B, which are sequentially and alternately transferred within one frame period Tf. 1 for each light receiving unit, a right image captured by the first light receiving unit 28A and a left image captured by the second light receiving unit 128B are generated, and then the generated right image and left image are combined to generate 1 A 3D image is generated.
  • the pixels of the two light receiving units of the first light receiving unit 28A and the second light receiving unit 128B Since the information is alternately read and transferred while being thinned out at a predetermined line interval, the same effect as in the first embodiment is obtained.
  • the second light receiving unit 128B may be configured with the same number of pixels as the first light receiving unit 28A, and the number of pixels may be smaller than that of the first light receiving unit 28A.
  • FIG. 13 is a diagram for explaining the exposure process in the first light receiving unit and the second light receiving unit and the pixel information reading process for the first light receiving unit and the second light receiving unit in the second embodiment.
  • the global shutter system is adopted so that all the lines of the light receiving unit are simultaneously exposed for a certain period, and the tuning unit 81 performs one frame period Tf during the synchronization period as shown in FIG.
  • the exposure processing in the first light receiving unit 28A and the second light receiving unit 28B, and the reading / transfer processing of pixel information to the first light receiving unit 28A and the second light receiving unit 28B Are performed alternately.
  • the tuning unit 81 causes the first light receiving unit 28A to perform read / transfer processing and the second light receiving unit 28B to perform exposure processing in the first half period obtained by dividing one frame period Tf into two.
  • the tuning unit 81 causes the first light receiving unit 28A to perform an exposure process and the second light receiving unit 28B to perform a read / transfer process in the latter half of the one frame period Tf divided into two.
  • the tuning unit 81 controls the reading / transfer processing so that the pixel signal is read from the horizontal line at intervals of two columns for both the first light receiving unit 28A and the second light receiving unit 28B.
  • the transmission amount per unit time of the signal lines that transmit the image signals of the collective cable 31 is equivalent to the case of transmitting the pixel information read from all the lines of one light receiving unit. It is possible to simultaneously display at the same frame rate as the frame rate in the configuration having one light receiving unit.
  • the image processing unit 42 arranges the pixel information of each line pair of the first light receiving unit 28A and the pixel information of each line pair of the second light receiving unit 28B alternately for each line pair, thereby obtaining white light.
  • An image is generated by superimposing a normal color image according to the above and a fluorescence image which is a special image.
  • the image processing unit 42 generates a color image and a fluorescent image as separate images based on the transferred pixel information of the first light receiving unit 28A and pixel information of the second light receiving unit 28B.
  • the pixels to be transferred in the line-thinning readout method for thinning out the lines shown in FIG. 14A Since the amount of information is reduced, the read / transfer period TFc can be shorter than the read / transfer period TFf in the all-line read method.
  • the simultaneous exposure time TLc for all lines can be made longer by the shortening of the readout / transfer period than the simultaneous exposure time TLf for all lines in the all line readout method.
  • one frame period is divided into two, the exposure process in the first light receiving unit 28A and the second light receiving unit 28B, and the first light receiving unit 28A and Even when pixel information read / transfer processing for the second light receiving unit 28B is alternately performed, a plurality of pieces of pixel information captured by the two light receiving units are appropriately transmitted to the control device 40 using the same transmission path. In addition to being able to transmit, it is possible to appropriately acquire an image to be acquired without providing two image processing units corresponding to the two light receiving units.
  • the image of the collective cable 31 is obtained by reading out and transferring the pixel information of the two light receiving units of the first light receiving unit 28A and the second light receiving unit 28B at a predetermined line interval.
  • a transmission amount per unit time of a signal line for transmitting a signal is set to be equivalent to the case of transmitting pixel information read from all lines of one light receiving unit.
  • the pixel information of the two light receiving portions of the first light receiving portion 28A and the second light receiving portion 28B is read and transferred while being thinned out at a predetermined line interval, thereby simultaneously exposing all lines. Sufficient time can be secured.
  • FIG. 15 is a circuit diagram illustrating a configuration of a unit pixel of the light receiving unit.
  • the unit pixel includes a photodiode PD that photoelectrically converts incident light into a signal charge amount corresponding to the amount of light, and stores a signal charge that is converted and stored in the photodiode PD during an on period.
  • Transfer transistor F-TR for transferring to FD, first reset transistor R-TR for releasing and resetting signal charge accumulated in capacitor FD during the on period, and signal charge stored in photodiode PD during the on period
  • Output transistor SF which converts to signal Vp-out and outputs to a predetermined signal line And a TR.
  • the selection transistor S-TR is turned on when a horizontal line including the unit pixel is selected as a read target line.
  • the special light source 62 performs illumination processing during the first half period (between time T1 and time T2) obtained by dividing one frame period Tf into two.
  • the second light receiving unit 28B performs an exposure process. Specifically, in all the unit pixels of the second light receiving unit 28B, the first reset transistor R-TR, the second reset transistor R2-TR, and the transfer transistor F-TR are controlled to be off, and the amount of incident light is applied to the photodiode PD. The corresponding signal charge is stored.
  • the first light receiving unit 28A performs the read / transfer process. The operation control of each transistor in the first light receiving unit 28A will be described later.
  • the white light source 61 performs illumination processing
  • the first light receiving unit 28A performs exposure processing correspondingly.
  • the first reset transistor R-TR, the second reset transistor R2-TR, and the transfer transistor F-TR are controlled to be off, so that the incident light quantity is applied to the photodiode PD. The corresponding signal charge is stored.
  • the second light receiving unit 28B performs read / transfer processing. Specifically, in the unit pixel included in the line pair to be read out of the second light receiving unit 28B, the transfer transistor F-TR is turned on from time T2 to time T21, and the signal charge of the photodiode PD is controlled. Is transferred to the capacitor FD. Thereafter, from time T21 to time T3, in the line to be read, the selection transistor S-TR is sequentially turned on in the reading order, and the pixel information of each line is sequentially output.
  • the transfer transistor F-TR is turned off and the second reset transistor R2-TR is turned on from time T21 to time T3, and the photodiode PD Is reset. Then, from time T22 to time T3, the first reset transistor R-TR is turned on to reset the capacitor FD.
  • the special light source 62 performs illumination processing during the first half period (between time T3 and time T4), and the second light receiving unit 28B performs exposure processing correspondingly.
  • the first reset transistor R-TR, the second reset transistor R2-TR, and the transfer transistor F-TR are controlled to be off, and the amount of incident light is applied to the photodiode PD. The corresponding signal charge is stored.
  • the first light receiving unit 28A performs read / transfer processing. Specifically, in the unit pixel included in the line pair to be read out of the first light receiving unit 28A, the transfer transistor F-TR is turned on from time T3 to time T31, and the signal charge of the photodiode PD is changed. Is transferred to the capacitor FD. Thereafter, from time T31 to time T4, in the line to be read, the selection transistor S-TR is sequentially turned on in the reading order, and the pixel information of each line is sequentially output.
  • the transfer transistor F-TR is turned off and the second reset transistor R2-TR is turned on from time T31 to time T4, and the photodiode PD Is reset. Then, from time T32 to time T4, the first reset transistor R-TR is turned on to reset the capacitor FD.
  • One frame period may be divided into time periods having different lengths.
  • the tuning unit 81 divides the first half period Tf1 of one frame period so as to be longer than the second half period Tf2.
  • one frame period is divided so that the first half period Tf1 is twice as long as the second half period Tf2.
  • the tuning unit 81 causes the second light receiving unit 28B to perform an exposure process in the first half period Tf1 having a long period. In the second light receiving unit 28B, since exposure is performed for a long period of time, the amount of fluorescence received in the second light receiving unit 28B can be increased, and high sensitivity detection of the amount of received fluorescence is possible. Further, the tuning unit 81 causes the first light receiving unit 28A to perform read / transfer processing in the first half period Tf1.
  • the tuning unit 81 causes the second light receiving unit 28B to perform a transfer process.
  • the tuning unit 81 sets the pixel to be read by the second light receiving unit 28B so that the thinning amount is larger than the thinning amount of the pixel to be read in the second embodiment.
  • the first light receiving unit 28A is caused to perform an exposure process.
  • the one light receiving unit You may divide
  • the unit period to be divided is not limited to one frame period.
  • two frame periods are set as unit periods, the unit periods are divided into two, and the first light receiving unit 28A and the second light receiving unit 28B alternately in each divided one frame period.
  • Exposure processing and pixel information read / transfer processing for the first light receiving unit 28A and the second light receiving unit 28B may be performed. That is, in the first half frame period, the tuning unit 81 causes the first light receiving unit 28A to perform read / transfer processing and causes the second light receiving unit 28B to perform exposure processing. Then, in the latter two frame periods, the tuning unit 81 causes the first light receiving unit 28A to perform an exposure process and causes the second light receiving unit 28B to perform a read / transfer process.
  • the present embodiment is not limited to the endoscope system but can be applied to a television camera in which an imaging unit and a display monitor are connected via a long cable. Needless to say, this embodiment can also be applied to a photographing apparatus such as a digital camera, a digital single-lens reflex camera, a digital video camera, or a camera-equipped mobile phone.
  • a photographing apparatus such as a digital camera, a digital single-lens reflex camera, a digital video camera, or a camera-equipped mobile phone.
  • the imaging apparatus according to the present invention is useful for acquiring a plurality of types of images with a simple configuration.

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Cameras In General (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Exposure Control For Cameras (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Studio Devices (AREA)

Abstract

 本発明にかかる内視鏡システム(100)は、第1の受光部(28A)および第2の受光部(28B)と、第1の受光部(28A)および第2の受光部(28B)から交互に画素情報が読み出されるように第1の受光部(28A)および第2の受光部(28B)における読み出し対象の画素を設定するとともに、第1の受光部(28A)および第2の受光部(28B)における露光処理のタイミング、ならびに、第1の受光部(28A)および第2の受光部(28B)に対する画素情報の読み出し処理のタイミングを相関付けて制御する同調部(81)と、第1の受光部(28A)および第2の受光部(28B)から読み出された画素情報を同一の伝送経路によって伝送する集合ケーブル(31)と、を備える。

Description

撮像装置
 本発明は、撮像用の複数の画素のうち読み出し対象として任意に指定された画素から光電変換後の電気信号を画素情報として出力可能である複数の撮像部を備えた撮像装置に関する。
 従来から、医療分野においては、被検体の臓器内部を観察する際に内視鏡システムが用いられている。内視鏡システムは、一般に、患者等の被検体の体腔内に細長形状をなす可撓性の挿入部を挿入し、この挿入した挿入部を介して体腔内の生体組織に白色光を照射し、その反射光を挿入部先端の撮像部によって受光して、体内画像を撮像する撮像装置の一種である。このように撮像された生体画像の画像信号は、挿入部内の伝送ケーブルを介して体外の画像処理装置に伝送され、画像処理装置において画像処理が行われてから、内視鏡システムのモニタに表示される。医師等のユーザは、モニタに表示された体内画像を通して、被検体の体腔内を観察する。
 内視鏡システムを含む撮像装置として、2つの撮像部を設けるとともに、各撮像部に対応させて2つの伝送経路および2つの画像処理部を設けて、各撮像部が撮像した画像を同時表示できる構成が提案されている(たとえば、特許文献1参照)。また、内視鏡システムを含む撮像装置として、各結像光学系およびフィルタに対する切替機構や調整機構を設けて、一つの撮像素子でカラー画像と他の画像とを取得する構成が提案されている。
特開2010-130570号公報
 内視鏡システムの挿入部は、被検体の体腔内に導入されるため、細径化が要求されており、使用できるスペースにも限界がある。しかしながら、特許文献1の構成では、複数種の画像を取得するために、2つの撮像部にそれぞれ対応させてそれぞれ2つの伝送経路を内視鏡挿入部内に搭載しなければならず、挿入部の細径化が困難になるという問題があった。また、特許文献1の構成では、画像処理装置に、2つの撮像部に対応させて2つの画像処理部を設けなければならず、画像処理装置の装置構成が複雑になるという問題があった。
 本発明は、上記に鑑みてなされたものであって、簡易な構成で複数種の画像を取得できる撮像装置を提供することを目的とする。
 上述した課題を解決し、目的を達成するために、本発明にかかる撮像装置は、撮像用の複数の画素のうち読み出し対象として任意に設定された画素から光電変換後の電気信号を画素情報として出力可能である第1の撮像部および第2の撮像部と、前記第1の撮像部および前記第2の撮像部において読み出し対象として設定された画素から画素情報を読み出す読出し部と、前記読出し部によって前記第1の撮像部および前記第2の撮像部から交互に画素情報が読み出されるように前記第1の撮像部および前記第2の撮像部における読み出し対象の画素を設定するとともに、前記第1の撮像部および前記第2の撮像部における露光処理のタイミング、ならびに、前記読出し部による前記第1の撮像部および前記第2の撮像部に対する画素情報の読み出し処理のタイミングを相関付けて制御する制御部と、前記第1の撮像部および前記第2の撮像部から読み出された画素情報を同一の伝送経路によって伝送する伝送部と、前記伝送部によって伝送された画素情報をもとに画像を生成する画像処理部と、を備えたことを特徴とする。
 また、本発明にかかる撮像装置は、前記複数の画素は、2次元的にマトリックス状に配置され、前記制御部は、前記読出し部が前記第1の撮像部および前記第2の撮像部から所定のライン間隔で水平ラインの画素情報が交互に読み出されるように、前記第1の撮像部および前記第2の撮像部における読み出し対象の画素を設定することを特徴とする。
 また、本発明にかかる撮像装置は、前記第1の撮像部および前記第2の撮像部は、同一の撮像特性を有することを特徴とする。
 また、本発明にかかる撮像装置は、前記第1の撮像部および前記第2の撮像部は、異なる撮像特性を有することを特徴とする。
 また、本発明にかかる撮像装置は、前記第1の撮像部は、カラー画像を撮像する特性を有し、前記第2の撮像部は、モノクロ画像を撮像する特性を有することを特徴とする。
 また、本発明にかかる撮像装置は、前記画素情報は、輝度値を含み、前記制御部は、前記読出し部に、前記第2の撮像部の画素の輝度値として、所定数の画素が含まれるブロック内で画素の輝度値を加算して出力させることを特徴とする。
 また、本発明にかかる撮像装置は、前記制御部は、単位期間を分割し、分割した期間で、前記第1の撮像部および前記第2の撮像部における露光処理、ならびに、前記読出し部による前記第1の撮像部および前記第2の撮像部に対する画素情報の読み出し処理がそれぞれ交互に行われるように制御することを特徴とする。
 また、本発明にかかる撮像装置は、前記制御部は、前記第1の撮像部および前記第2の撮像部の特性に合わせて、前記単位期間を互いに異なる時間の期間に分割することを特徴とする。
 また、本発明にかかる撮像装置は、前記複数の画素は、縦横に2次元的に配置され、前記制御部は、前記読出し部が前記第1の撮像部および前記第2の撮像部の少なくとも一方からは、所定のライン間隔で一つの水平ラインの画素情報を読み出すように、前記第1の撮像部および前記第2の撮像部における読み出し対象の画素を設定することを特徴とする。
 また、本発明にかかる撮像装置は、前記単位期間は、前記第1の撮像部における露光処理と、前記第1の撮像部の全画素に対する読出し処理とに要する期間であることを特徴とする。
 また、本発明にかかる撮像装置は、前記読出し部が読み出した画素情報をパラレル/シリアル変換した後に前記伝送部に出力する変換部をさらに備えたことを特徴とする。
 また、本発明にかかる撮像装置は、前記画像処理部は、前記読出し部が前記第1の撮像部および前記第2の撮像部から交互に読出した画素情報をもとに前記第1の撮像部および前記第2の撮像部にそれぞれ対応する2枚の画像を生成することを特徴とする。
 また、本発明にかかる撮像装置は、前記画像処理部は、前記読出し部が前記第1の撮像部および前記第2の撮像部から交互に読出した画素情報を用いて1枚の画像を生成することを特徴とする。
 また、本発明にかかる撮像装置は、前記第1の撮像部、前記第2の撮像部、前記読出し部および前記制御部を有し、被検体内に導入される先端部と、前記画像処理部と、前記画像処理部が生成した画像を表示する表示部とを有し、前記伝送部によって前記先端部と接続される信号処理装置と、を備えた内視鏡装置であることを特徴とする。
 本発明にかかる撮像装置は、読出し部によって第1の撮像部および第2の撮像部から交互に画素情報が読み出されるように第1の撮像部および第2の撮像部における読み出し対象の画素を設定するとともに、第1の撮像部および第2の撮像部における露光処理のタイミング、ならびに、読出し部による第1の撮像部および第2の撮像部に対する画素情報の読み出し処理のタイミングを相関付けて制御することによって、第1の撮像部および第2の撮像部から読み出された画素情報を同一の伝送経路を用いて適切に伝送することができ、簡易な装置構成であっても複数種の画像を適切に取得できる。
図1は、実施の形態1における内視鏡部分の概略構成を示す図である。 図2は、図1に示す内視鏡の先端部の先端面を示す図である。 図3は、図2に示す先端部をA-A線で切断した切断面の一部を示す図である。 図4は、図2に示す先端部をB-B線で切断した切断面の一部を示す図である。 図5は、図4に示す基板の主面を説明する図である。 図6は、実施の形態1にかかる内視鏡システムの構成を示すブロック図である。 図7Aは、実施の形態1における第1の受光部の読み出し対象の画素を説明する図である。 図7Bは、実施の形態1における第2の受光部の読み出し対象の画素を説明する図である。 図7Cは、実施の形態1における画素情報の伝送処理を説明する図である。 図7Dは、実施の形態1における画像処理部が生成する画像を説明する図である。 図8Aは、実施の形態1の変形例1における第1の受光部の読み出し対象の画素を説明する図である。 図8Bは、実施の形態1の変形例1における第2の受光部の読み出し対象の画素を説明する図である。 図8Cは、実施の形態1の変形例1における画素情報の伝送処理を説明する図である。 図8Dは、実施の形態1の変形例1における画像処理部が生成する画像を説明する図である。 図9は、実施の形態1の変形例2における内視鏡の先端部を切断した切断面の一部を示す図である。 図10Aは、実施の形態1の変形例2における第1の受光部の読み出し対象の画素を説明する図である。 図10Bは、実施の形態1の変形例2における第2の受光部の読み出し対象の画素を説明する図である。 図11は、実施の形態1の変形例2における読出し処理および画素信号の転送処理を説明する図である。 図12は、実施の形態1の変形例2における読出し処理および画素信号の転送処理の他の例を説明する図である。 図13は、実施の形態2における第1の受光部および第2の受光部における露光処理および第1の受光部および第2の受光部に対する画素情報の読み出し処理を説明する図である。 図14は、全ライン読み出し方式とライン間引き読み出し方式との同時露光時間を説明する図である。 図15は、受光部の単位画素の構成を示す回路図である。 図16は、図15に示すトランジスタに対するオン/オフ制御に関するタイミングチャートを含む図である。 図17は、実施の形態2の変形例1における第1の受光部および第2の受光部における露光処理および第1の受光部および第2の受光部に対する画素情報の読み出し処理を説明する図である。 図18は、実施の形態2の変形例1における第1の受光部および第2の受光部における露光処理および第1の受光部および第2の受光部に対する画素情報の読み出し処理の他の例を説明する図である。
 以下に、本発明にかかる実施の形態として、挿入部先端に撮像素子を備え、患者等の被検体の体腔内の画像を撮像して表示する医療用の内視鏡システムについて説明する。なお、この実施の形態によりこの発明が限定されるものではない。また、図面の記載において、同一部分には同一の符号を付している。また、図面は模式的なものであり、各部材の厚みと幅との関係、各部材の比率などは、現実と異なることに留意する必要がある。図面の相互間においても、互いの寸法の関係や比率が異なる部分が含まれている。
(実施の形態1)
 まず、実施の形態1における内視鏡システムについて説明する。本実施の形態1においては、白色光による通常のカラー画像とともに、カラー画像とは異なる蛍光観察用画像等の他の画像を取得できる内視鏡システムを例に説明する。図1は、本実施の形態1にかかる内視鏡システムの内視鏡部分の概略構成を示す図である。図1に示すように、本実施の形態1における内視鏡1は、細長な挿入部2と、この挿入部2の基端側であって内視鏡装置操作者が把持する操作部3と、この操作部3の側部より延伸する可撓性のユニバーサルコード4とを備える。ユニバーサルコード4は、ライトガイドケーブルや電気系ケーブルなどを内蔵する。
 挿入部2は、撮像素子としてCMOSセンサを内蔵した先端部5と、複数の湾曲駒によって構成され湾曲自在な湾曲部6と、この湾曲部6の基端側に設けられた長尺であって可撓性を有する長尺状の可撓管部7とを備える。
 ユニバーサルコード4の端部にはコネクタ部8が設けられている。コネクタ部8には、光源装置に着脱自在に接続されるライトガイドコネクタ9、CMOSセンサで光電変換した被写体像の電気信号を信号処理用の制御装置に伝送するため制御装置に接続される電気接点部10、先端部5のノズルに空気を送るための送気口金11などが設けられている。ここで、光源装置は、白色光源や特殊光源などを有し、白色光源あるいは特殊光源からの光を、ライトガイドコネクタ9を介して接続された内視鏡1へ照明光として供給する。また、制御装置は、撮像素子に電源を供給し、撮像素子から光電変換された電気信号が入力される装置であり、撮像素子によって撮像された電気信号を処理して接続する表示部に画像を表示させるとともに、撮像素子のゲイン調整などの制御および駆動を行なう駆動信号の出力を行なう。
 操作部3には、湾曲部6を上下方向および左右方向に湾曲させる湾曲ノブ12、体腔内に生検鉗子、レーザプローブ等の処置具16を挿入する処置具挿入部13、制御装置、光源装置あるいは送気、送水、送ガス手段などの周辺機器の操作を行なう複数のスイッチ14が設けられている。処置具挿入部13から挿入された処置具16は、内部に設けられた処置具用チャンネルを経て挿入部2先端の開口部15から表出する。たとえば処置具16が生検鉗子の場合には、生検鉗子によって患部組織を採取する生検などを行なう。
 次に、挿入部2の先端部5における構成について説明する。図2は、図1に示す内視鏡1の先端部5の先端面を示す図である。図3は、図2に示す先端部5をA-A線で切断した切断面の一部を示す図である。図4は、図2に示す先端部5をB-B線で切断した切断面の一部を示す図である。
 図2に示すように、図1に示す内視鏡1の先端部5の先端面には、処置具表出用の開口部15、洗浄用ノズル17、照明光が出射する照明窓18、観察窓21および観察窓22が設けられる。
 図3に示すように、照明窓18においては、グラスファイバ束等で構成されるライトガイド19を介して光源装置から供給された白色光あるいは特殊光が、照明レンズ18aから出射する。処置具表出用の開口部15は、処置具用チャンネル20と連通する。
 図4に示すように、観察窓21および観察窓22は、閉塞されている。観察窓21を介して外部から入射した光は、複数のレンズ23a,23bによって構成される第1の光学系23Aに入射し、集光されてから、第1の受光部28Aに入射する。観察窓22を介して外部から入射した光は、複数のレンズ23c,23dによって構成される第2の光学系23Bに入射し、集光されてから、第2の受光部28Bに入射する。
 第1の受光部28Aは、2次元的にマトリックス状に配置された撮像用の複数の画素を有し、第1の光学系23Aから出射した光が入射するように配置される。第1の受光部28Aは、第1の光学系23Aを介して入射した光を受光して体腔内を撮像する。第1の受光部28Aの受光面側には、カバーガラス25Aが設けられている。カバーガラス25Aと第1の受光部28Aとの間には、第1の受光部28Aの画素の配列に対応して赤(R),緑(G)あるいは青(B)のフィルタが配列するオンチップフィルタ27Aが設けられており、第1の受光部28Aは、カラー画像を撮像する。なお、オンチップフィルタ27Aは、シアン、マゼンタ、黄および緑のフィルタが配列する補色フィルタであってもよい。
 第2の受光部28Bは、2次元的にマトリックス状に配置された撮像用の複数の画素を有し、第2の光学系23Bから出射した光が入射するように配置される。第2の受光部28Bの受光面側には、所定波長帯の光のみを透過する分光フィルタ24と、カバーガラス25Bとが設けられており、第2の受光部28Bは、所定波長帯の蛍光に対応する蛍光観察用画像を、モノクロ画像として撮像する特性を有する。
 第1の受光部28Aおよび第2の受光部28Bは、第1の受光部28Aおよび第2の受光部28Bに撮像タイミングを指示するとともに電源供給を行うドライバ29や、第1の受光部28Aおよび第2の受光部28Bによる画像信号を読み出して電気信号に変換する変換回路30などとともに、回路基板26に実装される。第1の受光部28Aおよび第2の受光部28Bは、図5に示すように、受光面が左右に並んで回路基板26に実装される。回路基板26には、電極32が設けられる。電極32は、たとえば異方性導電性樹脂フィルムを介して、制御装置との間で電気信号を伝送する信号線31aと接続する。受光部28が出力した電気信号である画像信号を伝送する信号線31aのほか、制御装置から制御信号を伝送する信号線を含む複数の信号線によって、集合ケーブル31が形成される。
 この実施の形態1にかかる内視鏡システムにおいては、撮像素子として、第1の受光部28Aおよび第2の受光部28Bの画素のうち任意に設定したアドレスの画素のみを読み出し可能であるCMOS撮像素子80を採用する。そして、実施の形態1にかかる内視鏡システムでは、第1の受光部28Aおよび第2の受光部28Bから交互に画素情報が読み出されるとともに、第1の受光部28Aおよび第2の受光部28Bにおける露光処理および第1の受光部28Aおよび第2の受光部28Bに対する画素情報の読み出し処理のタイミングが同期制御される。そして、実施の形態1にかかる内視鏡システムでは、第1の受光部28Aおよび第2の受光部28Bから読み出された画素情報が同一の伝送経路によって伝送され、この伝送された画素情報をもとに画像が生成される。
 実施の形態1にかかる内視鏡システムの構成について詳細に説明する。図6は、本実施の形態1にかかる内視鏡システムの構成を示すブロック図である。図6に示すように、実施の形態1にかかる内視鏡システム100は、先端部5に設けられたCMOS撮像素子80と複数の信号線を有する集合ケーブル31を介して接続する制御装置40、白色光あるいは特殊光を供給する光源装置60、CMOS撮像素子80が撮像した体内画像を表示する表示部71を有し、体内観察に関する情報を出力する出力部73、体内観察に要する各種指示情報を入力する入力部72および体内画像等を記憶する記憶部74を備える。
 先端部5には、CMOS撮像素子80が設けられる。CMOS撮像素子80は、第1の受光部28A、制御回路33A、タイミングジェネレータ34A、ノイズ除去部36Aとゲイン調整部37AとA/D変換部38Aとによって構成されるAFE(Analog Front End)部35A、第2の受光部28B、制御回路33B、タイミングジェネレータ34B、ノイズ除去部36Bとゲイン調整部37BとA/D変換部38Bとによって構成されるAFE(Analog Front End)部35B、入力したデジタル信号をパラレル信号からシリアル信号に変換するP/S変換部39、および、同調部81によって構成される。CMOS撮像素子80を構成する第1の受光部28A、第2の受光部28BおよびCMOSセンサ周辺回路は、たとえば1チップ化されている。
 第1の受光部28Aおよび第2の受光部28Bは、2次元的にマトリックス状に配置された撮像用の複数の画素のうち読み出し対象として任意に指定された画素から光電変換後の電気信号を画素情報として出力する。各画素情報は、輝度値を含む。第1の受光部28Aは、特許請求の範囲における第1の撮像部として機能する。第1の受光部28Aは、白色光によるカラー画像を撮像する。第2の受光部28Bは、前述したように、特許請求の範囲における第2の撮像部として機能し、所定波長帯の蛍光に対応する蛍光観察用画像であるモノクロ画像を撮像する。
 制御回路33Aは、制御装置40から出力された設定データにしたがって、後述する同調部81の制御のもと、第1の受光部28Aにおける露光処理、第1の受光部28Aに対する撮像処理、第1の受光部28Aの撮像速度、第1の受光部28Aの画素からの画素情報の読み出し処理および読み出した画素情報の伝送処理を制御する。制御回路33Bは、後述する同調部81の制御のもと、第2の受光部28Bにおける露光処理、第2の受光部28Bに対する撮像処理、第2の受光部28Bの撮像速度、第2の受光部28Bの画素からの画素情報の読み出し処理および読み出した画素情報の伝送処理を制御する。
 タイミングジェネレータ34Aは、後述する同調部81の制御のもと、読出アドレス設定部53の設定に応じた読み出し順にしたがって、第1の受光部28Aを構成する複数の画素において読み出し対象として指定された位置(アドレス)の画素から光電変換後の電気信号を画素情報として出力させる。タイミングジェネレータ34Bは、タイミングジェネレータ34Aと同様の機能を有し、第2の受光部28Bを構成する複数の画素において読み出し対象として指定された位置の画素から光電変換後の電気信号を画素情報として出力させる。
 ノイズ除去部36Aは、第1の受光部28Aの所定の画素から出力された画素情報の信号のノイズを除去する。ゲイン調整部37Aは、ノイズ除去部36Aから出力された画素情報の輝度値を、制御部55から出力された設定データにおいて指示された増幅率で増幅した後に、A/D変換部38Aに出力する。A/D変換部38Aは、ノイズ除去された画素情報の信号をアナログ信号からデジタル信号に変換し、P/S変換部39に出力する。また、ノイズ除去部36Bは、第2の受光部28Bの所定の画素から出力された画素情報の信号のノイズを除去する。ゲイン調整部37Bは、ノイズ除去部36Bから出力された画素情報の輝度値を、制御部55から出力された設定データにおいて指示された増幅率で増幅した後に、A/D変換部38Bに出力する。A/D変換部38Bは、ノイズ除去された画素情報の信号をアナログ信号からデジタル信号に変換し、P/S変換部39に出力する。
 P/S変換部39は、タイミングジェネレータ34AおよびAFE部35Aによって第1の受光部28Aから読み出された画素情報、および、タイミングジェネレータ34BおよびAFE部35Bによって第2の受光部28Bから読み出された画素情報をシリアル信号の画像信号に変換した後、集合ケーブル31の所定の信号線に出力する。タイミングジェネレータ34AおよびAFE部35Aと、タイミングジェネレータ34BおよびAFE部35Bとは、特許請求の範囲における読出し部として機能する。
 同調部81は、タイミングジェネレータ34A,34BおよびAFE部35A,35Bによって第1の受光部28Aおよび第2の受光部28Bから交互に画素情報が読み出されるように、読出アドレス設定部53の設定に応じて第1の受光部28Aおよび第2の受光部28Bの読み出し対象の画素を設定する。同調部81は、第1の受光部28Aおよび第2の受光部28Bにおける露光処理、ならびに、タイミングジェネレータ34A,34BおよびAFE部35A,35Bによる第1の受光部28Aおよび第2の受光部28Bに対する画素情報の読み出し処理のタイミングを相関付けて制御する。そして、第1の受光部28Aおよび第2の受光部28Bから読み出された画素情報は、同一の伝送路によって伝送される。すなわち、集合ケーブル31の所定の信号線を介して、第1の受光部28Aおよび第2の受光部28Bから読み出された画素情報は、集合ケーブル31内の信号線のうち、同じ信号線を介して制御装置40に出力される。
 制御装置40は、画像信号を処理して表示部71に体内画像を表示させるとともに、内視鏡システム100の各構成部位を制御する。制御装置40は、S/P変換部41、画像処理部42、明るさ検出部51、調光部52、読出アドレス設定部53、CMOS駆動信号生成部54、制御部55および基準クロック生成部56を有する。
 S/P変換部41は、先端部5から受信したデジタル信号である画像信号をシリアル信号からパラレル信号に変換する。
 画像処理部42は、S/P変換部41から出力されたパラレル形態の画像信号、すなわち、タイミングジェネレータ34A,34BおよびAFE部35A,35Bが第1の受光部28A、第2の受光部28Bから交互に読み出した画素の画素情報をもとに、表示部71に表示される画像を生成する。画像処理部42は、タイミングジェネレータ34A,34BおよびAFE部35A,35Bが読み出した第1の受光部28Aの画素のアドレス、第2の受光部28Bの画素のアドレスをもとに体内画像を生成する。画像処理部42は、S/P変換部41から出力されたパラレル形態の画像信号の出力タイミングに対応させて、画像処理タイミングを調整する。
 画像処理部42は、同時化部43、WB調整部44、ゲイン調整部45、γ補正部46、D/A変換部47、フォーマット変更部48、サンプル用メモリ49および静止画像用メモリ50を備える。
 同時化部43は、入力された各R,G,B画素の画像信号を画素ごとに設けられたメモリ(図示しない)に入力し、タイミングジェネレータ34A,34BおよびAFE部35A,35Bがそれぞれ読み出した第1の受光部28Aおよび第2の受光部28Bの画素のアドレスに対応させて、各メモリの値を入力された各画像信号で順次更新しながら保持するとともに、これら3つのメモリの各画像信号をRGB画像信号として同時化する。同時化部43は、S/P変換部41から出力された各画素情報が、第1の受光部28Aおよび第2の受光部28Bのいずれから読み出されたかを対応付けてから、フレームメモリ43aに一時的に記憶する。同時化されたRGB画像信号は、WB調整部44に順次出力されるとともに、同時化されたRGB画像信号のうちのいくつかは明るさ検出などの画像解析用にサンプル用メモリ49にも出力され、保持される。
 WB調整部44は、RGB画像信号のホワイトバランスを調整する。ゲイン調整部45は、RGB画像信号のゲイン調整を行う。γ補正部46は、表示部71に対応させてRGB画像信号を階調変換する。
 D/A変換部47は、階調変換後のRGB画像信号をデジタル信号からアナログ信号に変換する。フォーマット変更部48は、アナログ信号に変換された画像信号をハイビジョン方式などのフォーマットに変更して表示部71に出力する。この結果、表示部71には、1枚の体内画像が表示される。なお、ゲイン調整部45によってゲイン調整されたRGB画像信号のうちの一部は、静止画像表示用、拡大画像表示用または強調画像表示用として、静止画像用メモリ50にも保持される。
 明るさ検出部51は、サンプル用メモリ49に保持されたRGB画像信号から、各画素に対応する明るさレベルを検出し、検出した明るさレベルを明るさ検出部51内部に設けられたメモリに記憶する。また、明るさ検出部51は、検出した明るさレベルをもとにゲイン調整値および光照射量を算出する。算出されたゲイン調整値はゲイン調整部45へ出力され、算出された光照射量は、調光部52に出力される。さらに、明るさ検出部51による検出結果は、制御部55にも出力される。
 調光部52は、制御部55の制御のもと、明るさ検出部51から出力された光照射量をもとに、各光源に供給する電流量、減光フィルタの駆動条件を設定して、設定条件を含む光源同期信号を光源装置60に出力する。調光部52は、光源装置60が発する光の種別、光量、発光タイミングを設定する。
 読出アドレス設定部53は、受光部28における読み出し対象の画素および読出し順序を任意に設定可能である。すなわち、読出アドレス設定部53は、タイミングジェネレータ34A,34BおよびAFE部35A,35Bが読み出す第1の受光部28A、第2の受光部28Bの画素のアドレスを任意に設定可能である。また、読出アドレス設定部53は、設定した読み出し対象の画素のアドレスを同時化部43に出力する。
 CMOS駆動信号生成部54は、受光部28とCMOSセンサ周辺回路とを駆動するための駆動用のタイミング信号を生成し、集合ケーブル31内の所定の信号線を介してタイミングジェネレータ34A,34Bに出力する。なお、このタイミング信号は、読み出し対象の画素のアドレスを含むものである。
 制御部55は、CPUなどによって構成され、図示しないメモリに格納された各種プログラムを読み込み、プログラムに示された各処理手順を実行することで、各構成部の各駆動制御、これらの各構成部に対する情報の入出力制御、および、これらの各構成部との間で各種情報を入出力するための情報処理とを行う。制御装置40は、撮像制御のための設定データを、集合ケーブル31内の所定の信号線を介して先端部5の制御回路33に出力する。設定データは、第1の受光部28Aおよび第2の受光部28Bにおける露光処理、第1の受光部28Aおよび第2の受光部28Bの撮像速度、第1の受光部28Aおよび第2の受光部28Bの任意の画素からの画素情報の読出し速度を指示する指示情報、読み出した画素情報の輝度値の増幅率を指示する指示情報、読み出した画素情報の伝送制御情報などを含む。
 制御部55は、読出アドレス設定部53が設定する読み出し対象の画素および読み出し順序を変更する。そして、制御部55は、取得対象の画像に応じて、読出アドレス設定部53が設定する読み出し対象の画素および読み出し順序を変更する。制御部55は、取得対象の画像に対応させて、読出アドレス設定部53による読み出し対象の画素の設定処理、タイミングジェネレータ34A,34BおよびAFE部35A,35Bの読み出し処理および画像処理部42による画像生成処理を制御する。
 基準クロック生成部56は、内視鏡システム100の各構成部の動作基準となる基準クロック信号を生成し、内視鏡システム100の各構成部に生成した基準クロック信号を供給する。
 光源装置60は、制御部55の制御のもと光照射処理を行う。光源装置60は、LEDなどによって構成される白色光を照射する白色光源61、白色照射光とは波長帯域が異なる波長帯域の光であって狭帯域バンドパスフィルタによって狭帯域化したRGBいずれかの光を特殊光として照射する特殊光光源62、調光部52から送信された光源同期信号にしたがって白色光源61あるいは特殊光光源62に供給する電流量や減光フィルタの駆動を制御する光源駆動回路63、白色光源61あるいは特殊光光源62に光源駆動回路63の制御のもと所定量の電流を供給するLEDドライバ64を備える。白色光源61あるいは特殊光光源62から発せられた光は、ライトガイド19を介して挿入部2に供給され、先端部5先端から外部に出射する。
 この実施の形態1では、第1の受光部28Aおよび第2の受光部28Bの2つの受光部から読み出した画素情報を同一の伝送経路で伝送している。ここで、1フレーム期間は、第1の受光部28Aにおける露光処理と、第1の受光部28Aの全画素に対する読出しおよび転送処理とに要する期間とする。実施の形態1では、第1の受光部28Aの全画素および第2の受光部28Bの全画素からではなく、第1の受光部28Aおよび第2の受光部28Bのうち画素のみから画素情報を間引き読み出すことによって、第1の受光部28Aおよび第2の受光部28Bの2つの受光部から画素情報を読み出す場合であっても、集合ケーブル31の画像信号を伝送する信号線の単位時間当たりの伝送量を、1つの受光部から全画素の画素情報を読み出して送信する場合と同等として、フレーム期間を1つの受光部を有する場合と同等としている。したがって、実施の形態1では、第1の受光部28Aおよび第2の受光部28Bが撮像した各画像を、1つの受光部を有する場合のフレームレートと同フレームレートで同時表示している。
 各受光部に対する読み出し処理および画像処理について、図7A~図7Dを参照して具体的に説明する。Bayer配列型のオンチップフィルタ27Aを用いた場合、第1の受光部28Aにおいては、表示用画像の1画素として、図7Aに示すように、上下左右で隣り合うR,G,G,Bの4画素で構成されるブロックPが対応する。このため、表示用画像の1画素に対応する画素情報が分離されないように、第1の受光部28Aにおいては、上下で隣り合う2列の水平ラインおきに、画素情報が読み出される。第1の受光部28Aを構成する水平ラインのうち、水平ラインLa1,La2で構成されるラインペアLap1と、水平ラインLa5,La6で構成されるラインペアLap3の画素情報は読み出されて、制御装置40に転送される。これに対し、ラインペアLap1の次のラインペアLap2と、ラインペアLap3の次のラインペアLap4の画素情報は読み出されず、転送されることもない。同様に、図7Bに示すように、第2の受光部28Bにおいても、上下で隣り合う2列の水平ラインおきに、画素情報が読み出される。すなわち、第2の受光部28Bを構成する水平ラインのうち、水平ラインLb1,Lb2で構成されるラインペアLbp1の画素情報と、ラインペアLbp3の画素情報とは読み出されて転送され、ラインペアLbp1の次のラインペアLbp2の画素情報と、ラインペアLbp3の次のラインペアLbp4の画素情報とは読み出されず、転送されることもない。
 このとき、同調部81は、第1の受光部28Aおよび第2の受光部28Bから、上記に示す所定のライン間隔で水平ラインの画素情報が交互に画素情報が読み出されて転送されるように、第1の受光部28Aおよび第2の受光部28Bにおける露光処理および第1の受光部28Aおよび第2の受光部28Bに対する画素情報の読み出し処理のタイミングを同期させる。具体的には、図7Cに示すように、第1の受光部28AのラインペアLap1を構成する水平ラインLa1,La2の画素情報が読み出されて転送された後に、第2の受光部28BのラインペアLbp1を構成する水平ラインLb1,Lb2の画素情報が読み出されて転送され、その後に、第1の受光部28AのラインペアLap3を構成する水平ラインLa5,La6の画素情報が読み出されて転送される。
 そして、制御装置40においては、画像処理部42は、図7Cに示す順で転送されたラインペアの画素情報をもとに、第1の受光部28Aおよび第2の受光部28Bが撮像した各画像を用いて、1枚の画像を生成する。具体的には、画像処理部42は、図7Cに示す順で転送されたラインペアLap1,Lbp1,Lap3,Lbp3の画素情報を、図7Dに示すように、転送順に縦に1ラインずつ配置することによって、通常のカラー画像と、特殊画像である蛍光画像とを重ね合わせた画像G1を生成する。この画像G1は、表示部71において表示される。または、画像処理部42は、図7Cに示す順で転送されたラインペアの画素情報を、第1の受光部28Aに対応する画素情報および第2の受光部28Bに対応する画素情報を切り分けた上で、カラー画像と、蛍光画像とをそれぞれ生成し、表示部71は、カラー画像と蛍光画像とを同時表示する。この場合に生成されるカラー画像および蛍光画像は、2列の水平ラインおきに画素情報が間引きされた画像となる。
 このように、第1の受光部28Aおよび第2の受光部28Bの2つの撮像部の画素情報を交互に読み出して交互に転送するため、2つの受光部において撮像された複数の画素情報を制御装置40に同一の伝送経路を用いて適切に伝送することができるとともに、2つの受光部に対応させてそれぞれ2つの画像処理部を設けずとも、取得対象の画像を適切に取得することができる。
 また、実施の形態1においては、第1の受光部28Aおよび第2の受光部28Bの2つの受光部の画素情報を所定のライン間隔で間引きしながら水平ラインの画素情報を交互に読み出して転送することによって、集合ケーブル31の画像信号を伝送する信号線の単位時間当たりの伝送量を、1つの受光部の全ラインから読み出された画素情報を送信する場合と同等とするとともに、第1の受光部28Aおよび第2の受光部28Bが撮像した各画像を、1つの受光部を有する構成におけるフレームレートと同フレームレートで同時表示できる。このため、実施の形態1によれば、第1の受光部28Aおよび第2の受光部28Bが撮像した各画像を同時表示するために、2つの受光部にそれぞれ対応させて2つの伝送経路を内視鏡挿入部内に搭載する必要はなく、挿入部の細径化を維持することができる。
 なお、同調部81は、制御装置40から出力された設定データおよびタイミング信号をもとに、第1の受光部28Aおよび第2の受光部28Bの露光処理および読み出し処理を制御して同期させる。または、同調部81は、制御回路33Aが制御装置40から出力された設定データおよびタイミング信号をもとに第1の受光部28Aに露光処理および読み出し処理を制御するのに同期させて、第2の受光部28Bの露光処理および読み出し処理を制御する。
 また、第2の受光部28Bを、第1の受光部28Aと同数の画素および同等の感度を有する素子で構成するほか、第1の受光部28Aよりも画素数が少なく、感度の高い素子で構成してもよい。
(実施の形態1の変形例1)
 次に、実施の形態1の変形例1として、第2の受光部28Bに対して、いわゆるビニング処理を行わせる場合について説明する。
 図8Aに示すように、実施の形態1と同様に、第1の受光部28Aにおいては、上下で隣り合う2列の水平ラインおきに画素情報が読み出される。すなわち、第1の受光部28Aを構成する水平ラインのうち、ラインペアLap1とラインペアLap3との画素情報は読み出されて転送され、ラインペアLap2とラインペアLap4の画素情報とは、読み出されない。
 そして、第2の受光部28Bにおいては、上下2列の水平ライン間隔で水平ラインから画素情報が読み出される。そして、第2の受光部28Bにおいては、4つの画素が含まれるブロックP内で画素の輝度値を加算して出力させるビニング処理が行われ、ブロックP単位で輝度値が転送される。すなわち、図8Bに示すように、第2の受光部28Bにおいては、ラインペアLbp1の画素情報と、ラインペアLbp3の画素情報とが、読み出された後にビニング処理され、転送される。これに対し、第2の受光部28Bにおいては、ラインペアLbp2とラインペアLbp4の画素情報とは読み出されない。
 そして、図8Cに示すように、第1の受光部28AのラインペアLap1を構成する水平ラインLa1,La2の画素情報が転送された後に、第2の受光部28BのラインペアLbp1を構成する水平ラインLb1,Lb2の画素情報(Lbp1-B)が転送される。この場合、第2の受光部28Bにおいては、4つの画素で構成されるブロックごとにビニング処理されるため、第2の受光部28Bのラインペアの画素情報(Lbp1-B)の情報量は、第1の受光部28AのラインペアLap1の画素情報の情報量の4分の1となる。したがって、第2の受光部28Bのラインペアあたりの画素情報の転送時間が、第1の受光部28Aのラインペアあたりの画素情報の転送時間よりも短縮化される。同調部81は、第2の受光部28Bに対し、転送時間の短縮化によって余った時間T1を露光時間に振り分けて、露光時間を延長するように制御する。蛍光はもともと強度が弱いことから、露光時間延長によって、第2の受光部28Bにおける蛍光の受光量を高めることができ、蛍光受光量の高感度検出が可能になる。
 続いて、制御装置40においては、画像処理部42が、ラインペアLap1,Lbp1-B,Lap3,Lbp3-Bの画素情報を、図8Dに示すように、転送順に縦に1ラインずつ配置することによって、白色光による通常のカラー画像と、特殊画像である蛍光画像とを重ね合わせた画像G2を生成する。このうち、ラインペアLbp1,Lbp3の画素情報は、4つの画素で構成されるブロックごとに輝度値が加算された画素情報Lbp1-B,Lbp3-Bとなる。もちろん、画像処理部42は、転送された各ラインペアの画素情報を、第1の受光部28Aに対応する画素情報および第2の受光部28Bに対応する画素情報を切り分けた上で、カラー画像と蛍光画像とをそれぞれ生成してもよい。
 このように、実施の形態1の変形例1においては、第2の受光部28Bに対してビニング処理を行わせることによって、集合ケーブル31の画像信号を伝送する信号線の単位時間当たりの伝送量を、実施の形態1における伝送量よりも減らすことができる。さらに、実施の形態1の変形例1においては、第2の受光部28Bの画素情報の転送時間を短縮化できるため、その分、露光時間を延長して、第2の受光部28Bにおける高感度撮像も実現できる。
(実施の形態1の変形例2)
 次に、実施の形態1の変形例2として、第2の受光部に対してもオンチップフィルタを設け、第1の受光部および第2の受光部にそれぞれカラーの右画像および左画像を同時投影させて、いわゆる立体画像を生成する場合について説明する。
 図9は、実施の形態1の変形例2における内視鏡の先端部を切断した切断面の一部を示す図である。図9に示すように、実施の形態1の変形例2の先端部105においては、第2の受光部28Bに代えて、第1の受光部28Aと同様に、カラー画像を撮像する特性を有する第2の受光部128Bを設け、第2の受光部128Bの受光面側には、第1の受光部28Aと同様に、カバーガラス25Bとの間に、オンチップフィルタ27Aと同じ構成のオンチップフィルタ127Bが設けられる。第1の受光部28Aおよび第2の受光部128Bは、受光面が左右に並んで回路基板26に実装されており、第1の受光部28Aはたとえば右画像を撮像し、第2の受光部128Bはたとえば左画像を撮像する。
 この場合も、実施の形態1と同様に、第1の受光部28Aにおいては、上下で隣り合う2列の水平ラインおきに画素情報が読み出される。すなわち、図10Aおよび図11に示すように、第1の受光部28Aを構成する水平ラインのうち、ラインペアLap1とラインペアLap3との画素情報は読み出されて転送され、ラインペアLap2とラインペアLap4の画素情報とは読み出されない。
 そして、第2の受光部128Bにおいても、上下2列の水平ライン間隔で水平ラインから画素情報が読み出される。すなわち、図10Bおよび図11に示すように、第2の受光部128Bにおいては、ラインラインペアLbp1-1の画素情報とラインペアLbp1-3の画素情報とが、読み出された後に転送され、ラインペアLbp1-2とラインペアLbp1-4の画素情報とは読み出されない。
 そして、図11に示すように、第1の受光部28AのラインペアLap1の画素情報が転送された後に、第2の受光部128BのラインペアLbp1-1の画素情報が転送され、その後に、第1の受光部28AのラインペアLap3の画素情報が転送される。このように、第1の受光部28Aのラインペアの画素情報と第2の受光部128Bのラインペアの画素情報は、交互に転送される。そして、制御装置においては、画像処理部が、1フレーム期間Tf内において順次交互に転送された第1の受光部28Aのラインペアの画素情報と第2の受光部128Bのラインペアの画素情報とを受光部ごとに切り分け、第1の受光部28Aが撮像した右画像と、第2の受光部128Bが撮像した左画像とを生成してから、生成した右画像および左画像を合成して1枚の立体画像を生成する。
 このように、右画像および左画像を同時取得して立体画像を生成する実施の形態1の変形例2においても、第1の受光部28Aおよび第2の受光部128Bの2つの受光部の画素情報を所定のライン間隔で間引きながら交互に読み出して転送するため、実施の形態1と同様の効果を奏する。
 なお、実施の形態1の変形例2において、通常の平面画像を取得する場合には、第1の受光部28Aと第2の受光部128Bのうち、第1の受光部28Aのみに対して撮像処理を行わせれば足りる。この場合、片方の受光部に対してのみ撮像処理を行わせるため、図12のように1フレーム期間Tf内において、第1の受光部28Aの全ラインペアLa1~Lpnを読み出して転送することができるため、間引き読み出しを行わずともよい。また、第2の受光部128Bを、第1の受光部28Aと同数の画素で構成するほか、第1の受光部28Aよりも画素数を少なくしてもよい。
(実施の形態2)
 次に、実施の形態2について説明する。実施の形態2にかかる内視鏡は、実施の形態1にかかる内視鏡と同構成を有する。図13は、実施の形態2における第1の受光部および第2の受光部における露光処理および第1の受光部および第2の受光部に対する画素情報の読み出し処理を説明する図である。
 実施の形態2では、受光部の全ラインが一定期間、同時に露光されるように、グローバルシャッタ方式が採用されており、同調部81は、図13に示すように、1フレーム期間Tfを同期間に2分割し、分割した期間で、第1の受光部28Aおよび第2の受光部28Bにおける露光処理、ならびに、第1の受光部28Aおよび第2の受光部28Bに対する画素情報の読出し・転送処理をそれぞれ交互に行わせる。同調部81は、1フレーム期間Tfを2分割した前半期間においては、第1の受光部28Aに読出し・転送処理を行わせるとともに、第2の受光部28Bに露光処理を行わせる。そして、同調部81は、1フレーム期間Tfを2分割した後半期間においては、第1の受光部28Aに露光処理を行わせるとともに、第2の受光部28Bに読出し・転送処理を行わせる。
 この場合、同調部81は、第1の受光部28Aおよび第2の受光部28Bのいずれに対しても、2列間隔で水平ラインから画素信号が読み出されるように読出し・転送処理を制御している。この結果、実施の形態2においては、集合ケーブル31の画像信号を伝送する信号線の単位時間当たりの伝送量を、1つの受光部の全ラインから読み出された画素情報を送信する場合と同等とすることができ、1つの受光部を有する構成におけるフレームレートと同フレームレートで同時表示できる。
 画像処理部42は、第1の受光部28Aの各ラインペアの画素情報と、第2の受光部28Bの各ラインペアの画素情報とを、ラインペアごとに交互に配置することによって、白色光による通常のカラー画像と、特殊画像である蛍光画像とを重ね合わせた画像を生成する。または、画像処理部42は、転送された第1の受光部28Aの画素情報および第2の受光部28Bの画素情報をもとに、カラー画像と、蛍光画像とを別画像として生成する。
 ここで、図14(1)に示す全ラインから画素情報を読み出す全ライン読み出し方式と比較し、図14(2)に示すラインを間引きして画素情報を読み出すライン間引き読み出し方式においては転送する画素情報の情報量が少なくなるため、読出し・転送期間TFcを全ライン読み出し方式における読出し・転送期間TFfよりも短くすることができる。ライン間引き読み出し方式においては、全ライン読み出し方式における全ラインに対する同時露光時間TLfに比して、全ラインに対する同時露光時間TLcを、この読出し・転送期間の短縮化分、長くすることができる。
 このように、実施の形態2においては、1フレーム期間を2分割し、分割した期間ごとに第1の受光部28Aおよび第2の受光部28Bにおける露光処理、ならびに、第1の受光部28Aおよび第2の受光部28Bに対する画素情報の読出し・転送処理をそれぞれ交互に行わせた場合も、2つの受光部において撮像された複数の画素情報を制御装置40に同一の伝送経路を用いて適切に伝送することができるとともに、2つの受光部に対応させてそれぞれ2つの画像処理部を設けずとも、取得対象の画像を適切に取得することができる。
 また、実施の形態2においては、第1の受光部28Aおよび第2の受光部28Bの2つの受光部の画素情報を所定のライン間隔で間引きながら読み出して転送することによって、集合ケーブル31の画像信号を伝送する信号線の単位時間当たりの伝送量を、1つの受光部の全ラインから読み出された画素情報を送信する場合と同等とする。この結果、実施の形態2においては、実施の形態1と同様に、第1の受光部28Aおよび第2の受光部28Bが撮像した各画像を同時表示するために、2つの受光部にそれぞれ対応させて2つの伝送経路を内視鏡挿入部内に搭載する必要はなく、挿入部の細径化を維持することができる。
 また、実施の形態2においては、第1の受光部28Aおよび第2の受光部28Bの2つの受光部の画素情報を所定のライン間隔で間引きながら読み出して転送することによって、全ラインに対する同時露光時間を十分に確保することができる。
 なお、第1の受光部28A、第2の受光部28Bにおいては、画素単位で露光時間を調整することができる。図15は、受光部の単位画素の構成を示す回路図である。図15に示すように、単位画素は、入射光をその光量に応じた信号電荷量に光電変換して蓄電するフォトダイオードPDと、オン期間においてフォトダイオードPDに変換蓄電されている信号電荷をコンデンサFDに転送する転送トランジスF-TRと、オン期間においてコンデンサFDに蓄積された信号電荷を放出してリセットする第1リセットトランジスタR-TRと、オン期間においてフォトダイオードPDに蓄電されている信号電荷を放出してフォトダイオードPDをリセットする第2リセットトランジスタR2-TRと、選択トランジスタS-TRがオンしたときに転送トランジスタF-TRによって読み出された電圧(変換信号電圧)を同レベルの画素信号Vp-outに変換して所定の信号線に出力する出力トランジスタSF-TRと、を備える。選択トランジスタS-TRは、この単位画素が含まれる水平ラインが読み出し対象のラインとして選択される場合に、オン制御される。
 図16に示すように、同調部81の制御のもと、1フレーム期間Tfを2分割した前半期間(時間T1から時間T2までの間)は、特殊光光源62が照明処理を行い、これに対応して、第2の受光部28Bが露光処理を行う。具体的には、第2の受光部28Bの全単位画素において、第1リセットトランジスタR-TR、第2リセットトランジスタR2-TRおよび転送トランジスタF-TRがオフ制御され、フォトダイオードPDに入射光量に応じた信号電荷が蓄電される。また、この前半期間(時間T1から時間T2までの間)においては、第1の受光部28Aが読出し・転送処理を行う。第1の受光部28Aにおける各トランジスタの動作制御については後述する。
 続いて、1フレーム期間Tfを2分割した後半期間(時間T2から時間T3までの間)は、白色光源61が照明処理を行い、これに対応して、第1の受光部28Aが露光処理を行う。具体的には、第1の受光部28Aの全単位画素において、第1リセットトランジスタR-TR、第2リセットトランジスタR2-TRおよび転送トランジスタF-TRがオフ制御され、フォトダイオードPDに入射光量に応じた信号電荷が蓄電される。
 また、この後半期間(時間T2から時間T3までの間)においては、第2の受光部28Bが読出し・転送処理を行う。具体的には、第2の受光部28Bのうち、読み出し対象のラインペアに含まれる単位画素において、時間T2から時間T21の間、転送トランジスタF-TRがオン制御されてフォトダイオードPDの信号電荷がコンデンサFDに転送される。この後、時間T21から時間T3までの間、読み出し対象のラインにおいては、読み出し順に、順次、選択トランジスタS-TRがオン制御されて、各ラインの画素情報が順次出力される。読み出し対象のラインペアに含まれる単位画素においては、時間T21から時間T3までの間、転送トランジスタF-TRがオフ制御されるとともに、第2リセットトランジスタR2-TRがオン制御されて、フォトダイオードPDがリセットされる。そして、時間T22から時間T3までの間、第1リセットトランジスタR-TRがオン制御されて、コンデンサFDをリセットする。
 次のフレームにおいても、同様に、前半期間(時間T3から時間T4までの間)は、特殊光光源62が照明処理を行い、これに対応して、第2の受光部28Bが露光処理を行う。具体的には、第2の受光部28Bの全単位画素において、第1リセットトランジスタR-TR、第2リセットトランジスタR2-TRおよび転送トランジスタF-TRがオフ制御され、フォトダイオードPDに入射光量に応じた信号電荷が蓄電される。
 また、この前半期間(時間T3から時間T4までの間)においては、第1の受光部28Aが読出し・転送処理を行う。具体的には、第1の受光部28Aのうち、読み出し対象のラインペアに含まれる単位画素において、時間T3から時間T31の間、転送トランジスタF-TRがオン制御されてフォトダイオードPDの信号電荷がコンデンサFDに転送される。この後、時間T31から時間T4までの間、読み出し対象のラインにおいては、読み出し順に、順次、選択トランジスタS-TRがオン制御されて、各ラインの画素情報が順次出力される。読み出し対象のラインペアに含まれる単位画素においては、時間T31から時間T4までの間、転送トランジスタF-TRがオフ制御されるとともに、第2リセットトランジスタR2-TRがオン制御されて、フォトダイオードPDがリセットされる。そして、時間T32から時間T4までの間、第1リセットトランジスタR-TRがオン制御されて、コンデンサFDをリセットする。
(実施の形態2の変形例1)
 実施の形態2においては、必ずしも1フレーム期間を同じ時間の期間に2分割する必要はなく、図17に示すように、第1の受光部28Aおよび第2の受光部28Bの性能に合わせて、1フレーム期間を互いに異なる長さの時間の期間に分割してもよい。同調部81は、たとえば、1フレーム期間の前半期間Tf1を、後半期間Tf2よりも長くなるように分割する。たとえば、前半期間Tf1が、後半期間Tf2の2倍の期間となるように1フレーム期間を分割する。
 そして、同調部81は、期間の長い前半期間Tf1において、第2の受光部28Bに露光処理を行わせる。第2の受光部28Bにおいては、長い期間、露光が行われるため、第2の受光部28Bにおける蛍光の受光量を高めることができ、蛍光受光量の高感度検出が可能になる。また、同調部81は、この前半期間Tf1においては、第1の受光部28Aに読出し・転送処理を行わせる。
 次に、期間の短い後半期間Tf2において、同調部81は、第2の受光部28Bに転送処理を行わせる。この場合、同調部81は、実施の形態2における読み出し対象の画素の間引き量よりも間引き量がさらに多くなるように、第2の受光部28Bの読み出し対象の画素を設定する。また、この後半期間Tf2において、第1の受光部28Aに露光処理を行わせる。なお、白色光によるカラー画像と、特殊画像である蛍光画像とを重ね合わせた画像を生成する場合、蛍光を発している部位が判別できれば足りるため、蛍光画像の解像度は特に必要ではないことから、読み出し対象の画素の間引き量が多い場合でも、適切に画像を生成することができる。
 1フレーム期間を同期間に分割する場合に限らず、この実施の形態2の変形例1のように、生成対象の画像を適切に取得できるのであれば、1フレーム期間を、第1の受光部28Aおよび第2の受光部28Bの性能に合わせて互いに異なる時間の期間に分割してもよい。
 もちろん、分割する単位期間は、1フレーム期間に限らない。たとえば、図18に示すように、2フレーム期間を単位期間とし、この単位期間を2分割し、分割した1フレーム期間ごとに、交互に、第1の受光部28Aおよび第2の受光部28Bにおける露光処理および第1の受光部28Aおよび第2の受光部28Bに対する画素情報の読出し・転送処理を行わせてもよい。すなわち、同調部81は、前半の1フレーム期間においては、第1の受光部28Aに読出し・転送処理を行わせるとともに、第2の受光部28Bに露光処理を行わせる。そして、同調部81は、後半の2フレーム期間においては、第1の受光部28Aに露光処理を行わせるとともに、第2の受光部28Bに読出し・転送処理を行わせる。
 また、本実施の形態は、内視鏡システムに限らず、撮像部と表示モニタが長いケーブルを介して接続されているテレビカメラに対しても適用可能である。もちろん、本実施の形態は、デジタルカメラ、デジタル一眼レフカメラ、デジタルビデオカメラ又はカメラ付き携帯電話等の撮影装置に適用することも可能である。
 以上のように、本発明にかかる撮像装置は、簡易な構成で複数種の画像を取得することに有用である。
 1 内視鏡
 2 挿入部
 3 操作部
 4 ユニバーサルコード
 5,105 先端部
 6 湾曲部
 7 可撓管部
 8 コネクタ部
 9 ライトガイドコネクタ
 10 電気接点部
 11 送気口金
 12 湾曲ノブ
 13 処置具挿入部
 14 スイッチ
 15 開口部
 16 処置具
 17 洗浄用ノズル
 18 照明窓
 18a 照明レンズ
 19 ライトガイド
 20 処置具用チャンネル
 21,22 観察窓
 23A 第1の光学系
 23B 第2の光学系
 23a~23d レンズ
 24 分光フィルタ
 25A,25B カバーガラス
 26 回路基板
 27A,127B オンチップフィルタ
 28A 第1の受光部
 28B,128B 第2の受光部
 29 ドライバ
 30 変換回路
 31 集合ケーブル
 31a 信号線
 32 電極
 33A,33B 制御回路
 34A,34B タイミングジェネレータ
 35A,35B AFE部
 36A,36B ノイズ除去部
 37A,37B ゲイン調整部
 38A,38B A/D変換部
 39 P/S変換部
 40 制御装置
 41 S/P変換部
 42 画像処理部
 43 同時化部
 43a フレームメモリ
 44 WB調整部
 45 ゲイン調整部
 46 γ補正部
 47 D/A変換部
 48 フォーマット変更部
 49 サンプル用メモリ
 50 静止画像用メモリ
 51 明るさ検出部
 52 調光部
 53 読出アドレス設定部
 54 CMOS駆動信号生成部
 55 制御部
 56 基準クロック生成部
 60 光源装置
 61 白色光源
 62 特殊光光源
 63 光源駆動回路
 64 LEDドライバ
 71 表示部
 72 入力部
 73 出力部
 74 記憶部
 81 同調部
 100 内視鏡システム

Claims (14)

  1.  撮像用の複数の画素のうち読み出し対象として任意に設定された画素から光電変換後の電気信号を画素情報として出力可能である第1の撮像部および第2の撮像部と、
     前記第1の撮像部および前記第2の撮像部において読み出し対象として設定された画素から画素情報を読み出す読出し部と、
     前記読出し部によって前記第1の撮像部および前記第2の撮像部から交互に画素情報が読み出されるように前記第1の撮像部および前記第2の撮像部における読み出し対象の画素を設定するとともに、前記第1の撮像部および前記第2の撮像部における露光処理のタイミング、ならびに、前記読出し部による前記第1の撮像部および前記第2の撮像部に対する画素情報の読み出し処理のタイミングを相関付けて制御する制御部と、
     前記第1の撮像部および前記第2の撮像部から読み出された画素情報を同一の伝送経路によって伝送する伝送部と、
     前記伝送部によって伝送された画素情報をもとに画像を生成する画像処理部と、
     を備えたことを特徴とする撮像装置。
  2.  前記複数の画素は、2次元的にマトリックス状に配置され、
     前記制御部は、前記読出し部が前記第1の撮像部および前記第2の撮像部から所定のライン間隔で水平ラインの画素情報が交互に読み出されるように、前記第1の撮像部および前記第2の撮像部における読み出し対象の画素を設定することを特徴とする請求項1に記載の撮像装置。
  3.  前記第1の撮像部および前記第2の撮像部は、同一の撮像特性を有することを特徴とする請求項2に記載の撮像装置。
  4.  前記第1の撮像部および前記第2の撮像部は、異なる撮像特性を有することを特徴とする請求項2に記載の撮像装置。
  5.  前記第1の撮像部は、カラー画像を撮像する特性を有し、
     前記第2の撮像部は、モノクロ画像を撮像する特性を有することを特徴とする請求項4に記載の撮像装置。
  6.  前記画素情報は、輝度値を含み、
     前記制御部は、前記読出し部に、前記第2の撮像部の画素の輝度値として、所定数の画素が含まれるブロック内で画素の輝度値を加算して出力させることを特徴とする請求項5に記載の撮像装置。
  7.  前記制御部は、単位期間を分割し、分割した期間で、前記第1の撮像部および前記第2の撮像部における露光処理、ならびに、前記読出し部による前記第1の撮像部および前記第2の撮像部に対する画素情報の読み出し処理がそれぞれ交互に行われるように制御することを特徴とする請求項1に記載の撮像装置。
  8.  前記制御部は、前記第1の撮像部および前記第2の撮像部の特性に合わせて、前記単位期間を互いに異なる時間の期間に分割することを特徴とする請求項7に記載の撮像装置。
  9.  前記複数の画素は、縦横に2次元的に配置され、
     前記制御部は、前記読出し部が前記第1の撮像部および前記第2の撮像部の少なくとも一方からは、所定のライン間隔で一つの水平ラインの画素情報を読み出すように、前記第1の撮像部および前記第2の撮像部における読み出し対象の画素を設定することを特徴とする請求項7に記載の撮像装置。
  10.  前記単位期間は、前記第1の撮像部における露光処理と、前記第1の撮像部の全画素に対する読出し処理とに要する期間であることを特徴とする請求項7に記載の撮像装置。
  11.  前記読出し部が読み出した画素情報をパラレル/シリアル変換した後に前記伝送部に出力する変換部をさらに備えたことを特徴とする請求項1に記載の撮像装置。
  12.  前記画像処理部は、前記読出し部が前記第1の撮像部および前記第2の撮像部から交互に読出した画素情報をもとに前記第1の撮像部および前記第2の撮像部にそれぞれ対応する2枚の画像を生成することを特徴とする請求項1に記載の撮像装置。
  13.  前記画像処理部は、前記読出し部が前記第1の撮像部および前記第2の撮像部から交互に読出した画素情報を用いて1枚の画像を生成することを特徴とする請求項1に記載の撮像装置。
  14.  前記第1の撮像部、前記第2の撮像部、前記読出し部および前記制御部を有し、被検体内に導入される先端部と、
     前記画像処理部と、前記画像処理部が生成した画像を表示する表示部とを有し、前記伝送部によって前記先端部と接続される信号処理装置と、
     を備えた内視鏡装置であることを特徴とする請求項1に記載の撮像装置。
PCT/JP2012/070366 2011-08-15 2012-08-09 撮像装置 Ceased WO2013024788A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2013505220A JP5245022B1 (ja) 2011-08-15 2012-08-09 撮像装置
EP12824407.6A EP2636359B1 (en) 2011-08-15 2012-08-09 Imaging apparatus
CN201280004004.6A CN103260499B (zh) 2011-08-15 2012-08-09 摄像装置
US13/757,918 US8823789B2 (en) 2011-08-15 2013-02-04 Imaging apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-177692 2011-08-15
JP2011177692 2011-08-15

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/757,918 Continuation US8823789B2 (en) 2011-08-15 2013-02-04 Imaging apparatus

Publications (1)

Publication Number Publication Date
WO2013024788A1 true WO2013024788A1 (ja) 2013-02-21

Family

ID=47715107

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/070366 Ceased WO2013024788A1 (ja) 2011-08-15 2012-08-09 撮像装置

Country Status (5)

Country Link
US (1) US8823789B2 (ja)
EP (1) EP2636359B1 (ja)
JP (1) JP5245022B1 (ja)
CN (1) CN103260499B (ja)
WO (1) WO2013024788A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015146318A1 (ja) * 2014-03-28 2015-10-01 富士フイルム株式会社 内視鏡システム、内視鏡システムのプロセッサ装置、及び内視鏡システムの作動方法
WO2015174169A1 (ja) * 2014-05-13 2015-11-19 浜松ホトニクス株式会社 固体撮像装置
WO2015198659A1 (ja) * 2014-06-23 2015-12-30 オリンパス株式会社 撮像装置および内視鏡装置
WO2018131141A1 (ja) * 2017-01-13 2018-07-19 オリンパス株式会社 内視鏡用画像処理装置および内視鏡用画像処理方法
US10750929B2 (en) 2015-03-19 2020-08-25 Olympus Corporation Endoscope device for generating color superimposed image

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103416071B (zh) * 2011-03-08 2015-11-25 瑞萨电子株式会社 摄像装置
US9456735B2 (en) * 2012-09-27 2016-10-04 Shahinian Karnig Hrayr Multi-angle rear-viewing endoscope and method of operation thereof
WO2015015839A1 (ja) * 2013-08-01 2015-02-05 オリンパスメディカルシステムズ株式会社 撮像装置
WO2015136963A1 (ja) * 2014-03-12 2015-09-17 富士フイルム株式会社 内視鏡システム、内視鏡システムのプロセッサ装置、及び内視鏡システムの作動方法
JP6166841B2 (ja) * 2014-03-31 2017-07-19 富士フイルム株式会社 内視鏡システム、内視鏡システムのプロセッサ装置、及び内視鏡システムの作動方法
JP5881916B1 (ja) * 2014-05-09 2016-03-09 オリンパス株式会社 固体撮像素子、内視鏡および内視鏡システム
CN107548292B (zh) * 2015-05-20 2019-12-27 索尼奥林巴斯医疗解决方案公司 信号处理装置和医疗观察系统
CN107306492B (zh) * 2016-02-25 2019-10-25 奥林巴斯株式会社 内窥镜系统和内窥镜系统的工作方法
KR102576159B1 (ko) * 2016-10-25 2023-09-08 삼성디스플레이 주식회사 표시 장치 및 이의 구동 방법
CN110022751B (zh) 2016-12-02 2021-11-30 奥林巴斯株式会社 内窥镜用图像处理装置
WO2018180339A1 (ja) * 2017-03-30 2018-10-04 Hoya株式会社 電子内視鏡装置
CN118214952B (zh) * 2024-05-20 2024-08-02 浙江大华技术股份有限公司 图像采集方法、设备、电子设备和计算机可读存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0654803A (ja) * 1992-06-09 1994-03-01 Olympus Optical Co Ltd 立体視内視鏡撮像装置
JPH1132982A (ja) * 1997-07-18 1999-02-09 Toshiba Iyou Syst Eng Kk 電子内視鏡装置
JP2000258697A (ja) * 1999-03-05 2000-09-22 Olympus Optical Co Ltd 立体内視鏡システム
JP2010068992A (ja) * 2008-09-18 2010-04-02 Fujifilm Corp 電子内視鏡システム
JP2010130570A (ja) 2008-11-28 2010-06-10 Samsung Digital Imaging Co Ltd 撮像装置及び撮像方法

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5436655A (en) * 1991-08-09 1995-07-25 Olympus Optical Co., Ltd. Endoscope apparatus for three dimensional measurement for scanning spot light to execute three dimensional measurement
WO1994015521A1 (en) * 1993-01-05 1994-07-21 American Surgical Technologies Corporation Medical video endoscope system
US5751341A (en) * 1993-01-05 1998-05-12 Vista Medical Technologies, Inc. Stereoscopic endoscope system
US6515701B2 (en) * 1997-07-24 2003-02-04 Polaroid Corporation Focal plane exposure control system for CMOS area image sensors
US6489987B1 (en) * 1998-01-09 2002-12-03 Fuji Photo Optical Co., Ltd. Electronic endoscope apparatus
US7057647B1 (en) * 2000-06-14 2006-06-06 E-Watch, Inc. Dual-mode camera system for day/night or variable zoom operation
TW457510B (en) * 1999-05-21 2001-10-01 Sony Corp Image control device and method, and image display device
JP4518616B2 (ja) * 2000-04-13 2010-08-04 ソニー株式会社 固体撮像装置およびその駆動方法並びにカメラシステム
US6899675B2 (en) * 2002-01-15 2005-05-31 Xillix Technologies Corp. Fluorescence endoscopy video systems with no moving parts in the camera
JP2004040480A (ja) * 2002-07-03 2004-02-05 Olympus Corp 撮像装置
JP4394356B2 (ja) * 2003-02-07 2010-01-06 Hoya株式会社 電子内視鏡装置
JP2005006856A (ja) * 2003-06-18 2005-01-13 Olympus Corp 内視鏡装置
JP3813961B2 (ja) * 2004-02-04 2006-08-23 オリンパス株式会社 内視鏡用信号処理装置
KR100583250B1 (ko) * 2004-03-05 2006-05-24 한국전기연구원 개선된 영상 검출 모듈을 갖는 형광 내시경 장치
KR100895160B1 (ko) * 2004-08-30 2009-05-04 올림푸스 가부시키가이샤 내시경 장치
EP1814434A4 (en) * 2004-11-25 2009-10-21 Optiscan Pty Ltd Borescope
JP4350652B2 (ja) * 2005-01-07 2009-10-21 オリンパスメディカルシステムズ株式会社 内視鏡用挿入部及び内視鏡
JP4772357B2 (ja) * 2005-03-31 2011-09-14 オリンパスメディカルシステムズ株式会社 光源装置及び撮像装置
JP4782532B2 (ja) * 2005-10-14 2011-09-28 富士フイルム株式会社 固体撮像装置および固体撮像素子の駆動制御方法
JP2008079823A (ja) * 2006-09-27 2008-04-10 Olympus Medical Systems Corp 撮像装置
JP4841391B2 (ja) * 2006-10-17 2011-12-21 オリンパスメディカルシステムズ株式会社 内視鏡
US7839439B2 (en) * 2007-01-12 2010-11-23 Sony Corporation Solid-state imaging device and imaging device
JP5074044B2 (ja) * 2007-01-18 2012-11-14 オリンパス株式会社 蛍光観察装置および蛍光観察装置の作動方法
JP4987790B2 (ja) * 2008-04-15 2012-07-25 オリンパスメディカルシステムズ株式会社 撮像装置
DE102008047413A1 (de) * 2008-09-16 2010-04-15 Hella Kgaa Hueck & Co. Vorrichtung und Verfahren zur Detektion von Objekten
CN102361580B (zh) * 2009-03-24 2014-06-04 奥林巴斯株式会社 荧光观察装置、荧光观察系统以及荧光图像处理方法
US20110292258A1 (en) * 2010-05-28 2011-12-01 C2Cure, Inc. Two sensor imaging systems
JP5777942B2 (ja) * 2010-07-02 2015-09-09 オリンパス株式会社 撮像装置
US8684914B2 (en) * 2011-08-12 2014-04-01 Intuitive Surgical Operations, Inc. Image capture unit and an imaging pipeline with enhanced color performance in a surgical instrument and method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0654803A (ja) * 1992-06-09 1994-03-01 Olympus Optical Co Ltd 立体視内視鏡撮像装置
JPH1132982A (ja) * 1997-07-18 1999-02-09 Toshiba Iyou Syst Eng Kk 電子内視鏡装置
JP2000258697A (ja) * 1999-03-05 2000-09-22 Olympus Optical Co Ltd 立体内視鏡システム
JP2010068992A (ja) * 2008-09-18 2010-04-02 Fujifilm Corp 電子内視鏡システム
JP2010130570A (ja) 2008-11-28 2010-06-10 Samsung Digital Imaging Co Ltd 撮像装置及び撮像方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2636359A4

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015146318A1 (ja) * 2014-03-28 2015-10-01 富士フイルム株式会社 内視鏡システム、内視鏡システムのプロセッサ装置、及び内視鏡システムの作動方法
JPWO2015146318A1 (ja) * 2014-03-28 2017-04-13 富士フイルム株式会社 内視鏡システム、内視鏡システムのプロセッサ装置、及び内視鏡システムの作動方法
WO2015174169A1 (ja) * 2014-05-13 2015-11-19 浜松ホトニクス株式会社 固体撮像装置
JP2015216594A (ja) * 2014-05-13 2015-12-03 浜松ホトニクス株式会社 固体撮像装置
US9883124B2 (en) 2014-05-13 2018-01-30 Hamamatsu Photonics K.K. Solid-state imaging device
WO2015198659A1 (ja) * 2014-06-23 2015-12-30 オリンパス株式会社 撮像装置および内視鏡装置
US9775492B2 (en) 2014-06-23 2017-10-03 Olympus Corporation Image device for synchronizing timing of imaging by first and second image sensors, and endoscopic device
US10750929B2 (en) 2015-03-19 2020-08-25 Olympus Corporation Endoscope device for generating color superimposed image
WO2018131141A1 (ja) * 2017-01-13 2018-07-19 オリンパス株式会社 内視鏡用画像処理装置および内視鏡用画像処理方法
JPWO2018131141A1 (ja) * 2017-01-13 2019-11-07 オリンパス株式会社 内視鏡用画像処理装置および内視鏡用画像処理方法

Also Published As

Publication number Publication date
CN103260499A (zh) 2013-08-21
US8823789B2 (en) 2014-09-02
US20130208101A1 (en) 2013-08-15
EP2636359B1 (en) 2018-05-30
EP2636359A1 (en) 2013-09-11
JP5245022B1 (ja) 2013-07-24
EP2636359A4 (en) 2015-03-25
JPWO2013024788A1 (ja) 2015-03-05
CN103260499B (zh) 2016-01-20

Similar Documents

Publication Publication Date Title
JP5245022B1 (ja) 撮像装置
JP5259882B2 (ja) 撮像装置
CN103262522B (zh) 摄像装置
US8866893B2 (en) Imaging apparatus
EP2868255B1 (en) Imaging device and imaging system
CN105792727B (zh) 内窥镜装置
JP5899172B2 (ja) 内視鏡装置
EP3085301A1 (en) Endoscopic device
CN103781398A (zh) 摄像装置
WO2012033200A1 (ja) 撮像装置
JP6228833B2 (ja) 撮像システム、及び内視鏡装置
WO2018088215A1 (ja) 内視鏡システムおよび処理装置
JP6137892B2 (ja) 撮像システム
JP6190906B2 (ja) 撮像モジュール、及び内視鏡装置
JP2017123997A (ja) 撮像システムおよび処理装置
JP6277138B2 (ja) 内視鏡システム及びその作動方法
WO2019003556A1 (ja) 画像処理装置、画像処理システムおよび画像処理方法
JP6801990B2 (ja) 画像処理システムおよび画像処理装置
JP2016025509A (ja) 撮像システムおよび内視鏡

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2013505220

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12824407

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012824407

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE