[go: up one dir, main page]

WO2017038774A1 - 撮像システム、処理装置、処理方法及び処理プログラム - Google Patents

撮像システム、処理装置、処理方法及び処理プログラム Download PDF

Info

Publication number
WO2017038774A1
WO2017038774A1 PCT/JP2016/075218 JP2016075218W WO2017038774A1 WO 2017038774 A1 WO2017038774 A1 WO 2017038774A1 JP 2016075218 W JP2016075218 W JP 2016075218W WO 2017038774 A1 WO2017038774 A1 WO 2017038774A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unit
data
optical
optical system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2016/075218
Other languages
English (en)
French (fr)
Inventor
健彦 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to CN201680003755.4A priority Critical patent/CN106999024B/zh
Priority to EP16841806.9A priority patent/EP3345530A1/en
Priority to JP2017502729A priority patent/JP6104493B1/ja
Publication of WO2017038774A1 publication Critical patent/WO2017038774A1/ja
Priority to US15/598,862 priority patent/US20170251911A1/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00193Optical arrangements adapted for stereoscopic vision
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00105Constructional details of the endoscope body characterised by modular construction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00188Optical arrangements with focusing or zooming features
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0669Endoscope light sources at proximal end of an endoscope
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2415Stereoscopic endoscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2423Optical details of the distal end
    • G02B23/243Objectives for endoscopes
    • G02B23/2438Zoom objectives
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming

Definitions

  • the present invention relates to an imaging system, a processing apparatus, a processing method, and a processing program.
  • an endoscope provided with an optical unit having two optical systems for stereoscopic observation and two image sensors corresponding to each optical unit is known.
  • the processor to which the endoscope is attached receives left and right image data from the attached endoscope, and generates a stereoscopic image from the two image data.
  • the present invention has been made in view of the above, and as an optical unit having two optical systems for stereoscopic observation, no matter which optical unit is mounted on a processing apparatus, the mounted optical unit It is an object to provide an imaging system, a processing apparatus, a processing method, and a processing program that can appropriately perform image correction corresponding to the above.
  • an imaging system includes an optical unit, a processing device having a configuration in which the optical unit is detachably mounted, the optical unit, and the processing device.
  • An imaging system comprising: an imaging apparatus disposed on any of the first and second optical systems, wherein the optical unit includes a first optical system that forms an incident light from a subject, and an incident light from the subject.
  • An angle of view for correcting a difference in angle of view between the second optical system that forms an image with parallax from the first optical system, and the first optical system and the second optical system.
  • a first storage unit that stores correction data, and the imaging device captures an optical image formed by the first optical system to generate first image data.
  • a second image pickup unit that generates data
  • the processing device acquires a view angle correction data from the first storage unit, and a view angle correction data acquired by the data acquisition unit. Based on the first image data, the angle of view of the first image corresponding to the first image data is matched with the angle of view of the second image corresponding to the second image data, and the size of the first image is And a correction unit that corrects at least one of the first image data and the second image data so that the size of the second image matches the size of the second image.
  • the angle of view correction data may be set so that the angle of view and the size of the second image coincide with the angle of view and the size of the first image. And at least a first magnification of the angle of view of the second image with respect to the angle of view of the first image.
  • the processing device displays a picture processed by the processing device, and an enlargement set in advance according to the type of the optical unit and the standard of the display unit.
  • a first enlargement / reduction ratio used in the correction unit is generated based on a second magnification which is a reduction magnification, and the first acquisition ratio and the second magnification acquired by the data acquisition unit are generated.
  • a parameter generation unit that generates a second enlargement / reduction ratio used in the correction unit, and the correction unit extracts the first image based on the extraction reference region from each image. While setting the size of the extraction region, the size of the second extraction region to be extracted from the second image is set based on the extraction reference region and the first magnification acquired by the data acquisition unit.
  • An area setting unit The first extraction region is extracted from the image, and an image obtained by enlarging or reducing the extracted first extraction region at the first enlargement / reduction magnification is output as a corrected first image, An enlargement that extracts the second extraction area from the second image and outputs an image obtained by enlarging or reducing the extracted second extraction area at the second enlargement / reduction ratio as a corrected second image And a reduction unit.
  • the processing device further includes a second storage unit that stores the second magnification in association with a type of the optical unit and a standard of the display unit, respectively.
  • 1 storage unit stores identification information indicating a type of the optical unit
  • the data acquisition unit acquires the identification information of the optical unit from the first storage unit
  • the acquired identification information indicates
  • the second magnification according to the type of the optical unit and the standard of the display unit is acquired from the second storage unit
  • the parameter generation unit is configured to acquire the first magnification and the second magnification acquired by the data acquisition unit.
  • the first enlargement / reduction ratio and the second enlargement / reduction ratio are generated based on a magnification of 2.
  • the angle-of-view correction data includes first position data indicating a position of the extraction reference region in the first image, and a position of the extraction reference region in the second image.
  • the position setting unit sets a position of the extraction reference region in the first image based on the first position data acquired by the data acquisition unit, and The position of the extraction reference region in the second image is set based on the second position data acquired by the data acquisition unit.
  • the first optical system and the second optical system each have an optical zoom function of changing the angle of view
  • the correction unit is acquired by the data acquisition unit.
  • the optical zoom function of at least one of the first optical system and the second optical system based on the obtained field angle correction data
  • the first image data corresponding to the first image data is controlled.
  • the angle of view of the image and the angle of view of the second image corresponding to the second image data are matched, and the size of the first image and the size of the second image are matched. To do.
  • an imaging system is characterized by including an endoscope apparatus including the optical unit and the imaging apparatus, and the processing apparatus that processes image data captured by the imaging apparatus.
  • the processing apparatus forms a first optical system that forms an incident light from a subject and an incident light from the subject with parallax from the first optical system.
  • An optical unit having a second optical system and a first storage unit that stores field angle correction data for correcting a difference in field angle between the first optical system and the second optical system is detachable
  • a first that is freely mounted and is disposed in either the optical unit or the processing device, and that captures an optical image formed by the first optical system and generates first image data.
  • a processing device that processes image data output from an imaging device having an imaging unit and a second imaging unit that captures an optical image formed by the second optical system and generates second image data.
  • a data acquisition unit that acquires angle correction data, and an angle of view of the first image corresponding to the first image data and the second image data based on the angle of view correction data acquired by the data acquisition unit
  • the first image data and the second image data are set so that the angle of view of the corresponding second image matches and the size of the first image matches the size of the second image.
  • a correction unit that corrects at least one of the above.
  • the first optical system that forms incident light from the subject and the incident light from the subject are imaged with parallax from the first optical system.
  • An optical unit having a second optical system is detachably mounted, and a first imaging unit that captures an optical image formed by the first optical system and generates first image data, and the first A processing method executed by a processing device that processes an image data output from a second imaging unit that captures an optical image formed by the second optical system and generates second image data.
  • the processing program forms an image of incident light from a subject and an incident light from the subject with parallax from the first optical system.
  • An optical unit having a second optical system is detachably mounted, and a first imaging unit that captures an optical image formed by the first optical system and generates first image data, and the first
  • the processing unit that processes the image data output from the second imaging unit that captures an optical image formed by the second optical system and generates second image data, and the optical unit mounted on the processing unit
  • optical unit having two optical systems for stereoscopic observation whichever optical unit is attached to the processing apparatus, image correction corresponding to the attached optical unit is appropriately executed. can do.
  • FIG. 1 is a schematic diagram showing a schematic configuration of an endoscope system according to an embodiment of the present invention.
  • FIG. 2 is a flowchart showing a processing procedure of processing executed by the light source integrated processor shown in FIG. 1 on image data input from the endoscope.
  • FIG. 3 is a flowchart showing a processing procedure of the correction processing shown in FIG.
  • FIG. 4 is a diagram for explaining the reference region position setting process shown in FIG.
  • FIG. 5 is a diagram for explaining extraction area size setting processing shown in FIG.
  • FIG. 6 is a diagram for explaining the enlargement / reduction processing shown in FIG.
  • FIG. 7 is a diagram for explaining the reference region position setting process shown in FIG.
  • FIG. 8 is a diagram for explaining extraction area size setting processing shown in FIG.
  • FIG. 9 is a diagram for explaining the enlargement / reduction processing shown in FIG.
  • FIG. 10 is a schematic diagram showing another schematic configuration of the imaging system in the embodiment of the present invention.
  • FIG. 1 is a schematic diagram showing a schematic configuration of an endoscope system according to an embodiment of the present invention.
  • an endoscope system 1 includes an endoscope 2 for introduction into a subject, and an endoscope 2 (imaging device) mounted via a connector (not shown).
  • a light source integrated processor 3 processing device that performs predetermined image processing on an image pickup signal transmitted from the display device 4, a display device 4 (display unit) that displays a stereoscopic image corresponding to the image pickup signal from the endoscope 2, and
  • An input device 5 for receiving input of various instruction information and inputting the instruction information to the light source integrated processor 3 is provided.
  • the light source integrated processor 3 has a configuration in which the endoscope 2 is detachably mounted via a connector.
  • the light source integrated processor 3 is a processor having a light source unit 6 therein.
  • the endoscope 2 has a flexible insertion portion to be inserted into the subject, and image data in the subject obtained by imaging the inside of the subject by the imaging portion 20 provided at the distal end portion of the insertion portion. Is generated.
  • the endoscope 2 has a left-eye optical system 21A (first optical system), a right-eye optical system 21B (second optical system), and a left-eye imaging element 22A (first imaging unit) at the distal end. ), A right-eye image pickup device 22B (second image pickup unit), a left-eye signal processing unit 23A, and a right-eye signal processing unit 23B, a memory 24 (first storage unit), and an illumination It has a lens 25.
  • the endoscope 2 includes an illumination fiber (light guide cable) and an electric cable (not shown) that extend from a distal end to a proximal connector (not shown).
  • the endoscope 2 has an operation switch unit (not shown) provided with various operation switches.
  • the left-eye optical system 21A is configured using one or a plurality of lenses, and is provided in front of the left-eye imaging element 22A, and forms an image of incident light from the subject.
  • the right-eye optical system 21B is configured using one or a plurality of lenses, and is provided in front of the right-eye imaging device 22B.
  • the incident light from the subject has a parallax with the left-eye optical system 21A.
  • the left-eye optical system 21A and the right-eye optical system 21B may each have an optical zoom function that changes the angle of view and a focus function that changes the focus.
  • the left-eye imaging element 22A captures an optical image formed by the left-eye optical system 21A and generates left-eye image data (first image data).
  • the left-eye image pickup device 22A is a CMOS image pickup device or a CCD image pickup device, receives light from a subject irradiated with light on a light receiving surface, and photoelectrically converts the received light to generate a plurality of image data. Pixels are arranged in a matrix.
  • the right-eye imaging element 22B captures an optical image formed by the right-eye optical system 21B and generates right-eye image data (second image data).
  • the right-eye image pickup device 22B is a CMOS image pickup device or a CCD image pickup device, receives light from a subject irradiated with light on a light receiving surface, and photoelectrically converts the received light to generate image data. Pixels are arranged in a matrix.
  • the left-eye signal processing unit 23A performs an analog processing unit that performs noise removal processing and clamping processing on the left-eye image data (analog) output from the left-eye imaging element 22A, and A / D that performs A / D conversion processing. It has a D converter and outputs left eye image data (digital) to the light source integrated processor 3. There is also a configuration in which the left eye signal processing unit 23A is provided on the light source integrated processor 3 side.
  • the right-eye signal processing unit 23B performs an analog processing unit that performs noise removal processing and clamping processing on the right-eye image data (analog) output from the right-eye imaging element 22B, and A / D that performs A / D conversion processing. It has a D converter and outputs right eye image data (digital) to the light source integrated processor 3. There is also a configuration in which the right eye signal processing unit 23B is provided on the light source integrated processor 3 side.
  • the memory 24 records identification information indicating the type of the endoscope 2, the model number, the type of the left eye image sensor 22 ⁇ / b> A, the type of the right eye image sensor 22 ⁇ / b> B, and the like.
  • the memory 24 stores field angle correction data for correcting a difference in field angle between the left-eye optical system 21A and the right-eye optical system 21B.
  • the angle-of-view correction data is data corresponding to each endoscope 2.
  • the angle-of-view correction data includes the angle of view of the left eye image of the left eye image (first image) corresponding to the left eye image data and the right eye image (second image) corresponding to the right eye image data.
  • the field angle correction data includes a magnification ⁇ (first magnification) of the field angle of the right eye image with respect to the field angle of the left eye image.
  • the memory 24 stores position data indicating the position of the reference area (extraction reference area) indicating the reference size of the extraction area from each image in the light source integrated processor 3.
  • the position data is first position data indicating the position of the reference area in the left eye image and second position data indicating the position of the reference area in the right eye image.
  • the memory 24 may record various parameters for image processing for image data captured by the left-eye image sensor 22A and the right-eye image sensor 22B, such as white balance (WB) adjustment parameters.
  • WB white balance
  • Various types of information recorded in the memory 24 are stored in the same light source via an electric cable (not shown) through communication processing with the light source integrated processor 3 when the endoscope 2 is attached to the light source integrated processor 3.
  • the data is output to the correction data acquisition unit 311 of the body processor 3.
  • the illumination lens 25 is located at the tip of a light guide cable extending from the connector.
  • light emitted from the light source unit 6 of the light source integrated processor 3, which will be described later, passes through the light guide cable and the distal end of the endoscope 2.
  • the subject is illuminated from the illumination lens 25.
  • the light source integrated processor 3 is detachably mounted with an endoscope 2, performs predetermined image processing on left eye image data and right eye image data transmitted from the mounted endoscope 2, and generates a stereoscopic image. Is generated.
  • the light source integrated processor 3 causes the display device 4 to display and output the generated stereoscopic image.
  • the light source integrated processor 3 includes a control unit 31, a storage unit 32 (second storage unit), a left and right image conversion unit 33, a first image processing unit 34, a correction unit 35, a second image processing unit 36, an OSD (on-screen). Display) generating unit 37, combining unit 38, display control unit 39, and light source unit 6.
  • the control unit 31 is realized using a CPU or the like.
  • the control unit 31 controls the processing operation of each part of the light source integrated processor 3 by transferring instruction information and data to each component of the light source integrated processor 3.
  • the control unit 31 controls the left-eye image sensor 22 ⁇ / b> A, the right-eye image sensor 22 ⁇ / b> B, and the left-eye signal of the endoscope 2 via each cable. These are connected to the processing unit 23A and the right-eye signal processing unit 23B, respectively, and control thereof is also performed.
  • the control unit 31 includes a correction data acquisition unit 311 and a parameter generation unit 312.
  • the correction data acquisition unit 311 acquires the angle of view correction data from the memory 24 of the endoscope 2 that is actually attached to the light source integrated processor 3.
  • the correction data acquisition unit 311 instructs the correction unit 35 to match the angle of view and size of the right eye image with the angle of view and size of the left eye image, and the right of the endoscope 2.
  • the magnification ⁇ of the angle of view of the eye image with respect to the angle of view of the left eye image, first position data indicating the position of the reference region in the left eye image, and second position data indicating the position of the reference region in the right eye image Are obtained from the memory 24.
  • the correction data acquisition unit 311 acquires identification information indicating the type of the endoscope 2 from the memory 24 of the endoscope 2, and sets the type of the endoscope 2 indicated by the acquired identification information and the standard of the display device 4.
  • the corresponding magnification ⁇ (second magnification) is acquired from the storage unit 32 described later.
  • the magnification ⁇ is an enlargement / reduction magnification with respect to an image to be enlarged / reduced and set in advance according to the type of the endoscope 2 and the standard of the display device 4.
  • the magnification ⁇ is used in the process of enlarging or reducing the input image in order to generate an image having a size that matches the size of the image displayed on the display device 4. In the embodiment, the following description will be made assuming that the magnification ⁇ is the enlargement / reduction magnification for the left-eye image and the enlargement / reduction magnification for the right-eye image is also ⁇ .
  • the parameter generation unit 312 uses the first extraction region extracted from the left eye image in the enlargement / reduction process executed by the enlargement / reduction unit 352 described later based on the magnification ⁇ acquired by the correction data acquisition unit 311.
  • the first enlargement / reduction ratio to be generated is generated.
  • the parameter generation unit 312 applies the second extraction region extracted from the right eye image in the enlargement / reduction process executed by the enlargement / reduction unit 352 based on the magnification ⁇ and the magnification ⁇ acquired by the correction data acquisition unit 311. To generate a second scaling factor to be used.
  • the storage unit 32 is realized by using a volatile memory or a nonvolatile memory, and stores various programs for operating the light source integrated processor 3.
  • the storage unit 32 temporarily records information being processed by the light source integrated processor 3.
  • the storage unit 32 stores information indicating a reference area indicating a reference size of an extraction area from each image.
  • the storage unit 32 stores enlargement / reduction magnification data 321 in which the magnification ⁇ is associated with the type of the endoscope 2 and the standard of the display device 4.
  • the storage unit 32 stores various types of information such as left-eye image data, right-eye image data, and identification information output from the endoscope 2.
  • the storage unit 32 may be configured using a memory card or the like mounted from the outside of the light source integrated processor 3.
  • the left-right image conversion unit 33 is, for example, Side-by-Side based on the left-eye image data input from the left-eye signal processing unit 23A and the right-eye image data input from the right-eye signal processing unit 23B. Using the method, the left eye image corresponding to the left eye image data and the right eye image corresponding to the right eye image data are arranged side by side and converted into one piece of image data. The left-right image conversion unit 33 converts the left-eye image data input from the left-eye signal processing unit 23A and the right-eye image data input from the right-eye signal processing unit 23B into the first image processing unit 34 at the subsequent stage. To a format suitable for image processing.
  • the first image processing unit 34 performs optical black (OB) subtraction processing, demosaicing processing, white balance (WB) adjustment processing, and the like on the image data input from the left-right image conversion unit 33.
  • OB optical black
  • WB white balance
  • the correction unit 35 determines the angle of view of the left eye image corresponding to the left eye image data and the angle of view of the right eye image corresponding to the right eye image data based on the angle of view correction data acquired by the correction data acquisition unit 311. At the same time, at least one of the left eye image data and the right eye image data is corrected so that the size of the left eye image matches the size of the right eye image. In the embodiment, the correction unit 35 is instructed by the instruction data so that the angle of view and the size of the right eye image coincide with the angle of view and the size of the left eye image. The following description will be made assuming that the sizes of the two images match when the sizes in the horizontal direction and the size in the vertical direction match between the two images.
  • the correction unit 35 includes a processing area setting unit 351 and an enlargement / reduction unit 352.
  • the processing region setting unit 351 sets the position of the reference region in the left eye image based on the first position data acquired by the correction data acquisition unit 311.
  • the processing region setting unit 351 sets the position of the reference region in the right eye image based on the second position data acquired by the correction data acquisition unit 311.
  • the processing region setting unit 351 sets the size of the first extraction region extracted from the left eye image based on the set reference region of the left eye image, while setting the reference region and correction data acquisition unit of the set right eye image
  • the size of the second extraction region extracted from the right eye image is set based on the magnification ⁇ acquired by 311.
  • the enlargement / reduction unit 352 extracts a first extraction area from the left eye image, and outputs an image obtained by enlarging or reducing the extracted first extraction area at the first enlargement / reduction ratio as a corrected left eye image. .
  • the enlargement / reduction unit 352 extracts a second extraction region from the right eye image, and outputs an image obtained by enlarging or reducing the extracted second extraction region with the second enlargement / reduction magnification as a corrected right eye image.
  • the first scaling factor and the second scaling factor are generated by the parameter generation unit 312.
  • the second image processing unit 36 performs image processing such as structure enhancement processing (edge enhancement processing) on the corrected right eye image and the corrected left eye image output from the correction unit 35, for stereoscopic display. Generate image data.
  • the OSD generation unit 37 generates image data such as characters and menus to be superimposed on the image data for stereoscopic display.
  • the combining unit 38 generates display image data by combining the image generated by the OSD generation unit 37 with the stereoscopic display image data output from the second image processing unit 36.
  • the display control unit 39 converts the display image data generated by the combining unit 38 into image data in a format that can be displayed and output by the display device 4, and causes the display device 4 to display the image data.
  • the display control unit 39 includes a digital signal-to-analog converter (DAC) and an encoder, converts the image data input from the synthesis unit 38 from, for example, a digital signal to an analog signal, and converts the converted analog signal.
  • the image data is changed to a format such as a high vision system and output to the display device 4.
  • the light source unit 6 includes a light source driver and a light source, and supplies illumination light to the endoscope 2 under the control of the control unit 31.
  • the light source of the light source unit 6 is composed of, for example, a white LED that emits white light.
  • the light source of the light source unit 6 uses a plurality of LEDs (for example, a red LED, a green LED, and a blue LED) that emit light in different wavelength bands, and combines the light emitted from each LED to illuminate light of a desired color tone. May be obtained.
  • the light source unit 6 may employ a frame sequential configuration that emits light of different color components in time series.
  • the light source unit 6 may use a laser light source.
  • the light source unit 6 may have a configuration including a light source such as a xenon lamp and a halogen lamp, and a light source control component that controls each member of the optical filter, the diaphragm, and the light source unit 6.
  • the display device 4 is configured using a display or the like using liquid crystal or organic EL (Electro Luminescence).
  • the display device 4 displays various information including a display image output from the light source integrated processor 3.
  • the input device 5 is realized by using an operation device such as a mouse, a keyboard, and a touch panel, receives input of various instruction data, and inputs the received various instruction data to the control unit 31 of the light source integrated processor 3.
  • the input device 5 accepts input of patient data (for example, ID, date of birth, name, etc.) related to a patient as a subject and data such as examination contents.
  • FIG. 2 is a flowchart showing a processing procedure of processing executed by the light source integrated processor 3 on the image data input from the endoscope 2.
  • the control unit 31 determines whether or not the endoscope 2 is attached to the light source integrated processor 3 (step S1). When it is determined that the endoscope 2 is not attached to the light source integrated processor 3 (step S1: No), the control unit 31 performs step S1 until it is determined that the endoscope 2 is attached to the light source integrated processor 3. Repeat the determination process.
  • step S1 determines that the endoscope 2 is attached to the light source integrated processor 3 (step S1: Yes)
  • the correction data acquisition unit 311 performs communication processing with the memory 24 of the endoscope 2. Then, identification information acquisition processing for acquiring identification information of the endoscope 2 from the memory 24 is performed (step S2).
  • the correction data acquisition unit 311 expands the storage unit 32 with the magnification ⁇ corresponding to the type of the endoscope 2 indicated by the identification information acquired in step S ⁇ b> 2 and the standard of the display device 4 connected to the light source integrated processor 3.
  • a magnification ⁇ acquisition process is performed by reading out and acquiring from the reduction magnification data 321 (step S3).
  • the correction data acquisition unit 311 performs a view angle correction data acquisition process for acquiring view angle correction data including the instruction data, the magnification ⁇ , the first position data, and the second position data from the memory 24 (step S4). Steps S2 and S4 may be parallel processing. The magnification ⁇ and the angle of view correction data acquired by the correction data acquisition unit 311 are output to the correction unit 35.
  • the parameter generation unit 312 generates a first enlargement / reduction magnification based on the magnification ⁇ acquired by the correction data acquisition unit 311, and a second enlargement based on the magnification ⁇ and the magnification ⁇ acquired by the correction data acquisition unit 311.
  • a parameter generation process for generating a reduction ratio is performed (step S5).
  • the first enlargement / reduction ratio and the second enlargement / reduction ratio generated by the parameter generation unit 312 are output to the enlargement / reduction unit 352 of the correction unit 35.
  • the control unit 31 determines whether image data is input from the endoscope 2 (step S6). If the control unit 31 determines that no image data is input from the endoscope 2 (step S6: No), the process ends.
  • the left-right image conversion unit 33 sets the left-eye image data and right-eye image data that are input image data as 1
  • the first image processing unit 34 performs first image processing such as OB subtraction processing, demosaicing processing, and WB adjustment processing (step S7).
  • the correction unit 35 matches the angle of view of the left eye image corresponding to the left eye image data and the angle of view of the right eye image corresponding to the right eye image data with respect to the image subjected to the first image processing. At the same time, a correction process for matching the size of the left eye image with the size of the right eye image is performed (step S8).
  • the left eye image and the right eye image after correction by the correction unit 35 have the same angle of view and image size.
  • the second image processing unit 36 and the synthesizing unit 38 perform image processing such as edge enhancement processing on the left eye image and the right eye image corrected by the correction unit 35 to generate image data for stereoscopic display.
  • the image processing is performed (step S9).
  • the display control unit 39 converts the image data for stereoscopic display generated in the second image processing into image data in a format that can be displayed and output by the display device 4, and performs image display control processing that causes the display device 4 to display the image data. It performs (step S10).
  • the display device 4 displays a stereoscopic image based on the left eye image and the right eye image having the same angle of view and image size. Then, it returns to step S6 and a process is continued.
  • FIG. 3 is a flowchart showing a processing procedure of the correction processing shown in FIG.
  • the processing area setting unit 351 sets the position of the reference area in the left eye image based on the first position data acquired by the correction data acquisition unit 311, while the second area A reference area position setting process is performed for setting the position of the reference area in the right eye image based on the position data (step S11).
  • the processing region setting unit 351 sets the size of the first extraction region extracted from the left eye image, while setting the size of the second extraction region extracted from the right eye image. Is performed (step S12).
  • the enlargement / reduction unit 352 extracts a first extraction area from the left eye image, and outputs an image obtained by enlarging or reducing the extracted first extraction area at the first enlargement / reduction ratio as a corrected left eye image.
  • an enlargement / reduction process is performed in which a second extraction region is extracted from the right eye image, and an image obtained by enlarging or reducing the extracted second extraction region with the second enlargement / reduction magnification is output as a corrected right eye image. It performs (step S13).
  • FIG. 4 is a diagram for explaining the reference region position setting process shown in FIG.
  • FIG. 5 is a diagram for explaining extraction area size setting processing shown in FIG.
  • FIG. 6 is a diagram for explaining the enlargement / reduction processing shown in FIG.
  • the size of the reference area is set to a square area C in which the horizontal and vertical dimensions are both n.
  • position data indicates the position P L of the upper left vertex of the reference area in the left-eye image, the second position data, the case showing the position P R of the upper left vertex of the reference area in the right eye image as an example.
  • the second position data may be a shift amount Z with respect to the upper left vertex P L of the reference area in the left eye image.
  • the processing area setting unit 351 is shifted from the position P L by Z. by arranging the region C as the upper left vertex located in the position, it may set the reference region C 2.
  • an instruction is given to match the angle of view and size of the right eye image with the angle of view and size of the left eye image.
  • a square-shaped second extraction region C2R having both (n / ⁇ ) sizes in the horizontal direction and the vertical direction is set.
  • the processing area setting unit 351, the position of the center of the reference region C 2 are in a state of being fixed respectively the reference region C 2 in the horizontal direction and the vertical direction (1 / gamma) multiplies.
  • step S13 the scaling unit 352 extracts the first extraction region C 1 from the left-eye image G 1 (see FIG. 5), right A second extraction region C 2R is extracted from the eye image G 2 (see FIG. 5).
  • step S5 the parameter generation unit 312 performs the first enlargement on the left eye image that is not the correction target.
  • the magnification ⁇ is set.
  • the parameter generation unit 312 performs the second enlargement on the right eye image to be corrected so that the size of the corrected left eye image enlarged / reduced by the magnification ⁇ matches the size of the corrected right eye image.
  • a magnification ( ⁇ ⁇ ⁇ ) obtained by multiplying the magnification ⁇ by the magnification ⁇ is set. Therefore, scaling unit 352, as indicated by an arrow Y b, enlargement or reduction of the first horizontal direction of the extraction region C 1 which is extracted from the left-eye image G 1 size and vertical size with ⁇ times respectively
  • the generated image O 1 is generated (see FIG. 6B).
  • Scaling unit 352, an arrow Y as shown in c, extracted in the horizontal direction of the second extraction region C 2R size and vertical size, respectively ( ⁇ ⁇ ⁇ ) image O 2 was enlarged or reduced at times (See FIG. 6B).
  • the left-eye image O 1 and the right-eye image O 2 are both the magnitude of the horizontal and vertical directions (n ⁇ ⁇ ), and the size of the image matches.
  • the memory 24 of each endoscope 2 is used to correct the difference in the angle of view between the left-eye optical system 21A and the right-eye optical system 21B of the endoscope 2.
  • the angle of view correction data is stored.
  • the light source integrated processor 3 reads the view angle correction data from the memory 24 of the endoscope 2, and based on the read view angle correction data, the left eye Correction processing is performed so that the angle of view of the left eye image corresponding to the image data matches the angle of view of the right eye image corresponding to the right eye image data, and the size of the left eye image and the size of the right eye image are matched. Execute.
  • the light source integrated processor 3 Even when the variation in size between images due to individual differences between the two optical systems for stereoscopic observation is different for each endoscope 2, the light source integrated processor 3 The angle of view correction data corresponding to the actually mounted endoscope 2 is read from the memory 24 of the endoscope 2 and correction processing is performed based on the read angle of view correction data. Therefore, according to the embodiment, no matter what endoscope 2 is attached to the light source integrated processor 3, the light source integrated processor 3 can display an image corresponding to the endoscope 2 to be attached. Correction can be appropriately performed.
  • FIG. 7 is a diagram for explaining the reference region position setting process shown in FIG.
  • FIG. 8 is a diagram for explaining extraction area size setting processing shown in FIG.
  • FIG. 9 is a diagram for explaining the enlargement / reduction processing shown in FIG.
  • a rectangular region D having a horizontal size of x and a vertical size of y is set as the size of the reference region.
  • Processing region setting unit 351 the size setting process of the extraction area at (step S12), the 8, for the left-eye image F 1, as a first reference area D 1 which is set at step S11 Set as the extraction area.
  • the processing region setting unit 351 performs the correction of the right eye image F 2 set in step S11 in order to perform correction for matching the angle of view of the right eye image with the angle of view of the left eye image.
  • the reference region D 2 is set as a second extraction region by a region D 2R obtained by multiplying the horizontal direction and the vertical direction by (1 / ⁇ ). Therefore, for the right eye image F 2 , there is a rectangular second extraction region D 2R whose horizontal size is (x / ⁇ ) and whose vertical size is (y / ⁇ ). Is set.
  • step S13 the scaling unit 352 extracts the first extraction region D 1 from the left-eye image F 1 (see FIG. 8), right A second extraction region D 2R is extracted from the eye image F 2 (see FIG. 8).
  • step S5 the parameter generation unit 312 sets the horizontal magnification to ⁇ 1 and the vertical magnification to ⁇ 2 as the first enlargement / reduction magnification for the left-eye image that is not the correction target. ing.
  • step S5 the parameter generation unit 312 sets a magnification obtained by multiplying the magnifications ⁇ 1 and ⁇ 2 by the magnification ⁇ as the second enlargement / reduction magnification for the right-eye image to be corrected. Specifically, the parameter generation unit 312 sets the horizontal magnification to ( ⁇ 1 ⁇ ⁇ ) and the vertical magnification to ( ⁇ 2 ⁇ ⁇ ) as the second enlargement / reduction magnification. Accordingly, image scaling unit 352, as shown by an arrow Y g, which for the first extraction region D 1, and enlarged or reduced to alpha 1-fold in the horizontal direction, and enlarged or reduced to the alpha 2-fold in the vertical direction P 1 is generated (see FIG. 9B).
  • the enlargement / reduction unit 352 enlarges or reduces the second extraction region D 2R by ( ⁇ 1 ⁇ ⁇ ) times in the horizontal direction and ( ⁇ 2 ⁇ ⁇ ) times in the vertical direction as indicated by an arrow Y h. enlarged or generates an image P 2 which is reduced to (see (b) of FIG. 9).
  • the corrected left eye image P 1 and the corrected right eye image P 2 have a horizontal size of (x ⁇ ⁇ 1 ) and a vertical size of (y ⁇ ⁇ 2 ). Therefore, the sizes of the images match.
  • CMOS image sensor the light-receiving surface of the CMOS image sensor is used for the left-eye region and the right-eye region.
  • a configuration may be adopted in which the left-eye image data and the right-eye image data are acquired by one CMOS image sensor divided into two regions.
  • control unit 31 performs the left-eye optical system 21A and the right-eye optical system. Correction processing for matching the angle of view and the size of the left and right images may be performed by controlling at least one optical zoom function of the system 21B based on the parameter generated by the parameter generation unit 312.
  • the light source integrated processor 3 in which the light source unit 6 is integrated has been described as an example.
  • the present invention can be similarly applied to a case where the processor and the light source device are separate.
  • the signal transmitted / received between the endoscope 2 and the light source integrated processor 3 is not limited to an electrical signal, and may be an optical signal obtained by converting an electrical signal.
  • an optical signal is transmitted between the endoscope 2 and the light source integrated processor 3 using an optical signal transmission path such as an optical fiber.
  • Signal transmission / reception may be performed between the endoscope 2 and the light source integrated processor 3 using not only wired communication but also wireless communication.
  • an endoscope system to which an endoscope having a flexible insertion portion is applied has been described.
  • an endoscope system to which an endoscope having a rigid insertion portion is applied may be used.
  • an endoscope functioning as an imaging device may have a light source and a control function for controlling the imaging element and the light source.
  • the light source may be a semiconductor light source provided at the distal end of the insertion portion of the endoscope.
  • an optical image in which the imaging element is provided on the proximal end side of the insertion portion and transmitted from the distal end of the insertion portion to the proximal end by an optical fiber may be configured to take an image.
  • the present invention is not limited to an endoscope provided with an image sensor at the distal end of the insertion section, and may be configured to connect an eyepiece camera head of an optical endoscope such as a fiberscope or an optical endoscope.
  • the endoscope system 1 has been described as an example.
  • the present invention is not limited to the endoscope system, and the left-eye optical system 21A, the right-eye optical system 21B, the imaging unit 20, the memory 24, and the illumination lens 25 is detachably mounted on a processing apparatus including at least a control unit 31, a storage unit 32, a left and right image conversion unit 33, a first image processing unit 34, a correction unit 35, and a second image processing unit 36. It is also possible to apply to an imaging system to be used.
  • FIG. 10 is a schematic diagram showing another schematic configuration of the imaging system according to the embodiment of the present invention.
  • the imaging system according to the present embodiment may have a configuration in which an imaging unit 20 is provided in a camera body 3A having a display device 4 and an input device 5, as shown in an imaging system 1A in FIG. .
  • an optical unit 2A including a left-eye optical system 21A, a right-eye optical system 21B, a memory 24, and an illumination lens 25 is detachably attached to the camera body 3A.
  • the correction data acquisition unit 311 of the control unit 31A reads the angle-of-view correction data corresponding to the optical unit 2A from the memory 24 of the optical unit 2A attached.
  • an execution program for each process executed by the light source integrated processor, the camera main unit, and other components according to the present embodiment is an installable format or executable format file, a CD-ROM, It may be configured to be recorded on a computer-readable recording medium such as a flexible disk, CD-R, or DVD, and stored on a computer connected to a network such as the Internet, and downloaded via the network. You may comprise so that it may provide. Further, it may be configured to be provided or distributed via a network such as the Internet.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Astronomy & Astrophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

本発明に係る内視鏡システム1は、左眼用光学系21A、右眼用光学系21B、撮像部20、画角補正データを記憶するメモリ24を有する内視鏡2と、メモリ24から画角補正データを取得する補正データ取得部311、及び、取得した画角補正データに基づいて左眼画像の画角と右眼画像の画角とを一致させるとともに、左眼画像の大きさと右眼画像の大きさとを一致させるように補正する補正部35を有する光源一体型プロセッサ3を備える。これにより、立体観察用の二つの光学系を有する光学ユニットとして、どの光学ユニットが処理装置に装着された場合であっても、装着された光学ユニットに対応した画像補正を適切に実行することができる撮像システムを提供する。

Description

撮像システム、処理装置、処理方法及び処理プログラム
 本発明は、撮像システム、処理装置、処理方法及び処理プログラムに関する。
 近年、デジタルカメラとして、両眼に相当する二つの撮像素子と各撮像素子に対応する二つの光学系を設けて被写体を撮像し、撮像された左右の二つの画像データから立体画像を得るように構成された一体型の立体カメラが提案されている(例えば、特許文献1参照)。このような立体カメラは、搭載している二つの光学系の個体差に対応した補正パラメータを保持し、この補正パラメータを用いて、二つの光学系の個体差に起因する左眼画像データ及び右目画像データの大きさの不一致を、立体カメラ内部で補正する機能を備えている。
 ところで、医療分野等において使用される内視鏡と処理装置(プロセッサ)とが着脱可能である内視鏡システムにおいても、診断や検査の円滑化のために、観察対象を立体画像で観察したいという要求がある。この要求にこたえるための技術として、立体観察用の二つの光学系を有する光学ユニットと、各光学ユニットに対応する二つの撮像素子とを設けた内視鏡が知られている。この内視鏡が装着されたプロセッサは、装着された内視鏡から左右の画像データを受信し、この二つの画像データから立体画像を生成する。
特開2006-162991号公報
 内視鏡には個体差があり、装着された内視鏡によって、内視鏡の二つの光学系の個体差に起因する画像間の大きさのバラツキが異なるため、プロセッサは、装着される内視鏡に適した画像補正を行うことができなかった。
 本発明は、上記に鑑みてなされたものであって、立体観察用の二つの光学系を有する光学ユニットとして、どの光学ユニットが処理装置に装着された場合であっても、装着された光学ユニットに対応した画像補正を適切に実行することができる撮像システム、処理装置、処理方法及び処理プログラムを提供することを目的とする。
 上述した課題を解決し、目的を達成するために、本発明にかかる撮像システムは、光学ユニットと、前記光学ユニットが着脱自在に装着される構成を有する処理装置と、前記光学ユニットと前記処理装置とのいずれかに配置されてなる撮像装置と、を備えた撮像システムであって、前記光学ユニットは、被写体からの入射光を結像する第1の光学系と、前記被写体からの入射光を、前記第1の光学系とは視差を有して結像する第2の光学系と、前記第1の光学系と前記第2の光学系との画角の相違を補正するための画角補正データを記憶する第1の記憶部と、を備え、前記撮像装置は、前記第1の光学系で結像された光学像を撮像して第1の画像データを生成する第1の撮像部と、前記第2の光学系で結像された光学像を撮像して第2の画像データを生成する第2の撮像部と、を備え、前記処理装置は、前記第1の記憶部から前記画角補正データを取得するデータ取得部と、前記データ取得部が取得した画角補正データに基づいて、前記第1の画像データに対応する第1の画像の画角と前記第2の画像データに対応する第2の画像の画角とを一致させるとともに、前記第1の画像の大きさと前記第2の画像の大きさとを一致させるように、前記第1の画像データ及び前記第2の画像データの少なくともいずれか一方を補正する補正部と、を備えたことを特徴とする。
 また、本発明にかかる撮像システムは、前記画角補正データは、前記第1の画像の画角及び大きさに対して前記第2の画像の画角及び大きさを一致させるように前記補正部に指示する指示データと、前記第2の画像の画角の前記第1の画像の画角に対する第1の倍率と、を少なくとも含むことを特徴とする。
 また、本発明にかかる撮像システムは、前記処理装置は、該処理装置によって処理された画像を表示出力する表示部と、前記光学ユニットの種別及び前記表示部の規格に応じて予め設定された拡大縮小倍率である第2の倍率を基に前記補正部で使用される第1の拡大縮小倍率を生成し、前記データ取得部が取得した前記第1の倍率と前記第2の倍率とを基に前記補正部で使用される第2の拡大縮小倍率を生成するパラメータ生成部と、をさらに備え、前記補正部は、各画像からの抽出基準領域に基づいて前記第1の画像から抽出する第1の抽出領域の大きさを設定する一方、前記抽出基準領域及び前記データ取得部が取得した前記第1の倍率に基づいて前記第2の画像から抽出する第2の抽出領域の大きさを設定する領域設定部と、前記第1の画像から前記第1の抽出領域を抽出し、該抽出した前記第1の抽出領域を前記第1の拡大縮小倍率で拡大あるいは縮小した画像を補正後の第1の画像として出力する一方、前記第2の画像から前記第2の抽出領域を抽出し、該抽出した前記第2の抽出領域を前記第2の拡大縮小倍率で拡大あるいは縮小した画像を補正後の第2の画像として出力する拡大縮小部と、を備えたことを特徴とする。
 また、本発明にかかる撮像システムは、前記処理装置は、前記第2の倍率を前記光学ユニットの種別及び前記表示部の規格にそれぞれ対応付けて記憶する第2の記憶部をさらに備え、前記第1の記憶部は、前記光学ユニットの種別を示す識別情報を記憶し、前記データ取得部は、前記第1の記憶部から前記光学ユニットの識別情報を取得し、該取得した識別情報が示す前記光学ユニットの種別及び前記表示部の規格に応じた前記第2の倍率を前記第2の記憶部から取得し、前記パラメータ生成部は、前記データ取得部が取得した前記第1の倍率及び前記第2の倍率を基に前記第1の拡大縮小倍率と前記第2の拡大縮小倍率とを生成することを特徴とする。
 また、本発明にかかる撮像システムは、前記画角補正データは、前記第1の画像における前記抽出基準領域の位置を示す第1の位置データと、前記第2の画像における前記抽出基準領域の位置を示す第2の位置データとを含み、前記領域設定部は、前記データ取得部が取得した前記第1の位置データを基に前記第1の画像における前記抽出基準領域の位置を設定し、前記データ取得部が取得した前記第2の位置データを基に前記第2の画像における前記抽出基準領域の位置を設定することを特徴とする。
 また、本発明にかかる撮像システムは、前記第1の光学系及び前記第2の光学系は、それぞれの画角を変化させる光学ズーム機能を有し、前記補正部は、前記データ取得部が取得した画角補正データに基づいて、前記第1の光学系及び前記第2の光学系の少なくともいずれか一方の前記光学ズーム機能を制御することで、前記第1の画像データに対応する第1の画像の画角と前記第2の画像データに対応する第2の画像の画角とを一致させるとともに、前記第1の画像の大きさと前記第2の画像の大きさとを一致させることを特徴とする。
 また、本発明にかかる撮像システムは、前記光学ユニット及び前記撮像装置を備えた内視鏡装置と、前記撮像装置が撮像した画像データを処理する前記処理装置とを有することを特徴とする。
 また、本発明にかかる処理装置は、被写体からの入射光を結像する第1の光学系と、前記被写体からの入射光を、前記第1の光学系とは視差を有して結像する第2の光学系と、前記第1の光学系と前記第2の光学系との画角の相違を補正するための画角補正データを記憶する第1の記憶部とを有する光学ユニットが着脱自在に装着され、前記光学ユニットと当該処理装置とのいずれかに配置されており、前記第1の光学系で結像された光学像を撮像して第1の画像データを生成する第1の撮像部と前記第2の光学系で結像された光学像を撮像して第2の画像データを生成する第2の撮像部とを有する撮像装置から出力された画像データを処理する処理装置であって、当該処理装置に装着された前記光学ユニットの前記第1の記憶部から前記画角補正データを取得するデータ取得部と、前記データ取得部が取得した画角補正データに基づいて、前記第1の画像データに対応する第1の画像の画角と前記第2の画像データに対応する第2の画像の画角とを一致させるとともに、前記第1の画像の大きさと前記第2の画像の大きさとを一致させるように、前記第1の画像データ及び前記第2の画像データの少なくともいずれか一方を補正する補正部と、を備えたことを特徴とする。
 また、本発明にかかる処理方法は、被写体からの入射光を結像する第1の光学系と、前記被写体からの入射光を、前記第1の光学系とは視差を有して結像する第2の光学系とを有する光学ユニットが着脱自在に装着され、前記第1の光学系で結像された光学像を撮像して第1の画像データを生成する第1の撮像部及び前記第2の光学系で結像された光学像を撮像して第2の画像データを生成する第2の撮像部から出力された画像データを処理する処理装置が実行する処理方法であって、前記処理装置に装着された前記光学ユニットが有する第1の記憶部から、前記第1の光学系と前記第2の光学系との画角の相違を補正するための画角補正データを取得するデータ取得処理と、前記データ取得処理において取得した画角補正データに基づいて、前記第1の画像データに対応する第1の画像の画角と前記第2の画像データに対応する第2の画像の画角とを一致させるとともに、前記第1の画像の大きさと前記第2の画像の大きさとを一致させるように、前記第1の画像データ及び前記第2の画像データの少なくともいずれか一方を補正する補正処理と、を含むことを特徴とする。
 また、本発明にかかる処理プログラムは、被写体からの入射光を結像する第1の光学系と、前記被写体からの入射光を、前記第1の光学系とは視差を有して結像する第2の光学系とを有する光学ユニットが着脱自在に装着され、前記第1の光学系で結像された光学像を撮像して第1の画像データを生成する第1の撮像部及び前記第2の光学系で結像された光学像を撮像して第2の画像データを生成する第2の撮像部から出力された画像データを処理する処理装置に、前記処理装置に装着された前記光学ユニットが有する第1の記憶部から、前記第1の光学系と前記第2の光学系との画角の相違を補正するための画角補正データを取得するデータ取得手順と、前記データ取得手順において取得した画角補正データに基づいて、前記第1の画像データに対応する第1の画像の画角と前記第2の画像データに対応する第2の画像の画角とを一致させるとともに、前記第1の画像の大きさと前記第2の画像の大きさとを一致させるように、前記第1の画像データ及び前記第2の画像データの少なくともいずれか一方を補正する補正手順と、を実行させることを特徴とする。
 本発明によれば、立体観察用の二つの光学系を有する光学ユニットとして、どの光学ユニットが処理装置に装着された場合であっても、装着された光学ユニットに対応した画像補正を適切に実行することができる。
図1は、本発明の実施の形態における内視鏡システムの概略構成を示す模式図である。 図2は、図1に示す光源一体型プロセッサが内視鏡から入力された画像データに対して実行する処理の処理手順を示すフローチャートである。 図3は、図2に示す補正処理の処理手順を示すフローチャートである。 図4は、図3に示す基準領域位置設定処理を説明するための図である。 図5は、図3に示す抽出領域の大きさ設定処理を説明する図である。 図6は、図3に示す拡大縮小処理を説明するための図である。 図7は、図3に示す基準領域位置設定処理を説明するための図である。 図8は、図3に示す抽出領域の大きさ設定処理を説明する図である。 図9は、図3に示す拡大縮小処理を説明するための図である。 図10は、本発明の実施の形態における撮像システムの他の概略構成を示す模式図である。
 以下の説明では、本発明を実施するための形態(以下、「実施の形態」という)として、医療用の内視鏡システムについて説明する。また、この実施の形態により、この発明が限定されるものではない。さらに、図面の記載において、同一部分には同一の符号を付している。
(実施の形態)
 図1は、本発明の実施の形態における内視鏡システムの概略構成を示す模式図である。図1に示すように、本実施の形態にかかる内視鏡システム1は、被検体内導入用の内視鏡2、コネクタ(不図示)を介して装着された内視鏡2(撮像装置)から送信される撮像信号に対して所定の画像処理を施す光源一体型プロセッサ3(処理装置)、内視鏡2による撮像信号に対応した立体映像を表示する表示装置4(表示部)、及び、各種指示情報の入力を受け付けて光源一体型プロセッサ3に指示情報を入力する入力装置5を備える。光源一体型プロセッサ3は、コネクタを介して、内視鏡2が着脱自在に装着される構成を有する。光源一体型プロセッサ3は、内部に光源部6を有するプロセッサである。
 内視鏡2は、被検体内に挿入される可撓性の挿入部を有し、挿入部の先端部に設けられた撮像部20によって、被検体の体内を撮像した被検体内の画像データが生成される。内視鏡2は、先端部に、左眼用光学系21A(第1の光学系)、右眼用光学系21B(第2の光学系)、左眼用撮像素子22A(第1の撮像部)と右眼用撮像素子22B(第2の撮像部)と左眼用信号処理部23Aと右眼用信号処理部23Bとを備えた撮像部20、メモリ24(第1の記憶部)及び照明レンズ25を有する。内視鏡2は、先端から基端のコネクタ(不図示)まで延伸する照明ファイバ(ライトガイドケーブル)及び電気ケーブル(不図示)を有する。また、内視鏡2は、各種操作スイッチが設けられた操作スイッチ部(不図示)を有する。
 左眼用光学系21Aは、一または複数のレンズを用いて構成され、左眼用撮像素子22Aの前段に設けられ、被写体からの入射光を結像する。
 右眼用光学系21Bは、一または複数のレンズを用いて構成され、右眼用撮像素子22Bの前段に設けられ、被写体からの入射光を、左眼用光学系21Aとは視差を有して結像する。なお、左眼用光学系21A及び右眼用光学系21Bは、それぞれが画角を変化させる光学ズーム機能及び焦点を変化させるフォーカス機能を有していてもよい。
 左眼用撮像素子22Aは、左眼用光学系21Aで結像された光学像を撮像して左眼画像データ(第1の画像データ)を生成する。左眼用撮像素子22Aは、CMOS撮像素子やCCD撮像素子であり、受光面に、光が照射された被写体からの光を受光し、受光した光を光電変換して画像データを生成する複数の画素が行列状に配置される。
 右眼用撮像素子22Bは、右眼用光学系21Bで結像された光学像を撮像して右眼画像データ(第2の画像データ)を生成する。右眼用撮像素子22Bは、CMOS撮像素子やCCD撮像素子であり、受光面に、光が照射された被写体からの光を受光し、受光した光を光電変換して画像データを生成する複数の画素が行列状に配置される。
 左眼用信号処理部23Aは、左眼用撮像素子22Aから出力された左眼画像データ(アナログ)に対してノイズ除去処理やクランプ処理を行うアナログ処理部及びA/D変換処理を行うA/D変換部を有し、左眼画像データ(デジタル)を、光源一体型プロセッサ3に出力する。なお、光源一体型プロセッサ3側に左眼用信号処理部23Aが設けられる構成もある。
 右眼用信号処理部23Bは、右眼用撮像素子22Bから出力された右眼画像データ(アナログ)に対してノイズ除去処理やクランプ処理を行うアナログ処理部及びA/D変換処理を行うA/D変換部を有し、右眼画像データ(デジタル)を、光源一体型プロセッサ3に出力する。なお、光源一体型プロセッサ3側に右眼用信号処理部23Bが設けられる構成もある。
 メモリ24は、内視鏡2の種別、型番、左眼用撮像素子22A、右眼用撮像素子22Bの種別等を示す識別情報を記録する。メモリ24は、左眼用光学系21Aと右眼用光学系21Bとの画角の相違を補正するための画角補正データを記憶する。画角補正データは、各内視鏡2に応じたデータである。画角補正データは、左眼画像データに対応する左眼画像(第1の画像)と右眼画像データに対応する右眼画像(第2の画像)とのうち、左眼画像の画角及び大きさに対して右眼画像の画角及び大きさを一致させるように補正部35に指示する指示データを含む。画角補正データは、右眼画像の画角の左眼画像の画角に対する倍率γ(第1の倍率)を含む。メモリ24は、光源一体型プロセッサ3における各画像からの抽出領域の基準の大きさを示す基準領域(抽出基準領域)の位置を示す位置データを記憶する。位置データは、左眼画像における基準領域の位置を示す第1の位置データと、右眼画像における基準領域の位置を示す第2の位置データとである。なお、メモリ24は、ホワイトバランス(WB)調整用のパラメータ等、左眼用撮像素子22A及び右眼用撮像素子22Bが撮像した画像データに対する画像処理用の各種パラメータを記録していてもよい。メモリ24が記録する各種情報は、内視鏡2が光源一体型プロセッサ3に装着された場合に光源一体型プロセッサ3との間の通信処理によって、電気ケーブル(不図示)を介して、光源一体型プロセッサ3の補正データ取得部311に出力される。
 照明レンズ25は、コネクタから延伸するライトガイドケーブルの先端に位置する。内視鏡2が光源一体型プロセッサ3に装着されている場合には、後述する光源一体型プロセッサ3の光源部6から発せられた光は、ライトガイドケーブルを経由して、内視鏡2先端の照明レンズ25から被写体に照明される。
 光源一体型プロセッサ3は、着脱自在に内視鏡2が装着され、装着された内視鏡2から送信される左眼画像データ及び右眼画像データに対して所定の画像処理を施し、立体画像を生成する。光源一体型プロセッサ3は、生成した立体画像を表示装置4に表示出力させる。
 光源一体型プロセッサ3は、制御部31、記憶部32(第2の記憶部)、左右画像変換部33、第1画像処理部34、補正部35、第2画像処理部36、OSD(オンスクリーンディスプレイ)生成部37、合成部38、表示制御部39及び光源部6を有する。
 制御部31は、CPU等を用いて実現される。制御部31は、光源一体型プロセッサ3の各構成に対する指示情報やデータの転送等を行うことによって、光源一体型プロセッサ3の各部位の処理動作を制御する。光源一体型プロセッサ3に内視鏡2が装着されている場合、制御部31は、各ケーブルを介して内視鏡2の左眼用撮像素子22A、右眼用撮像素子22B、左眼用信号処理部23A及び右眼用信号処理部23Bにそれぞれ接続し、これらの制御も行う。制御部31は、補正データ取得部311及びパラメータ生成部312を有する。
 補正データ取得部311は、この光源一体型プロセッサ3に実際に装着された内視鏡2のメモリ24から画角補正データを取得する。補正データ取得部311は、左眼画像の画角及び大きさに対して右眼画像の画角及び大きさを一致させるように補正部35に指示する指示データと、この内視鏡2の右眼画像の画角の左眼画像の画角に対する倍率γと、左眼画像における基準領域の位置を示す第1の位置データと、右眼画像における基準領域の位置を示す第2の位置データと、をメモリ24から取得する。補正データ取得部311は、内視鏡2のメモリ24から該内視鏡2の種別を示す識別情報を取得し、該取得した識別情報が示す内視鏡2の種別及び表示装置4の規格に応じた倍率α(第2の倍率)を、後述する記憶部32から取得する。倍率αは、内視鏡2の種別及び表示装置4の規格に応じて予め設定された拡大縮小処理対象の画像に対する拡大縮小倍率である。倍率αは、表示装置4が表示する画像の大きさに合う大きさの画像を生成するために、入力された画像を拡大あるいは縮小する処理において用いられる。実施の形態では、倍率αは、左眼画像に対する拡大縮小倍率とし、右眼画像に対する拡大縮小倍率もαであるとして以降の説明を行う。
 パラメータ生成部312は、補正データ取得部311が取得した倍率γを基に、後述する拡大縮小部352が実行する拡大縮小処理において、左眼画像から抽出された第1の抽出領域に対して使用される第1の拡大縮小倍率を生成する。パラメータ生成部312は、補正データ取得部311が取得した倍率γと倍率αとを基に、拡大縮小部352が実行する拡大縮小処理において、右眼画像から抽出された第2の抽出領域に対して使用される第2の拡大縮小倍率を生成する。
 記憶部32は、揮発性メモリや不揮発性メモリを用いて実現され、光源一体型プロセッサ3を動作させるための各種プログラムを記憶する。記憶部32は、光源一体型プロセッサ3の処理中の情報を一時的に記録する。記憶部32は、各画像からの抽出領域の基準の大きさを示す基準領域を示す情報を記憶する。記憶部32は、倍率αを内視鏡2の種別及び表示装置4の規格にそれぞれ対応付けた拡大縮小倍率データ321を記憶する。記憶部32は、内視鏡2から出力された左眼画像データ、右眼画像データ、識別情報等の各種情報を記憶する。記憶部32は、光源一体型プロセッサ3の外部から装着されるメモリカード等を用いて構成されてもよい。
 左右画像変換部33は、左眼用信号処理部23Aから入力された左眼画像データと、右眼用信号処理部23Bから入力された右眼画像データとを基に、例えばSide-by-Side方式を用いて、左眼画像データに対応する左眼画像と右眼画像データに対応する右眼画像とを横に並べて1枚の画像データに変換する。左右画像変換部33は、左眼用信号処理部23Aから入力された左眼画像データと、右眼用信号処理部23Bから入力された右眼画像データとを、後段の第1画像処理部34における画像処理に適した形式に変換する。
 第1画像処理部34は、左右画像変換部33から入力された画像データに対し、オプティカルブラック(OB)減算処理、デモザイキング処理及びホワイトバランス(WB)調整処理等を行う。
 補正部35は、補正データ取得部311が取得した画角補正データに基づいて、左眼画像データに対応する左眼画像の画角と右眼画像データに対応する右眼画像の画角とを一致させるとともに、左眼画像の大きさと右眼画像の大きさとを一致させるように、左眼画像データ及び右眼画像データの少なくともいずれか一方を補正する。実施の形態では、補正部35に対して、左眼画像の画角及び大きさに対して右眼画像の画角及び大きさを一致させるように指示データで指示されている。なお、二つの画像間で水平方向の大きさ及び垂直方向の大きさがそれぞれ一致する場合に、該二つの画像の大きさが一致するものとして、以降の説明を行う。補正部35は、処理領域設定部351及び拡大縮小部352を有する。
 処理領域設定部351は、補正データ取得部311が取得した第1の位置データを基に左眼画像における基準領域の位置を設定する。処理領域設定部351は、補正データ取得部311が取得した第2の位置データを基に右眼画像における基準領域の位置を設定する。処理領域設定部351は、設定した左眼画像の基準領域に基づいて左眼画像から抽出する第1の抽出領域の大きさを設定する一方、設定した右眼画像の基準領域及び補正データ取得部311が取得した倍率γに基づいて右眼画像から抽出する第2の抽出領域の大きさを設定する。
 拡大縮小部352は、左眼画像から第1の抽出領域を抽出し、該抽出した第1の抽出領域を第1の拡大縮小倍率で拡大あるいは縮小した画像を補正後の左眼画像として出力する。拡大縮小部352は、右眼画像から第2の抽出領域を抽出し、該抽出した第2の抽出領域を第2の拡大縮小倍率で拡大あるいは縮小した画像を補正後の右眼画像として出力する。第1の拡大縮小倍率及び第2の拡大縮小倍率は、パラメータ生成部312によって生成される。
 第2画像処理部36は、補正部35が出力した補正後の右眼画像及び補正後の左眼画像に対して、構造強調処理(エッジ強調処理)等の画像処理を行い、立体表示用の画像データを生成する。
 OSD生成部37は、立体表示用の画像データに重畳するための文字やメニュー等の画像データを生成する。
 合成部38は、OSD生成部37が生成した画像を、第2画像処理部36から出力された立体表示用の画像データに合成した表示用の画像データを生成する。
 表示制御部39は、合成部38が生成した表示用の画像データを、表示装置4が表示出力可能な形式の画像データに変換し、表示装置4に表示させる。表示制御部39は、デジタル信号からアナログ信号への変換器(DAC)やエンコーダを備え、合成部38から入力された画像データを、例えば、デジタル信号からアナログ信号に変換し、変換したアナログ信号の画像データをハイビジョン方式等のフォーマットに変更して、表示装置4へ出力する。
 光源部6は、光源ドライバと光源とを有し、制御部31の制御のもと、内視鏡2に照明光を供給する。光源部6の光源は、例えば白色光を発する白色LEDで構成される。また、光源部6の光源は、それぞれ異なる波長帯域の光を発する複数のLED(例えば赤色LED、緑色LED、青色LED)を用い、各LEDが発する光を合波して所望の色調の照明光を得るものであってもよい。また、光源部6は、時系列で異なる色成分の光を出射する面順次式の構成を採用してもよい。また、光源部6は、レーザ光源を用いるものであってもよい。また、光源部6は、キセノンランプ、ハロゲンランプ等の光源と、光学フィルタ、絞り及び光源部6の各部材を制御する光源制御部品を備えた構成であってもよい。
 表示装置4は、液晶又は有機EL(Electro Luminescence)を用いた表示ディスプレイ等を用いて構成される。表示装置4は、光源一体型プロセッサ3から出力された表示用画像を含む各種情報を表示する。
 入力装置5は、マウス、キーボード及びタッチパネル等の操作デバイスを用いて実現され、各種指示データの入力を受け付け、受け付けた各種指示データを光源一体型プロセッサ3の制御部31に入力する。入力装置5は、被検体である患者に関する患者データ(たとえばID、生年月日、名前等)、及び、検査内容等のデータの入力を受け付ける。
 図2は、光源一体型プロセッサ3が内視鏡2から入力された画像データに対して実行する処理の処理手順を示すフローチャートである。
 図2に示すように、光源一体型プロセッサ3では、制御部31が、内視鏡2が光源一体型プロセッサ3に装着されたか否かを判断する(ステップS1)。制御部31は、内視鏡2が光源一体型プロセッサ3に装着されていないと判断した場合(ステップS1:No)、内視鏡2が光源一体型プロセッサ3に装着されたと判断するまでステップS1の判断処理を繰り返す。
 内視鏡2が光源一体型プロセッサ3に装着されたと制御部31が判断した場合(ステップS1:Yes)、補正データ取得部311は、内視鏡2のメモリ24との間で通信処理を行い、メモリ24から内視鏡2の識別情報を取得する識別情報取得処理を行う(ステップS2)。
 補正データ取得部311は、ステップS2において取得した識別情報が示す内視鏡2の種別、及び、光源一体型プロセッサ3に接続する表示装置4の規格に応じた倍率αを、記憶部32の拡大縮小倍率データ321から読み出して取得する倍率α取得処理を行う(ステップS3)。
 補正データ取得部311は、メモリ24から、指示データ、倍率γ、第1の位置データ及び第2の位置データを含む画角補正データを取得する画角補正データ取得処理を行う(ステップS4)。ステップS2及びステップS4は、並列処理であってもよい。補正データ取得部311が取得した倍率α及び画角補正データは、補正部35に出力される。
 パラメータ生成部312は、補正データ取得部311が取得した倍率γを基に第1の拡大縮小倍率を生成し、補正データ取得部311が取得した倍率γと倍率αとを基に第2の拡大縮小倍率を生成するパラメータ生成処理を行う(ステップS5)。パラメータ生成部312が生成した第1の拡大縮小倍率及び第2の拡大縮小倍率は、補正部35の拡大縮小部352に出力される。
 制御部31は、内視鏡2から画像データが入力されたか否かを判断する(ステップS6)。制御部31は、内視鏡2から画像データが入力されていないと判断した場合(ステップS6:No)、処理を終了する。
 内視鏡2から画像データが入力されたと制御部31が判断した場合(ステップS6:Yes)、左右画像変換部33が、入力された画像データである左眼画像データ及び右眼画像データを1枚の画像データに変換後、第1画像処理部34がOB減算処理、デモザイキング処理及びWB調整処理等の第1の画像処理を行う(ステップS7)。
 補正部35は、第1の画像処理が行なわれた画像に対して、左眼画像データに対応する左眼画像の画角と右眼画像データに対応する右眼画像の画角とを一致させるとともに、左眼画像の大きさと右眼画像の大きさとを一致させる補正処理を行う(ステップS8)。補正部35における補正後の左眼画像及び右眼画像は、画角及び画像の大きさが一致したものとなる。
 第2画像処理部36及び合成部38は、補正部35における補正後の左眼画像及び右眼画像に対し、エッジ強調処理等の画像処理を行って立体表示用の画像データを生成する第2の画像処理を行う(ステップS9)。表示制御部39は、第2の画像処理において生成された立体表示用の画像データを、表示装置4が表示出力可能な形式の画像データに変換し、表示装置4に表示させる画像表示制御処理を行う(ステップS10)。これによって、表示装置4には、画角及び画像の大きさが一致した左眼画像及び右眼画像に基づく立体画像が表示される。その後、ステップS6に戻り、処理が継続される。
 図3は、図2に示す補正処理の処理手順を示すフローチャートである。図3に示すように、補正処理において、処理領域設定部351は、補正データ取得部311が取得した第1の位置データを基に左眼画像における基準領域の位置を設定する一方、第2の位置データを基に右眼画像における基準領域の位置を設定する基準領域位置設定処理を行う(ステップS11)。
 処理領域設定部351は、左眼画像から抽出する第1の抽出領域の大きさを設定する一方、右眼画像から抽出する第2の抽出領域の大きさを設定する抽出領域の大きさ設定処理を行う(ステップS12)。
 拡大縮小部352は、左眼画像から第1の抽出領域を抽出し、該抽出した第1の抽出領域を第1の拡大縮小倍率で拡大あるいは縮小した画像を補正後の左眼画像として出力する一方、右眼画像から第2の抽出領域を抽出し、該抽出した第2の抽出領域を第2の拡大縮小倍率で拡大あるいは縮小した画像を補正後の右眼画像として出力する拡大縮小処理を行う(ステップS13)。
 図4~図6を参照して、図3に示す各処理を説明する。図4は、図3に示す基準領域位置設定処理を説明するための図である。図5は、図3に示す抽出領域の大きさ設定処理を説明する図である。図6は、図3に示す拡大縮小処理を説明するための図である。
 たとえば、図4の(a)のように、基準領域の大きさとして、水平方向及び垂直方向の大きさがともにnである正方形状の領域Cが設定されている場合であって、第1の位置データが、左眼画像における基準領域の左上頂点の位置Pを示し、第2の位置データが、右眼画像における基準領域の左上頂点の位置Pを示す場合を例に説明する。処理領域設定部351は、基準領域位置設定処理(ステップS11)において、図4の(b)に示すように、左眼画像Gにおける基準領域として、第1の位置データが示す位置Pに左上頂点が位置するように領域Cを配置した領域Cを設定する。処理領域設定部351は、図4の(b)に示すように、右眼画像Gにおける基準領域として、第2の位置データが示す位置Pに左上頂点が位置するように領域Cを配置した領域Cを設定する。なお、第2の位置データは、左眼画像における基準領域の左上頂点Pに対するずれ量Zであってもよく、その場合には、処理領域設定部351は、位置PからZ分ずらした位置に左上頂点が位置するように領域Cを配置させて、基準領域Cを設定してもよい。
 実施の形態では、左眼画像の画角及び大きさに対して右眼画像の画角及び大きさを一致させるように指示されている。処理領域設定部351は、抽出領域の大きさ設定処理(ステップS12)において、図5に示すように、左眼画像Gに対しては、ステップS11において設定した基準領域Cをそのまま第1の抽出領域として設定する。処理領域設定部351は、右眼画像Gに対しては、右眼画像の画角を左眼画像の画角と一致させる補正を行うために、ステップS11において設定した右眼画像Gの基準領域Cを、矢印Yのように、水平方向及び垂直方向をそれぞれ(1/γ)倍した領域C2Rを第2の抽出領域として設定する。したがって、水平方向及び垂直方向の大きさがともに(n/γ)である正方形状の第2の抽出領域C2Rが設定される。なお、処理領域設定部351は、基準領域Cの中心の位置は固定させた状態で、基準領域Cを水平方向及び垂直方向にそれぞれ(1/γ)倍する。
 拡大縮小処理(ステップS13)においては、図6の(a)に示すように、拡大縮小部352は、左眼画像G(図5参照)から第1の抽出領域Cを抽出し、右眼画像G(図5参照)から第2の抽出領域C2Rを抽出する。図4の(a)に示すように基準領域の大きさとして正方形状の領域Cが設定されている場合、ステップS5において、パラメータ生成部312は、補正対象ではない左眼画像に対する第1の拡大縮小倍率については倍率αを設定する。パラメータ生成部312は、倍率αで拡大縮小された補正後の左眼画像の大きさと、補正後の右眼画像の大きさとが一致するように、補正対象となる右眼画像に対する第2の拡大縮小倍率として、倍率αを倍率γで乗じた倍率(α×γ)に設定する。したがって、拡大縮小部352は、矢印Yのように、左眼画像Gから抽出した第1の抽出領域Cの水平方向の大きさ及び垂直方向の大きさをそれぞれα倍で拡大あるいは縮小した画像Oを生成する(図6の(b)参照)。拡大縮小部352は、矢印Yのように、抽出した第2の抽出領域C2Rの水平方向の大きさ及び垂直方向の大きさをそれぞれ(α×γ)倍で拡大あるいは縮小した画像Oを生成する(図6の(b)参照)。この結果、左眼画像O及び右眼画像Oは、水平方向及び垂直方向の大きさがともに(n×α)となり、画像の大きさが一致する。
 このように、本実施の形態では、それぞれの内視鏡2のメモリ24に、内視鏡2の左眼用光学系21Aと右眼用光学系21Bとの画角の相違を補正するための画角補正データを記憶させている。光源一体型プロセッサ3に内視鏡2が装着されると、光源一体型プロセッサ3は、内視鏡2のメモリ24から画角補正データを読み出し、読み出した画角補正データに基づいて、左眼画像データに対応する左眼画像の画角と右眼画像データに対応する右眼画像の画角とを一致させるとともに、左眼画像の大きさと右眼画像の大きさとを一致させるように補正処理を実行する。言い換えると、実施の形態では、立体観察用の二つの光学系の個体差に起因する画像間の大きさのバラツキが内視鏡2ごとに異なる場合であっても、光源一体型プロセッサ3は、実際に装着された内視鏡2に対応する画角補正データを内視鏡2のメモリ24から読み出し、読み出した画角補正データに基づいて補正処理を行っている。したがって、実施の形態によれば、どのような内視鏡2が光源一体型プロセッサ3に装着された場合であっても、光源一体型プロセッサ3は、装着される内視鏡2に対応した画像補正を適切に実行することができる。
 なお、基準領域の大きさとして、水平方向及び垂直方向の大きさが異なる長方形状の領域が設定されている場合には、第1の倍率として、水平方向については倍率αが設定されており、垂直方向については倍率αが設定されている場合がある。この場合の補正処理について説明する。図7は、図3に示す基準領域位置設定処理を説明するための図である。図8は、図3に示す抽出領域の大きさ設定処理を説明する図である。図9は、図3に示す拡大縮小処理を説明するための図である。
 たとえば、図7の(a)のように、基準領域の大きさとして、水平方向の大きさがxであり、垂直方向の大きさがyである長方形状の領域Dが設定されている。処理領域設定部351は、基準領域位置設定処理(ステップS11)において、図7の(b)に示すように、左眼画像Fにおける基準領域として、位置Pに左上頂点が位置するように領域Dを配置した領域Dを設定し、右眼画像Fにおける基準領域として、位置Pに左上頂点が位置するように領域Dを配置した領域Dを設定する。
 処理領域設定部351は、抽出領域の大きさ設定処理(ステップS12)において、図8に示すように、左眼画像Fに対しては、ステップS11において設定した基準領域Dをそのまま第1の抽出領域として設定する。処理領域設定部351は、右眼画像Fに対しては、右眼画像の画角を左眼画像の画角と一致させる補正を行うために、ステップS11において設定した右眼画像Fの基準領域Dを、矢印Y,Yのように、水平方向及び垂直方向をそれぞれ(1/γ)倍した領域D2Rを第2の抽出領域として設定する。したがって、右眼画像Fに対しては、水平方向の大きさが(x/γ)であり、垂直方向の大きさが(y/γ)である長方形状の第2の抽出領域D2Rが設定される。
 拡大縮小処理(ステップS13)においては、図9の(a)に示すように、拡大縮小部352は、左眼画像F(図8参照)から第1の抽出領域Dを抽出し、右眼画像F(図8参照)から第2の抽出領域D2Rを抽出する。ここで、ステップS5では、パラメータ生成部312は、補正対象ではない左眼画像に対する第1の拡大縮小倍率として、水平方向の倍率をαに設定し、垂直方向の倍率をαに設定している。一方、ステップS5では、パラメータ生成部312は、補正対象となる右眼画像に対する第2の拡大縮小倍率として、倍率α,αを倍率γで乗じた倍率を設定している。具体的には、パラメータ生成部312は、第2の拡大縮小倍率として、水平方向の倍率を(α×γ)に設定し、垂直方向の倍率を(α×γ)に設定する。したがって、拡大縮小部352は、矢印Yのように、第1の抽出領域Dに対して、水平方向にα倍に拡大或いは縮小し、垂直方向にα倍に拡大或いは縮小した画像Pを生成する(図9の(b)参照)。拡大縮小部352は、矢印Yのように、第2の抽出領域D2Rに対して、水平方向に(α×γ)倍に拡大或いは縮小し、垂直方向に(α×γ)倍に拡大或いは縮小した画像Pを生成する(図9の(b)参照)。この結果、補正後の左眼画像P及び補正後の右眼画像Pは、水平方向の大きさが(x×α)となり、垂直方向の大きさが(y×α)となるため、画像の大きさが一致する。
 また、実施の形態では、二つの撮像素子を設けて左眼画像データと右眼画像データとを取得する例について説明したが、CMOS撮像素子の受光面を左眼用領域及び右眼用領域の二つの領域に分けて、左眼画像データと右眼画像データとを一つのCMOS撮像素子で取得する構成であってもよい。
 また、実施の形態では、拡大縮小部352による画像データへの拡大縮小処理によって左右画像の大きさを一致させる例について説明したが、制御部31が、左眼用光学系21A及び右眼用光学系21Bの少なくとも一方の光学ズーム機能をパラメータ生成部312で生成したパラメータに基づいて制御することで左右画像の画角及び大きさを一致させる補正処理を行ってもよい。
 また、実施の形態では、光源部6が一体となった光源一体型プロセッサ3を例に説明したが、プロセッサと光源装置とが別体である場合にも同様に適用可能である。
 また、実施の形態において、内視鏡2と光源一体型プロセッサ3との間で送受信される信号は、電気信号に限らず、電気信号を変換した光信号であってもよい。この場合には、光ファイバ等の光信号用の伝送路を用いて、内視鏡2と光源一体型プロセッサ3との間で光信号の伝送が行われる。内視鏡2と光源一体型プロセッサ3との間においては、有線通信に限らず、無線通信を用いて信号の送受信を行ってもよい。
 また、実施の形態では、挿入部が可撓性である内視鏡が適用される内視鏡システムについて説明したが、挿入部が硬性である内視鏡が適用される内視鏡システムでもよい。また、撮像装置として機能する内視鏡に、光源と、撮像素子及び光源を制御する制御機能とを持たせてもよい。この場合、光源は、内視鏡の挿入部先端に設けられた半導体光源等であってもよい。また、内視鏡の挿入部先端に撮像素子を設けた構成に限らず、例えば、撮像素子が挿入部基端側に設けられ、挿入部の先端から基端へ光ファイバで伝送された光学像を撮像するように構成されていてもよい。また、挿入部先端に撮像素子を設けた内視鏡に限らず、ファイバスコープや光学視管などの光学式内視鏡の接眼部カメラヘッドを接続する構成であってもよい。
 また、実施の形態として、内視鏡システム1を例に説明したが、内視鏡システムに限らず、左眼用光学系21A、右眼用光学系21B、撮像部20、メモリ24及び照明レンズ25を備えた撮像ユニットが、制御部31、記憶部32、左右画像変換部33、第1画像処理部34、補正部35及び第2画像処理部36を少なくとも備えた処理装置に着脱自在に装着される撮像システムに適用することも可能である。
 図10は、本発明の実施の形態における撮像システムの他の概略構成を示す模式図である。本実施の形態にかかる撮像システムは、図10の撮像システム1Aに示すように、表示装置4及び入力装置5を有するカメラ本体部3Aに撮像部20が設けられた構成を有していてもよい。この場合には、カメラ本体部3Aに、左眼用光学系21A、右眼用光学系21B、メモリ24及び照明レンズ25を備えた光学ユニット2Aが着脱自在に装着され、カメラ本体部3Aでは、制御部31Aの補正データ取得部311が、装着された光学ユニット2Aのメモリ24から、光学ユニット2Aに対応する画角補正データを読み出す。
 また、本実施の形態にかかる光源一体型プロセッサ、カメラ本体部、並びに、他の構成部で実行される各処理に対する実行プログラムは、インストール可能な形式または実行可能な形式のファイルでCD-ROM、フレキシブルディスク、CD-R、DVD等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよく、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、インターネット等のネットワーク経由で提供または配布するように構成してもよい。
 1 内視鏡システム
 1A 撮像システム
 2 内視鏡
 2A 光学ユニット
 3 光源一体型プロセッサ
 3A カメラ本体部
 4 表示装置
 5 入力装置
 6 光源部
 20 撮像部
 21A 左眼用光学系(第1の光学系)
 21B 右眼用光学系(第2の光学系)
 22A 左眼用撮像素子(第1の撮像部)
 22B 右眼用撮像素子(第2の撮像部)
 23A 左眼用信号処理部
 23B 右眼用信号処理部
 24 メモリ
 25 照明レンズ
 31,31A 制御部
 32 記憶部
 33 左右画像変換部
 34 第1画像処理部
 35 補正部
 36 第2画像処理部
 37 OSD生成部
 38 合成部
 39 表示制御部
 311 補正データ取得部
 312 パラメータ生成部
 321 拡大縮小倍率データ
 351 処理領域設定部
 352 拡大縮小部

Claims (10)

  1.  光学ユニットと、前記光学ユニットが着脱自在に装着される構成を有する処理装置と、前記光学ユニットと前記処理装置とのいずれかに配置されてなる撮像装置と、を備えた撮像システムであって、
     前記光学ユニットは、
     被写体からの入射光を結像する第1の光学系と、
     前記被写体からの入射光を、前記第1の光学系とは視差を有して結像する第2の光学系と、
     前記第1の光学系と前記第2の光学系との画角の相違を補正するための画角補正データを記憶する第1の記憶部と、
     を備え、
     前記撮像装置は、
     前記第1の光学系で結像された光学像を撮像して第1の画像データを生成する第1の撮像部と、
     前記第2の光学系で結像された光学像を撮像して第2の画像データを生成する第2の撮像部と、
     を備え、
     前記処理装置は、
     前記第1の記憶部から前記画角補正データを取得するデータ取得部と、
     前記データ取得部が取得した画角補正データに基づいて、前記第1の画像データに対応する第1の画像の画角と前記第2の画像データに対応する第2の画像の画角とを一致させるとともに、前記第1の画像の大きさと前記第2の画像の大きさとを一致させるように、前記第1の画像データ及び前記第2の画像データの少なくともいずれか一方を補正する補正部と、
     を備えたことを特徴とする撮像システム。
  2.  前記画角補正データは、前記第1の画像の画角及び大きさに対して前記第2の画像の画角及び大きさを一致させるように前記補正部に指示する指示データと、前記第2の画像の画角の前記第1の画像の画角に対する第1の倍率と、を少なくとも含むことを特徴とする請求項1に記載の撮像システム。
  3.  前記処理装置は、該処理装置によって処理された画像を表示出力する表示部と、
     前記光学ユニットの種別及び前記表示部の規格に応じて予め設定された拡大縮小倍率である第2の倍率を基に前記補正部で使用される第1の拡大縮小倍率を生成し、前記データ取得部が取得した前記第1の倍率と前記第2の倍率とを基に前記補正部で使用される第2の拡大縮小倍率を生成するパラメータ生成部と、
     をさらに備え、
     前記補正部は、
     各画像からの抽出基準領域に基づいて前記第1の画像から抽出する第1の抽出領域の大きさを設定する一方、前記抽出基準領域及び前記データ取得部が取得した前記第1の倍率に基づいて前記第2の画像から抽出する第2の抽出領域の大きさを設定する領域設定部と、
     前記第1の画像から前記第1の抽出領域を抽出し、該抽出した前記第1の抽出領域を前記第1の拡大縮小倍率で拡大あるいは縮小した画像を補正後の第1の画像として出力する一方、前記第2の画像から前記第2の抽出領域を抽出し、該抽出した前記第2の抽出領域を前記第2の拡大縮小倍率で拡大あるいは縮小した画像を補正後の第2の画像として出力する拡大縮小部と、
     を備えたことを特徴とする請求項2に記載の撮像システム。
  4.  前記処理装置は、
     前記第2の倍率を前記光学ユニットの種別及び前記表示部の規格にそれぞれ対応付けて記憶する第2の記憶部をさらに備え、
     前記第1の記憶部は、前記光学ユニットの種別を示す識別情報を記憶し、
     前記データ取得部は、前記第1の記憶部から前記光学ユニットの識別情報を取得し、該取得した識別情報が示す前記光学ユニットの種別及び前記表示部の規格に応じた前記第2の倍率を前記第2の記憶部から取得し、
     前記パラメータ生成部は、前記データ取得部が取得した前記第1の倍率及び前記第2の倍率を基に前記第1の拡大縮小倍率と前記第2の拡大縮小倍率とを生成することを特徴とする請求項3に記載の撮像システム。
  5.  前記画角補正データは、前記第1の画像における前記抽出基準領域の位置を示す第1の位置データと、前記第2の画像における前記抽出基準領域の位置を示す第2の位置データとを含み、
     前記領域設定部は、前記データ取得部が取得した前記第1の位置データを基に前記第1の画像における前記抽出基準領域の位置を設定し、前記データ取得部が取得した前記第2の位置データを基に前記第2の画像における前記抽出基準領域の位置を設定することを特徴とする請求項3または4に記載の撮像システム。
  6.  前記第1の光学系及び前記第2の光学系は、それぞれの画角を変化させる光学ズーム機能を有し、
     前記補正部は、前記データ取得部が取得した画角補正データに基づいて、前記第1の光学系及び前記第2の光学系の少なくともいずれか一方の前記光学ズーム機能を制御することで、前記第1の画像データに対応する第1の画像の画角と前記第2の画像データに対応する第2の画像の画角とを一致させるとともに、前記第1の画像の大きさと前記第2の画像の大きさとを一致させることを特徴とする請求項1または2に記載の撮像システム。
  7.  当該撮像システムは、前記光学ユニット及び前記撮像装置を備えた内視鏡装置と、前記撮像装置が撮像した画像データを処理する前記処理装置とを有することを特徴とする請求項1~6のいずれか一つに記載の撮像システム。
  8.  被写体からの入射光を結像する第1の光学系と、前記被写体からの入射光を、前記第1の光学系とは視差を有して結像する第2の光学系と、前記第1の光学系と前記第2の光学系との画角の相違を補正するための画角補正データを記憶する第1の記憶部とを有する光学ユニットが着脱自在に装着され、前記光学ユニットと当該処理装置とのいずれかに配置されており、前記第1の光学系で結像された光学像を撮像して第1の画像データを生成する第1の撮像部と前記第2の光学系で結像された光学像を撮像して第2の画像データを生成する第2の撮像部とを有する撮像装置から出力された画像データを処理する処理装置であって、
     当該処理装置に装着された前記光学ユニットの前記第1の記憶部から前記画角補正データを取得するデータ取得部と、
     前記データ取得部が取得した画角補正データに基づいて、前記第1の画像データに対応する第1の画像の画角と前記第2の画像データに対応する第2の画像の画角とを一致させるとともに、前記第1の画像の大きさと前記第2の画像の大きさとを一致させるように、前記第1の画像データ及び前記第2の画像データの少なくともいずれか一方を補正する補正部と、
     を備えたことを特徴とする処理装置。
  9.  被写体からの入射光を結像する第1の光学系と、前記被写体からの入射光を、前記第1の光学系とは視差を有して結像する第2の光学系とを有する光学ユニットが着脱自在に装着され、前記第1の光学系で結像された光学像を撮像して第1の画像データを生成する第1の撮像部及び前記第2の光学系で結像された光学像を撮像して第2の画像データを生成する第2の撮像部から出力された画像データを処理する処理装置が実行する処理方法であって、
     前記処理装置に装着された前記光学ユニットが有する第1の記憶部から、前記第1の光学系と前記第2の光学系との画角の相違を補正するための画角補正データを取得するデータ取得処理と、
     前記データ取得処理において取得した画角補正データに基づいて、前記第1の画像データに対応する第1の画像の画角と前記第2の画像データに対応する第2の画像の画角とを一致させるとともに、前記第1の画像の大きさと前記第2の画像の大きさとを一致させるように、前記第1の画像データ及び前記第2の画像データの少なくともいずれか一方を補正する補正処理と、
     を含むことを特徴とする処理方法。
  10.  被写体からの入射光を結像する第1の光学系と、前記被写体からの入射光を、前記第1の光学系とは視差を有して結像する第2の光学系とを有する光学ユニットが着脱自在に装着され、前記第1の光学系で結像された光学像を撮像して第1の画像データを生成する第1の撮像部及び前記第2の光学系で結像された光学像を撮像して第2の画像データを生成する第2の撮像部から出力された画像データを処理する処理装置に、
     前記処理装置に装着された前記光学ユニットが有する第1の記憶部から、前記第1の光学系と前記第2の光学系との画角の相違を補正するための画角補正データを取得するデータ取得手順と、
     前記データ取得手順において取得した画角補正データに基づいて、前記第1の画像データに対応する第1の画像の画角と前記第2の画像データに対応する第2の画像の画角とを一致させるとともに、前記第1の画像の大きさと前記第2の画像の大きさとを一致させるように、前記第1の画像データ及び前記第2の画像データの少なくともいずれか一方を補正する補正手順と、
     を実行させることを特徴とする処理プログラム。
PCT/JP2016/075218 2015-09-01 2016-08-29 撮像システム、処理装置、処理方法及び処理プログラム Ceased WO2017038774A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201680003755.4A CN106999024B (zh) 2015-09-01 2016-08-29 摄像系统
EP16841806.9A EP3345530A1 (en) 2015-09-01 2016-08-29 Imaging system, processing device, processing method, and processing program
JP2017502729A JP6104493B1 (ja) 2015-09-01 2016-08-29 撮像システム
US15/598,862 US20170251911A1 (en) 2015-09-01 2017-05-18 Imaging system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-171927 2015-09-01
JP2015171927 2015-09-01

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/598,862 Continuation US20170251911A1 (en) 2015-09-01 2017-05-18 Imaging system

Publications (1)

Publication Number Publication Date
WO2017038774A1 true WO2017038774A1 (ja) 2017-03-09

Family

ID=58187566

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/075218 Ceased WO2017038774A1 (ja) 2015-09-01 2016-08-29 撮像システム、処理装置、処理方法及び処理プログラム

Country Status (5)

Country Link
US (1) US20170251911A1 (ja)
EP (1) EP3345530A1 (ja)
JP (1) JP6104493B1 (ja)
CN (1) CN106999024B (ja)
WO (1) WO2017038774A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019026929A1 (ja) * 2017-08-03 2019-02-07 ソニー・オリンパスメディカルソリューションズ株式会社 医療用観察装置
JP2019213036A (ja) * 2018-06-04 2019-12-12 オリンパス株式会社 内視鏡プロセッサ、表示設定方法および表示設定プログラム
CN110622207A (zh) * 2017-04-27 2019-12-27 苹果公司 用于交叉渐变图像数据的系统与方法

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6234638B2 (ja) * 2015-12-17 2017-11-22 オリンパス株式会社 ビデオプロセッサ
KR102443218B1 (ko) * 2016-01-06 2022-09-15 삼성전자주식회사 전자 장치 및 그의 동작 방법
JP7051287B2 (ja) * 2016-12-05 2022-04-11 株式会社ソニー・インタラクティブエンタテインメント システム、治具、および情報処理方法
DE102017203721A1 (de) * 2017-03-07 2018-09-13 Bitmanagement Software GmbH Vorrichtung und Verfahren zur Darstellung eines Raumbilds von einem Objekt in einer virtuellen Umgebung
US11699215B2 (en) * 2017-09-08 2023-07-11 Sony Corporation Imaging device, method and program for producing images of a scene having an extended depth of field with good contrast
JP6646034B2 (ja) 2017-12-14 2020-02-14 ファナック株式会社 ロボットシステム
US11417128B2 (en) * 2017-12-22 2022-08-16 Motorola Solutions, Inc. Method, device, and system for adaptive training of machine learning models via detected in-field contextual incident timeline entry and associated located and retrieved digital audio and/or video imaging
CN115880198B (zh) * 2023-02-01 2023-07-07 荣耀终端有限公司 图像处理方法和装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0829701A (ja) * 1994-07-18 1996-02-02 Olympus Optical Co Ltd 立体視内視鏡システム
JP2014188222A (ja) * 2013-03-27 2014-10-06 Olympus Corp 画像処理装置、内視鏡装置、プログラム及び画像処理方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6582358B2 (en) * 2000-09-12 2003-06-24 Olympus Optical Co., Ltd. Stereoscopic endoscope system
US8989349B2 (en) * 2004-09-30 2015-03-24 Accuray, Inc. Dynamic tracking of moving targets
US20100165080A1 (en) * 2008-12-26 2010-07-01 Fujifilm Corporation Image capturing apparatus and endoscope
DE102013103333A1 (de) * 2013-04-03 2014-10-09 Karl Storz Gmbh & Co. Kg Kamera zur Erfassung von optischen Eigenschaften und von Raumstruktureigenschaften
WO2015050016A1 (ja) * 2013-10-02 2015-04-09 オリンパスメディカルシステムズ株式会社 3次元画像システム
JP5829365B2 (ja) * 2013-11-14 2015-12-09 オリンパス株式会社 内視鏡用撮像装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0829701A (ja) * 1994-07-18 1996-02-02 Olympus Optical Co Ltd 立体視内視鏡システム
JP2014188222A (ja) * 2013-03-27 2014-10-06 Olympus Corp 画像処理装置、内視鏡装置、プログラム及び画像処理方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110622207A (zh) * 2017-04-27 2019-12-27 苹果公司 用于交叉渐变图像数据的系统与方法
CN110622207B (zh) * 2017-04-27 2021-05-07 苹果公司 用于交叉渐变图像数据的系统与方法
WO2019026929A1 (ja) * 2017-08-03 2019-02-07 ソニー・オリンパスメディカルソリューションズ株式会社 医療用観察装置
JPWO2019026929A1 (ja) * 2017-08-03 2020-09-24 ソニー・オリンパスメディカルソリューションズ株式会社 医療用観察装置
JP7123053B2 (ja) 2017-08-03 2022-08-22 ソニー・オリンパスメディカルソリューションズ株式会社 医療用観察装置
US11571109B2 (en) 2017-08-03 2023-02-07 Sony Olympus Medical Solutions Inc. Medical observation device
JP2019213036A (ja) * 2018-06-04 2019-12-12 オリンパス株式会社 内視鏡プロセッサ、表示設定方法および表示設定プログラム
WO2019235492A1 (ja) * 2018-06-04 2019-12-12 オリンパス株式会社 内視鏡プロセッサ、表示設定方法および表示設定プログラム
US11467392B2 (en) 2018-06-04 2022-10-11 Olympus Corporation Endoscope processor, display setting method, computer-readable recording medium, and endoscope system
JP7294776B2 (ja) 2018-06-04 2023-06-20 オリンパス株式会社 内視鏡プロセッサ、表示設定方法、表示設定プログラムおよび内視鏡システム

Also Published As

Publication number Publication date
EP3345530A1 (en) 2018-07-11
JP6104493B1 (ja) 2017-03-29
CN106999024B (zh) 2018-09-28
US20170251911A1 (en) 2017-09-07
CN106999024A (zh) 2017-08-01
JPWO2017038774A1 (ja) 2017-09-07

Similar Documents

Publication Publication Date Title
JP6104493B1 (ja) 撮像システム
CN103262522B (zh) 摄像装置
JP6329715B1 (ja) 内視鏡システムおよび内視鏡
CN107113405B (zh) 图像处理装置、图像处理装置的工作方法、记录介质和内窥镜装置
JP6109456B1 (ja) 画像処理装置および撮像システム
US11064144B2 (en) Imaging element, imaging apparatus, and electronic equipment
WO2015093295A1 (ja) 内視鏡装置
JP6140100B2 (ja) 内視鏡装置及び画像処理装置並びに内視鏡装置の作動方法
JPWO2018088215A1 (ja) 内視鏡システム
WO2015194204A1 (ja) 内視鏡装置
US11394866B2 (en) Signal processing device, imaging device, signal processing meihod and program
JP6137892B2 (ja) 撮像システム
JP2014228851A (ja) 内視鏡装置、画像取得方法および画像取得プログラム
JP6113385B1 (ja) 撮像システム
WO2017026277A1 (ja) 処理装置、処理方法及び処理プログラム
JP6396717B2 (ja) 感度調整方法および撮像装置
EP3200450A1 (en) Transmission system and processing device
JP7235532B2 (ja) 医療用画像処理装置、画像処理方法およびプログラム
JP2020141853A (ja) 画像処理装置、画像処理方法およびプログラム
JP6801990B2 (ja) 画像処理システムおよび画像処理装置
JP2017073718A (ja) 信号処理装置及び信号処理方法
WO2017022323A1 (ja) 画像信号処理方法、画像信号処理装置および画像信号処理プログラム

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2017502729

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16841806

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2016841806

Country of ref document: EP