[go: up one dir, main page]

WO2020202883A1 - 内視鏡、内視鏡装置 - Google Patents

内視鏡、内視鏡装置 Download PDF

Info

Publication number
WO2020202883A1
WO2020202883A1 PCT/JP2020/006828 JP2020006828W WO2020202883A1 WO 2020202883 A1 WO2020202883 A1 WO 2020202883A1 JP 2020006828 W JP2020006828 W JP 2020006828W WO 2020202883 A1 WO2020202883 A1 WO 2020202883A1
Authority
WO
WIPO (PCT)
Prior art keywords
optical system
light
measurement
measurement auxiliary
optical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2020/006828
Other languages
English (en)
French (fr)
Inventor
将人 吉岡
福田 剛志
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to CN202080025717.5A priority Critical patent/CN113678047B/zh
Priority to JP2021511214A priority patent/JP7214840B2/ja
Priority to EP20785071.0A priority patent/EP3951473B1/en
Publication of WO2020202883A1 publication Critical patent/WO2020202883A1/ja
Priority to US17/484,891 priority patent/US20220007921A1/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00071Insertion part of the endoscope body
    • A61B1/0008Insertion part of the endoscope body characterised by distal tip features
    • A61B1/00096Optical elements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00071Insertion part of the endoscope body
    • A61B1/0008Insertion part of the endoscope body characterised by distal tip features
    • A61B1/00097Sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0676Endoscope light sources at distal tip of an endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; Determining position of diagnostic devices within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • A61B5/064Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; Determining position of diagnostic devices within or on the body of the patient
    • A61B5/065Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2423Optical details of the distal end
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2461Illumination
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/26Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes using light guides

Definitions

  • the present invention relates to an endoscope and an endoscope device.
  • the distance to the observation object is acquired.
  • a laser beam whose optical axis is tilted toward the optical axis of the imaging optical system is irradiated as measurement auxiliary light from a measurement auxiliary optical optical system provided apart from the imaging optical system.
  • the distance to the observation object is acquired based on the position of the spot of the measurement auxiliary light reflected in the image obtained by the imaging optical system.
  • the present invention has been made in view of the above background, and an object of the present invention is to provide an endoscope and an endoscope device having no unevenness at the tip of the insertion portion of the endoscope.
  • the endoscope of the present invention has a first hole portion and a second hole portion provided at the tip of the insertion portion, an imaging optical system housed in the first hole portion, and a second hole portion housed in the second hole portion. Insertion of a measurement auxiliary optical optical system that emits measurement auxiliary light whose optical axis is tilted with respect to the optical axis of the imaging optical system from the light emitting surface arranged inside the hole toward the optical axis of the imaging optical system. It has a flat surface flush with the tip of the portion, and includes a transparent member inserted into the optical path of the measurement auxiliary light emitted from the light emitting slope.
  • the transparent member preferably functions as a lid for closing the second hole.
  • the transparent member has a close contact surface that is in close contact with the light emitting slope, and it is preferable that the transparent member is airtight between the close contact surface and the flat surface in the optical path of the measurement auxiliary light.
  • the transparent member includes an optical member and the contact surface is formed on the optical member.
  • the transparent member includes a transparent loading material loaded between the contact surface and the flat surface, and the contact surface is formed by the loading material in close contact with the light emitting slope.
  • the medium on the measurement auxiliary optical system side with the light output slope sandwiched has a smaller optical refractive index than the medium on the transparent member side.
  • optical axis of the imaging optical system and the optical axis of the measurement auxiliary optical optical system intersect.
  • the distance from the tip of the insertion portion to the intersection of the optical axis of the imaging optical system and the optical axis of the measurement auxiliary optical optical system is preferably in the range of 8 mm or more and 12 mm or less.
  • the measurement auxiliary light is preferably linear parallel light.
  • the endoscope device of the present invention is a position for specifying the position of a specific region formed by the measurement auxiliary light from the regions included in the above-mentioned endoscope and the captured image obtained by the imaging optical system. It includes a specific unit and a display control unit that displays a specific image displayed on the captured image on the display unit with a measurement marker set according to the position of the specific area.
  • an endoscope and an endoscope device that do not have a problem such as a foreign substance being clogged in an uneven portion at the tip of an insertion portion.
  • the endoscope device 10 includes an endoscope 12, a light source device 14, a processor device 16, a monitor 18, and a user interface 19.
  • the endoscope 12 is optically connected to the light source device 14 and electrically connected to the processor device 16.
  • the processor device 16 is electrically connected to a monitor 18 (display unit) that displays an image.
  • the user interface 19 is connected to the processor device 16 and is used for various setting operations for the processor device 16.
  • the user interface 19 includes a mouse and the like in addition to the illustrated keyboard.
  • the endoscope 12 includes an insertion portion 12a to be inserted into the subject, an operation portion 12b provided at the base end portion of the insertion portion 12a, and a curved portion 12c and a tip portion 12d provided on the tip end side of the insertion portion 12a. have.
  • the angle knob 12e of the operating portion 12b By operating the angle knob 12e of the operating portion 12b, the curved portion 12c bends. Along with this bending motion, the tip portion 12d is directed in a desired direction.
  • the endoscope 12 has a normal mode and a length measurement mode, and these two modes are switched by a mode changeover switch 13a provided on the operation unit 12b of the endoscope 12.
  • the normal mode is a mode in which the observation target is illuminated by the illumination light.
  • the length measurement mode illuminates the observation target with illumination light or measurement auxiliary light, and is used for measuring the size of the observation target on the captured image obtained by imaging the observation target (FIGS. 11 to 11 to 11). (See FIG. 13) is displayed.
  • the measurement auxiliary light is light used for measuring a subject.
  • the endoscope 12 may be provided with a special light mode for illuminating the subject with special light used for emphasizing a specific portion as illumination light.
  • the operation unit 12b of the endoscope 12 is provided with a freeze switch 13b for operating a still image acquisition instruction for instructing acquisition of a still image of an captured image.
  • a freeze switch 13b for operating a still image acquisition instruction for instructing acquisition of a still image of an captured image.
  • the screen of the monitor 18 freezes and displays an alert sound (for example, "pee") to the effect that a still image is acquired.
  • the still image of the captured image obtained before and after the operation timing of the freeze switch 13b is stored in the still image storage unit 42 (see FIG. 3) in the processor device 16 (see FIG. 3).
  • the measurement marker may be saved together with the still image of the captured image.
  • the still image storage unit 42 is a storage unit such as a hard disk or a USB (Universal Serial Bus) memory.
  • the processor device 16 can be connected to the network, the still image of the captured image is stored in the still image storage server (not shown) connected to the network in place of or in addition to the still image storage unit 42. You may.
  • a still image acquisition instruction may be given using an operating device other than the freeze switch 13b.
  • a foot pedal may be connected to the processor device 16 to give a still image acquisition instruction when the user operates the foot pedal (not shown) with his / her foot. You may use the foot pedal for mode switching.
  • a gesture recognition unit (not shown) that recognizes the user's gesture is connected to the processor device 16, and when the gesture recognition unit recognizes a specific gesture performed by the user, a still image acquisition instruction is given. You may do it.
  • the mode switching may also be performed using the gesture recognition unit.
  • a line-of-sight input unit (not shown) provided near the monitor 18 is connected to the processor device 16, and the line-of-sight input unit recognizes that the user's line of sight is within a predetermined area of the monitor 18 for a certain period of time or longer. If this happens, a still image acquisition instruction may be given.
  • a voice recognition unit (not shown) may be connected to the processor device 16 so that when the voice recognition unit recognizes a specific voice emitted by the user, a still image acquisition instruction may be given. The mode switching may also be performed using the voice recognition unit.
  • an operation panel such as a touch panel may be connected to the processor device 16 to give a still image acquisition instruction when the user performs a specific operation on the operation panel. The mode switching may also be performed using the operation panel.
  • the tip portion 12d has a substantially circular shape, and a first hole portion 20a and a second hole portion 20b are provided.
  • the image pickup optical system 29b (see FIG. 3) of the endoscope 12 is housed in the first hole portion 20a, and the objective lens 21 located closest to the subject side among the constituent members of the image pickup optical system 29b is exposed.
  • the measurement auxiliary optical optical system 30 (see FIG. 3) of the endoscope 12 is housed in the second hole portion 20b.
  • a transparent lid 22 transparent member
  • the tip portion 12d of the endoscope has an illumination lens 23 for irradiating the subject with illumination light, an opening 24 for projecting the treatment tool toward the subject, and a water supply for supplying air and water.
  • An air supply nozzle 25 is provided.
  • the optical axis of the objective lens 21 (the optical axis of the imaging optical system 29b, hereinafter referred to as the imaging optical axis) Ax (see FIG. 4) extends in a direction perpendicular to the paper surface of FIG. That is, the imaging optical axis Ax is orthogonal to both the vertical first direction D1 and the horizontal second direction D2 that are orthogonal to each other.
  • the objective lens 21 (first hole portion 20a) and the transparent lid 22 (second hole portion 20b) are arranged along the first direction D1.
  • the light source device 14 includes a light source unit 26 and a light source control unit 27.
  • the light source unit 26 generates illumination light for illuminating the subject.
  • the illumination light emitted from the light source unit 26 is incident on the light guide 28 and is applied to the subject through the illumination lens 23.
  • the light source unit 26 includes, as a light source of illumination light, a white light source that emits white light, or a plurality of light sources including a white light source and a light source that emits light of other colors (for example, a blue light source that emits blue light). Is preferably used.
  • the light source control unit 27 is connected to the system control unit 41 of the processor device 16.
  • the light source control unit 27 controls the light source unit 26 based on an instruction from the system control unit 41.
  • the system control unit 41 gives an instruction regarding the light source control to the light source control unit 27, and also controls the light source 30a (see FIG. 4) of the measurement auxiliary optical optical system 30.
  • the tip portion 12d of the endoscope 12 is provided with an illumination optical system 29a, an imaging optical system 29b, and a measurement auxiliary optical optical system 30.
  • the illumination optical system 29a has an illumination lens 23, and the light from the light guide 28 is irradiated to the observation target through the illumination lens 23.
  • the image pickup optical system 29b has an objective lens 21 and an image pickup element 32. The reflected light from the observation target is incident on the image pickup device 32 via the objective lens 21. As a result, a reflected image to be observed is formed on the image sensor 32.
  • the image sensor 32 is a color image sensor, which captures a reflected image of a subject and outputs an image signal.
  • the image sensor 32 is preferably a CCD (Charge Coupled Device) image sensor, a CMOS (Complementary Metal-Oxide Semiconductor) image sensor, or the like.
  • the image pickup device 32 used in the present invention is a color image pickup sensor for obtaining RGB image signals of three colors of R (red), G (green), and B (blue).
  • the image sensor 32 is controlled by the image sensor 33.
  • a complementary color image sensor provided with complementary color filters of C (cyan), M (magenta), Y (yellow), and G (green) may be used.
  • the image signal output from the image sensor 32 is transmitted to the CDS / AGC circuit 34.
  • the CDS / AGC circuit 34 performs correlated double sampling (CDS (Correlated Double Sampling)) and automatic gain control (AGC (Auto Gain Control)) on an image signal which is an analog signal.
  • CDS Correlated Double Sampling
  • AGC Automatic gain control
  • the image signal that has passed through the CDS / AGC circuit 34 is converted into a digital image signal by the A / D converter (A / D (Analog / Digital) converter) 35.
  • the A / D converted digital image signal is input to the processor device 16 via the communication I / F (Interface) 36.
  • the processor device 16 includes a communication I / F (Interface) 38 connected to the communication I / F 36 of the endoscope 12, a signal processing unit 39, a display control unit 40, and a system control unit 41.
  • the communication I / F receives the image signal transmitted from the communication I / F 36 of the endoscope 12 and transmits it to the signal processing unit 39.
  • the signal processing unit 39 has a built-in memory that temporarily stores an image signal received from the communication I / F 38, processes an image signal group that is a set of image signals stored in the memory, and generates an captured image. ..
  • the signal processing unit 39 When the signal processing unit 39 is set to the length measurement mode, the signal processing unit 39 performs a structure emphasizing process for emphasizing the structure of blood vessels and the like on the captured image, and the normal part and the lesion part of the observation target. A color difference enhancement process that extends the color difference may be performed. Further, the signal processing unit 39 and the system control unit 41 are provided in an external processing device (not shown) connected to the processor device 16, and are related to the signal processing unit 39 and the system control unit 41 in the external processing device. Processing may be performed. For example, when the length measurement mode is set, even if the first captured image including the spot SP is sent to an external processing device and the position of the spot SP is specified from the first captured image by the external processing device. Good.
  • a measurement marker may be set according to the position of the spot SP (see FIGS. 11 to 13), and a specific image in which the set measurement marker is displayed on the first captured image may be generated. Good. The generated specific image is transmitted to the processor device 16.
  • the display control unit 40 displays the captured image generated by the signal processing unit 39 on the monitor 18.
  • the system control unit 41 controls the image pickup device 32 via the image pickup control section 33 provided in the endoscope 12.
  • the image pickup control unit 33 also controls the CDS / AGC34 and the A / D35 in accordance with the control of the image pickup element 32.
  • the still image storage control unit 43 controls the still image of the captured image to be stored in the still image storage unit 42.
  • the measurement auxiliary optical optical system 30 includes a light source 30a, a measurement auxiliary light generation element 30b (collimeter lens, diffractive optical element DOE (Diffractive Optical Element), etc.), and a prism 30c. , These are housed inside the second hole 20b.
  • the light source 30a emits light of a color that can be detected by the pixels of the image pickup element 32 (specifically, visible light), and is a light emitting element such as a laser light source LD (Laser Diode) or an LED (Light Emitting Diode). , Including the exit lens.
  • the wavelength of the light emitted by the light source 30a is preferably, for example, red light of 600 nm or more and 650 nm or less. Alternatively, green light of 495 nm or more and 570 nm or less may be used.
  • the light source 30a is controlled by the system control unit 41, and emits light based on an instruction from the system control unit 41.
  • the measurement auxiliary light generation element 30b converts the light emitted from the light source into the measurement auxiliary light used for measuring the subject.
  • the measurement auxiliary light thus converted is a collimated (suppressed diffusion and convergence) linear parallel light.
  • the prism 30c bends (tilts) the optical axis (hereinafter referred to as the auxiliary optical axis) Lm of the measurement auxiliary light to change the traveling direction of the measurement auxiliary light.
  • the light emitting slope 30d is tilted with respect to the tip surface of the insertion portion 12a (tip portion 12d), and the imaging light intersects the field of view of the imaging optical system 29b including the objective lens 21 and the lens group.
  • the auxiliary optical axis Lm is tilted with respect to the axis Ax.
  • the auxiliary optical axis Lm is tilted so that the distance L1 from the tip (tip surface) of the insertion portion 12a intersects the imaging optical axis Ax within a range of 8 mm or more and 12 mm or less. Then, by irradiating the subject with the measurement auxiliary light tilted in this way, a spot SP (see FIGS. 11 to 13) as a circular region (specific region) is formed in the subject.
  • the position of the spot SP is specified by the position specifying unit 50, and a measurement marker indicating the actual size is set according to the position of the spot SP.
  • the set measurement marker is displayed on the captured image.
  • the measurement auxiliary optical optical system 30 is housed in the second hole portion 20b, and the light emitting surface 30d of the prism 30c, which is the tip of the measurement auxiliary optical optical system 30, is inclined with respect to the tip surface of the insertion portion 12a. Therefore, the portion of the light emitting slope 30d is recessed with respect to the tip surface of the insertion portion 12a. Therefore, in the endoscope 12, a transparent lid 22 is provided to close the second hole 20b in order to make the tip surface of the insertion portion 12a flat.
  • the transparent lid 22 is formed in a plate shape, and one end surface (surface) is a flat surface 22a.
  • the transparent lid 22 is arranged so that the flat surface 22a is flush with the tip of the second hole 20b (the tip surface of the insertion portion 12a). By making the tip surface of the insertion portion 12a flat in this way, it is possible to prevent problems such as the absence of the transparent lid 22 and clogging of foreign matter to block the measurement auxiliary light.
  • the flat surface 22a includes not only a perfect flat surface without unevenness, but also an almost flat surface, specifically, a surface having fine unevenness of 0.1 mm or less.
  • the flat surface 22a also includes a curved surface.
  • the flat surface 22a is a gently curved surface having a height of 1 mm or less and a continuous slope of the tangent line.
  • the flat surface 22a is curved in a convex shape and the case where the flat surface 22a is curved in a concave shape, there is a problem that the measurement auxiliary light is blocked in the case where the flat surface 22a is curved in a convex shape.
  • the flat surface 22a is a curved surface, it is preferable that the flat surface 22a is curved in a convex shape as a whole.
  • the transparent lid 22 flat surface 22a
  • the transparent lid 22 protrudes from the second hole portion 20b.
  • the problem that the measurement auxiliary light is blocked is less likely to occur (foreign matter is less likely to be clogged on the flat surface 22a). Therefore, when there is a step between the second hole portion 20b and the transparent lid 22, it is preferable that the transparent lid 22 protrudes from the second hole portion 20b.
  • a prism 31 transparent member, optical member is arranged between the transparent lid 22 and the light emitting slope 30d.
  • the prism 31 has a first contact surface 31a (contact surface) and a second contact surface 31b, the first contact surface 31a is brought into close contact with the light emitting slope 30d, and the second contact surface 31b is attached to the back surface 22b of the transparent lid 22. It is in close contact.
  • the prism 31 removes gas from between the transparent lid 22 and the light emitting slope 30d, and makes the space between the transparent lid 22 and the light emitting slope 30d airtight. Then, by making the space between the transparent lid 22 and the light emitting slope 30d airtight in this way, it is possible to prevent the occurrence of problems due to dew condensation.
  • dew condensation occurs on the back surface 22b (the surface opposite to the flat surface 22a) and / or the light emitting slope 30d of the transparent lid 22, and problems such as attenuation, diffusion, convergence, and / or refraction of the measurement auxiliary light (condensation). There is no such thing as a problem).
  • the present invention is not limited to the above embodiment, and the detailed configuration can be changed as appropriate.
  • the refractive index of the prism 30c (the refractive index of the medium on the measurement auxiliary light light source side across the light emitting slope 30d) is "n1”
  • the refractive index of the prism 31 transparent across the light emitting slope 30d.
  • the refractive index of the medium on the member side is "n2”
  • "n1 ⁇ n2" is satisfied and the light emission slope 30d is tilted toward the imaging optical axis Ax side (see FIG. 5).
  • the configuration may be the reverse of the configuration shown in FIG. Specifically, as shown in FIG.
  • n1> n2 may be set, and the light emitting slope 30d may be tilted to the side opposite to the imaging optical axis Ax.
  • the configuration of FIG. 5 and the configuration of FIG. 6 are compared, there is a risk that the measurement auxiliary light is totally reflected on the light emission slope 30d in the configuration of FIG. 6, and in order to avoid this, the light emission slope is used.
  • the inclination of 30d (the angle at which the measurement auxiliary light is bent) is limited.
  • the configuration of FIG. 5 is preferable to the configuration of FIG. 5 and the configuration of FIG.
  • FIG. 6 and FIGS. 7 and 8 described later the same members as those in the above-described embodiment (see FIGS. 4 and 5) are designated by the same reference numerals and the description thereof is omitted.
  • the space between the transparent lid 22 and the light emitting slope 30d may be a space (a space filled with gas) in which no member is arranged.
  • the transparent lid 22 and the light emitting slope 30d are airtight (see FIGS. 5 and 6).
  • the shape and / or size of the prism 31 can be appropriately changed within a range satisfying this (at least within a range satisfying the condition of making the optical path portion of the measurement auxiliary light airtight).
  • the prism 100 is provided instead of the transparent lid 22 (see FIG. 5) and the prism 31 (see FIG. 5).
  • the prism 100 has a flat surface 22a similar to the transparent lid 22.
  • the prism 100 has a first contact surface 31a similar to that of the prism 31.
  • the tip surface of the insertion portion 12a is made flat by filling the gap between the prism 100 and the prism 30c and the second hole portion 20b with an adhesive. It is supposed to be.
  • a transparent loading material such as an adhesive is loaded as a transparent member between the transparent lid 22 and the light emitting slope 30d to form an optical path portion of the measurement auxiliary light. It may be airtight. Further, by changing the prism 31 (see FIG. 5) and the transparent lid 22 (see FIG. 5) and loading a transparent loading material into the second hole portion 20b, the optical path portion of the measurement auxiliary light is made airtight.
  • the tip surface of the insertion portion 12a may be a flat surface.
  • the measurement auxiliary optical optical system 30 may be any as long as it can emit the measurement auxiliary light toward the field of view of the imaging optical system.
  • the light source 30a may be provided in the light source device, and the light emitted from the light source 30a may be guided to the measurement auxiliary light generation element 30b by the optical fiber.
  • the measurement auxiliary light is emitted in the direction crossing the field of view of the imaging optical system. It may be configured.
  • the light emitting surface when the measurement auxiliary light is emitted from the measurement auxiliary optical optical system 30 is inclined and recessed with respect to the tip surface of the insertion portion 12a.
  • the refraction of the measurement auxiliary light occurs not only when passing through the light emitting slope 30d but also when emitting from the transparent member. Further, if the material of the transparent member differs depending on the part, such as when the transparent member is composed of the transparent lid 22 and the prism 31 (see FIGS. 5 and 7), measurement assistance is also assisted when passing through the boundary between the transparent members. Refraction of light occurs. Therefore, in an actual product, it is naturally designed in consideration of these refractions. However, in the present specification, in order to avoid complicating the explanation, these refractions (refractions other than the refraction that occurs when passing through the light emitting slope 30d) are described without consideration.
  • the auxiliary optical axis Lm is tilted with respect to the imaging optical axis Ax so that the auxiliary optical axis Lm intersects the imaging optical axis Ax.
  • the measurement auxiliary light in the imaging range (indicated by arrows Qx, Qy, Qz) at each point. It can be seen that the positions of the spots SP formed on the subject (points where the arrows Qx, Qy, and Qz intersect with the imaging optical axis Ax) are different.
  • the imaging angle of view of the imaging optical system is represented within the region sandwiched between the two solid lines 45, and the measurement is performed in the central region (the region sandwiched between the two dotted lines 46) with less aberration in the imaging angle of view. ing.
  • the size of the subject can be measured with high accuracy by tilting the auxiliary optical axis Lm so that the auxiliary optical axis Lm intersects the imaging optical axis Ax. That is, the auxiliary optical axis Lm may be tilted so as to intersect the field of view of the imaging optical system 29b (it does not necessarily have to intersect the imaging optical axis Ax), but when it intersects the photographing optical axis Ax. Since the spot SP occurs in the central region (the region with less aberration) of the captured image than when the two do not intersect, the sensitivity of the movement of the spot position to the change in the observation distance is high, and the size of the subject is higher. It can be measured accurately.
  • an captured image including the spot SP can be obtained.
  • the position of the spot SP differs depending on the relationship between the imaging optical axis Ax and the auxiliary optical axis Lm and the observation distance, but if the observation distance is short, pixels showing the same actual size (for example, 5 mm). The number increases, and the number of pixels decreases as the observation distance increases.
  • the signal processing unit 39 of the processor device 16 captures an image of a subject illuminated by the illumination light and the measurement auxiliary light in order to recognize the position of the spot SP and set the measurement marker.
  • a position specifying unit 50 that specifies the position of the spot SP in the obtained first captured image, and a specific image in which a measurement marker is set based on the position of the spot SP and the set measurement marker is displayed on the first captured image. It is provided with a measurement marker setting unit 52 to be generated.
  • the specific image is displayed on the monitor 18 by the display control unit 40.
  • the specific image may be an image in which a measurement marker is set with respect to the second captured image obtained by imaging the subject illuminated by the illumination light.
  • the position specifying unit 50 identifies the position of the spot SP based on the first captured image. Specifically, the coordinate information regarding the position of the spot SP is specified.
  • the spot SP is displayed in a substantially circular red region containing a large amount of components corresponding to the color of the measurement auxiliary light in the first captured image. Therefore, the position of the spot SP is specified from the substantially circular red region.
  • the captured image is binarized, and the center of gravity of the white portion (pixel whose signal intensity is higher than the binarization threshold) in the binarized image is specified as the position of the spot SP.
  • the measurement marker setting unit 52 sets the measurement marker based on the position of the spot SP in the first captured image.
  • the measurement marker setting unit 52 calculates the marker size from the spot SP position with reference to the marker table 54 that stores the relationship between the spot SP position and the measurement marker size in the first captured image. .. Then, the measurement marker setting unit 52 sets the measurement marker corresponding to the size of the marker. Then, the measurement marker setting unit 52 generates a specific image in which the measurement marker is superimposed and displayed on the first captured image.
  • the measurement markers include a plurality of types such as a first measurement marker and a second measurement marker, and which type of measurement marker is to be displayed on the captured image is selected according to the user's instruction. Is possible. As the user's instruction, for example, the user interface 19 is used.
  • a cross-shaped measurement marker Mx is used as the first measurement marker.
  • the actual size is 5 mm (horizontal and vertical of the captured image) in accordance with the center of the spot SP1 formed on the tumor tm1 of the subject.
  • a cross-shaped marker Mx1 indicating the direction) is displayed. Since the tumor tm1 and the range defined by the cross-shaped marker Mx1 are substantially the same, the tumor tm1 can be measured to be about 5 mm.
  • the actual size is 5 mm (horizontal direction of the second captured image and the center of the spot SP2 formed on the tumor tm2 of the subject).
  • a cross-shaped marker Mx2 indicating (vertical direction) is displayed.
  • a cross-shaped marker Mx3 indicating an actual size of 5 mm is displayed so as to be aligned with the center of the spot SP3 formed on the tumor tm3 of the subject. Will be done.
  • the position of the spot on the image pickup surface of the image pickup device 32 differs depending on the observation distance, and the display position of the marker also differs accordingly.
  • the size of the first measurement marker Mx corresponding to the same actual size of 5 mm becomes smaller as the observation distance becomes longer.
  • the center of the spot SP and the center of the marker are displayed so as to coincide with each other.
  • the first measurement marker is located at a position away from the spot SP. May be displayed.
  • the first measurement marker in a state in which the distortion aberration of the captured image is corrected and not deformed may be displayed in the corrected captured image. ..
  • the first measurement marker corresponding to the actual size of the subject of 5 mm is displayed, but the actual size of the subject is an arbitrary value (for example, 2 mm) according to the observation target and the observation purpose. , 3 mm, 10 mm, etc.) may be set.
  • the first measurement marker has a cross shape in which the vertical line and the horizontal line are orthogonal to each other.
  • a scale is provided on at least one of the cross-shaped vertical line and the horizontal line. It may be a graduated cross shape with Mt.
  • a distorted cross shape in which at least one of a vertical line and a horizontal line is tilted may be used as the first measurement marker.
  • the first measurement marker may be a circle in which a cross shape and a circle are combined and a cross shape.
  • the first measurement marker may be a measurement point cloud type in which a plurality of measurement point EPs corresponding to the actual size from the spot are combined.
  • the number of the first measurement markers may be one or a plurality, and the color of the first measurement markers may be changed according to the actual size.
  • the first measurement marker as shown in FIG. 15, three concentric markers M4A, M4B, and M4C (the sizes are 2 mm, 5 mm, and 10 mm in diameter, respectively) having different sizes are placed on the tumor tm4.
  • the spot SP4 formed in the above may be displayed on the first captured image. Since a plurality of these three concentric markers are displayed, the trouble of switching can be saved, and measurement is possible even when the subject has a non-linear shape.
  • a combination of multiple conditions can be prepared in advance and selected from the combinations. It may be.
  • all three concentric markers are displayed in the same color (black), but when displaying a plurality of concentric markers, they may be displayed as a plurality of colored concentric markers whose colors are changed by the markers.
  • the marker M5A is represented by a dotted line representing red
  • the marker M5B is represented by a solid line representing blue
  • the marker M5C is represented by a alternate long and short dash line representing white.
  • the first measurement marker in addition to a plurality of concentric markers, as shown in FIG. 17, a plurality of distorted concentric markers in which each concentric circle is distorted may be used.
  • the distorted concentric markers M6A, M6B, and M6C are displayed in the first captured image centering on the spot SP5 formed on the tumor tm5.
  • the measurement auxiliary light the light formed as a spot when the subject is irradiated is used, but other light may be used.
  • a planar measurement auxiliary light formed as an intersection line 80 on the subject may be used.
  • the measurement marker a second measurement marker including the intersection line 80 and the scale 82 as an index of the size of the subject (for example, the polyp P) is generated on the intersection line 80.
  • the position specifying unit 50 specifies the position of the intersection line 80 (specific area). The lower the crossing line 80 is, the closer the observation distance is, and the higher the crossing line 80 is, the farther the observation distance is. Therefore, the lower the intersection line 80 is, the larger the distance between the scales 82 is, and the higher the intersection line 80 is, the smaller the distance between the scales 82 is.
  • the hardware structure of the processing unit that executes various processes such as the signal processing unit 39, the display control unit 40, and the system control unit 41 has the following various processors (processors). ).
  • processors processors
  • the circuit configuration is changed after manufacturing the CPU (Central Processing Unit), FPGA (Field Programmable Gate Array), etc., which are general-purpose processors that execute software (programs) and function as various processing units. It includes a programmable logic device (PLD), which is a possible processor, a dedicated electric circuit, which is a processor having a circuit configuration specially designed for executing various processes, and the like.
  • PLD programmable logic device
  • One processing unit may be composed of one of these various processors, or may be composed of a combination of two or more processors of the same type or different types (for example, a plurality of FPGAs or a combination of a CPU and an FPGA). May be done. Further, a plurality of processing units may be configured by one processor. As an example of configuring a plurality of processing units with one processor, first, as represented by a computer such as a client or a server, one processor is configured by a combination of one or more CPUs and software. There is a form in which this processor functions as a plurality of processing units.
  • SoC System On Chip
  • a processor that realizes the functions of the entire system including a plurality of processing units with one IC (Integrated Circuit) chip is used.
  • the various processing units are configured by using one or more of the above-mentioned various processors as a hardware-like structure.
  • the hardware structure of these various processors is, more specifically, an electric circuit in the form of a combination of circuit elements such as semiconductor elements.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Astronomy & Astrophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

内視鏡の挿入部の先端部に凹凸のない内視鏡、内視鏡装置を提供する。 第2孔部(20b)には、内視鏡(12)の計測補助光光学系(30)が収められている。第2孔部(20b)の先端には透明蓋(22)が設けられ、第2孔部(20b)は透明蓋(22)によって塞がれており、計測補助光光学系(30)は透明蓋(22)の背後に収められている。透明蓋(22)は、板状に形成され、一端面が平坦面(22a)となっている。透明蓋(22)は、平坦面(22a)が第2孔部(20b)の先端と面一となるように配置されている。

Description

内視鏡、内視鏡装置
 本発明は、内視鏡、内視鏡装置に関する。
 内視鏡により観察対象を観察する際に、観察対象物までの距離を取得することが行われている。例えば、下記特許文献1では、撮像光学系とは離間して設けられた計測補助光光学系から、撮像光学系の光軸へ向けて光軸が傾けられたレーザー光を計測補助光として照射し、撮像光学系により得られた画像中に写る計測補助光のスポットの位置に基づいて観察対象物までの距離を取得している。
国際公開2018/051680号
 しかしながら、上記特許文献1のように計測補助光を傾けて照射する場合、撮像光学系の先端面に対して計測補助光の出斜面が傾くので、内視鏡の挿入部の先端部に凹凸が形成されてしまい、この凹凸部分に異物が詰まるなどの問題があった。
 本発明は、上記背景を鑑みてなされたものであり、内視鏡の挿入部の先端部に凹凸のない内視鏡、内視鏡装置を提供することを目的とする。
 本発明の内視鏡は、挿入部の先端に設けられた第1孔部、第2孔部と、第1孔部に収納された撮像光学系と、第2孔部に収納され、第2孔部の内部に配置された光出射面から撮像光学系の光軸へ向け、撮像光学系の光軸に対して光軸が傾けられた計測補助光を出射する計測補助光光学系と、挿入部の先端と面一な平坦面を有し、光出斜面から出射された計測補助光の光路に挿入された透明部材と、を備える。
 透明部材は、第2孔部を塞ぐ蓋として機能することが好ましい。
 透明部材は、光出斜面に密着される密着面を有し、計測補助光の光路のうち、密着面と平坦面との間は、透明部材により気密であることが好ましい。
 透明部材は、光学部材を含んで構成され、密着面は、光学部材に形成されていることが好ましい。
 透明部材は、密着面と平坦面との間に装填される透明な装填材を含んで構成され、装填材が光出斜面と密着することにより密着面が形成されることが好ましい。
 計測補助光の光路の媒質のうち、光出斜面を挟んで計測補助光光学系側の媒質の方が透明部材側の媒質よりも光屈折率が小さいことが好ましい。
 撮像光学系の光軸と計測補助光光学系の光軸とが交差することが好ましい。
 挿入部の先端から、撮像光学系の光軸と計測補助光光学系の光軸との交差点までの距離が、8mm以上12mm以下の範囲であることが好ましい。
 計測補助光は、直線状の平行光であることが好ましい。
 また、本発明の内視鏡装置は、上述の内視鏡と、撮像光学系により得られた撮像画像に含まれる領域の中から、計測補助光によって形成された特定領域の位置を特定する位置特定部と、特定領域の位置に応じて設定される計測用マーカを、撮像画像に表示した特定画像を表示部に表示する表示制御部と、を備える。
 本発明によれば、挿入部の先端部の凹凸部分に異物が詰まるなどの問題がない内視鏡、内視鏡装置を提供できる。
内視鏡装置の外観図である。 内視鏡の挿入部の先端を示す平面図である。 内視鏡装置の機能を示すブロック図である。 計測補助光光学系の説明図である。 計測補助光光学系の説明図である。 計測補助光光学系の説明図である。 計測補助光光学系の説明図である。 計測補助光光学系の説明図である。 内視鏡の挿入部の先端と観察距離の範囲Rx内の近端Px、中央付近Py、及び遠端Pzとの関係を示す説明図である。 信号処理部の機能を示すブロック図である。 観察距離が近端Pxである場合のスポット及び第1の計測用マーカを示す画像図である。 観察距離が中央付近Pyである場合のスポット及び第1の計測用マーカを示す画像図である。 観察距離が遠端Pzである場合のスポット及び第1の計測用マーカを示す画像図である。 目盛り付き十字型、歪曲十字型、円及び十字型、及び計測用点群型の第1の計測用マーカを示す説明図である。 色がそれぞれ同じ3つの同心円状のマーカを示す画像図である。 色がそれぞれ異なる3つの同心円状のマーカを示す画像図である。 歪曲同心円状のマーカを示す画像図である。 交差ライン及び目盛りを示す画像図である。
 図1に示すように、内視鏡装置10は、内視鏡12と、光源装置14と、プロセッサ装置16と、モニタ18と、ユーザーインターフェース19とを有する。内視鏡12は光源装置14と光学的に接続され、且つ、プロセッサ装置16と電気的に接続される。プロセッサ装置16は、画像を表示するモニタ18(表示部)に電気的に接続されている。ユーザーインターフェース19は、プロセッサ装置16に接続されており、プロセッサ装置16に対する各種設定操作等に用いられる。なお、ユーザーインターフェース19は図示したキーボードの他、マウスなどが含まれる。
 内視鏡12は、被検体内に挿入される挿入部12aと、挿入部12aの基端部分に設けられた操作部12bと、挿入部12aの先端側に設けられる湾曲部12c及び先端部12dを有している。操作部12bのアングルノブ12eを操作することにより、湾曲部12cは湾曲動作する。この湾曲動作に伴って、先端部12dが所望の方向に向けられる。
 内視鏡12は、通常モードと、測長モードとを備えており、これら2つのモードは内視鏡12の操作部12bに設けられたモード切替スイッチ13aによって切り替えられる。通常モードは、照明光によって観察対象を照明するモードである。測長モードは、照明光又は計測補助光を観察対象に照明し、且つ、観察対象の撮像により得られる撮像画像上に、観察対象の大きさなどの測定に用いられる計測用マーカ(図11~図13参照)を表示する。計測補助光は、被写体の計測に用いられる光である。なお、内視鏡12においては、通常モード、測長モード以外に、照明光として、特定の部位の強調に用いる特殊光を被写体に照明する特殊光モードなどを設けてもよい。
 内視鏡12の操作部12bには、撮像画像の静止画の取得を指示する静止画取得指示を操作するためのフリーズスイッチ13bが設けられている。ユーザーがフリーズスイッチ13bを操作することにより、モニタ18の画面がフリーズ表示し、合わせて、静止画取得を行う旨のアラート音(例えば「ピー」)を発する。そして、フリーズスイッチ13bの操作タイミング前後に得られる撮像画像の静止画が、プロセッサ装置16(図3参照)内の静止画保存部42(図3参照)に保存される。なお、測長モードに設定されている場合には、撮像画像の静止画と合わせて、計測用マーカを保存してもよい。
 静止画保存部42はハードディスクやUSB(Universal Serial Bus)メモリなどの記憶部である。プロセッサ装置16がネットワークに接続可能である場合には、静止画保存部42に代えて又は加えて、ネットワークに接続された静止画保存サーバ(図示しない)に撮像画像の静止画を保存するようにしてもよい。
 なお、フリーズスイッチ13b以外の操作機器を用いて、静止画取得指示を行うようにしてもよい。例えば、プロセッサ装置16にフットペダルを接続し、ユーザーが足でフットペダル(図示しない)を操作した場合に、静止画取得指示を行うようにしてもよい。モード切替についてのフットペダルで行うようにしてもよい。また、プロセッサ装置16に、ユーザーのジェスチャーを認識するジェスチャー認識部(図示しない)を接続し、ジェスチャー認識部が、ユーザーによって行われた特定のジェスチャーを認識した場合に、静止画取得指示を行うようにしてもよい。モード切替についても、ジェスチャー認識部を用いて行うようにしてもよい。
 また、モニタ18の近くに設けた視線入力部(図示しない)をプロセッサ装置16に接続し、視線入力部が、モニタ18のうち所定領域内にユーザーの視線が一定時間以上入っていることを認識した場合に、静止画取得指示を行うようにしてもよい。また、プロセッサ装置16に音声認識部(図示しない)を接続し、音声認識部が、ユーザーが発した特定の音声を認識した場合に、静止画取得指示を行うようにしてもよい。モード切替についても、音声認識部を用いて行うようにしてもよい。また、プロセッサ装置16に、タッチパネルなどのオペレーションパネル(図示しない)を接続し、オペレーションパネルに対してユーザーが特定の操作を行った場合に、静止画取得指示を行うようにしてもよい。モード切替についても、オペレーションパネルを用いて行うようにしてもよい。
 図2に示すように、先端部12dは略円形となっており、第1孔部20aと、第2孔部20bとが設けられている。第1孔部20aには、内視鏡12の撮像光学系29b(図3参照)が収められており、撮像光学系29bの構成部材のうち最も被写体側に位置する対物レンズ21が露呈されている。第2孔部20bには、内視鏡12の計測補助光光学系30(図3参照)が収められている。第2孔部20bの先端には透明蓋22(透明部材)が設けられ、第2孔部20bは透明蓋22によって塞がれており、計測補助光光学系30は透明蓋22の背後に収められている。また、内視鏡先端部12dには、被写体に対して照明光を照射するための照明レンズ23と、処置具を被写体に向けて突出させるための開口24と、送気送水を行うための送気送水ノズル25とが設けられている。
 対物レンズ21の光軸(撮像光学系29bの光軸であり、以下、撮像光軸と称する)Ax(図4参照)は、図2の紙面に対して垂直な方向に延びている。つまり、撮像光軸Axは、互いに直行する縦の第1方向D1と横の第2方向D2とのいずれに対しても直交している。対物レンズ21(第1孔部20a)と透明蓋22(第2孔部20b)とは、第1方向D1に沿って配列されている。
 図3に示すように、光源装置14は、光源部26と、光源制御部27とを備えている。光源部26は、被写体を照明するための照明光を発生する。光源部26から出射された照明光は、ライトガイド28に入射され、照明レンズ23を通って被写体に照射される。光源部26としては、照明光の光源として、白色光を出射する白色光源、又は、白色光源とその他の色の光を出射する光源(例えば青色光を出射する青色光源)を含む複数の光源等が用いることが好ましい。光源制御部27は、プロセッサ装置16のシステム制御部41と接続されている。光源制御部27は、システム制御部41からの指示に基づいて光源部26を制御する。システム制御部41は、光源制御部27に対して、光源制御に関する指示を行う他に、計測補助光光学系30の光源30a(図4参照)も制御する。
 内視鏡12の先端部12dには、照明光学系29a、撮像光学系29b、及び計測補助光光学系30が設けられている。照明光学系29aは照明レンズ23を有しており、この照明レンズ23を介して、ライトガイド28からの光が観察対象に照射される。撮像光学系29bは、対物レンズ21及び撮像素子32を有している。観察対象からの反射光は、対物レンズ21を介して、撮像素子32に入射する。これにより、撮像素子32に観察対象の反射像が結像される。
 撮像素子32はカラーの撮像センサであり、被検体の反射像を撮像して画像信号を出力する。この撮像素子32は、CCD(Charge Coupled Device)撮像センサやCMOS(Complementary Metal-Oxide Semiconductor)撮像センサ等であることが好ましい。本発明で用いられる撮像素子32は、R(赤)、G(緑)B(青)の3色のRGB画像信号を得るためのカラーの撮像センサである。撮像素子32は、撮像制御部33によって制御される。なお、撮像素子32として、補色のC(シアン)、M(マゼンタ)、Y(イエロー)、G(緑)のカラーフィルタが設けられた補色系の撮像素子を用いてもよい。
 撮像素子32から出力される画像信号は、CDS・AGC回路34に送信される。CDS・AGC回路34は、アナログ信号である画像信号に相関二重サンプリング(CDS(Correlated Double Sampling))や自動利得制御(AGC(Auto Gain Control))を行う。CDS・AGC回路34を経た画像信号は、A/D変換器(A/D(Analog /Digital)コンバータ)35により、デジタル画像信号に変換される。A/D変換されたデジタル画像信号は、通信I/F(Interface)36を介して、プロセッサ装置16に入力される。
 プロセッサ装置16は、内視鏡12の通信I/F36と接続される通信I/F(Interface)38と、信号処理部39と、表示制御部40と、システム制御部41とを備えている。通信I/Fは、内視鏡12の通信I/F36から伝送されてきた画像信号を受信して信号処理部39に伝達する。信号処理部39は、通信I/F38から受けた画像信号を一時記憶するメモリを内蔵しており、メモリに記憶された画像信号の集合である画像信号群を処理して、撮像画像を生成する。
 なお、信号処理部39では、測長モードに設定されている場合には、撮像画像に対して、血管などの構造を強調する構造強調処理や、観察対象のうち正常部と病変部などとの色差を拡張した色差強調処理を施すようにしてもよい。また、信号処理部39とシステム制御部41については、プロセッサ装置16に接続された外部の処理装置(図示しない)に設け、外部の処理装置でそれら信号処理部39とシステム制御部41に関連する処理を行ってもよい。例えば、測長モードに設定されている場合には、スポットSPを含む第1撮像画像を外部の処理装置に送って、外部の処理装置で第1撮像画像からスポットSPの位置を特定してもよい。また、外部の処理装置において、スポットSP(図11~図13参照)の位置に応じて計測用マーカを設定し、設定した計測用マーカを第1撮像画像に表示した特定画像を生成してもよい。生成した特定画像はプロセッサ装置16に送信される。
 表示制御部40は、信号処理部39によって生成された撮像画像をモニタ18に表示する。システム制御部41は、内視鏡12に設けられた撮像制御部33を介して、撮像素子32の制御を行う。撮像制御部33は、撮像素子32の制御に合わせて、CDS/AGC34及びA/D35の制御も行う。静止画保存制御部43は、静止画保存部42に保存する撮像画像の静止画に関する制御を行う。
 図4、図5に示すように、計測補助光光学系30は、光源30aと、計測補助光生成素子30b(コリメータレンズや回折光学素子DOE(Diffractive Optical Element)など)と、プリズム30cとを備え、これらが第2孔部20bの内部に収納されている。光源30aは、撮像素子32の画素によって検出可能な色の光(具体的には可視光)を出射するものであり、レーザー光源LD(Laser Diode)又はLED(Light Emitting Diode)等の発光素子と、出射レンズとを含む。
 光源30aが出射する光の波長は、例えば、600nm以上650nm以下の赤色光であることが好ましい。もしくは、495nm以上570nm以下の緑色光を用いてもよい。光源30aはシステム制御部41によって制御され、システム制御部41からの指示に基づいて光出射を行う。計測補助光生成素子30bは、光源から出射した光を、被写体の計測に用いられる計測補助光に変換する。このようにして変換された計測補助光は、コリメートされた(拡散及び収束が抑えられた)直線状の平行光である。
 プリズム30cは、計測補助光の光軸(以下、補助光光軸と称する)Lmを屈曲させて(傾けて)計測補助光の進行方向を変える。プリズム30cは、光出斜面30dが挿入部12a(先端部12d)の先端面に対して傾けられており、対物レンズ21及びレンズ群を含む撮像光学系29bの視野と交差するように、撮像光軸Axに対して補助光光軸Lmを傾ける。なお、本実施形態では、挿入部12aの先端(先端面)からの距離L1が8mm以上12mm以下の範囲で撮像光軸Axと交差するように補助光光軸Lmを傾けている。そして、このように傾けられた計測補助光が被写体に照射されることにより、被写体において、円状領域(特定領域)としてのスポットSP(図11~図13参照)が形成される。このスポットSPの位置は、位置特定部50によって特定され、また、スポットSPの位置に応じて、実寸サイズを表す計測用マーカが設定される。設定された計測用マーカは、撮像画像上に表示される。
 上述のように、計測補助光光学系30は第2孔部20bに収納され、計測補助光光学系30の先端であるプリズム30cの光出射面30dは挿入部12aの先端面に対して傾いているため、光出斜面30dの部分が挿入部12aの先端面に対して窪んだ状態となっている。このため、内視鏡12では、挿入部12aの先端面が平坦なものとするために、透明蓋22を設けて第2孔部20bを塞いでいる。透明蓋22は、板状に形成され、一端面(表面)が平坦面22aとなっている。そして、透明蓋22は、この平坦面22aが第2孔部20bの先端(挿入部12aの先端面)と面一となるように配置されている。このように、挿入部12aの先端面が平坦なものとすることで、透明蓋22がなく異物が詰まり計測補助光が遮られるなどの問題を防止できる。
 なお、平坦面22aには、凹凸の無い完全な平面が含まれるのはもちろんのこと、ほぼ平面、具体的には0.1mm以下の微細な凹凸が存在する面も含まれる。また、平坦面22aには、湾曲面も含まれる。ただし、平坦面22aが湾曲面である場合には、高さが1mm以下の範囲内で、接線の傾きが連続したなだらかな湾曲面であることが好ましい。また、例えば、平坦面22aが凸型に湾曲している場合と、凹型に湾曲している場合とを比較すると、凸型に湾曲している場合の方が計測補助光が遮られるといった問題が発生し難い(平坦面22a上に異物が詰まり難い)。このため、平坦面22aが湾曲面である場合には、全体として凸型に湾曲していることが好ましい。
 さらに、透明蓋22(平坦面22a)が第2孔部20bの先端(挿入部12aの先端面)と面一であるとは、これら2つの部位が段差無く完全に面一に接続されていることが含まれるのはもちろんのこと、ほぼ面一、具体的には2つの部位間に0.1mm以下の僅かな段差が存在する場合も含まれる。なお、第2孔部20bから透明蓋22が突出している場合と、第2孔部20bに対して透明蓋22が窪んでいる場合と比較すると、第2孔部20bから透明蓋22が突出している場合の方が計測補助光が遮られるといった問題が発生し難い(平坦面22a上に異物が詰まり難い)。このため、第2孔部20bと透明蓋22との間に段差が存在する場合には、第2孔部20bから透明蓋22が突出していることが好ましい。
 図5において、透明蓋22と光出斜面30dとの間には、プリズム31(透明部材、光学部材)が配置されている。プリズム31は、第1密着面31a(密着面)、第2密着面31bを有し、第1密着面31aを光出斜面30dに密着させ、第2密着面31bを透明蓋22の裏面22bに密着させている。このプリズム31により、透明蓋22と光出斜面30dとの間から気体が排除され、透明蓋22と光出斜面30dとの間が気密となる。そして、このように、透明蓋22と光出斜面30dとの間を気密とすることで、結露による問題の発生を防止できる。つまり、透明蓋22の裏面22b(平坦面22aの反対側の面)及び/または光出斜面30dに結露が発生し、計測補助光の減衰、拡散、収束、及び/または屈折などの問題(結露による問題)が生じてしまうといったことがない。
 なお、本発明は、上記実施形態に限定されず、細部の構成は適宜変更できる。例えば、上記実施形態では、プリズム30cの屈折率(光出斜面30dを挟んで計測補助光光源側の媒質の屈折率)を「n1」、プリズム31の屈折率(光出斜面30dを挟んで透明部材側の媒質の屈折率)を「n2」としたときに、「n1<n2」を満たしており、光出斜面30dが撮像光軸Ax側に傾いている構成(図5参照)を例に説明をしたが、図5の構成とは逆の構成としてもよい。具体的には、図6に示すように、「n1>n2」とし、光出斜面30dを撮像光軸Axとは反対側に傾けてもよい。ただし、図5の構成と、図6の構成とを比較した場合、図6の構成では、光出斜面30dにおいて計測補助光が全反射されるリスクがあり、これを避けるために、光出斜面30dの傾き(計測補助光を屈曲させる角度)が制限されてしまう。これに対し、図5の構成では、光出斜面30dにおいて計測補助光が全反射されるリスクがないため、図6の構成のような制限がない。よって、図5の構成と図6の構成とでは、図5の構成の方が好ましい。なお、図6及び後述する図7、図8においては、上述した実施形態(図4、5参照)と同様の部材については、同様の符号を付して説明を省略している。
 また、図7に示すように、透明蓋22と光出斜面30dとの間は、部材の配置されない空間(気体が満たされた空間)としてもよい。ただし、この場合、前述のように、結露による問題が生じてしまうリスクがある。このため、透明蓋22と光出斜面30dとの間は、気密にすることが好ましい(図5、図6参照)。
 なお、結露による問題の発生を防ぐためには、透明蓋22と光出斜面30dとの間の全域を気密にする必要はなく、計測補助光の光路部分が気密であればよい。このため、これを満たす範囲内(少なくとも計測補助光の光路部分を気密にするといった条件を満たす範囲内)で、プリズム31の形状、及び/または、大きさについては適宜変更できる。
 さらに、図8に示すように、透明蓋22とプリズム31を別体に設ける例で説明をしたが、これらを共通の材料から一体に形成してもよい。図8の例では、透明蓋22(図5参照)とプリズム31(図5参照)とに変えて、プリズム100を設けている。プリズム100は、透明蓋22と同様の平坦面22aを備えている。また、プリズム100は、プリズム31と同様の第1密着面31aを備えている。さらに、図8の例では、図中ハッチングで示すように、プリズム100及びプリズム30cと、第2孔部20bとの間の隙間を接着剤で埋めることにより、挿入部12aの先端面を平坦なものとしている。
 また、プリズム31(図5参照)に変えて、接着剤などの透明な装填材を、透明部材として、透明蓋22と光出斜面30dとの間に装填することによって計測補助光の光路部分を気密にしてもよい。さらに、プリズム31(図5参照)と透明蓋22(図5参照)とに変えて、透明な装填材を第2孔部20bに装填することにより、計測補助光の光路部分を気密にするとともに、挿入部12aの先端面を平坦面としてもよい。
 また、計測補助光光学系30は、計測補助光を撮像光学系の視野に向けて出射できるものであればよい。例えば、光源30aが光源装置に設けられ、光源30aから出射された光が光ファイバによって計測補助光生成素子30bにまで導光されるものであってもよい。さらに、プリズム30cを用いずに、光源30a及び計測補助光生成素子30bの向きを撮像光軸Axに対して斜めに設置することで、撮像光学系の視野を横切る方向に計測補助光を出射させる構成としてもよい。この場合についても、計測補助光光学系30から計測補助光が出射される際の光出射面が、挿入部12aの先端面に対して傾いて窪んだ状態となるので。透明部材を設けて挿入部12aの先端面を平坦面とすることで、異物が詰まり計測補助光が遮られるなどの問題を防止できる。
 なお、計測補助光の屈折は、光出斜面30dを通過する際のみならず、透明部材から出射する際にも生じる。また、透明部材が透明蓋22とプリズム31とから構成される場合(図5、図7参照)など、透明部材の素材が部位によって異なると、この素材間の境界を通過する際にも計測補助光の屈折が生じる。このため、実際の製品においては当然ながらこれらの屈折も考慮して設計されている。しかし、本明細書においては、説明が煩雑化するのを避けるために、これらの屈折(光出斜面30dを通過する際に生じる屈折以外の屈折)について考慮せずに説明を行っている。
 図9に示すように、計測補助光は、補助光光軸Lmが撮像光軸Axと交差するように、補助光光軸Lmが撮像光軸Axに対して傾けられている。観察距離の範囲Rxにおいて観察可能であるとすると、範囲Rxの近端Px、中央付近Py、及び遠端Pzでは、各点での撮像範囲(矢印Qx、Qy、Qzで示す)における計測補助光によって被写体上に形成されるスポットSPの位置(各矢印Qx、Qy、Qzが撮像光軸Axと交わる点)が異なることが分かる。なお、撮像光学系の撮像画角は2つの実線45で挟まれる領域内で表され、この撮像画角のうち収差の少ない中央領域(2つの点線46で挟まれる領域)で計測を行うようにしている。
 以上のように、補助光光軸Lmが撮像光軸Axと交差するように補助光光軸Lmを傾けることによって、被写体の大きさを高精度に計測することができる。つまり、補助光光軸Lmは、撮像光学系29bの視野と交差するように傾ければよい(必ずしも撮像光軸Axと交差していなくてもよい)が、撮影光軸Axと交差する場合の方が交差しない場合よりも撮影画像のより中央の領域(より収差のより少ない領域)にスポットSPが生じるため、観察距離の変化に対するスポット位置の移動の感度が高く、被写体の大きさをより高精度に計測できる。そして、計測補助光が照明された被写体を撮像素子32で撮像することによって、スポットSPを含む撮像画像が得られる。撮像画像では、スポットSPの位置は、撮像光軸Axと補助光光軸Lmとの関係、及び観察距離に応じて異なるが、観察距離が近ければ、同一の実寸サイズ(例えば5mm)を示すピクセル数が多くなり、観察距離が遠ければピクセル数が少なくなる。
 図10に示すように、プロセッサ装置16の信号処理部39には、スポットSPの位置認識、及び計測用マーカの設定を行うために、照明光及び計測補助光によって照明された被写体を撮像して得られる第1撮像画像におけるスポットSPの位置を特定する位置特定部50と、スポットSPの位置に基づいて計測用マーカを設定し、設定した計測用マーカを第1撮像画像に表示する特定画像を生成する計測用マーカ設定部52とを備えている。特定画像は、表示制御部40によってモニタ18に表示される。なお、特定画像については、照明光によって照明された被写体を撮像して得られる第2撮像画像に対して、計測用マーカを設定した画像としてもよい。
 位置特定部50は、第1撮像画像に基づいて、スポットSPの位置を特定する。具体的には、スポットSPの位置に関する座標情報を特定する。スポットSPは、第1撮像画像において、計測補助光の色に対応する成分を多く含む略円状の赤色領域で表示される。したがって、略円状の赤色領域からスポットSPの位置を特定する。位置の特定方法としては、例えば、撮像画像を二値化し、二値化画像のうち白部分(信号強度が二値化用閾値より高い画素)の重心を、スポットSPの位置として特定する。
 計測用マーカ設定部52は、第1撮像画像におけるスポットSPの位置に基づいて、計測用マーカを設定する。計測用マーカ設定部52は、第1撮像画像におけるスポットSPの位置と計測用マーカの大きさとの関係を記憶したマーカ用テーブル54を参照して、スポットSPの位置からマーカの大きさを算出する。そして、計測用マーカ設定部52では、マーカの大きさに対応する計測用マーカを設定する。そして、計測用マーカ設定部52は、計測用マーカを第1撮像画像に重畳表示した特定画像を生成する。
 計測用マーカには、第1の計測用マーカ、第2の計測用マーカなど複数の種類が含まれ、いずれの種類の計測用マーカを撮像画像上に表示するかについては、ユーザーの指示によって選択が可能となっている。ユーザーの指示としては、例えば、ユーザーインターフェース19が用いられる。
 第1の計測用マーカとしては、例えば、十字型の計測用マーカMxを用いる。この場合、図11に示すように、観察距離が近端Pxに近い場合には、被写体の腫瘍tm1上に形成されたスポットSP1の中心に合わせて、実寸サイズ5mm(撮像画像の水平方向及び垂直方向)を示す十字型のマーカMx1が表示される。腫瘍tm1と十字型のマーカMx1により定められる範囲とはほぼ一致しているため、腫瘍tm1は5mm程度と計測することができる。
 同様にして、図12に示すように、観察距離が中央付近Pyに近い場合、被写体の腫瘍tm2上に形成されたスポットSP2の中心に合わせて、実寸サイズ5mm(第2撮像画像の水平方向及び垂直方向)を示す十字型のマーカMx2が表示される。また、図13に示すように、被写体の腫瘍tm3上に形成されたスポットSP3の中心に合わせて、実寸サイズ5mm(第2撮像画像の水平方向及び垂直方向)を示す十字型のマーカMx3が表示される。以上のように、観察距離によって撮像素子32の撮像面におけるスポットの位置が異なり、これに従って、マーカの表示位置も異なっている。以上の図11~図13に示すように、観察距離が長くなるにつれて同一の実寸サイズ5mmに対応する第1の計測用マーカMxの大きさが小さくなっている。
 なお、図11~図13では、スポットSPの中心とマーカの中心を一致させて表示しているが、計測精度上問題にならない場合には、スポットSPから離れた位置に第1の計測用マーカを表示してもよい。ただし、この場合にもスポットの近傍に第1の計測用マーカを表示することが好ましい。また、第1の計測用マーカを変形して表示するのではなく、撮像画像の歪曲収差を補正し変形させない状態の第1の計測用マーカを補正後の撮像画像に表示するようにしてもよい。
 また、図11~図13では、被写体の実寸サイズ5mmに対応する第1の計測用マーカを表示しているが、被写体の実寸サイズは観察対象や観察目的に応じて任意の値(例えば、2mm、3mm、10mm等)を設定してもよい。また、図11~図13では、第1の計測用マーカを、縦線と横線が直交する十字型としているが、図14に示すように、十字型の縦線と横線の少なくとも一方に、目盛りMtを付けた目盛り付き十字型としてもよい。また、第1の計測用マーカとして、縦線、横線のうち少なくともいずれかを傾けた歪曲十字型としてもよい。また、第1の計測用マーカを、十字型と円を組み合わせた円及び十字型としてもよい。その他、第1の計測用マーカを、スポットから実寸サイズに対応する複数の測定点EPを組み合わせた計測用点群型としてもよい。また、第1の計測用マーカの数は一つでも複数でもよいし、実寸サイズに応じて第1の計測用マーカの色を変化させてもよい。
 さらに、第1の計測用マーカとして、図15に示すように、大きさが異なる3つの同心円状のマーカM4A、M4B、M4C(大きさはそれぞれ直径が2mm、5mm、10mm)を、腫瘍tm4上に形成されたスポットSP4を中心として、第1撮像画像上に表示するようにしてもよい。この3つの同心円状のマーカは、マーカを複数表示するので切替の手間が省け、また、被写体が非線形な形状をしている場合でも計測が可能である。なお、スポットを中心として同心円状のマーカを複数表示する場合には、大きさや色をマーカ毎に指定するのではなく、複数の条件の組合せを予め用意しておきその組み合わせの中から選択できるようにしてもよい。
 図15では、3つの同心円状のマーカを全て同じ色(黒)で表示しているが、複数の同心円状のマーカを表示する場合、マーカによって色を変えた複数の色付き同心円状のマーカとしてもよい。図16に示すように、マーカM5Aは赤色を表す点線、マーカM5Bは青色を表す実線、マーカM5Cは白を表す一点鎖線で表示している。このようにマーカの色を変えることで識別性が向上し、容易に計測を行うことができる。
 また、第1の計測用マーカとしては、複数の同心円状のマーカの他、図17に示すように、各同心円を歪曲させた複数の歪曲同心円状のマーカを用いてもよい。この場合、歪曲同心円状のマーカM6A、マーカM6B、マーカM6Cが、腫瘍tm5に形成されたスポットSP5を中心に第1撮像画像に表示されている。
 なお、計測補助光については、被写体に照射された場合に、スポットとして形成される光を用いているが、その他の光を用いるようにしてもよい。例えば、被写体に照射された場合に、図18に示すように、被写体上に交差ライン80として形成される平面状の計測補助光を用いるようにしてもよい。この場合には、計測用マーカとして、交差ライン80及び交差ライン上に被写体の大きさ(例えば、ポリープP)の指標となる目盛り82からなる第2の計測用マーカを生成する。平面状の計測補助光を用いる場合には、位置特定部50は、交差ライン80(特定領域)の位置を特定する。交差ライン80が下方に位置する程、観察距離が近く、交差ライン80が上方に位置する程、観察距離が遠くなる。そのため、交差ライン80が下方に位置する程、目盛り82の間隔は大きくなり、交差ライン80が上方に位置する程、目盛り82の間隔は小さくなる。
 上記実施形態において、信号処理部39、表示制御部40、システム制御部41といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウエア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA (Field Programmable Gate Array) などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、各種の処理を実行するために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
 1つの処理部は、これら各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合せ(例えば、複数のFPGAや、CPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピューターに代表されるように、1つ以上のCPUとソフトウエアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
 さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた形態の電気回路(circuitry)である。
10 内視鏡装置
12 内視鏡
12a 挿入部
12b 操作部
12c 湾曲部
12d 先端部
12e アングルノブ
13a モード切替スイッチ
13b フリーズスイッチ
14 光源装置
16 プロセッサ装置
18 モニタ(表示部)
19 ユーザーインターフェース
20a 第1孔部
20b 第2孔部
21 対物レンズ
22 透明蓋(透明部材)
22a 平坦面
22b 裏面
23 照明レンズ
24 開口
25 送気送水ノズル
26 光源部
27 光源制御部
28 ライトガイド
29a 照明光学系
29b 撮像光学系
30 計測補助光光学系
30a 光源
30b 計測補助光生成素子
30c プリズム
30d 光出射面
31、100 プリズム(透明部材、光学部材)
31a 第1密着面(密着面)
31b 第2密着面
32 撮像素子
33 撮像制御部
34 CDS・AGC回路
35 A/D回路
36 通信I/F(Interface)
38 通信I/F(Interface)
39 信号処理部
40 表示制御部
41 システム制御部
42 静止画保存部
43 静止画保存制御部
45 実践(撮像光学系29bの視野の境界線)
46 点線(撮像光学系29bの視野の中央領域の境界線)
50 位置特定部
52 計測用マーカ設定部
54 マーカ用テーブル
80 交差ライン
82 目盛り
Ax 撮像光軸
Lm 補助光光軸
D1 第1方向
D2 第2方向
Rx 観察距離の範囲
Px 範囲Rxの近端
Py 範囲Rxの中央付近
Pz 範囲Rxの遠端
Qx、Qy、Qz 撮像範囲
Mt 目盛り
EP 測定点
Mx、Mx1、Mx2、Mx3 十字型の計測用マーカ
M4A、M4B、M4C、M5A、M5B、M5C 同心円状のマーカ
M6A、M6B、M6C 歪曲同心円状のマーカ
tm、tm1、tm2、tm3、tm4、tm5 腫瘍
SP、SP1、SP2、SP3、SP4、SP5 スポット
P ポリープ

Claims (10)

  1.  挿入部の先端に設けられた第1孔部、第2孔部と、
     前記第1孔部に収納された撮像光学系と、
     前記第2孔部に収納され、前記第2孔部の内部に配置された光出射面から前記撮像光学系の光軸へ向け、前記撮像光学系の光軸に対して光軸が傾けられた計測補助光を出射する計測補助光光学系と、
     前記挿入部の先端と面一な平坦面を有し、前記光出斜面から出射された前記計測補助光の光路に挿入された透明部材と、を備えた内視鏡。
  2.  前記透明部材は、前記第2孔部を塞ぐ蓋として機能する請求項1記載の内視鏡。
  3.  前記透明部材は、前記光出斜面に密着される密着面を有し、
     前記計測補助光の光路のうち、前記密着面と前記平坦面との間は、前記透明部材により気密である請求項1または2記載の内視鏡。
  4.  前記透明部材は、光学部材を含んで構成され、
     前記密着面は、前記光学部材に形成されている請求項3記載の内視鏡。
  5.  前記透明部材は、前記密着面と前記平坦面との間に装填される透明な装填材を含んで構成され、
     前記装填材が前記光出斜面と密着することにより前記密着面が形成される請求項3記載の内視鏡。
  6.  前記計測補助光の光路の媒質のうち、前記光出斜面を挟んで前記計測補助光光学系側の媒質の方が前記透明部材側の媒質よりも光屈折率が小さい請求項1~5のいずれか1項に記載の内視鏡。
  7.  前記撮像光学系の光軸と前記計測補助光光学系の光軸とが交差する請求項1~6のいずれか1項に記載の内視鏡。
  8.  前記挿入部の先端から、前記撮像光学系の光軸と前記計測補助光光学系の光軸との交差点までの距離が、8mm以上12mm以下の範囲である請求項7記載の内視鏡。
  9.  前記計測補助光は、直線状の平行光である請求項1~8のいずれか1項に記載の内視鏡。
  10.  請求項1~7のいずれか1項に記載の内視鏡と、
     前記撮像光学系により得られた撮像画像に含まれる領域の中から、前記計測補助光によって形成された特定領域の位置を特定する位置特定部と、
     前記特定領域の位置に応じて設定される計測用マーカを、前記撮像画像に表示した特定画像を表示部に表示する表示制御部と、を備えた内視鏡装置。
PCT/JP2020/006828 2019-03-29 2020-02-20 内視鏡、内視鏡装置 Ceased WO2020202883A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202080025717.5A CN113678047B (zh) 2019-03-29 2020-02-20 内窥镜、内窥镜装置
JP2021511214A JP7214840B2 (ja) 2019-03-29 2020-02-20 内視鏡、内視鏡装置
EP20785071.0A EP3951473B1 (en) 2019-03-29 2020-02-20 Endoscope and endoscopic device
US17/484,891 US20220007921A1 (en) 2019-03-29 2021-09-24 Endoscope and endoscope apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-068089 2019-03-29
JP2019068089 2019-03-29

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/484,891 Continuation US20220007921A1 (en) 2019-03-29 2021-09-24 Endoscope and endoscope apparatus

Publications (1)

Publication Number Publication Date
WO2020202883A1 true WO2020202883A1 (ja) 2020-10-08

Family

ID=72668528

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/006828 Ceased WO2020202883A1 (ja) 2019-03-29 2020-02-20 内視鏡、内視鏡装置

Country Status (5)

Country Link
US (1) US20220007921A1 (ja)
EP (1) EP3951473B1 (ja)
JP (1) JP7214840B2 (ja)
CN (1) CN113678047B (ja)
WO (1) WO2020202883A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7741004B2 (ja) * 2022-02-01 2025-09-17 富士フイルム株式会社 内視鏡システム及びその作動方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013009896A (ja) * 2011-06-30 2013-01-17 Fujifilm Corp 内視鏡
WO2013094569A1 (ja) * 2011-12-19 2013-06-27 富士フイルム株式会社 内視鏡用照明ユニット及び内視鏡
WO2018051680A1 (ja) 2016-09-15 2018-03-22 富士フイルム株式会社 内視鏡システム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02287311A (ja) * 1989-04-28 1990-11-27 Toshiba Corp 計測機構付内視鏡装置
JP2002095626A (ja) * 2000-09-22 2002-04-02 Olympus Optical Co Ltd 内視鏡
JP5315119B2 (ja) * 2009-04-22 2013-10-16 オリンパス株式会社 内視鏡及び内視鏡観察システム
JP5808218B2 (ja) * 2010-11-25 2015-11-10 富士フイルム株式会社 内視鏡用照明光学系ユニット及びその製造方法
WO2012147679A1 (ja) * 2011-04-27 2012-11-01 オリンパス株式会社 内視鏡装置および計測方法
JP5941753B2 (ja) * 2012-05-28 2016-06-29 富士フイルム株式会社 電子内視鏡装置及び撮像モジュール並びに撮影レンズモールド方法
EP3656274A4 (en) * 2017-07-18 2020-07-15 FUJIFILM Corporation ENDOSCOPY DEVICE AND MEASUREMENT SUPPORT METHOD
JP2019056722A (ja) * 2017-09-19 2019-04-11 パナソニックIpマネジメント株式会社 斜視内視鏡及び撮像システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013009896A (ja) * 2011-06-30 2013-01-17 Fujifilm Corp 内視鏡
WO2013094569A1 (ja) * 2011-12-19 2013-06-27 富士フイルム株式会社 内視鏡用照明ユニット及び内視鏡
WO2018051680A1 (ja) 2016-09-15 2018-03-22 富士フイルム株式会社 内視鏡システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3951473A4

Also Published As

Publication number Publication date
CN113678047B (zh) 2024-05-28
CN113678047A (zh) 2021-11-19
JP7214840B2 (ja) 2023-01-30
EP3951473B1 (en) 2025-11-05
EP3951473A1 (en) 2022-02-09
US20220007921A1 (en) 2022-01-13
JPWO2020202883A1 (ja) 2020-10-08
EP3951473A4 (en) 2022-05-18

Similar Documents

Publication Publication Date Title
JP7115897B2 (ja) 内視鏡装置
JP7099971B2 (ja) 内視鏡装置、キャリブレーション装置、及びキャリブレーション方法
JP2024177468A (ja) 内視鏡システム及びその作動方法
JP7731945B2 (ja) 内視鏡、及び内視鏡システム
JP6924727B2 (ja) 内視鏡装置
JP7214840B2 (ja) 内視鏡、内視鏡装置
KR102282179B1 (ko) 손잡이형 수술용 프로브
JP7167352B2 (ja) 内視鏡システム及びその作動方法
CN114902030A (zh) 眼镜镜片测定装置及眼镜镜片测定程序
CN114207499B (zh) 内窥镜系统及其工作方法
WO2020189334A1 (ja) 内視鏡用プロセッサ装置、医療画像処理装置及びその作動方法並びに医療画像処理装置用プログラム
EP3698714B1 (en) Endoscope apparatus
JP7029359B2 (ja) 内視鏡装置及びその作動方法並び内視鏡装置用プログラム
EP3915457B1 (en) Endoscope device
JP7447249B2 (ja) テストチャート、検査システム、及び検査方法
JP2020014808A (ja) 内視鏡装置及びその作動方法並び内視鏡装置用プログラム
WO2022049806A1 (ja) キャリブレーション装置及び方法
JP2020151250A (ja) 内視鏡装置及びその作動方法並びに内視鏡装置用プログラム
US10873710B2 (en) IR/NIR imaging with discrete scale comparator objects

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20785071

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021511214

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020785071

Country of ref document: EP

Effective date: 20211029

WWG Wipo information: grant in national office

Ref document number: 2020785071

Country of ref document: EP