[go: up one dir, main page]

WO2016151627A1 - 走査型観察装置及び走査型観察装置の画像表示方法 - Google Patents

走査型観察装置及び走査型観察装置の画像表示方法 Download PDF

Info

Publication number
WO2016151627A1
WO2016151627A1 PCT/JP2015/001665 JP2015001665W WO2016151627A1 WO 2016151627 A1 WO2016151627 A1 WO 2016151627A1 JP 2015001665 W JP2015001665 W JP 2015001665W WO 2016151627 A1 WO2016151627 A1 WO 2016151627A1
Authority
WO
WIPO (PCT)
Prior art keywords
scanning
light
observation apparatus
optical system
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2015/001665
Other languages
English (en)
French (fr)
Inventor
西村 淳一
篤義 嶋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to DE112015006182.7T priority Critical patent/DE112015006182T5/de
Priority to CN201580077799.7A priority patent/CN107427182B/zh
Priority to JP2017507107A priority patent/JPWO2016151627A1/ja
Priority to PCT/JP2015/001665 priority patent/WO2016151627A1/ja
Publication of WO2016151627A1 publication Critical patent/WO2016151627A1/ja
Priority to US15/705,503 priority patent/US10491873B2/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0655Control therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00006Operational features of endoscopes characterised by electronic signal processing of control signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00172Optical arrangements with means for scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/042Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by a proximal camera, e.g. a CCD camera
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0669Endoscope light sources at proximal end of an endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/07Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements using light-conductive means, e.g. optical fibres
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2461Illumination
    • G02B23/2469Illumination using optical fibres
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • G02B26/10Scanning systems
    • G02B26/103Scanning systems having movable or deformable optical fibres, light guides or waveguides as scanning elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems

Definitions

  • the present invention relates to a scanning observation apparatus and an image display method of the scanning observation apparatus.
  • the illumination light is passed through the illumination optical system to the site to be examined while deflecting the illumination light from the optical fiber by displacing the exit end of the optical fiber extended in the scope by an actuator.
  • a scanning endoscope apparatus that scans a region to be examined by irradiation, detects reflected light at the region to be examined, and displays an image (see, for example, Patent Document 1).
  • coordinate information of a scanning locus of predetermined color light is acquired using a light irradiation coordinate detection module having a coordinate information acquisition function such as a position detection element (PSD: Position Sensitive Detector).
  • Optical characteristic information indicating the correspondence between the image height of other color light and the amount of aberration with reference to the predetermined color light is stored in advance in the storage unit.
  • the image correction information for correcting the magnification chromatic aberration of the image generated in accordance with the reflected light of the other color light is obtained, and the image correction processing is performed based on the image correction information to obtain the image of the region to be examined. Is displayed.
  • an object of the present invention made in view of such circumstances is to provide a scanning observation apparatus and an image display method for the scanning observation apparatus that can more easily calibrate the chromatic aberration of magnification of an illumination optical system. .
  • One aspect of the scanning observation apparatus for achieving the above object is as follows:
  • the illumination light is deflected by an actuator, the object to be scanned is scanned through an illumination optical system, the light from the object to be illuminated is photoelectrically converted by a light detection unit and processed by an image processing unit, and the object to be illuminated is displayed on a display unit.
  • a scanning observation apparatus for displaying an image of
  • a storage unit that stores optical characteristic information related to chromatic aberration of magnification of the illumination optical system for a plurality of predetermined color lights;
  • a scanning trajectory calculation unit that calculates a scanning trajectory on the irradiated object for each color light based on the optical characteristic information,
  • the image processing unit calibrates a drawing position by a photoelectric conversion signal from the light detection unit for each color light based on the scanning locus, and generates an image of the irradiation object. It is characterized by this.
  • the focal length f may be an actual measurement value.
  • the irradiated portion is scanned spirally around the optical axis of the illumination optical system,
  • the image processing unit may perform image processing different from other regions on the outermost region of the image of the irradiated object.
  • the actuator may deflect the illumination light emitted from the optical fiber by displacing the emission end of the optical fiber.
  • the illumination light is deflected by the actuator and the irradiated object is scanned through the illumination optical system.
  • FIG. 2 is an overview diagram schematically showing the scope of FIG. 1. It is sectional drawing which expands and shows the front-end
  • FIG. 1 is a block diagram showing a schematic configuration of a main part of a scanning endoscope apparatus according to an embodiment.
  • the scanning endoscope apparatus 10 includes a scope (endoscope) 20, an apparatus main body 40, and a display unit 60.
  • the scope 20 is detachably connected to the apparatus main body 40 via a connector or the like.
  • the scope 20 includes an operation unit 21 and an insertion unit 22 as shown in a schematic external view in FIG.
  • an illumination optical fiber 23 and a detection fiber bundle 24 are extended from a proximal end portion coupled to the apparatus main body 40 to a distal end portion 22 a (a portion indicated by a broken line in FIG. 2) of the insertion portion 22.
  • the illumination optical fiber 23 can receive illumination light from the apparatus main body 40 when the scope 20 is connected to the apparatus main body 40.
  • the insertion portion 22 is a flexible portion 22b that can be bent except for the tip portion 22a, and the tip portion 22a is a hard portion that is not bent.
  • the actuator 25 and the illumination optical system 26 are mounted on the distal end portion 22a of the scope 20 as shown in a partially enlarged sectional view in FIG.
  • the actuator 25 includes a ferrule 27 that penetrates and holds the emission end 23 a of the illumination optical fiber 23.
  • the illumination optical fiber 23 is bonded and fixed to the ferrule 27.
  • the ferrule 27 is cantilevered to the support portion 28 so that the end portion of the illumination optical fiber 23 opposite to the exit end face 23 b is coupled to the support portion 28.
  • the illumination optical fiber 23 extends through the support portion 28.
  • the ferrule 27 is made of a metal such as nickel.
  • the ferrule 27 can be formed in an arbitrary shape such as a quadrangular prism shape or a cylindrical shape.
  • the ferrule 27 faces the x direction and the y direction orthogonal to each other in a plane orthogonal to the z direction, respectively, and the piezoelectric elements 30x and 30x. 30y is mounted.
  • FIG. 3 only one piezoelectric element 30x is shown.
  • the piezoelectric elements 30x and 30y have a rectangular shape that is long in the z direction.
  • the piezoelectric elements 30x and 30y have electrodes formed on both surfaces in the thickness direction, and are configured to expand and contract in the z direction when a voltage is applied in the thickness direction via the opposing electrodes.
  • Corresponding wiring cables 31 are connected to the electrode surfaces opposite to the electrode surfaces bonded to the ferrules 27 of the piezoelectric elements 30x and 30y, respectively. Similarly, a corresponding wiring cable 31 is connected to the ferrule 27 serving as a common electrode of the piezoelectric elements 30x and 30y.
  • An in-phase AC voltage is applied to the two piezoelectric elements 30x in the x direction via the corresponding wiring cable 31 from the apparatus main body 40.
  • an in-phase AC voltage is applied from the apparatus main body 40 to the two piezoelectric elements 30y facing in the y direction via the corresponding wiring cable 31.
  • the ferrule 27 bends and vibrates in the x direction.
  • the ferrule 27 is combined with the vibration in the x direction and the y direction and deflected integrally with the emission end portion 23a of the illumination optical fiber 23. Accordingly, when the illumination light is incident on the illumination optical fiber 23 from the apparatus main body 40, the observation object (irradiation object) 32 can be two-dimensionally scanned by the illumination light emitted from the emission end face 23b. .
  • the detection fiber bundle 24 is disposed through the outer peripheral portion of the insertion portion 22. Although not shown, a detection lens may be disposed at the distal end portion 24a of each fiber of the detection fiber bundle 24.
  • the detection fiber bundle 24 is light in which the illumination light irradiated on the observation object 32 is reflected, scattered, refracted, etc. by the observation object 32 in the connected state of the scope 20 to the apparatus main body 40 (observation object). 32) or fluorescence generated by irradiation of illumination light is taken in as signal light and guided to the apparatus main body 40.
  • FIG. 3 illustrates the case where the illumination optical system 26 includes two projection lenses 26a and 26b.
  • the projection lenses 26a and 26b are configured to collect the illumination light emitted from the emission end face 23b of the illumination optical fiber 23 at a predetermined focal position.
  • the illumination optical system 26 is not limited to the two projection lenses 26a and 26b, and may be composed of one or three or more lenses.
  • the scope 20 further includes a storage unit 35 as shown in FIG.
  • the storage unit 35 stores optical characteristic information related to the chromatic aberration of magnification of the illumination optical system 26 for a plurality of predetermined color lights of red (R), green (G), and blue (B), for example.
  • the optical characteristic information for example, a third-order or higher order polynomial or trigonometric function representing the relationship between the deflection amount (image height) h of the illumination light with respect to the optical axis of the illumination optical system 26 and the scanning angle ⁇ for each color light, or their expansion formulae.
  • information represented by a conversion formula is stored.
  • the optical characteristic information stored in the storage unit 35 is read by the apparatus main body 40 when the scope 20 is connected to the apparatus main body 40.
  • the apparatus main body 40 includes a control unit 41 that controls the entire scanning endoscope apparatus 10, a light source unit 42, a drive control unit 43, a light detection unit 44, and a scanning locus calculation unit 45. And an image processing unit 46 and a storage unit 47.
  • the light source unit 42 includes lasers 51R, 51G, and 51B, and a coupler 52.
  • the lasers 51R, 51G, and 51B are controlled by the control unit 41, and the laser 51R emits red laser light, the laser 51G emits green laser light, and the laser 51B emits blue laser light.
  • a DPSS laser semiconductor excitation solid-state laser
  • the wavelength of each color light is, for example, 440 nm to 460 nm for blue, 515 nm to 532 nm for green, and 635 nm to 638 nm for red.
  • the laser beams emitted from the lasers 51R, 51G, and 51B are coaxially combined by the coupler 52 and are incident on the illumination optical fiber 23 of the scope 20.
  • the light source unit 42 may use a plurality of other light sources.
  • the light source unit 42 may be housed in a housing separate from the apparatus main body 40 and connected to the apparatus main body 40 via a signal line. In this case, the illumination optical fiber 23 of the scope 20 is detachably connected to the housing having the light source unit 42.
  • the drive control unit 43 supplies a required drive signal to the actuator 25 of the scope 20 via the wiring cable 31 to drive the emission end of the illumination optical fiber 23 to vibrate.
  • the drive control unit 43 differs from the piezoelectric elements 30x and 30y of the actuator 25 by approximately 90 ° in phase at the resonance frequency of the oscillated portion including the emission end portion 23a of the illumination optical fiber 23 or in the vicinity thereof.
  • a driving signal whose amplitude gradually increases and decreases is repeatedly supplied. Thereby, the exit end face 23b of the illumination optical fiber 23 is spirally displaced about the optical axis of the illumination optical system 26, and the object 32 is scanned spirally by the illumination light emitted from the exit end face 23b. Is done.
  • the light detection unit 44 includes a spectroscope 55, photodetectors (PD) 56R, 56G, and 56B, and ADCs (analog-digital converters) 57R, 57G, and 57B.
  • the spectroscope 55 is coupled to the detection fiber bundle 24 of the scope 20 in the connected state of the scope 20 to the apparatus main body 40, and the signal light guided by the detection fiber bundle 24 is, for example, R, G, B Spect each color.
  • the photodetectors 56R, 56G, and 56B receive the corresponding color light dispersed by the spectroscope 55 and photoelectrically convert it.
  • the ADCs 57R, 57G, and 57B convert the analog pixel signals output from the corresponding photodetectors 56R, 56G, and 56B into digital pixel signals, respectively, and output the digital pixel signals to the image processing unit 46.
  • the scanning locus calculation unit 45 reads the optical characteristic information of the illumination optical system 26 stored in the storage unit 35 when the scope 20 is connected to the apparatus main body 40. Then, the scanning trajectory calculation unit 45 is based on the optical characteristic information read from the storage unit 35 and drive signal information such as the amplitude and phase of the drive signal that drives the actuator 25, for each color light of R, G, and B. The scanning trajectory (coordinates) on the observation object 32 is calculated.
  • the drive signal information is acquired from the control unit 41 or the drive control unit 43, for example.
  • FIG. 1 illustrates a case where drive signal information is acquired from the control unit 41.
  • the scanning locus for each color light calculated by the scanning locus calculator 45 is supplied to the image processor 46.
  • the image processing unit 46 uses the pixel signals of the respective colors obtained from the ADCs 57R, 57G, and 57B based on the scanning trajectories for the R, G, and B color lights calculated by the scanning trajectory calculation unit 45, for example, corresponding to the frame memory. Store at drawing position. Then, the image processing unit 46 performs necessary image processing such as interpolation processing after scanning of each frame or during scanning to generate images of sequential frames of the object 32 to be displayed on the display unit 60.
  • the storage unit 47 stores the device main body 40 control program and the like.
  • the control unit 47 may function as a work memory for the scanning locus calculation unit 45 and the image processing unit 46.
  • optical characteristic information relating to the chromatic aberration of magnification of the illumination optical system 26 stored in the storage unit 35 of the scope 20 will be described.
  • the illumination optics As schematically shown in FIG. 4, when the exit end 23 a of the illumination optical fiber 23 is displaced and the illumination light is deflected from the optical axis of the illumination optical system 26 and is incident on the illumination optical system 26, the illumination optics The illumination light that has passed through the system 26 is irradiated to different positions of the object 32 for each color light due to the chromatic aberration of magnification of the illumination optical system 26.
  • the deflection amount (fiber amplitude) of the incident light from the optical axis is h, and R, G, and B that have passed through the illumination optical system 26
  • the scanning angle ⁇ of each color light changes as shown in FIG. 5, for example, as the fiber amplitude h increases.
  • the scanning angle ⁇ of each color light increases linearly at the same angle as the fiber amplitude h increases, as shown by the characteristic L1.
  • the scanning angle ⁇ of each color light increases in a curved manner at different angles as the fiber amplitude h increases, as indicated by the characteristics C R , C G , and C B.
  • the scanning angle ⁇ of each color light due to the chromatic aberration of magnification of the illumination optical system 26 changes, for example, as shown in FIG. 6 as the fiber amplitude h increases in chief ray tracing. That is, in the paraxial approximation, as indicated by the characteristic L2, the scanning angle ⁇ increases linearly as the fiber amplitude h increases.
  • the principal ray tracing as shown by the characteristic C RT, the scanning angle ⁇ with increasing fiber amplitude h is increased in a curved shape.
  • the focal length f is preferably an actual measurement value.
  • FIG. 7 is a flowchart showing the main processing of the image display method. 7 is performed under the control of the control unit 41.
  • the scanning locus calculator 45 calculates the fiber amplitude h corresponding to the sequential scanning points during the scanning period of each frame based on the drive signal information of the actuator 25 (step S701).
  • Each scanning point is, for example, a timing at which the amplitude of the x-direction driving signal or the y-direction driving signal peaks, and the peak value differs for each scanning point.
  • the scanning trajectory calculation unit 45 scans the scanning angles ⁇ R and ⁇ G for each of the R, G, and B color lights. , ⁇ B are calculated (step S702). Thereafter, the scanning trajectory calculation unit 45, based on the calculated scanning angles ⁇ R , ⁇ G , ⁇ B for each color light, coordinates (X R , X) of the scanning point (irradiation position) of each color light on the observation object 32. Y R ), (X G , Y G ), and (X B , Y B ) are calculated (step S703).
  • the scanning locus calculator 45 calculates the distance h ⁇ ′, and based on the calculated distance h ⁇ ′, the coordinates (X R , Y R ), (X G , Y G ), (X B , Y B ).
  • the scanning trajectory calculation unit 45 calculates the coordinates of the sequential scanning points on the observation object 32 for each of the R, G, and B color lights, that is, the scanning trajectory, and supplies it to the image processing unit 46.
  • the object distance z may be stored in the storage unit 35 of the scope 20 and read together with the optical characteristic information, or may be stored and read in the storage unit 47 of the apparatus main body 40.
  • the scanning locus calculation process for each color light by the above-described scanning locus calculator 45 may be performed while driving the actuator 25 or may be performed without driving the actuator 25. In the former case, it may be executed while irradiating the observation object 32 with illumination light and actually scanning the observation object 32, or irradiating the observation object 32 with illumination light prior to actual scanning. You may run without doing.
  • the image processing unit 46 scans the pixel signals of the respective colors obtained from the ADCs 57R, 57G, and 57B by scanning the object to be observed 32 for each of the R, G, and B color trajectories calculated by the scanning trajectory calculation unit 45 ( Based on the coordinates, for example, the image is stored at a corresponding drawing position in the frame memory and necessary image processing such as interpolation processing is performed to generate an image of the object 32 to be observed (step S704).
  • the image of the observation object 32 generated by the image processing unit 46 is displayed on the display unit 60 (step S705).
  • the illumination light applied to the object to be observed 32 is only B-system illumination light in the vicinity of the outermost periphery of the scanning region due to lateral chromatic aberration of the illumination optical system 26. For this reason, sufficient interpolation processing or the like cannot be performed near the outermost periphery of the scanning region, and color misregistration may occur.
  • a scanning region corresponding to the outside of the scanning region by the R illumination light that is, the outermost region of the image of the object 32 to be displayed on the display unit 60 is another region.
  • Image processing different from that, for example, processing such as trimming, black-and-white processing, and pseudo-coloring is executed. In this way, the peripheral portion can be clearly recognized as an image different from the image of the object to be observed 32, the image of the object to be observed 32 can be an image without color shift, and the quality of the entire display image can be reduced. It becomes possible to improve.
  • the optical characteristic information relating to the chromatic aberration of magnification of the illumination optical system 26 stored in the storage unit 35 of the scope 20 is not limited to the above example, and is expressed by a third-order or higher polynomial or trigonometric function, or their expansion or conversion formula. It is good also as information.
  • the actuator 25 is not limited to the piezoelectric type, and may be another known driving method such as an electromagnetic type using a coil and a permanent magnet or a MEMS mirror. In the above-described embodiment, the case where the object 32 is scanned by irradiating the color light of R, G, and B at the same time has been described. Alternatively, each color light may be sequentially irradiated in one scan to display an image.
  • the storage unit 35 of the scope 20 stores ID information that can specify the type of the illumination optical system 26 of the scope 20 as scope information
  • the storage unit 47 of the apparatus main body 40 stores the types of the plurality of illumination optical systems 26.
  • Optical characteristic information may be stored.
  • the control unit 41 of the apparatus main body 40 reads the ID information of the illumination optical system 26 from the storage unit 35 of the connected scope 20 and outputs the corresponding optical characteristic information from the storage unit 47 to the scanning locus calculation unit 45.
  • a part or all of the drive control unit 43, the light detection unit 44, the scanning locus calculation unit 45, the image processing unit 46, and the storage unit 47 may be included in the control unit 41.
  • the present invention can be applied not only to a scanning endoscope apparatus but also to a scanning microscope.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Astronomy & Astrophysics (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Mechanical Optical Scanning Systems (AREA)

Abstract

 照明光学系の倍率色収差をより簡便に較正することが可能な走査型観察装置を提供する。 アクチュエータ25により照明光を偏向して照明光学系26を経て被照射物32を走査し、被照射物32からの光を光検出部44で光電変換して画像処理部46で処理して表示部60に被照射物32の画像を表示する走査型観察装置10において、複数の所定の色光に対する照明光学系26の倍率色収差に関する光学特性情報を格納する記憶部35と、光学特性情報に基づいて色光毎の被照射物32上での走査軌跡を演算する走査軌跡演算部45と、を備え、画像処理部46は、走査軌跡に基づいて色光毎に光検出部44からの光電変換信号による描画位置を較正して被照射物32の画像を生成する。

Description

走査型観察装置及び走査型観察装置の画像表示方法
 本発明は、走査型観察装置及び走査型観察装置の画像表示方法に関するものである。
 走査型観察装置として、例えば、スコープ内に延在させた光ファイバの射出端部をアクチュエータにより変位させて光ファイバからの照明光を偏向しながら、照明光学系を経て照明光を被検部位に照射して被検部位を走査し、該被検部位での反射光を検出して画像を表示する走査型内視鏡装置が知られている(例えば、特許文献1参照)。
 上記の走査型内視鏡装置では、位置検出素子(PSD: Position Sensitive Detector)等の座標情報取得機能を備えた光照射座標検出モジュールを用いて所定の色光の走査軌跡の座標情報を取得するとともに、当該所定の色光を基準とする他の色光の像高と収差量との対応関係を示す光学特性情報を予め記憶部に格納している。そして、座標情報に基づいて所定の像高に相当する被検部位の位置に所定の色光が照射されたことを検出した際に、光学特性情報に基づいて所定の像高における他の色光の収差量を検出して、他の色光の反射光に応じて生成される画像の倍率色収差を補正する画像補正情報を取得し、その画像補正情報に基づいて画像補正処理を施して被検部位の画像を表示するようにしている。
特許第5490331号公報
 特許文献1に開示の走査型内視鏡装置によると、照明光として用いられる所定の色光を基準として他の色光の倍率色収差を補正する画像補正情報を取得するので、照明光学系の倍率色収差を比較的簡易に較正することが可能となる。
 しかしながら、上記の走査型内視鏡装置では、PSD等の光照射座標検出モジュールを用いて走査軌跡の座標情報を取得することから、手間がかかることが懸念される。このような走査型内視鏡装置における課題は、例えばレーザ光を偏向して対物レンズを経て試料を走査するレーザ走査型顕微鏡等にも同様に生じるものである。
 したがって、かかる事情に鑑みてなされた本発明の目的は、照明光学系の倍率色収差をより簡便に較正することが可能な走査型観察装置及び走査型観察装置の画像表示方法を提供することにある。
 上記目的を達成する本発明に係る走査型観察装置の一態様は、
 アクチュエータにより照明光を偏向して照明光学系を経て被照射物を走査し、前記被照射物からの光を光検出部で光電変換して画像処理部で処理して表示部に前記被照射物の画像を表示する走査型観察装置において、
 複数の所定の色光に対する前記照明光学系の倍率色収差に関する光学特性情報を格納する記憶部と、
 前記光学特性情報に基づいて前記色光毎の前記被照射物上での走査軌跡を演算する走査軌跡演算部と、を備え、
 前記画像処理部は、前記走査軌跡に基づいて前記色光毎に前記光検出部からの光電変換信号による描画位置を較正して前記被照射物の画像を生成する、
 ことを特徴とするものである。
 前記記憶部は、前記光学特性情報として、前記照明光学系の光軸に対する前記照明光の偏向量hと前記色光毎の走査角度θλとの関係を表す3次以上の多項式もしくは三角関数又はそれらの展開式もしくは変換式で表される情報を格納し、
 前記走査軌跡演算部は、前記光学特性情報に基づいて、前記照明光学系から前記被照射物までの距離をzとするとき、前記走査軌跡となる照射位置h´を、h´=z・tanθλから前記色光毎に演算するとよい。
 前記記憶部は、前記光学特性情報として、h=a4θλ4+a3θλ3+a2θλ2+a1θλ+a0(ただし、a4、a3、a2、a1、a0は係数)、又は、θλ=b44+b33+b22+b1h+b0(ただし、b4、b3、b2、b1、b0は係数)、で表される情報を格納するとよい。
 前記記憶部は、前記光学特性情報として、前記照明光学系の焦点距離をfとするとき、h=f・sinθλ、で表される情報を格納してもよい。
 前記焦点距離fは実測値とするとよい。
 前記被照射部は、前記照明光学系の光軸を中心として螺旋状に走査され、
 前記画像処理部は、前記被照射物の画像の最外側領域に対して、他の領域とは異なる画像処理を実行してもよい。
 前記照明光を導光する光ファイバを備え、
 前記アクチュエータは前記光ファイバの射出端部を変位させて該光ファイバから射出される前記照明光を偏向してもよい。
 さらに、上記目的を達成する本発明に係る走査型観察装置の画像表示方法の一態様は、アクチュエータにより照明光を偏向して照明光学系を経て被照射物を走査し、前記被照射物からの光を光検出部で光電変換して画像処理部で処理して表示部に前記被照射物の画像を表示する走査型観察装置の画像表示方法において、
 前記被照射物上での走査軌跡を、記憶部に格納された複数の所定の色光に対する前記照明光学系の倍率色収差に関する光学特性情報に基づいて、走査軌跡演算部により前記色光毎に演算するステップと、
 前記走査軌跡に基づいて、前記画像処理部により前記色光毎に前記光検出部からの光電変換信号による描画位置を較正して前記被照射物の画像を生成するステップと、
 を含むことを特徴とするものである。
 本発明によれば、照明光学系の倍率色収差をより簡便に較正することが可能となる。
一実施の形態に係る走査型内視鏡装置の要部の概略構成を示すブロック図である。 図1のスコープを概略的に示す概観図である。 図2のスコープの先端部を拡大して示す断面図である。 照明光学系の倍率色収差を説明する模式図である。 照明光学系の倍率色収差の一例を示す図である。 主光線追跡による照明光学系の倍率色収差を説明するための図である。 図1の走査型内視鏡装置による画像表示方法の要部の処理を示すフローチャートである。
 以下、本発明の実施の形態について、図を参照して説明する。
 図1は、一実施の形態に係る走査型内視鏡装置の要部の概略構成を示すブロック図である。本実施の形態に係る走査型内視鏡装置10は、スコープ(内視鏡)20と、装置本体40と、表示部60と、を備える。
 スコープ20は、コネクタ等を介して装置本体40に着脱自在に接続される。スコープ20は、図2に概略外観図を示すように、操作部21及び挿入部22を備える。スコープ20の内部には、装置本体40に結合される基端部から挿入部22の先端部22a(図2に破線で示す部分)まで延在して照明用光ファイバ23及び検出用ファイババンドル24が配設されている。照明用光ファイバ23は、スコープ20の装置本体40への接続状態において、装置本体40からの照明光が入射可能となる。挿入部22は、先端部22aを除く部分が屈曲可能な可撓部22bとなっており、先端部22aは屈曲しない硬質部となっている。
 スコープ20の先端部22aには、図3に部分拡大断面図を示すように、アクチュエータ25及び照明光学系26が実装されている。アクチュエータ25は、照明用光ファイバ23の射出端部23aを貫通させて保持するフェルール27を備える。照明用光ファイバ23は、フェルール27に接着固定される。フェルール27は、照明用光ファイバ23の射出端面23bとは反対側の端部が支持部28に結合されて、支持部28に揺動可能に片持ち支持される。照明用光ファイバ23は、支持部28を貫通して延在される。
 フェルール27は、例えばニッケル等の金属からなる。フェルール27は、外形が四角柱状、円柱状等の任意の形状に形成可能である。フェルール27には、照明用光ファイバ23の光軸方向と平行な方向をz方向とするとき、z方向と直交する面内で互いに直交するx方向及びy方向にそれぞれ対向して圧電素子30x及び30yが装着される。図3では、圧電素子30xについては1個のみを示している。圧電素子30x及び30yは、z方向に長い矩形状からなる。圧電素子30x及び30yは、厚さ方向の両面に形成された電極を有し、対向する電極を介して厚さ方向に電圧が印加されるとz方向に伸縮可能に構成される。
 圧電素子30x及び30yのフェルール27に接着される電極面とは反対側の電極面には、それぞれ対応する配線ケーブル31が接続される。同様に、圧電素子30x及び30yの共通電極となるフェルール27には、対応する配線ケーブル31が接続される。x方向の2個の圧電素子30xには、装置本体40から対応する配線ケーブル31を介して同相の交流電圧が印加される。同様に、y方向に対向する2個の圧電素子30yには、装置本体40から対応する配線ケーブル31を介して同相の交流電圧が印加される。
 これにより、2個の圧電素子30xは、一方が伸張すると他方が縮小して、フェルール27がx方向に湾曲振動する。同様に、2個の圧電素子30yは、一方が伸張すると他方が縮小して、フェルール27がy方向に湾曲振動する。その結果、フェルール27は、x方向及びy方向の振動が合成されて照明用光ファイバ23の射出端部23aと一体に偏向される。したがって、装置本体40から照明用光ファイバ23に照明光を入射させると、射出端面23bから射出される照明光により被観察物(被照射物)32を2次元的に走査することが可能となる。
 検出用ファイババンドル24は、挿入部22の外周部を通って配置される。検出用ファイババンドル24の各ファイバの先端部24aには、図示しないが検出用レンズが配置されていても良い。検出用ファイババンドル24は、スコープ20の装置本体40への接続状態において、被観察物32上に照射された照明光が、被観察物32により反射、散乱、屈折等をした光(被観察物32と相互作用した光)又は照明光の照射によって発生する蛍光等を信号光として取り込んで装置本体40に導光する。
 照明光学系26は、図3では2枚の投影用レンズ26a、26bで構成されている場合を例示している。投影用レンズ26a、26bは、照明用光ファイバ23の射出端面23bから射出される照明光を所定の焦点位置に集光させるように構成される。なお、照明光学系26は2枚の投影用レンズ26a、26bに限られず、1枚や3枚以上のレンズにより構成されてもよい。
 本実施の形態において、スコープ20は、図1に示すように、記憶部35をさらに備える。記憶部35には、例えば赤色(R)、緑色(G)及び青色(B)の複数の所定の色光に対する照明光学系26の倍率色収差に関する光学特性情報が格納される。光学特性情報としては、例えば照明光学系26の光軸に対する照明光の偏向量(像高)hと色光毎の走査角度θλとの関係を表す3次以上の多項式もしくは三角関数又はそれらの展開式もしくは変換式で表される情報が格納される。記憶部35に格納された光学特性情報は、スコープ20の装置本体40への接続状態において、装置本体40により読み取られる。
 一方、図1において、装置本体40は、走査型内視鏡装置10の全体を制御する制御部41と、光源部42と、駆動制御部43と、光検出部44と、走査軌跡演算部45と、画像処理部46と、記憶部47と、を備える。
 光源部42は、レーザ51R、51G、51Bと、結合器52と、を有する。レーザ51R、51G、51Bは、制御部41により制御されて、レーザ51Rが赤色のレーザ光を、レーザ51Gが緑色のレーザ光を、レーザ51Bが青色のレーザ光をそれぞれ射出する。レーザ51R、51G、51Bとしては、例えばDPSSレーザ(半導体励起固体レーザ)やレーザダイオードが使用可能である。ここで各色光の波長は、例えば青色は440nmから460nm、緑色は515nmから532nm、赤色は635nmから638nmである。レーザ51R、51G、51Bから出射されるレーザ光は、結合器52で同軸上に合波されて、スコープ20の照明用光ファイバ23に入射される。なお、光源部42は、他の複数の光源を用いるものであっても良い。また、光源部42は、装置本体40とは別の筐体に収納されて、装置本体40と信号線で接続されていても良い。この場合、スコープ20の照明用光ファイバ23は、光源部42を有する筐体に着脱自在に接続される。
 駆動制御部43は、配線ケーブル31を介してスコープ20のアクチュエータ25に所要の駆動信号を供給して、照明用光ファイバ23の射出端部を振動駆動させる。例えば、駆動制御部43は、アクチュエータ25の圧電素子30x及び30yに、照明用光ファイバ23の射出端部23aを含む被振動部の共振周波数又はその近傍の周波数で、位相がほぼ90°異なり、振幅が徐々に増大して減少する駆動信号を繰り返し供給する。これにより、照明用光ファイバ23の射出端面23bは、照明光学系26の光軸を中心として螺旋状に変位されて、射出端面23bから射出される照明光により被観察物32が螺旋状に走査される。
 光検出部44は、分光器55と、光検出器(PD)56R、56G、56Bと、ADC(アナログ-デジタル変換器)57R、57G、57Bとを備える。分光器55は、スコープ20の装置本体40への接続状態において、スコープ20の検出用ファイババンドル24と結合されて、検出用ファイババンドル24により導光される信号光を例えばR、G、Bの各色に分光する。光検出器56R、56G、56Bは、分光器55で分光された対応する色の光を受光して光電変換する。ADC57R、57G、57Bは、対応する光検出器56R、56G、56Bから出力されるアナログの画素信号をそれぞれデジタルの画素信号に変換して画像処理部46に出力する。
 走査軌跡演算部45は、スコープ20の装置本体40への接続状態において、記憶部35に格納された照明光学系26の光学特性情報を読み取る。そして、走査軌跡演算部45は、記憶部35から読み取った光学特性情報と、アクチュエータ25を駆動する駆動信号の振幅及び位相等の駆動信号情報とに基づいて、R、G、Bの色光毎の被観察物32での走査軌跡(座標)を演算する。なお、駆動信号情報は、例えば制御部41又は駆動制御部43から取得する。なお、図1では、制御部41から駆動信号情報を取得する場合を例示している。走査軌跡演算部45で演算された色光毎の走査軌跡は、画像処理部46に供給される。
 画像処理部46は、ADC57R、57G、57Bから得られる各色の画素信号を、走査軌跡演算部45で演算されたR、G、Bの色光毎の走査軌跡に基づいて、例えばフレームメモリの対応する描画位置に格納する。そして、画像処理部46は、各フレームの走査終了後又は走査中に補間処理等の必要な画像処理を行って被観察物32の順次のフレームの画像を生成して表示部60に表示する。
 記憶部47は、装置本体40制御プログラム等を格納する。また、制御部47は、走査軌跡演算部45や画像処理部46のワークメモリとして機能してもよい。
 次に、スコープ20の記憶部35に格納される照明光学系26の倍率色収差に関する光学特性情報について説明する。
 図4に模式的に示すように、照明用光ファイバ23の射出端部23aを変位させて、照明光を照明光学系26の光軸から偏向させて照明光学系26に入射させると、照明光学系26を経た照明光は、照明光学系26の倍率色収差により、色光毎に被観察物32の異なる位置に照射される。例えば、R、G、Bの波長の照明光を照明光学系26に入射させると、入射光の光軸からの偏向量(ファイバ振幅)をh、照明光学系26を経たR、G、Bの各色光の光軸と成す角度(走査角度)をθλ(λ:R、G、B)とするとき、各色光の走査角度θλは、ファイバ振幅hの増加に従って、例えば図5に示すように変化する。すなわち、倍率色収差がない理想的な場合は、各色光の走査角度θλは、特性L1で示すように、ファイバ振幅hの増加に従って同じ角度で直線状に増加する。これに対し、倍率色収差があると、各色光の走査角度θλは、特性CR、CG、CBでそれぞれ示すように、ファイバ振幅hの増加に従って異なる角度で曲線状に増加する。
 照明光学系26が図5に示したような倍率色収差を有する場合、特性CR、CG、CBは、ファイバ振幅hと走査角度θλとを用いて、例えば、h=a4θλ4+a3θλ3+a2θλ2+a1θλ+a0(ただし、a4、a3、a2、a1、a0は係数)、又は、θλ=b44+b33+b22+b1h+b0(ただし、b4、b3、b2、b1、b0は係数)の4次の多項式で表すことができる。
 また、照明光学系26の倍率色収差による各色光の走査角度θλは、主光線追跡では、ファイバ振幅hの増加に従って、例えば図6に示すように変化する。すなわち、近軸近似では、特性L2で示すように、ファイバ振幅hの増加に従って走査角度θλは直線状に増加する。これに対し、主光線追跡では、特性CRTで示すように、ファイバ振幅hの増加に従って走査角度θλは曲線状に増加する。この場合、特性CRTは、照明光学系26の焦点距離をfとすると、例えば、h=f・sinθλ、の三角関数で表される曲線Chで近似することができる。
 したがって、スコープ20の記憶部35には、照明光学系26の倍率色収差に関する光学特性情報として、例えば上記のh=a4θλ4+a3θλ3+a2θλ2+a1θλ+a0、もしくは、θλ=b44+b33+b22+b1h+b0、又は、h=f・sinθλ、の情報が格納される。なお、h=f・sinθλの情報を記憶部35に格納する場合、焦点距離fは、実測値とするとよい。これにより、照明光学系26の倍率色収差を、照明光学系26の個体差等を考慮してより高精度に較正することが可能となる。なお、図4において、照明光学系26は簡略化して示している。
 次に、図1の走査型内視鏡装置10による画像表示方法について説明する。
 図7は、画像表示方法の要部の処理を示すフローチャートである。なお、図7の処理は、制御部41の制御のもとに実行される。先ず、走査軌跡演算部45は、アクチュエータ25の駆動信号情報に基づいて、各フレームの走査期間中の順次の走査点に対応するファイバ振幅hを算出する(ステップS701)。各走査点は、例えばx方向駆動信号又はy方向駆動信号の振幅がピークとなるタイミングであり、走査点毎にピーク値が異なる。
 次に、走査軌跡演算部45は、スコープ20の記憶部35から読み取った光学特性情報と、算出したファイバ振幅hとに基づいて、R、G、Bの色光毎の走査角度θR、θG、θBを算出する(ステップS702)。その後、走査軌跡演算部45は、算出した色光毎の走査角度θR、θG、θBに基づいて、被観察物32上での各色光の走査点(照射位置)の座標(XR,YR)、(XG,YG)、(XB,YB)をそれぞれ算出する(ステップS703)。
 ここで、図4に示すように、照明光学系26から被観察物32までの物体距離をzとし、照明光学系26の光軸から被観察物32への各色光の入射位置までの距離をhλ´(λ:R、G、B)とすると、距離hλ´は、hλ´=z・tanθλ、で表される。走査軌跡演算部45は、ステップS703において、距離hλ´を算出し、その算出した距離hλ´に基づいて色光毎の座標(XR,YR)、(XG,YG)、(XB,YB)を算出する。これにより、走査軌跡演算部45は、R、G、Bの色光毎の被観察物32上での順次の走査点の座標すなわち走査軌跡を演算して画像処理部46に供給する。なお、物体距離zは、スコープ20の記憶部35に格納して、光学特性情報とともに読み取ってもよいし、装置本体40の記憶部47に格納して読み取るようにしてもよい。
 上述の走査軌跡演算部45による色光毎の走査軌跡の演算処理は、アクチュエータ25を駆動しながら実行してもよいし、アクチュエータ25を駆動することなく実行してもよい。また、前者の場合は、被観察物32に照明光を照射して被観察物32を実際に走査しながら実行してもよいし、実際の走査に先立って被観察物32へ照明光を照射することなく実行してもよい。
 その後、画像処理部46は、被観察物32の走査によりADC57R、57G、57Bから得られる各色の画素信号を、走査軌跡演算部45で演算されたR、G、Bの色光毎の走査軌跡(座標)に基づいて、例えばフレームメモリの対応する描画位置に格納して補間処理等の必要な画像処理を行い被観察物32の画像を生成する(ステップS704)。画像処理部46で生成された被観察物32の画像は、表示部60に表示される(ステップS705)。
 ここで、被観察物32に照射される照明光は、照明光学系26の倍率色収差によって走査領域の最外周付近がB系の照明光のみとなる。そのため、走査領域の最外周付近は、十分な補間処理等を行うことができず、色ずれが生じる場合がある。本実施の形態では、好ましくは、Rの照明光による走査領域よりも外側に相当する走査領域、つまり表示部60に表示する被観察物32の画像の最外側領域に対しては、他の領域とは異なる画像処理、例えばトリミング、白黒化、擬似カラー化等の処理を実行する。このようにすれば、周辺部を被観察物32の画像とは異なる画像として明確に認識でき、被観察物32の画像については色ずれのない画像とすることができ、表示画像全体の品質を向上することが可能となる。
 本実施の形態によれば、PSD等の光照射座標検出モジュールを用いることなく、照明光学系26の倍率色収差を簡便に較正することが可能となる。
 なお、本発明は、上記実施の形態に限定されるものではなく、幾多の変形または変更が可能である。例えば、スコープ20の記憶部35に格納する照明光学系26の倍率色収差に関する光学特性情報は、上記の例に限らず、3次以上の多項式もしくは三角関数又はそれらの展開式もしくは変換式で表される情報としてもよい。また、アクチュエータ25は、圧電式に限らず、コイル及び永久磁石を用いる電磁式やMEMSミラー等の他の公知の駆動方式でもよい。また、上記実施の形態では、被観察物32にR、G、Bの色光を同時に照射して走査する場合について説明したが、例えば各色光を面順次で照射して面順次で画像を表示したり、一走査のなかで各色光を順次に照射して画像を表示したり、してもよい。
 また、スコープ20の記憶部35は、当該スコープ20の照明光学系26の種類を特定可能なID情報をスコープ情報として格納し、装置本体40の記憶部47は、複数の照明光学系26の種類に応じた光学特性情報を格納してもよい。この場合、装置本体40の制御部41は、接続されたスコープ20の記憶部35から照明光学系26のID情報を読み取って、記憶部47から対応する光学特性情報を走査軌跡演算部45に出力するとよい。また、駆動制御部43、光検出部44、走査軌跡演算部45、画像処理部46及び記憶部47の一部又は全部は、制御部41に含まれてもよい。さらに、本発明は、走査型内視鏡装置に限らず、走査型顕微鏡にも適用することが可能である。
 10 走査型内視鏡装置
 20 スコープ
 23 照明用光ファイバ
 23a 射出端部
 24 検出用ファイババンドル
 25 アクチュエータ
 26 照明光学系
 30x、30y 圧電素子
 32 被観察物(被照射物)
 35 記憶部
 40 装置本体
 41 制御部
 42 光源部
 43 駆動制御部
 44 光検出部
 45 走査軌跡演算部
 46 画像処理部
 47 記憶部
 60 表示部

Claims (8)

  1.  アクチュエータにより照明光を偏向して照明光学系を経て被照射物を走査し、前記被照射物からの光を光検出部で光電変換して画像処理部で処理して表示部に前記被照射物の画像を表示する走査型観察装置において、
     複数の所定の色光に対する前記照明光学系の倍率色収差に関する光学特性情報を格納する記憶部と、
     前記光学特性情報に基づいて前記色光毎の前記被照射物上での走査軌跡を演算する走査軌跡演算部と、を備え、
     前記画像処理部は、前記走査軌跡に基づいて前記色光毎に前記光検出部からの光電変換信号による描画位置を較正して前記被照射物の画像を生成する、
     ことを特徴とする走査型観察装置。
  2.  請求項1に記載の走査型観察装置において、
     前記記憶部は、前記光学特性情報として、前記照明光学系の光軸に対する前記照明光の偏向量hと前記色光毎の走査角度θλとの関係を表す3次以上の多項式もしくは三角関数又はそれらの展開式もしくは変換式で表される情報を格納し、
     前記走査軌跡演算部は、前記光学特性情報に基づいて、前記照明光学系から前記被照射物までの距離をzとするとき、前記走査軌跡となる照射位置h´を、h´=z・tanθλから前記色光毎に演算する、
     ことを特徴とする走査型観察装置。
  3.  請求項2に記載の走査型観察装置において、
     前記記憶部は、前記光学特性情報として、h=a4θλ4+a3θλ3+a2θλ2+a1θλ+a0(ただし、a4、a3、a2、a1、a0は係数)、又は、θλ=b44+b33+b22+b1h+b0(ただし、b4、b3、b2、b1、b0は係数)、で表される情報を格納する、
     ことを特徴とする走査型観察装置。
  4.  請求項2に記載の走査型観察装置において、
     前記記憶部は、前記光学特性情報として、前記照明光学系の焦点距離をfとするとき、h=f・sinθλ、で表される情報を格納する、
     ことを特徴とする走査型観察装置。
  5.  請求項4に記載の走査型観察装置において、
     前記焦点距離fは実測値である、
     ことを特徴とする走査型観察装置。
  6.  請求項1~5のいずれかに記載の走査型観察装置において、
     前記被照射部は、前記照明光学系の光軸を中心として螺旋状に走査され、
     前記画像処理部は、前記被照射物の画像の最外側領域に対して、他の領域とは異なる画像処理を実行する、
     ことを特徴とする走査型観察装置。
  7.  請求項1~6のいずれかに記載の走査型観察装置において、
     前記照明光を導光する光ファイバを備え、
     前記アクチュエータは前記光ファイバの射出端部を変位させて該光ファイバから射出される前記照明光を偏向する、
     ことを特徴とする走査型観察装置。
  8.  アクチュエータにより照明光を偏向して照明光学系を経て被照射物を走査し、前記被照射物からの光を光検出部で光電変換して画像処理部で処理して表示部に前記被照射物の画像を表示する走査型観察装置の画像表示方法において、
     前記被照射物上での走査軌跡を、記憶部に格納された複数の所定の色光に対する前記照明光学系の倍率色収差に関する光学特性情報に基づいて、走査軌跡演算部により前記色光毎に演算するステップと、
     前記走査軌跡に基づいて、前記画像処理部により前記色光毎に前記光検出部からの光電変換信号による描画位置を較正して前記被照射物の画像を生成するステップと、
     を含むことを特徴とする走査型観察装置の画像表示方法。
PCT/JP2015/001665 2015-03-24 2015-03-24 走査型観察装置及び走査型観察装置の画像表示方法 Ceased WO2016151627A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE112015006182.7T DE112015006182T5 (de) 2015-03-24 2015-03-24 Abtastbeobachtungsvorrichtung und Bildanzeigeverfahren der Abtastbeobachtungsvorrichtung
CN201580077799.7A CN107427182B (zh) 2015-03-24 2015-03-24 扫描型观察装置和扫描型观察装置的图像显示方法
JP2017507107A JPWO2016151627A1 (ja) 2015-03-24 2015-03-24 走査型観察装置及び走査型観察装置の画像表示方法
PCT/JP2015/001665 WO2016151627A1 (ja) 2015-03-24 2015-03-24 走査型観察装置及び走査型観察装置の画像表示方法
US15/705,503 US10491873B2 (en) 2015-03-24 2017-09-15 Scanning observation apparatus and image display method of scanning observation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/001665 WO2016151627A1 (ja) 2015-03-24 2015-03-24 走査型観察装置及び走査型観察装置の画像表示方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/705,503 Continuation US10491873B2 (en) 2015-03-24 2017-09-15 Scanning observation apparatus and image display method of scanning observation apparatus

Publications (1)

Publication Number Publication Date
WO2016151627A1 true WO2016151627A1 (ja) 2016-09-29

Family

ID=56978458

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/001665 Ceased WO2016151627A1 (ja) 2015-03-24 2015-03-24 走査型観察装置及び走査型観察装置の画像表示方法

Country Status (5)

Country Link
US (1) US10491873B2 (ja)
JP (1) JPWO2016151627A1 (ja)
CN (1) CN107427182B (ja)
DE (1) DE112015006182T5 (ja)
WO (1) WO2016151627A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019063243A (ja) * 2017-09-29 2019-04-25 株式会社ニデック 眼科撮影装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021009128A (ja) * 2019-07-03 2021-01-28 株式会社ミツトヨ 白色光の干渉により現れる色を用いた測定装置、システム及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007044221A (ja) * 2005-08-10 2007-02-22 Optiscan Pty Ltd 走査型共焦点内視鏡システムおよび該システムの画像表示範囲調整方法
JP2013106899A (ja) * 2011-11-24 2013-06-06 Olympus Corp 内視鏡装置
WO2013089053A1 (ja) * 2011-12-12 2013-06-20 Hoya株式会社 走査型内視鏡システム
JP2015022161A (ja) * 2013-07-19 2015-02-02 富士フイルム株式会社 内視鏡用対物レンズおよび内視鏡

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8305432B2 (en) * 2007-01-10 2012-11-06 University Of Washington Scanning beam device calibration
JP5210894B2 (ja) * 2009-01-13 2013-06-12 Hoya株式会社 光走査型内視鏡
EP2551710A4 (en) * 2010-05-20 2017-01-25 Olympus Corporation Endoscope objective lens unit and endoscope
CN102883650B (zh) * 2010-06-25 2015-04-08 奥林巴斯医疗株式会社 内窥镜装置
JP5571255B2 (ja) * 2011-11-01 2014-08-13 富士フイルム株式会社 対物光学系およびこれを用いた内視鏡装置
EP2756790B1 (en) 2012-06-01 2019-06-05 Olympus Corporation Endoscopic system
WO2014065025A1 (ja) * 2012-10-22 2014-05-01 オリンパスメディカルシステムズ株式会社 走査型内視鏡システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007044221A (ja) * 2005-08-10 2007-02-22 Optiscan Pty Ltd 走査型共焦点内視鏡システムおよび該システムの画像表示範囲調整方法
JP2013106899A (ja) * 2011-11-24 2013-06-06 Olympus Corp 内視鏡装置
WO2013089053A1 (ja) * 2011-12-12 2013-06-20 Hoya株式会社 走査型内視鏡システム
JP2015022161A (ja) * 2013-07-19 2015-02-02 富士フイルム株式会社 内視鏡用対物レンズおよび内視鏡

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019063243A (ja) * 2017-09-29 2019-04-25 株式会社ニデック 眼科撮影装置
JP7024294B2 (ja) 2017-09-29 2022-02-24 株式会社ニデック 眼科撮影装置

Also Published As

Publication number Publication date
DE112015006182T5 (de) 2017-11-02
CN107427182B (zh) 2020-03-31
US10491873B2 (en) 2019-11-26
JPWO2016151627A1 (ja) 2018-01-11
CN107427182A (zh) 2017-12-01
US20180007335A1 (en) 2018-01-04

Similar Documents

Publication Publication Date Title
JP6270830B2 (ja) 光走査ユニット、光走査型観察装置、および光ファイバ走査装置
JPH02146514A (ja) 光学装置
CN104081250A (zh) 光扫描型观察装置
JPWO2017110837A1 (ja) 共焦点変位計
JP6416277B2 (ja) 光走査型内視鏡装置
WO2015125976A1 (ja) 光の走査軌跡の算出方法及び光走査装置
JPWO2015182137A1 (ja) 光走査型内視鏡装置
US10488647B2 (en) Method for measuring scanning pattern of optical scanning apparatus, apparatus for measuring scanning pattern, and method for calibrating image
JP2011217836A (ja) 電子内視鏡装置
JP6518687B2 (ja) 光走査用アクチュエータ及び光走査装置
JP6226730B2 (ja) 光走査装置および光走査型観察装置
WO2015182139A1 (ja) 光走査型観察装置および光走査型観察方法
US12396625B2 (en) Ultra-compact microsystems-based single axis confocal endomicroscope
US20180003953A1 (en) Calibration apparatus and method for calibrating optical scanning apparatus
US10491873B2 (en) Scanning observation apparatus and image display method of scanning observation apparatus
WO2015111412A1 (ja) 光走査型観察装置
JP6435349B2 (ja) 光ファイバスキャナ及び走査型内視鏡装置
JP2012147831A (ja) 走査位置補正装置
JP2011008219A (ja) レーザ走査顕微鏡および制御方法
JP2010085272A (ja) 光学系評価装置
JPWO2017169555A1 (ja) 走査型内視鏡の照射位置調整方法
WO2016084439A1 (ja) 走査型内視鏡
JP2018015110A (ja) 内視鏡プロセッサ
JP2015123086A (ja) 走査型照明装置および走査型観察装置
WO2022064659A1 (ja) オートフォーカスシステム、内視鏡システムおよび制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15886184

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017507107

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 112015006182

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15886184

Country of ref document: EP

Kind code of ref document: A1