[go: up one dir, main page]

WO2010067813A1 - 光立体構造像装置及びその光信号処理方法 - Google Patents

光立体構造像装置及びその光信号処理方法 Download PDF

Info

Publication number
WO2010067813A1
WO2010067813A1 PCT/JP2009/070583 JP2009070583W WO2010067813A1 WO 2010067813 A1 WO2010067813 A1 WO 2010067813A1 JP 2009070583 W JP2009070583 W JP 2009070583W WO 2010067813 A1 WO2010067813 A1 WO 2010067813A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
optical
information
dimensional structure
wavelength band
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2009/070583
Other languages
English (en)
French (fr)
Inventor
寺村 友一
和弘 広田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of WO2010067813A1 publication Critical patent/WO2010067813A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/47Scattering, i.e. diffuse reflection
    • G01N21/4795Scattering, i.e. diffuse reflection spatially resolved investigating of object in scattering medium
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • A61B5/0066Optical coherence imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0073Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by tomography, i.e. reconstruction of 3D images from 2D projections
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6846Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive
    • A61B5/6847Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive mounted on an invasive device
    • A61B5/6852Catheters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/2441Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using interferometry
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/02001Interferometers characterised by controlling or generating intrinsic radiation properties
    • G01B9/02007Two or more frequencies or sources used for interferometric measurement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/0209Low-coherence interferometers
    • G01B9/02091Tomographic interferometers, e.g. based on optical coherence
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/62Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light
    • G01N21/63Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light optically excited
    • G01N21/64Fluorescence; Phosphorescence
    • G01N21/6428Measuring fluorescence of fluorescent products of reactions or of fluorochrome labelled reactive substances, e.g. measuring quenching effects, using measuring "optrodes"
    • G01N2021/6439Measuring fluorescence of fluorescent products of reactions or of fluorochrome labelled reactive substances, e.g. measuring quenching effects, using measuring "optrodes" with indicators, stains, dyes, tags, labels, marks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/62Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light
    • G01N21/63Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light optically excited
    • G01N21/65Raman scattering
    • G01N2021/653Coherent methods [CARS]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/62Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light
    • G01N21/63Systems in which the material investigated is excited whereby it emits light or causes a change in wavelength of the incident light optically excited
    • G01N21/65Raman scattering

Definitions

  • the present invention relates to an optical three-dimensional structure image device and an optical signal processing method thereof, and more particularly to an optical three-dimensional structure image device characterized by generation of an optical three-dimensional structure image and an optical signal processing method thereof.
  • an optical tomographic image acquisition device using OCT Optical Coherence Tomography
  • This optical tomographic image acquisition apparatus divides low-coherent light emitted from a light source into measurement light and reference light, and then reflects or backscatters light from the measurement object when the measurement light is applied to the measurement object.
  • the light and the reference light are combined, and an optical tomographic image is acquired based on the intensity of the interference light between the reflected light and the reference light (Patent Document 1).
  • the reflected light and the backscattered light from the measurement object are collectively referred to as reflected light.
  • the above-mentioned OCT measurement is roughly divided into two types: TD-OCT (Time domain) OCT measurement and FD-OCT (Fourier domain OCT) measurement.
  • TD-OCT Time domain OCT measurement
  • FD-OCT Fullier domain OCT
  • the reflected light intensity distribution corresponding to the position in the depth direction of the measurement target (hereinafter referred to as the depth position) is obtained by measuring the interference light intensity while changing the optical path length of the reference light. Is the method.
  • the interference light intensity is measured for each spectral component of the light without changing the optical path lengths of the reference light and the signal light, and the obtained spectral interference intensity signal is Fourier transformed by a computer.
  • This is a method of obtaining a reflected light intensity distribution corresponding to a depth position by performing a representative frequency analysis.
  • it has been attracting attention as a technique that enables high-speed measurement by eliminating the need for mechanical scanning existing in TD-OCT.
  • SD-OCT Spectral Domain OCT
  • SS-OCT Session Source OCT
  • the SD-OCT apparatus uses broadband low-coherent light such as SLD (Super Luminescence Diode) or ASE (Amplified Spontaneous Emission) light source or white light as a light source, and uses a Michelson interferometer or the like to generate broadband low-coherent light. After splitting into measurement light and reference light, irradiate the measurement light on the object to be measured, cause the reflected light and reference light that have returned at that time to interfere with each other, and decompose this interference light into frequency components using a spectrometer.
  • SLD Super Luminescence Diode
  • ASE Amontaneous Emission
  • the interference light intensity for each frequency component is measured using a detector array in which elements such as photodiodes are arranged in an array, and the spectrum interference intensity signal obtained thereby is Fourier transformed by a computer to obtain an optical signal.
  • a tomographic image is constructed.
  • the SS-OCT apparatus uses a laser that temporally sweeps the optical frequency as a light source, causes reflected light and reference light to interfere with each other at each wavelength, and measures the time waveform of the signal corresponding to the temporal change of the optical frequency.
  • An optical tomographic image is constructed by Fourier-transforming the spectral interference intensity signal thus obtained with a computer.
  • OCT measurement is a method for acquiring an optical tomographic image of a specific region as described above.
  • an endoscope for example, a cancer lesion is observed by observation with a normal illumination endoscope or a special optical endoscope.
  • OCT measurement of the region it is possible to determine how far the cancerous lesion has infiltrated.
  • scanning the optical axis of the measurement light two-dimensionally three-dimensional information can be acquired together with depth information obtained by OCT measurement.
  • the fusion of OCT measurement and 3D computer graphic technology makes it possible to display a 3D structure model consisting of structural information of a measurement object having a resolution of micrometer order.
  • the model is called an optical three-dimensional structure image.
  • the optical three-dimensional structure image is usually acquired by infrared light that is less absorbed by the living tissue, it is different from a color image obtained by a normal illumination light endoscope. From the color image of the surface of the biological tissue that is usually measured by the illumination optical endoscope, information such as the distribution of blood vessels and inflammation near the surface layer and the difference in color between normal and lesions can be obtained from the change in color. There is no such information in images obtained by OCT measurement. In addition, it is difficult to accurately apply the optical axis of the measurement light of the OCT measurement to a place that the user wishes to see when observing with a normal illumination light endoscope.
  • the conventional technique for observing a normal illumination light endoscope image and an OCT image at the same time is a combination of a normal illumination light endoscope and an OCT measurement integrated.
  • a mirror Patent Document 2
  • a probe Patent Document 3
  • an endoscope that combines a fiber bundle and OCT measurement
  • the endoscope disclosed in Patent Document 2 has a problem that it is difficult to match the images of the two because the viewpoint angle of the OCT measurement is different from that of the normal illumination light endoscope.
  • the probe disclosed in Patent Document 3 has the same viewpoint direction for the CCD camera and OCT measurement, which is convenient for synthesizing both images, but it is necessary to incorporate the CCD camera into the probe tip. There is a drawback that the probe is enlarged. In addition, in order to reduce the diameter of the probe, the probe is limited to one having a small number of CCD pixels, and there is a drawback that a normal illumination light image becomes rough.
  • the CCD camera can be arranged on the base end side of the main body and the probe can be reduced in diameter, but can be bundled.
  • the number of fibers is small and the resolution is remarkably inferior.
  • the probe becomes relatively thick.
  • the present invention has been made in view of such circumstances, and has a wavelength different from that of the measurement light without increasing the size of the optical system that scans the measurement light, irradiates the measurement object, and enters the light from the measurement object.
  • An optical three-dimensional structure image apparatus capable of acquiring image information by light in a band with high resolution and corresponding the image information to surface information of an optical three-dimensional structure image to be measured with high accuracy and an optical signal processing method thereof The purpose is to provide.
  • an optical three-dimensional structure imaging device includes a first wavelength band light source that emits light in a first wavelength band, measurement light and reference light for light in the first wavelength band.
  • a light separating unit that separates the measurement light, a first waveguide unit that guides the measurement light, an irradiation unit that irradiates the measurement target with the measurement light guided through the first waveguide unit, and the measurement target From the point on the measuring object guided by the first waveguide means, the first light collecting means for condensing the light based on the measurement light from the upper point on the first waveguide means
  • Interference information detecting means for detecting interference information between the light based on the measurement light and the reference light, and light in a second wavelength band different from the first wavelength band from the point on the measurement object
  • the first waveguide unit guides the measurement light
  • the interference information detection unit includes light based on the measurement light from the point on the measurement target. Detecting interference information with the reference light, and the second waveguide means guides light in a second wavelength band different from the first wavelength band from the point on the measurement object;
  • the light receiving means receives the light in the second wavelength band and obtains the light reception signal, without increasing the size of the optical system that scans the measurement light, irradiates the measurement target, and enters the light from the measurement target.
  • Image information using light in a wavelength band different from that of the measurement light can be acquired with high resolution, and the image information can be made to correspond to the surface information of the optical three-dimensional structure image to be measured with high accuracy.
  • the optical three-dimensional structure image device of the second aspect is the optical three-dimensional structure image device of the first aspect, and the first condensing means and the second condensing means are integrally configured.
  • An optical three-dimensional structure image device is the optical three-dimensional structure image device according to claim 1, wherein the first waveguide means is a single mode with respect to the first wavelength band. It is a waveguide.
  • the optical three-dimensional structure image device is the optical three-dimensional structure image device according to any one of claims 1 to 3, wherein the second waveguide means is in the second wavelength band. On the other hand, it is a multimode waveguide.
  • An optical three-dimensional structure image device is the optical three-dimensional structure image device according to claim 1, wherein the first waveguide means is a core of a double clad single mode fiber, and the second The waveguide means is a clad of the double clad single mode fiber.
  • the optical three-dimensional structure image device is the optical three-dimensional structure image device according to any one of the first to fifth aspects, wherein the interference information detected by the interference information detection means is the depth of the measurement object. It is direction information, and the scanning unit performs two-dimensional scanning on a surface substantially orthogonal to the depth direction.
  • the optical three-dimensional structure image device is the optical three-dimensional structure image device according to any one of the first to sixth aspects, wherein the second wavelength band is a visible light range, and the light receiving means is Light is received for each of the R component, G component, and B component in the visible light region.
  • An optical three-dimensional structure image device is the optical three-dimensional structure image device according to the seventh aspect, wherein the first wavelength band is between 700 nm and 1600 nm, and the second wavelength band is from 350 nm. Between 1000 nm.
  • the optical three-dimensional structure image device is the optical three-dimensional structure image device according to the eighth aspect, wherein the interference information detecting means includes an InGaAs photodetector, and the light receiving means includes an Si photo detector.
  • the optical three-dimensional structure image device is the optical three-dimensional structure image device according to any one of the first to ninth aspects, and further includes a second wavelength band light source that emits light in the second wavelength band.
  • the scanning unit combines the measurement light and the second wavelength band light from the second wavelength band light source, and scans the combined measurement light and second wavelength band light. To do.
  • An optical three-dimensional structure image device is the optical three-dimensional structure image device according to the tenth aspect, wherein the second waveguide means has the second wavelength band emitted from the second wavelength band light source.
  • a light source waveguide for guiding light to the second light collecting means, and the light receiving means for receiving light of the second wavelength band from the point on the measurement object condensed by the second light collecting means.
  • a light receiving waveguide which is guided to the surface.
  • An optical three-dimensional structure image device is the optical three-dimensional structure image device according to the eleventh aspect, wherein the second wavelength band light source is provided at an ultraviolet light source unit that emits ultraviolet light and a tip of the light source waveguide. And a white fluorescent part that emits white fluorescence by the ultraviolet rays.
  • An optical three-dimensional structure image device is the optical three-dimensional structure image device according to any one of the first to sixth aspects, wherein the light in the second wavelength band is autofluorescence or medicine from the measurement object.
  • An excitation light source that emits excitation light for exciting the autofluorescence or the drug fluorescence is provided, and the scanning unit scans the measurement light and the excitation light.
  • a four-dimensional structure image device is the light three-dimensional structure image device according to any one of the first to thirteenth aspects, wherein the interference information detection means detects the interference information and the light receiving means. It is possible to further comprise synchronization means for synchronizing the received light information acquisition timing.
  • the optical three-dimensional structure image device is the optical three-dimensional structure image device according to the fourteenth aspect, comprising optical path length varying means for sweeping and varying the predetermined optical path length of the reference light based on a trigger signal. Further, the synchronization means synchronizes the detection timing of the interference information by the interference information detection means and the acquisition timing of the light reception information by the light receiving means based on the trigger signal.
  • An optical three-dimensional structure image device is the optical three-dimensional structure image device according to the fourteenth aspect, wherein the first wavelength range light source uses a broadband low-coherent light as the light in the first wavelength band.
  • the interference information detecting means is a detector array for detecting the intensity of each frequency component of the interference light between the reflected light of the measurement light from the measurement object and the reflected light of the reference light from the reference light reflecting means. The interference information is detected from the detector array based on a predetermined trigger signal, and the synchronization means detects the interference information at the interference information detection means based on the trigger signal and the light reception at the light receiving means. Synchronize with information acquisition timing.
  • An optical three-dimensional structure image device is the optical three-dimensional structure image device according to the fourteenth aspect, wherein the first wavelength band light source calculates the frequency of light in the first wavelength band on the basis of a trigger signal.
  • the synchronization unit synchronizes the detection timing of the interference information by the interference information detection unit and the acquisition timing of the light reception information by the light receiving unit based on the trigger signal.
  • the optical three-dimensional structure image device is the optical three-dimensional structure image device according to any one of the first to seventeenth aspects, and stores the interference information detected by the interference information detection means. And a second storage means for storing the received light information acquired by the light receiving means, and the measurement at an arbitrary point on the measurement object based on the interference information stored in the first storage means.
  • An optical structure information generating unit configured to generate optical structure information depending on an optical path length of the light, and based on the scanning information of the scanning unit, the optical structure information, and the received light information stored in the second storage unit; And an optical structure image generation means for generating a structure image.
  • the optical three-dimensional structure image device of the nineteenth aspect is the optical three-dimensional structure image device of the eighteenth aspect, wherein the structure information is three-dimensional structure information, and the optical structure image generation means is the measurement object.
  • a surface position calculating means for calculating the surface position of the image
  • an image information generating means for generating image information of the measurement object based on the light reception information stored in the second storage means, and the image information as the surface information.
  • Rendering means for rendering at the position of the three-dimensional structure information corresponding to the position.
  • An optical three-dimensional structure image device is the optical three-dimensional structure image device according to the nineteenth aspect, wherein the image information generating means receives a plurality of narrowband light components in the light reception information of the light receiving means. The image information is generated based on the information.
  • An optical three-dimensional structure image device is the optical three-dimensional structure image device according to the nineteenth aspect, wherein the light receiving means receives a plurality of narrowband lights, and the image information generating means is the narrowband light. The image information is generated based on the received light information.
  • the optical three-dimensional structure image device is the optical three-dimensional structure image device according to any one of the eighteenth to twenty-first aspects, further comprising image display means for displaying the optical structure image. it can.
  • An optical three-dimensional structure image device is the optical three-dimensional structure image device according to any one of the first to sixth aspects, wherein the first wavelength band light source emits light in the first wavelength band in a pulsed manner. And a second wavelength band light source that emits light of the second wavelength band when the first wavelength band light source is not emitting light.
  • light in the first wavelength band is separated into measurement light and reference light, the measurement light is irradiated onto the measurement target, and the measurement target is irradiated
  • the light from the point is condensed and guided to the first waveguide, and the point on the measurement object is scanned, and the light from the point on the measurement object is interfered with the reference light.
  • An interference information detecting step for detecting information; and condensing light from the measurement object to guide the light to a second waveguide, and emitting light in a second wavelength band different from the first wavelength band
  • a light receiving step for selecting and receiving light to obtain a light reception signal.
  • light in the first wavelength band is separated into measurement light and reference light in the interference information detection step, and the measurement light is placed on the measurement object. And condensing the light from the point on the measurement object to guide the light to the first waveguide and scanning the point on the measurement object, from the point on the measurement object And detecting the interference information between the first light and the reference light, condensing the light from the measurement object in the light receiving step, and guiding the light to the second waveguide, Without selecting an optical system that scans the measurement light, irradiates the measurement target, and enters the light from the measurement target by selecting and receiving the light of different second wavelength bands and receiving the received light signal. , Acquiring image information with light of a wavelength band different from that of the measurement light with high resolution, and the image information It makes it possible to cope with high precision on the surface information of the optical stereoscopic structure image of the measurement target.
  • the optical signal processing method for the optical three-dimensional structure image device of the twenty-fifth aspect is the optical signal processing method for the optical three-dimensional structure image device of the twenty-fourth aspect, and stores the interference information detected in the interference information detecting step.
  • the second storage step for storing the light reception information acquired in the light reception step, and the interference information stored in the first storage step.
  • An optical structure information generation step for generating structure information depending on the optical path length of the measurement light at the point; scanning information of the scanning means; the optical structure information; and the light reception information stored in the second storage means And an optical structure image generation step for generating an optical structure image.
  • the optical signal processing method of the optical three-dimensional structure image device of the twenty-sixth aspect is the optical signal processing method of the optical three-dimensional structure image device of the twenty-fifth aspect, wherein the structure information is three-dimensional structure information
  • the optical structure image generation step generates image information of the measurement target based on the surface position calculation step of calculating the surface position of the measurement target and the light reception information stored in the second storage step.
  • a rendering step for rendering the image information at the position of the three-dimensional structure information corresponding to the surface position.
  • the present invention it is possible to use light of a wavelength band different from that of the measurement light without increasing the size of the optical system that scans the measurement light, irradiates the measurement object, and enters the light from the measurement object.
  • the image information can be acquired with high resolution, and the image information can correspond to the surface information of the optical three-dimensional structure image to be measured with high accuracy.
  • FIG. 1 is a block diagram showing a configuration of the optical three-dimensional structure imaging apparatus according to the first embodiment.
  • FIG. 2 is a cross-sectional view showing a detailed configuration of the probe of FIG.
  • FIG. 3 is a block diagram showing a configuration of the signal processing unit of FIG.
  • FIG. 4 is a flowchart showing the flow of the three-dimensional CG image generation process of the optical three-dimensional structure imaging apparatus of FIG.
  • FIG. 5 is a diagram showing a three-dimensional CG image generated by the process of FIG.
  • FIG. 6 is a diagram showing an example of an endoscopic image compared with the three-dimensional CG image of FIG.
  • FIG. 7 is a diagram showing a configuration of Modification 1 of the probe of FIG. FIG.
  • FIG. 8 is a diagram showing a configuration of Modification 2 of the probe of FIG.
  • FIG. 9 is a cross-sectional view taken along line AA in FIG.
  • FIG. 10 is a diagram showing a configuration of an optical three-dimensional structure imaging apparatus applied to the probe of FIG.
  • FIG. 11 is a diagram showing a configuration of Modification 3 of the probe of FIG.
  • FIG. 12 is a diagram showing a configuration of Modification 4 of the probe of FIG.
  • FIG. 13 is a diagram showing a configuration of Modification 5 of the probe of FIG.
  • FIG. 14 is a diagram illustrating a first modification of the visible light information detection unit in FIG. 1.
  • FIG. 15 is a diagram illustrating a second modification of the visible light information detection unit in FIG. 1.
  • FIG. 16 is a diagram illustrating a third modification of the visible light information detection unit in FIG. 1.
  • FIG. 17 is a diagram illustrating a fourth modification of the visible light information detection unit in FIG. 1.
  • 18 is a block diagram showing a configuration of a modification of the optical three-dimensional structure imaging apparatus of FIG.
  • FIG. 1 is a block diagram showing the configuration of the optical three-dimensional structure imaging apparatus according to the first embodiment.
  • an optical three-dimensional structure imaging apparatus 1 acquires, for example, a tomographic image of a measurement target such as a living tissue or a cell in a body cavity by, for example, SS-OCT measurement centered on a wavelength of 1.3 ⁇ m.
  • visible light as the first wavelength band light source for example, OCT light source 10 that emits light having a band of 700 nm to 1600 nm
  • visible light as the second wavelength band light source for example, that emits white light having a band of 350 nm to 1000 nm
  • three-dimensional as a light source 20 an OCT interferometer 30 having an interference information detection unit 70 as an interference information detection unit, a probe 40, a visible light information detection unit 60 as a light receiving unit, an optical structure information generation unit, and an optical structure image generation unit
  • a CG image generation unit 90 and a monitor 100 are provided.
  • the OCT light source 10 is a light source that emits laser light L centered at a wavelength of 1.3 ⁇ m, for example, in the infrared region while sweeping the frequency at a constant period, and the visible light source 20 is an illumination light composed of white light. Is a light source that emits visible light La.
  • the synchronizing means is composed of the OCT light source 10, and the sweep trigger signal S for frequency sweeping of the laser light L in the infrared region is the synchronizing signal of the synchronizing means.
  • the laser light L emitted from the OCT light source 10 is demultiplexed into the measurement light L1 and the reference light L2 by the optical demultiplexing unit 3 in the OCT interferometer 30.
  • the reference light L2 demultiplexed by the optical demultiplexing unit 3 is reflected by the optical path length adjusting unit 80 serving as reference light adjusting means via the circulator 5a.
  • the optical path length adjusting unit 80 changes the optical path length of the reference light L2 in order to adjust the position where the acquisition of tomographic images is started, and includes collimator lenses 81 and 82 and a reflection mirror 83.
  • the reference light L2 from the circulator 5a passes through the collimator lenses 81 and 82 and then is reflected by the reflection mirror 83.
  • the return light L2a of the reference light L2 is incident on the circulator 5a again through the collimator lenses 81 and 82.
  • the reflection mirror 83 is disposed on the movable stage 84, and the movable stage 84 is provided so as to be movable in the arrow A direction by the mirror moving unit 85.
  • the movable stage 84 moves in the direction of arrow A, the optical path length of the reference light L2 is changed.
  • the return light L2a of the reference light L2 from the optical path length adjustment unit 80 is guided to the optical multiplexing / demultiplexing unit 4 via the circulator 5a.
  • the measurement light L1 demultiplexed by the optical demultiplexing unit 3 is incident on the fiber FB1 inserted through the probe 40 via the circulator 5b.
  • the visible light La emitted from the visible light source 20 is condensed by the condenser lens 20b via the collimator lens 20a and the half mirror 21, and is incident on the fiber FB2 inserted through the probe 40.
  • the fiber FB1 constituting the probe 40 is a 1.3 ⁇ m band single mode fiber
  • the fiber FB2 constituting the probe 40 is a multimode fiber. The detailed configuration of the probe 40 will be described later.
  • the fiber FB1 for OCT measurement needs to be in a single mode with respect to the wavelength band of the OCT light source 10.
  • the visible light measuring fiber FB2 may be either a single mode or a multimode. However, when the reflected light intensity is low, the multimode is more preferable in order to collect more light.
  • the visible light La and the measurement light L1 are emitted from the emission end of the probe 40 and irradiated onto the measurement target T, the return light L3 is incident on the probe 40 again, and the visible light component light L3 of the return light is the fiber FB2.
  • the reflected light (or backscattered light) L4 of the measurement light L1 which is the infrared light component of the return light, is guided to the fiber FB1.
  • the visible light component light guided to the fiber FB2 is reflected by the half mirror 21 and guided to the visible light information detection unit 60.
  • the visible light component light is red
  • the green and blue filters 110r, 110g, and 110b are incident on the three Si photodetectors 111r, 111g, and 111b attached to the front surface, and the visible light detection unit 112 synchronizes with the sweep trigger signal S of the OCT light source 10. Instantaneous red, green, and blue light intensities are detected.
  • the reflected light (or backscattered light) L4 guided to the fiber FB1 is guided to the OCT interferometer 30 and guided to the optical multiplexing / demultiplexing unit 4 by the OCT interferometer 30 via the circulator 5b. .
  • the reflected light (or backscattered light) L4 of the measurement light L1 and the return light L2a of the reference light L2 are combined and emitted to the interference information detecting unit 70 side.
  • the interference information detection unit 70 generates the interference light L5 between the reflected light (or backscattered light) L4 of the measurement light L1 combined by the optical multiplexing / demultiplexing unit 4 and the return light L2a of the reference light L2 at a predetermined sampling frequency.
  • InGaAs photodetectors 71a and 71b that measure the light intensity of the interference light L5, and an interference light detector 72 that performs balance detection of the detection value of the InGaAs photodetector 71a and the detection value of the InGaAs photodetector 71b. .
  • the interference light L5 is divided into two by the optical multiplexing / demultiplexing unit 4, detected by the InGaAs photodetectors 71a and 71b, and output to the interference light detection unit 72.
  • the interference light detection unit 72 performs Fourier transform on the interference light L5 in synchronization with the sweep trigger signal S of the OCT light source 10, thereby the intensity of the reflected light (or backscattered light) L4 at each depth position of the measurement target T. Is detected.
  • the three-dimensional CG image generation unit 90 stores the intensity of the reflected light (or backscattered light) L4 at each depth position of the measurement target T detected by the interference light detection unit 72 in the first memory 91 as interference information. Further, the three-dimensional CG image generation unit 90 uses the red, green, and blue light intensity signals of the visible light components from the measurement target T detected by the visible light detection unit 112 as image information in the second memory 92. To store.
  • the three-dimensional CG image generation unit 90 includes a signal processing unit 93 and a control unit 94 in addition to the first memory 91 as the first storage unit and the second memory 92 as the second storage unit.
  • the signal processing unit 93 generates an optical three-dimensional structure image composed of the structure information of the measurement target T based on the interference information stored in the first memory 91 and measures based on the image information stored in the second memory 92. A visible light image is rendered on the surface of the target T. A detailed configuration will be described later.
  • control unit 94 controls the signal processing unit 93, performs light emission control of the OCT light source 10 and the visible light source 20, and controls the mirror moving unit 85.
  • FIG. 2 is a cross-sectional view showing a detailed configuration of the probe of FIG. As shown in FIG. 2, which is an enlarged view of reference numeral 40A in FIG. 1, in the probe 40, collimating lenses 451 and 452 for collimating light are fused to the emission ends of the fibers FB1 and FB2.
  • the measurement light L1 emitted from the fiber FB1 becomes a collimated beam by the collimating lens 451.
  • the visible light La emitted from the fiber FB2 also becomes a collimated beam by the collimating lens 452.
  • the exit ends of the two fibers FB1 and FB2 are arranged so that the collimated beams are substantially parallel to each other.
  • the two parallel collimated beams are incident on one condenser lens 460, then reflected by the deflection rotating mirror 470, and irradiated onto the measurement target T.
  • the two beams are condensed and irradiated at substantially the same point by the condenser lens 460.
  • the deflection rotation mirror 470 is rotated by a motor 480, and thereby the condensing point of the measurement light L1 and the visible light La is scanned.
  • the deflection rotation mirror 470 is rotated by the motor 480, and the circle on the measurement target T
  • the visible light La and the measurement light L1 are scanned in a circumferential shape, and a two-dimensional tomographic image on the ZY plane can be measured.
  • the motor 480 is driven by the optical scanning unit 42 based on the control of the control unit 94 (see FIG. 1).
  • the tip of the probe 40 is advanced and retracted in a direction X perpendicular to the plane formed by the scanning circle of the visible light La and the measuring light L1 by a motor (not shown) in the optical scanning unit 42 (see FIG. 1). Measurement of an XYZ three-dimensional tomographic image is possible.
  • the measurement light L1 emitted from the fiber FB1 and applied to the measurement target is reflected and backscattered in the measurement target T, and a part of the measurement light L1 is collected by the condenser lens 460 and the collimator lens 451 and enters the fiber FB1. .
  • the visible light La emitted from the fiber FB2 and applied to the measurement target T is reflected and backscattered in the measurement target T, and a part of the visible light La is collected by the condenser lens 460 and the collimator lens 452, and the fiber FB2 is collected. Is incident on.
  • the fibers FB1 and FB2 of the probe 40 guide the incident visible light La and measurement light L1 to the measurement target T and irradiate the measurement target T.
  • the fibers FB1 and FB2 of the probe 40 guide the return lights L4 and L3 from the measurement target T when the visible light La and the measurement light L1 are irradiated on the measurement target T, respectively.
  • the probe tip shape and scanning direction are not limited to this, and as shown in FIG. 18, for example, a high-speed scanning mirror 990 such as a condenser lens 460 and a galvanometer mirror on the fiber tip side provided with collimating lenses 451 and 452.
  • the light transmission / reception unit 991 may be provided, and two-dimensional scanning may be performed by the high-speed scanning mirror 990, or the condensing unit and the scanning unit may be configured to advance and retreat by the stage 992.
  • the measurement target T may be scanned two-dimensionally by the stage 992.
  • these optical axis scanning mechanisms and measurement sample moving mechanisms may be combined.
  • FIG. 3 is a block diagram showing the configuration of the signal processing unit of FIG.
  • the signal processing unit 93 is a three-dimensional optical structure information generating unit that constructs an optical three-dimensional structure image composed of the structural information of the measurement target T based on the interference information stored in the first memory 91.
  • a surface position calculation unit 121 as a surface position calculation unit that calculates the surface position of the measurement target T, which is position information of the surface of the optical three-dimensional structure image constructed by the three-dimensionalization unit 120
  • a second memory The visible light image generation unit 122 as an image information generation unit that generates a visible light image of the measurement target T based on the image information stored in 92, and the light three-dimensional structure image and surface position calculation unit from the three-dimensionalization unit 120 Based on the position information of the surface from 121 and the color image from the visible light image generation unit 122, a label for generating a three-dimensional CG image that is a light structure image obtained by rendering the visible light image on the surface of the light three-dimensional structure image. Is constructed and a rendering unit 123 as Daringu means, these units are controlled by the control unit 94, the rendering unit 123 is arranged to output a 3-dimensional CG image generated on the monitor 100.
  • the optical structure information is the structure information in the depth direction of the measurement target T based on the interference information
  • the optical three-dimensional structure image is an optical three-dimensional structure model composed of the optical structure information of the measurement target T
  • the optical structure image is a light It is the three-dimensional CG image which rendered the visible light image on the surface of the three-dimensional structure image.
  • the light structure image generation means includes a surface position calculation unit 121 as a surface position calculation unit, a visible light image generation unit 122 as an image information generation unit, and a rendering unit 123 as a rendering unit.
  • the surface position calculation unit 121 calculates the surface position of the measurement target T from, for example, a change in OCT signal intensity that moves from space to the object.
  • FIG. 4 is a flowchart showing the flow of the three-dimensional CG image generation process of the optical three-dimensional structure imaging apparatus of FIG.
  • the control unit 94 controls the OCT light source 10 and the visible light source 20 to start emission control of infrared light and visible light (step S1).
  • the OCT light source 10 emits laser light L in the infrared region while sweeping the frequency at a constant period in synchronization with the sweep trigger signal S.
  • control unit 94 stores the intensity of the reflected light (or backscattered light) L4 at each depth direction Z position of the measurement target T detected by the interference light detection unit 72 in the first memory 91 as interference information.
  • the red, green, and blue light intensity signals of the visible light components from the measurement target T detected by the visible light detector 112 are stored in the second memory 92 as image information (step S2).
  • control unit 94 controls the light scanning unit 42 to scan the visible light La and the measurement light L1 on the measurement target T in the Y direction (step S3), and performs step S2 to step until the Y direction scanning is completed.
  • step S3 is repeated (step S4).
  • control unit 94 controls the optical scanning unit 42 to scan the visible light La and the measuring light L1 on the measurement target T in the X direction (step S5), and the X-direction scanning is completed. Steps S2 to S5 are repeated until (Step S6).
  • control unit 94 controls the three-dimensional unit 120 to construct an optical three-dimensional structure image of the measurement target T based on the interference information stored in the first memory 91 (step S7). .
  • control unit 94 controls the surface position calculation unit 121 to calculate the position information of the surface of the optical three-dimensional structure image constructed by the three-dimensionalization unit 120 (step S8).
  • control unit 94 controls the visible light image generation unit 122 to generate a visible light image of the measurement target T based on the image information stored in the second memory 92 (step S9).
  • control unit 94 controls the rendering unit 123 to display the three-dimensional three-dimensional structure image from the three-dimensionalization unit 120, the surface position information from the surface position calculation unit 121, and the visible light image from the visible light image generation unit 122.
  • a three-dimensional CG image in which a visible light image is rendered on the surface of the optical three-dimensional structure image is generated (step S10), the three-dimensional CG image is displayed on the monitor 100 (step S11), and the process ends.
  • the optical stereoscopic structure is rendered.
  • a normal visible light image 200 is displayed in full color from the upper surface, and an optical three-dimensional structure image 201 obtained by OCT is displayed below the visible light surface information on the surface of the image.
  • a three-dimensional CG image 203 which is the optical structure image thus completed is completed. Since the visible light image 200 is pasted as a surface image based on the OCT information, the three-dimensional CG image 203 displayed on the monitor 100 is an image having a three-dimensional surface image.
  • the optical three-dimensional structure imaging apparatus 1 of the present embodiment is used with, for example, a normal electronic endoscope apparatus that uses visible light as illumination light
  • the probe 40 is inserted through a treatment instrument channel or the like of the electronic endoscope.
  • the electronic endoscope images the affected part in the body cavity as the measurement target T, an endoscopic image 300 as shown in FIG. 6 is displayed on a monitor or the like.
  • OCT measurement is performed on the affected area 301 with the probe 40, and an optical stereoscopic structure image of the affected area 301 is obtained.
  • FIG. 5 is a diagram showing a three-dimensional CG image generated by the processing of FIG. 4, and FIG. 6 is a diagram showing an example of an endoscopic image compared with the three-dimensional CG image of FIG.
  • Visible light surface information (hue, contrast, brightness, etc.) of the affected area 301 (see FIG. 5) on the visible light image 200 on the surface of the three-dimensional CG image 203 and the affected area 301 (see FIG. 6) on the endoscopic image.
  • Visible light image information (hue, contrast, brightness, etc.) can be identified in correspondence, so it can be easily determined whether the affected area 301 has been reliably subjected to OCT measurement.
  • this three-dimensional CG image it is possible to extract a lesion part using a feature of a lesion that can be visually recognized in a normal endoscopic image and a feature of an optical three-dimensional structure image, and the resolution is high. Can be determined with higher accuracy.
  • the probe 40 includes the fibers FB1 and FB2 in which the collimating lenses 451 and 452 are fused, the condensing lens 460, the deflection rotating mirror 470, and the motor 480. Examples 1> to ⁇ Modification 5> may be used.
  • FIG. 7 is a diagram showing a configuration of Modification 1 of the probe shown in FIG.
  • the condensing lens 460 is two condensing lenses 460a and 460b.
  • the measurement light L1 emitted from the fiber FB1 becomes a collimated beam by the collimating lens 451.
  • the visible light La emitted from the fiber FB2 also becomes a collimated beam by the collimating lens 452.
  • the two parallel collimated beams are incident on the two condenser lenses 460a and 460b, respectively, reflected by the deflection rotating mirror 470, and irradiated onto the measurement target T.
  • FIG. 8 is a diagram showing a configuration of Modification 2 of the probe of FIG. 2
  • FIG. 9 is a diagram showing a cross section taken along line AA of FIG. 8, and
  • FIG. 10 is applied to the probe of FIG. It is a figure which shows the structure of the optical three-dimensional structure imaging device performed.
  • Modification 2 of the probe is an example in which three fibers are used for the probe 40. That is, in the probe modification 2, the visible light fiber FB2 is divided into an illumination fiber FB21 and a reflected light receiving fiber FB22. As shown in FIG. 9, collimating lenses 452a and 452b are provided at the tips of the FBs 21 and 22, respectively. As described above, when the visible light fiber FB2 is divided into the illumination fiber FB21 and the reflected light receiving fiber FB22, the half-mirror 21 is not necessary in the optical three-dimensional structure imaging apparatus 1, as shown in FIG. The light utilization efficiency increases.
  • the number of fibers used for the probe 40 is not limited to two, and any number of fibers may be stacked depending on the application.
  • two fibers may be used for irradiation and reflection for the fiber FB1 for OCT measurement light.
  • two polarization-maintaining fibers may be used to irradiate or receive polarized light perpendicular to each other.
  • Modification 2 a specific example of Modification 2 will be described as Examples 1 to 3.
  • visible light La which is white light
  • the illumination light is not limited to white light.
  • the blue excitation light used in the fluorescence endoscope is used as illumination light, the blue excitation light is guided by the fiber FB21, and the autofluorescence of the cell is guided by the fiber FB22.
  • a filter that transmits green fluorescence to the detector that receives the autofluorescence of the cells it is possible to display a combination of the same image and OCT as a fluorescence endoscope, and to improve the visibility of the cancer area. it can.
  • an agent that selectively accumulates in cancer and injects specific fluorescence is injected, the excitation light is used as illumination light, a fiber matched to the excitation light is used as fiber FB21, and the fluorescence wavelength is selectively selected.
  • the visibility of the cancer area can be further improved by combining the detector for receiving light and the fiber FB22 matched to the wavelength.
  • excitation light and fluorescence are not always in the visible range.
  • a known fluorescent material called indocyanine green has an absorption wavelength in the invisible region of 800 nm to 810 nm, and emits fluorescence with a wavelength of 830 nm in the invisible region when excited with a laser beam of 806 nm. Therefore, by using a filter that removes the light near 806 nm and extracts the light near 830 nm as the illumination light for the 806 nm laser and the detector, the region on the XY plane where the indocyanine green is accumulated is shown as an optical three-dimensional structure image. Can be specified.
  • Example 2 An ultrashort pulse laser is guided using a dispersion shifted fiber as the fiber FB21, and two-photon excitation fluorescence and second harmonics generated when the measurement object is irradiated with the ultrashort pulse laser are guided. It is good also as a structure which combines a multimode fiber as fiber FB22. Alternatively, the measurement object may be irradiated with ultraviolet light using a hollow fiber to receive fluorescence.
  • Example 3 It may be configured in combination with Raman spectroscopy or coherent anti-Stokes Raman spectroscopy (CARS).
  • CARS coherent anti-Stokes Raman spectroscopy
  • excitation light having a wavelength of 568 nm and 600 nm is used, two fibers FB21 made of separate single mode fibers are used as irradiation fibers, and a multimode fiber for light reception is bundled as a fiber FB22.
  • the position of the tip of each fiber and the optical system are adjusted so that the beam is irradiated and condensed at an angle suitable for CARS measurement at the tip of the probe 40.
  • a light receiving end of the fiber FB22 which is a multimode fiber for light reception, is provided with a spectroscope composed of a spectroscopic element and a one-dimensional photo detector to acquire spectroscopic information.
  • a spectroscope composed of a spectroscopic element and a one-dimensional photo detector to acquire spectroscopic information.
  • FIG. 11 is a diagram showing a configuration of Modification 3 of the probe shown in FIG.
  • the third modification of the probe is almost the same as the second modification, and an ultraviolet laser light source (not shown) that emits ultraviolet laser light and a fluorescent paint 455 applied to the tip of the fiber FB21. It is the example which comprised the visible light source 20 from these.
  • the fiber FB21 guides the ultraviolet laser light, and the ultraviolet laser light is absorbed by the fluorescent paint at the tip of the fiber FB2.
  • the fluorescent paint emits white fluorescence and becomes illumination light.
  • the light is condensed and irradiated, and the reflected light is guided by a light receiving fiber FB22 made of a light receiving multimode fiber and received by a visible light information detection unit 60 provided in the optical three-dimensional structure imaging apparatus 1. To do.
  • FIG. 12 is a diagram showing a configuration of Modification 4 of the probe shown in FIG.
  • the probe modification 4 uses a single mode double clad fiber 490 as a fiber instead of the fibers FB1 and FB2, a collimating lens 491 is provided separately, and a galvanometer instead of the deflection rotation mirror 470.
  • This is a configuration example in which a mirror 492 is provided.
  • the core 490a of the single mode double clad fiber 490 is a single mode waveguide that replaces the fiber FB1
  • the clad 490b of the single mode double clad fiber 490 is a multimode waveguide that propagates visible light instead of the fiber FB2. . If this single mode double clad fiber 490 is used, it is not necessary to bundle a plurality of fibers, and the probe can be made thinner.
  • FIG. 13 is a diagram showing a configuration of Modification 5 of the probe shown in FIG.
  • the collimating lens and the condensing lens provided at the ends of the fibers FB1 and FB2 may be combined into one optical lens 495a and 495b, respectively.
  • This configuration makes the probe 40 more compact.
  • a plurality of lenses may be combined to increase the resolution. It is more desirable to eliminate chromatic aberration using a combination lens.
  • the visible light information detection unit 60 uses the three Si photodetectors 111r, 111g, and 111b with red, green, and blue filters 110r, 110g, and 110b attached to the front surface as the sweep trigger signal S of the OCT light source 10, respectively. Synchronously, the visible light detection unit 112 detects the red, green, and blue light intensities at that moment as image information with respect to the light of the visible light component, but the present invention is not limited to this. You may comprise as the following (1) to (4).
  • FIG. 14 is a diagram showing a first modification of the visible light information detection unit of FIG.
  • red, green, and blue light components are separated by two dichroic mirrors 400 and 401, and the sweep trigger of the OCT light source 10 is detected by three Si photodetectors 111r, 111g, and 111b without filters.
  • the visible light information detection unit 60 is configured so that the visible light detection unit 112 detects the red, green, and blue light intensities at that moment as image information in synchronization with the signal S. May be.
  • FIG. 15 is a diagram showing a second modification of the visible light information detection unit of FIG.
  • red, green, and blue are divided into visible light components by the diffraction grating 410, and the sweep trigger signal S of the OCT light source 10 is output by three Si photodetectors 111r, 111g, and 111b without filters.
  • the visible light information detection unit 60 may be configured so that the visible light detection unit 112 detects each light intensity of red, green, and blue as image information in synchronization with visible light component light. .
  • FIG. 16 is a diagram showing a third modification of the visible light information detection unit of FIG.
  • the visible light component light is separated into red, green, and blue using an all-fiber optical system 420 such as a WDM (Wavelength Division Multiplexing) coupler or AWG (Arrayed Waveguide Grating).
  • an all-fiber optical system 420 such as a WDM (Wavelength Division Multiplexing) coupler or AWG (Arrayed Waveguide Grating).
  • Each of the Si photodetectors 111r, 111g, and 111b is synchronized with the sweep trigger signal S of the OCT light source 10, and the visible light detection unit 112 detects the light intensity of each of red, green, and blue at that moment.
  • the visible light information detection unit 60 may be configured to detect the image information as image information.
  • FIG. 17 is a diagram showing a fourth modification of the visible light information detection unit in FIG.
  • the color of the illumination light from the visible light source 20 may be irradiated in a time division manner. That is, by forming the visible light source 20 using red, green, and blue lasers as illumination light, irradiation is performed in a pulsed manner so that the emission time zones of the red, green, and blue lasers do not overlap with each other.
  • the information detector 60 receives light by one Si photodetector 111.
  • the laser light emission timing of the visible light source 20 and the detection timing of the visible light information detector 60 are synchronized with the sweep trigger signal S, and are input to the computer as information on the color of light emitted according to the time zone to generate a full color image.
  • a white light source through a color filter may be used and the color filter may be switched over time.
  • the trigger signal corresponding to the sweep trigger signal S is the period of the optical path length delay circuit in the case of TD-OCT measurement, and the signal acquisition period of the detector array for OCT in the case of SD-OCT measurement.
  • any wavelength range is not limited to red, green, and blue.
  • NBI Near Band Imaging
  • FICE Fluorescent Spectral Imaging Color Enhancement
  • NBI Narrow Band Imaging
  • FICE Fluorescent Spectral Imaging Color Enhancement
  • the number of detectors is not limited to three, and a detector corresponding to special light observation such as NBI or fluorescent endoscope may be arranged in addition to the same red, green, and blue as the normal endoscope.
  • the optical axis scanning of the OCT apparatus may be performed using a probe, a galvano mirror, or a type that scans using a stage.
  • a probe only the deflecting mirror may be rotated by a motor, or it may be fixed to a fiber and rotated for each fiber.
  • linear scanning may be performed using a MEMS (Micro Electro Mechanical Systems) mirror.
  • MEMS Micro Electro Mechanical Systems
  • the visible light La as illumination light also has an effect as aiming light (marking light that clearly indicates the measurement position).
  • aiming light marking light that clearly indicates the measurement position.
  • optical three-dimensional structure imaging device as the optical three-dimensional structure image device of the present invention has been described in detail, the present invention is not limited to the above examples, and various types can be made without departing from the gist of the present invention. Of course, improvements and modifications may be made.
  • SYMBOLS 10 OCT light source, 20 ... Visible light source, 30 ... OCT interferometer, 40 ... Probe, 60 ... Visible light information detection part, 70 ... Interference information detection part, 90 ... Tomographic image generation part, 91 ... First memory, 92 2nd memory, 93 ... Signal processing unit, 94 ... Control unit, 100 ... Monitor, 120 ... 3D conversion unit, 121 ... Surface position calculation unit, 122 ... Visible light image generation unit, 123 ... Rendering unit, 451, 452 ... collimating lens, 460 ... condensing lens, 470 ... deflection rotating mirror, 480 ... motor, FB1, FB2 ... fiber

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • General Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Immunology (AREA)
  • Optics & Photonics (AREA)
  • Biochemistry (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)

Abstract

 第1波長域光源(10)と、前記第1の波長帯域の光を測定光と参照光に分離する光分離部(3)と、前記測定光を導波する第1導波部と、前記第1導波部を導波した前記測定光を測定対象に照射する照射部(470)(492)(990)と、前記測定対象上の点からの前記測定光に基づく光を前記第1導波部に集光する第1集光部(460)(451)(460a)(491)(495a)と、前記第1導波部を導波した前記測定対象上の前記点からの前記測定光に基づく光と前記参照光との干渉情報を検出する干渉情報検出部(70)と、前記測定対象上の前記点からの前記第1波長光源とは波長の異なる光を集光する第2集光部(460)(452)(460b)(452a)(491)(495b)と、前記第2集光部が集光した光を導波する第2導波部と、前記第2導波部を導波した光を受光し受光信号を取得する受光部(60)と、を備えた光立体構造像装置。

Description

光立体構造像装置及びその光信号処理方法
 本発明は光立体構造像装置及びその光信号処理方法に係り、特に光立体構造像の生成に特徴のある光立体構造像装置及びその光信号処理方法に関する。
 従来、生体組織の光断層画像を取得する際に、OCT(Optical Coherence Tomography)計測を利用した光断層画像取得装置が用いられることがある。この光断層画像取得装置は、光源から射出された低コヒーレント光を測定光と参照光とに分割した後、該測定光が測定対象に照射されたときの測定対象からの反射光、もしくは後方散乱光と参照光とを合波し、該反射光と参照光との干渉光の強度に基づいて光断層画像を取得するものである(特許文献1)。以下、測定対象からの反射光、後方散乱光をまとめて反射光と標記する。
 上記のOCT計測には、大きくわけてTD-OCT(Time domain OCT)計測とFD-OCT(Fourier Domain OCT)計測の2種類がある。TD-OCT計測は、参照光の光路長を変更しながら干渉光強度を測定することにより、測定対象の深さ方向の位置(以下、深さ位置という)に対応した反射光強度分布を取得する方法である。
 一方、FD-OCT計測は、参照光と信号光の光路長は変えることなく、光のスペクトル成分毎に干渉光強度を測定し、ここで得られたスペクトル干渉強度信号を計算機にてフーリエ変換に代表される周波数解析を行うことで、深さ位置に対応した反射光強度分布を取得する方法である。TD-OCTに存在する機械的な走査が不要となることで、高速な測定が可能となる手法として、近年注目されている。
 FD-OCT計測を行う装置構成で代表的な物としては、SD-OCT(Spectral Domain OCT)装置とSS-OCT(Swept Source OCT)の2種類が挙げられる。SD-OCT装置は、SLD(Super Luminescence Diode)やASE(Amplified Spontaneous Emission)光源、白色光といった広帯域の低コヒーレント光を光源に用い、マイケルソン型干渉計等を用いて、広帯域の低コヒーレント光を測定光と参照光とに分割した後、測定光を測定対象に照射させ、そのとき戻って来た反射光と参照光とを干渉させ、この干渉光をスペクトロメータを用いて各周波数成分に分解し、フォトダイオード等の素子がアレイ状に配列されたディテクタアレイを用いて各周波数成分毎の干渉光強度を測定し、これにより得られたスペクトル干渉強度信号を計算機でフーリエ変換することにより、光断層画像を構成するようにしたものである。
 一方、SS-OCT装置は、光周波数を時間的に掃引させるレーザを光源に用い、反射光と参照光とを各波長において干渉させ、光周波数の時間変化に対応した信号の時間波形を測定し、これにより得られたスペクトル干渉強度信号を計算機でフーリエ変換することにより光断層画像を構成するようにしたものである。
 ところで、OCT計測は上述したように特定の領域の光断層像を取得する方法であるが、内視鏡下では、例えば癌病変部を通常照明光内視鏡や特殊光内視鏡の観察により発見し、その領域をOCT測定することで、癌病変部がどこまで浸潤しているかを見わけることが可能となる。また、測定光の光軸を2次元的に走査することで、OCT計測による深さ情報と合わせて3次元的な情報を取得することができる。
 OCT計測と3次元コンピュータグラフィック技術の融合により、マイクロメートルオーダの分解能を持つ測定対象の構造情報からなる3次元構造モデルを表示することが可能となる事から、以下ではこのOCT計測による3次元構造モデルを光立体構造像と呼ぶ。
 光立体構造像は通常、生体組織による吸収が少ない赤外光により取得するため、通常照明光内視鏡で得られるようなカラー画像とは異なる。通常照明光内視鏡による測定対象である生体組織の表面のカラー画像からは、その色の変化から表層近くの血管や炎症の分布、正常と病変の色味の違いといった情報が得られるが、OCT計測で得られる画像にはそのような情報はない。また、通常照明光内視鏡で観察した際に見たいと思った場所に、OCT計測の測定光の光軸を正確に当てることは困難である。
 そこで、通常照明光内視鏡画像と同様な生体組織の表面からのフルカラー画像と、OCT測定による3次元画像を正確に対比させて見ることが望まれる。光立体構造像を目的としたものではないが、通常照明光内視鏡画像とOCT画像を同時に観察する従来技術としては、通常照明光内視鏡とOCT測定を一体化させて組み合わせた内視鏡(特許文献2)、ダイクロイックミラーを用いてCCDカメラの光軸とOCT測定の測定光の光軸を同軸に配置するプローブ(特許文献3)、ファイババンドルとOCT計測を組み合わせた内視鏡(特許文献4)等が開示されている。
特開2008-128708号公報 特開2001-70228号公報 特開2004-344260号公報 特開2001-74946号公報
 しかしながら、例えば特許文献2に開示されている内視鏡は、通常照明光内視鏡とOCT測定の視点角度が異なるため、両者の画像を一致させることが難しいといった問題がある。
 また、例えば特許文献3に開示されているプローブは、CCDカメラとOCT計測の視点向きが一致しており、両者の画像を合成するには都合がよいが、CCDカメラをプローブ先端部に組み込む必要があり、プローブが大型化する欠点がある。また、プローブを細径化するためには、CCDの画素数が少ないものに限定され、通常照明光画像が粗くなるという欠点がある。
 さらに、例えば特許文献4に開示されている内視鏡では、ファイババンドルを用いればCCDカメラを本体基端側に配置できプローブの細径化を図ることができるという利点があるが、バンドル化できるファイバ本数は少なく、解像度が著しく劣るという欠点がある。また、逆に解像度を上げようと、ファイバ本数を増やすと、プローブが相対的に太くなる欠点がある。
 本発明は、このような事情に鑑みてなされたもので、測定光を走査して測定対象に照射し測定対象からの光を入射する光学系を大型化することなく、測定光とは異なる波長帯域の光による画像情報を高解像度で取得し、かつ該画像情報を測定対象の光立体構造像の表面情報に高精度にて対応させることのできる光立体構造像装置及びその光信号処理方法を提供することを目的とする。
 前記目的を達成するために、第1の態様の光立体構造像装置は、第1の波長帯域の光を発する第1波長域光源と、前記第1の波長帯域の光を測定光と参照光に分離する光分離手段と、前記測定光を導波する第1の導波手段と、前記第1の導波手段を導波した前記測定光を測定対象に照射する照射手段と、前記測定対象上の点からの前記測定光に基づく光を前記第1の導波手段に集光する第1の集光手段と、前記第1の導波手段を導波した前記測定対象上の前記点からの前記測定光に基づく光と前記参照光との干渉情報を検出する干渉情報検出手段と、前記測定対象上の前記点からの前記第1の波長帯域とは異なる第2の波長帯域の光を集光する第2の集光手段と、前記第2の集光手段が集光した前記第2の波長帯域の光を導波する第2の導波手段と、前記第2の導波手段を導波した前記第2の波長帯域の光を受光し受光信号を取得する受光手段と、前記第1の集光手段及び前記第2の集光手段により集光する前記測定対象上の前記点を走査する走査手段と、を備えて構成される。
 第1の態様の光立体構造像装置では、前記第1の導波手段が前記測定光を導波し、前記干渉情報検出手段が前記測定対象上の前記点からの前記測定光に基づく光と前記参照光との干渉情報を検出し、前記第2の導波手段が前記測定対象上の前記点からの前記第1の波長帯域とは異なる第2の波長帯域の光を導波し、前記受光手段が前記第2の波長帯域の光を受光し受光信号を取得することで、測定光を走査して測定対象に照射し測定対象からの光を入射する光学系を大型化することなく、測定光とは異なる波長帯域の光による画像情報を高解像度で取得し、かつ該画像情報を測定対象の光立体構造像の表面情報に高精度にて対応させることを可能とする。
 第2の態様の光立体構造像装置は、第1の態様の光立体構造像装置であって、前記第1の集光手段及び前記第2の集光手段は一体的に構成されている。
 第3の態様の光立体構造像装置は、請求項1または2に記載の光立体構造像装置であって、前記第1の導波手段は、前記第1の波長帯域に対してシングルモードの導波路である。
 第4の態様の光立体構造像装置は、請求項1ないし3のいずれか1つに記載の光立体構造像装置であって、前記第2の導波手段は、前記第2の波長帯域に対してマルチモードの導波路である。
 第5の態様の光立体構造像装置は、請求項1または2に記載の光立体構造像装置であって、前記第1の導波手段はダブルクラッドシングルモードファイバのコアであり、前記第2の導波手段は前記ダブルクラッドシングルモードファイバのクラッドである。
 第6の態様の光立体構造像装置は、第1ないし5のいずれか1つの態様の光立体構造像装置であって、前記干渉情報検出手段が検出する前記干渉情報は前記測定対象の深さ方向の情報であり、前記走査手段は前記深さ方向に対して略直交する面上を2次元走査する。
 第7の態様の光立体構造像装置は、第1ないし6のいずれか1つの態様の光立体構造像装置であって、前記第2の波長帯域は可視光域であって、前記受光手段は前記可視光域のR成分、G成分及びB成分毎に受光する。
 第8の態様の光立体構造像装置は、第7の態様の光立体構造像装置であって、前記第1の波長帯域は700nmから1600nmの間であり、前記第2の波長帯域が350nmから1000nmの間である。
 第9の態様の光立体構造像装置は、第8の態様の光立体構造像装置であって、前記干渉情報検出手段はInGaAsフォトディテクタを含み、前記受光手段はSiフォトディテクタを含む。
 第10の態様の光立体構造像装置は、第1ないし9のいずれか1つの態様の光立体構造像装置であって、前記第2の波長帯域の光を発する第2波長域光源をさらに備え、前記走査手段は、前記測定光及び前記第2波長域光源からの前記第2の波長帯域の光を合波し、この合波された前記測定光及び前記第2の波長帯域の光を走査する。
 第11の態様の光立体構造像装置は、第10の態様の光立体構造像装置であって、前記第2の導波手段は、第2波長域光源が発した前記第2の波長帯域の光を前記第2の集光手段に導波する光源用導波路と、第2の集光手段が集光した前記測定対象上の前記点からの前記第2の波長帯域の光を前記受光手段に導波する受光用導波路とからなる。
 第12の態様の光立体構造像装置は、第11の態様の光立体構造像装置であって、前記第2波長域光源は、紫外線を発する紫外線光源部と、前記光源用導波路の先端に設けられ前記紫外線により白色蛍光を発する白色蛍光部と、からなる。
 第13の態様の光立体構造像装置は、第1ないし6のいずれか1つの態様の光立体構造像装置であって、前記第2の波長帯域の光は前記測定対象からの自家蛍光あるいは薬剤蛍光であって、前記自家蛍光あるいは前記薬剤蛍光を励起させるための励起光を発する励起光光源を備え、前記走査手段は前記測定光及び前記励起光を走査する。
 第14の態様の光立体構造像装置は、第1ないし13のいずれか1つの態様の光立体構造像装置であって、前記干渉情報検出手段での前記干渉情報の検出タイミングと前記受光手段での前記受光情報の取得タイミングとを同期させる同期手段をさらに備えて構成することができる。
 第15の態様の光立体構造像装置は、第14の態様の光立体構造像装置であって、前記参照光の前記所定光路長をトリガ信号に基づいて掃引して可変する光路長可変手段をさらに備え、前記同期手段は前記トリガ信号に基づいて前記干渉情報検出手段での前記干渉情報の検出タイミングと前記受光手段での前記受光情報の取得タイミングとを同期させる。
 第16の態様の光立体構造像装置は、第14の態様の光立体構造像装置であって、前記第1波長域光源は広帯域の低コヒーレント光を前記第1の波長帯域の光とする光源であり、前記干渉情報検出手段は前記測定光の前記測定対象からの反射光と前記参照光の前記参照光反射手段からの反射光との干渉光の周波数成分毎の強度を検出するディテクタアレイを備え所定のトリガ信号に基づいて前記ディテクタアレイより前記干渉情報を検出し、前記同期手段は前記トリガ信号に基づいて前記干渉情報検出手段での前記干渉情報の検出タイミングと前記受光手段での前記受光情報の取得タイミングとを同期させる。
 第17の態様の光立体構造像装置は、第14の態様の光立体構造像装置であって、前記第1波長域光源は前記第1の波長帯域の光の周波数をトリガ信号に基づいて時間掃引するレーザであって、前記同期手段は前記トリガ信号に基づいて前記干渉情報検出手段での前記干渉情報の検出タイミングと前記受光手段での前記受光情報の取得タイミングとを同期させる。
 第18の態様の光立体構造像装置は、第1ないし17のいずれか1つの態様の光立体構造像装置であって、前記干渉情報検出手段が検出した前記干渉情報を記憶する第1の記憶手段と、前記受光手段が取得した前記受光情報を記憶する第2の記憶手段と、前記第1の記憶手段に記憶されている前記干渉情報に基づき、前記測定対象上の任意の点における前記測定光の光路長に依存した光構造情報を生成する光構造情報生成手段と、前記走査手段の走査情報と前記光構造情報と前記第2の記憶手段に記憶されている前記受光情報に基づき、光構造画像を生成する光構造画像生成手段と、をさらに備えて構成することができる。
 第19の態様の光立体構造像装置は、第18の態様の光立体構造像装置であって、前記構造情報は、3次元構造情報であって、前記光構造画像生成手段は、前記測定対象の表面位置を算出する表面位置算出手段と、前記第2の記憶手段に記憶されている前記受光情報に基づき、前記測定対象の画像情報を生成する画像情報生成手段と、前記画像情報を前記表面位置に対応する前記3次元構造情報の位置にレンダリングするレンダリング手段と、からなる。
 第20の態様の光立体構造像装置は、第19の態様の光立体構造像装置であって、前記画像情報生成手段は、前記受光手段の受光情報のうちの複数の狭帯域光成分の受光情報に基づき前記画像情報を生成する。
 第21の態様の光立体構造像装置は、第19の態様の光立体構造像装置であって、前記受光手段は複数の狭帯域光を受光し、前記画像情報生成手段は前記狭帯域光の受光情報に基づき前記画像情報を生成する。
 第22の態様の光立体構造像装置は、第18ないし21のいずれか1つの態様の光立体構造像装置であって、前記光構造画像を表示する画像表示手段をさらに備えて構成することができる。
 第23の態様の光立体構造像装置は、第1ないし6のいずれか1つの態様の光立体構造像装置であって、前記第1波長域光源は前記第1の波長帯域の光をパルス発光するものであって、前記第1波長域光源の非発光時に前記第2の波長帯域の光を発光する第2波長域光源をさらに備えて構成することができる。
 第24の態様の光立体構造像装置の光信号処理方法は、第1の波長帯域の光を測定光と参照光に分離して、測定対象上に前記測定光を照射し、前記測定対象上の点からの光を集光して第1の導波路に光を導波させると共に前記測定対象上の前記点を走査し、前記測定対象上の前記点からの光と前記参照光との干渉情報を検出する干渉情報検出ステップと、前記測定対象からの光を集光して第2の導波路に光を導波させ、前記第1の波長帯域とは異なる第2の波長帯域の光を選別して受光し受光信号を取得する受光ステップと、を備えて構成される。
 第24の態様の光立体構造像装置の光信号処理方法では、前記干渉情報検出ステップにて第1の波長帯域の光を測定光と参照光に分離して、前記測定対象上に前記測定光を照射し、前記測定対象上の点からの前記光を集光して第1の導波路に光を導波させると共に前記測定対象上の前記点を走査し、前記測定対象上の前記点からの光と前記参照光との干渉情報を検出し、前記受光ステップにて前記測定対象からの光を集光して前記第2の導波路に光を導波させ、前記第1の波長帯域とは異なる第2の波長帯域の光を選別して受光し受光信号を取得することで、測定光を走査して測定対象に照射し測定対象からの光を入射する光学系を大型化することなく、測定光とは異なる波長帯域の光による画像情報を高解像度で取得し、かつ該画像情報を測定対象の光立体構造像の表面情報に高精度にて対応させることを可能とする。
 第25の態様の光立体構造像装置の光信号処理方法は、第24の態様の光立体構造像装置の光信号処理方法であって、前記干渉情報検出ステップにて検出した前記干渉情報を記憶する第1の記憶ステップと、前記受光ステップにて取得した前記受光情報を記憶する第2の記憶ステップと、前記第1の記憶ステップにて記憶した前記干渉情報に基づき、前記測定対象上の任意の点における前記測定光の光路長に依存した構造情報を生成する光構造情報生成ステップと、前記走査手段の走査情報と前記光構造情報と前記第2の記憶手段に記憶されている前記受光情報に基づき、光構造画像を生成する光構造画像生成ステップと、をさらに備えて構成することができる。
 第26の態様の光立体構造像装置の光信号処理方法は、第25の態様の光立体構造像装置の光信号処理方法であって、前記構造情報は、3次元構造情報であって、前記光構造画像生成ステップは、前記測定対象の表面位置を算出する表面位置算出ステップと、前記第2の記憶ステップにて記憶した前記受光情報に基づき、前記測定対象の画像情報を生成する画像情報生成ステップと、前記画像情報を前記表面位置に対応する前記3次元構造情報の位置にレンダリングするレンダリングステップと、からなる。
 以上説明したように、本発明によれば、測定光を走査して測定対象に照射し測定対象からの光を入射する光学系を大型化することなく、測定光とは異なる波長帯域の光による画像情報を高解像度で取得し、かつ該画像情報を測定対象の光立体構造像の表面情報に高精度にて対応させることができるという効果がある。
図1は、第1の実施形態に係る光立体構造画像化装置の構成を示すブロック図である。 図2は、図1のプローブの詳細な構成を示す断面図である。 図3は、図1の信号処理部の構成を示すブロック図である。 図4は、図1の光立体構造画像化装置の3次元CG画像生成処理の流れを示すフローチャートである。 図5は、図4の処理により生成される3次元CG画像を示す図である。 図6は、図5の3次元CG画像と対比される内視鏡画像の一例を示す図である。 図7は、図2のプローブの変形例1の構成を示す図である。 図8は、図2のプローブの変形例2の構成を示す図である。 図9は、図8のA-A線断面を示す図である。 図10は、図8のプローブに適用される光立体構造画像化装置の構成を示す図である。 図11は、図2のプローブの変形例3の構成を示す図である。 図12は、図2のプローブの変形例4の構成を示す図である。 図13は、図2のプローブの変形例5の構成を示す図である。 図14は、図1の可視光情報検出部の第1の変形例を示す図である。 図15は、図1の可視光情報検出部の第2の変形例を示す図である。 図16は、図1の可視光情報検出部の第3の変形例を示す図である。 図17は、図1の可視光情報検出部の第4の変形例を示す図である。 図18は、図1の光立体構造画像化装置の変形例の構成を示すブロック図である。
 以下、添付図面を参照して、本発明に係る光立体構造像装置としての光立体構造画像化装置の実施の形態について詳細に説明する。
 第1の実施形態:
 図1は第1の実施形態に係る光立体構造画像化装置の構成を示すブロック図である。図1に示すように、光立体構造画像化装置1は、例えば体腔内の生体組織や細胞等の測定対象の断層画像を例えば波長1.3μmを中心とするSS-OCT計測により取得するものであって、第1波長帯域光源としての(例えば、帯域が700nmから1600nmの光を発する)OCT光源10、第2波長帯域光源としての(例えば、帯域が350nmから1000nmの白色光を発する)可視光光源20、干渉情報検出手段としての干渉情報検出部70を有するOCT干渉計30、プローブ40、受光手段としての可視光情報検出部60及び光構造情報生成手段及び光構造画像生成手段としての3次元CG画像生成部90及びモニタ100を備えて構成される。
 OCT光源10は周波数を一定の周期で掃引させながら赤外領域である、例えば波長1.3μmを中心とするレーザ光Lを射出する光源であり、可視光光源20は白色光からなる照明光としての可視光Laを射出する光源である。なお、同期手段はOCT光源10により構成され、赤外領域のレーザ光Lの周波数掃引のための掃引トリガ信号Sが同期手段の同期信号となっている。
 OCT光源10から射出されたレーザ光Lは、OCT干渉計30内の光分波部3により測定光L1と参照光L2とに分波される。光分波部3は、例えば、分岐比99:1の光カプラから構成され、測定光:参照光=99:1の割合で分波する。
 OCT干渉計30では、光分波部3により分波された参照光L2は、サーキュレータ5aを介して参照光調整手段としての光路長調整部80により光路長が調整されて反射される。
 この光路長調整部80は、断層画像の取得を開始する位置を調整するために参照光L2の光路長を変更するものであり、コリメータレンズ81、82および反射ミラー83を有している。そして、サーキュレータ5aからの参照光L2はコリメータレンズ81、82を透過した後に反射ミラー83により反射され、参照光L2の戻り光L2aは再びコリメータレンズ81、82を介してサーキュレータ5aに入射される。
 ここで、反射ミラー83は可動ステージ84上に配置されており、可動ステージ84はミラー移動部85により矢印A方向に移動可能に設けられている。そして可動ステージ84が矢印A方向に移動することにより、参照光L2の光路長が変更するようになっている。そして、光路長調整部80からの参照光L2の戻り光L2aは、サーキュレータ5aを介して光合分波部4に導光される。
 一方、光分波部3により分波された測定光L1は、サーキュレータ5bを介してプローブ40内を挿通するファイバFB1に入射される。
 また、可視光光源20から出射された可視光Laは、コリメータレンズ20a及びハーフミラー21を介して集光レンズ20bにより集光され、プローブ40内を挿通するファイバFB2に入射される。
 ここで、プローブ40を構成するファイバFB1は1.3μm帯シングルモードファイバであり、同じくプローブ40を構成するファイバFB2はマルチモードファイバである。プローブ40の詳細な構成は後述する。
 なお、OCT測定用のファイバFB1は、OCT光源10の波長帯域に対してシングルモードである必要がある。一方、可視光測定用のファイバFB2は、シングルモードでもマルチモードでもどちらでもよいが、反射光強度が弱い場合はより多くの光を集めるためにマルチモードの方が望ましい。
 プローブ40の出射端から可視光La及び測定光L1が出射されて測定対象Tに照射され、その戻り光L3が再びプローブ40に入射し、戻り光のうちの可視光成分の光L3はファイバFB2に、戻り光のうちの赤外光成分である測定光L1の反射光(あるいは後方散乱光)L4はファイバFB1に、それぞれ導光される。
 ファイバFB2に導光された可視光成分の光は、ハーフミラー21を反射して可視光情報検出部60に導光され、可視光情報検出部60では、可視光成分の光は、それぞれ赤、緑、青のフィルタ110r,110g,110bを前面に貼り付けられた3つのSiフォトディテクタ111r,111g,111bに入射され、OCT光源10の掃引トリガ信号Sに同期して可視光検出部112にてその瞬間の赤、緑、青の各光強度が検出される。
 一方、ファイバFB1に導光された反射光(あるいは後方散乱光)L4は、OCT干渉計30に導光され、OCT干渉計30にてサーキュレータ5bを介して光合分波部4に導光される。そして、この光合分波部4において測定光L1の反射光(あるいは後方散乱光)L4と参照光L2の戻り光L2aとを合波し干渉情報検出部70側に射出するようになっている。
 干渉情報検出部70は、光合分波部4により合波された測定光L1の反射光(あるいは後方散乱光)L4と参照光L2の戻り光L2aとの干渉光L5を、所定のサンプリング周波数で検出するものであり、干渉光L5の光強度を測定するInGaAsフォトディテクタ71aおよび71bと、InGaAsフォトディテクタ71aの検出値とInGaAsフォトディテクタ71bの検出値のバランス検波を行なう干渉光検出部72とを備えている。なお、干渉光L5は、光合分波部4において2分され、InGaAsフォトディテクタ71aおよび71bにおいて検出され、干渉光検出部72に出力される。干渉光検出部72は、OCT光源10の掃引トリガ信号Sに同期して、干渉光L5をフーリエ変換することにより、測定対象Tの各深さ位置における反射光(あるいは後方散乱光)L4の強度を検出する。
 3次元CG画像生成部90は、干渉光検出部72により検出された測定対象Tの各深さ位置における反射光(あるいは後方散乱光)L4の強度を干渉情報として第1メモリ91に格納する。また、3次元CG画像生成部90は、可視光検出部112にて検出された測定対象Tからの可視光成分の光の赤、緑、青の各光強度信号を画像情報として第2メモリ92に格納する。
 3次元CG画像生成部90は、第1の記憶手段としての前記第1メモリ91及び第2の記憶手段としての第2メモリ92のほかに、信号処理部93、制御部94を備えて構成される。
 信号処理部93は、第1メモリ91に格納された干渉情報に基づいて測定対象Tの構造情報からなる光立体構造像を生成すると共に、第2メモリ92に格納された画像情報に基づいて測定対象Tの表面に可視光画像をレンダリングするものである。詳細な構成は後述する。
 また、制御部94は、信号処理部93を制御すると共に、OCT光源10及び可視光光源20の発光制御を行うと共に、ミラー移動部85を制御するものである。
 図2は図1のプローブの詳細な構成を示す断面図である。図1の符号40Aの拡大図である図2に示すように、プローブ40では、ファイバFB1、FB2の出射端に光をコリメートするコリメートレンズ451、452が融着されている。
 ファイバFB1から出射される測定光L1は、コリメートレンズ451によりコリメートビームとなる。ファイバFB2から出射される可視光Laも、コリメートレンズ452によりコリメートビームとなる。2本のファイバFB1、FB2の出射端は、それぞれのコリメートビームがほぼ平行となるように配置されている。
 そして、2本の平行なコリメートビームは、ひとつの集光レンズ460に入射し、次に偏向回転ミラー470で反射され、測定対象Tに照射される。集光レンズ460により2つのビームはほぼ同一の点に集光されて照射される。偏向回転ミラー470は、モータ480により回転し、それにより測定光L1、及び可視光Laの集光点が走査される。
 測定対象Tの深さ方向をZ、プローブの長手軸方向をX、ZX面に直角な方向をYとすると、プローブ40では、偏向回転ミラー470がモータ480により回転し、測定対象T上において円周状に可視光La及び測定光L1が走査され、ZY平面の2次元断層画像が計測可能となっている。なお、モータ480は制御部94の制御に基づき光走査部42により駆動される(図1参照)。
 また、光走査部42(図1参照)内の図示しないモータによりプローブ40の先端が可視光La及び測定光L1の走査円が形成する平面に対して垂直な方向Xに進退走査することにより、XYZの3次元断層画像の計測が可能となっている。
 ファイバFB1から出射して測定対象に照射された測定光L1は、測定対象T内で反射、後方散乱され、その一部が集光レンズ460、およびコリメートレンズ451で集められ、ファイバFB1に入射する。
 一方、ファイバFB2から出射して測定対象Tに照射された可視光Laは、測定対象T内で反射、後方散乱され、その一部は、集光レンズ460とコリメートレンズ452で集められ、ファイバFB2に入射する。
 このように、プローブ40のファイバFB1、FB2は、入射された可視光La及び測定光L1を測定対象Tまで導光し、測定対象Tに照射する。そして、プローブ40のファイバFB1、FB2は、可視光La及び測定光L1が測定対象Tに照射されたときの測定対象Tからのそれぞれの戻り光L4、L3を導光する。
 勿論、プローブ先端形状や走査方向はこれに限る物ではなく、図18に示すように、例えば、コリメートレンズ451、452を備えたファイバ先端側に集光レンズ460及びガルバノミラー等の高速走査ミラー990を配置した光送受部991を設け、高速走査ミラー990により2次元走査を行ってもよいし、ステージ992によって進退走査するように集光手段及び走査手段を構成してもよい。あるいは、測定対象Tをステージ992によって2次元的に走査してもよい。あるいは、これら光軸走査機構、および測定試料移動機構を組み合わせて構成してもよい。
 図3は図1の信号処理部の構成を示すブロック図である。信号処理部93は、図3に示すように、第1メモリ91に格納された干渉情報に基づいて測定対象Tの構造情報からなる光立体構造像を構築する光構造情報生成手段としての3次元化部120と、3次元化部120により構築された光立体構造像の表面の位置情報である測定対象Tの表面位置を算出する表面位置算出手段としての表面位置算出部121と、第2メモリ92に格納された画像情報に基づいて測定対象Tの可視光画像を生成する画像情報生成手段としての可視光画像生成部122と、3次元化部120からの光立体構造像、表面位置算出部121からの表面の位置情報及び可視光画像生成部122からのカラー画像に基づいて、光立体構造像の表面に可視光画像をレンダリングした光構造画像である3次元CG画像を生成するレンダリング手段としてのレンダリング部123とを備えて構成され、これら各部は制御部94に制御され、レンダリング部123は生成した3次元CG画像をモニタ100に出力するようになっている。
 なお、光構造情報は干渉情報に基づいた測定対象Tの深さ方向の構造情報であり、光立体構造像は測定対象Tの光構造情報からなる光立体構造モデルであり、光構造画像は光立体構造像の表面に可視光画像をレンダリングした3次元CG画像である。
 光構造画像生成手段は、表面位置算出手段としての表面位置算出部121と、画像情報生成手段としての可視光画像生成部122と、レンダリング手段としてのレンダリング部123とにより構成される。
 なお、表面位置算出部121は、例えば空間から対象物に移るOCT信号強度の変化から、測定対象Tの表面位置を算出する。
 次に、このように構成された本実施形態の光立体構造画像化装置1の作用を図4のフローチャートを用いて説明する。図4は図1の光立体構造画像化装置の3次元CG画像生成処理の流れを示すフローチャートである。
 図4に示すように、制御部94は、OCT光源10及び可視光光源20を制御し赤外光及び可視光の発光制御を開始する(ステップS1)。この赤外光の発光制御では、OCT光源10は掃引トリガ信号Sに同期して周波数を一定の周期で掃引させながら赤外領域のレーザ光Lを射出する。
 次に、制御部94は、干渉光検出部72により検出された測定対象Tの各深さ方向Z位置における反射光(あるいは後方散乱光)L4の強度を干渉情報として第1メモリ91に格納すると共に、可視光検出部112にて検出された測定対象Tからの可視光成分の光の赤、緑、青の各光強度信号を画像情報として第2メモリ92に格納する(ステップS2)。
 続いて、制御部94は、光走査部42を制御して測定対象T上において可視光La及び測定光L1をY方向走査し(ステップS3)、このY方向走査が終了するまでステップS2~ステップS3の処理を繰り返す(ステップS4)。
 このY方向走査が終了すると、制御部94は、光走査部42を制御して測定対象T上において可視光La及び測定光L1をX方向走査し(ステップS5)、このX方向走査が終了するまでステップS2~ステップS5の処理を繰り返す(ステップS6)。
 このX方向走査が終了すると、制御部94は、3次元化部120を制御して第1メモリ91に格納された干渉情報に基づいて測定対象Tの光立体構造像を構築する(ステップS7)。
 また、制御部94は、表面位置算出部121を制御して3次元化部120により構築された光立体構造像の表面の位置情報を算出する(ステップS8)。
 さらに、制御部94は、可視光画像生成部122を制御して第2メモリ92に格納された画像情報に基づいて測定対象Tの可視光画像を生成する(ステップS9)。
 そして、制御部94は、レンダリング部123を制御して3次元化部120からの3光立体構造像、表面位置算出部121からの表面の位置情報及び可視光画像生成部122からの可視光画像に基づいて、光立体構造像の表面に可視光画像をレンダリングした3次元CG画像を生成し(ステップS10)、モニタ100に3次元CG画像を表示して(ステップS11)、処理を終了する。
 このように本実施形態では、光立体構造像の表面位置に、OCT光源10の掃引トリガ信号Sに同期した同じタイミングで取得した画像情報である可視光画像情報をレンダリングすることにより、光立体構造像の表面に可視光表面情報を備えることとなり、図5に示すように、上面からは通常の可視光画像200がフルカラーで表示され、その下にOCTで得られた光立体構造像201が表示された光構造画像である3次元CG画像203が完成する。OCT情報を元に表面画像として可視光画像200を貼り付けているため、モニタ100に表示される3次元CG画像203は立体感のある表面画像を有する画像になる。
 特に、本実施形態の光立体構造画像化装置1を、例えば可視光を照明光とする通常の電子内視鏡装置と共に使用する場合、プローブ40を電子内視鏡の処置具チャンネル等に挿通させることになるが、電子内視鏡が測定対象Tとして体腔内の患部を撮像した場合、図6に示すような内視鏡画像300がモニタ等に表示される。
 このとき、例えば内視鏡画像300上から患部領域301が視認できた場合、この患部領域301に対してプローブ40によりOCT測定を行い、患部領域301の光立体構造像を得ることになる。
 図5は図4の処理により生成される3次元CG画像を示す図であり、図6は図5の3次元CG画像と対比される内視鏡画像の一例を示す図である。
 内視鏡画像の視野に比べ患部領域301が小さいために、OCT測定を行った領域が患部領域301であるかどうかを光立体構造像から判断することは困難であるが、本実施形態では、3次元CG画像203の表面の可視光画像200上の患部領域301(図5参照)の可視光表面情報(色相、コントラスト、輝度等)と内視鏡画像上での患部領域301(図6参照)の可視光画像情報(色相、コントラスト、輝度等)を対応させて識別することができるので、患部領域301が確実にOCT測定されたかどうかを容易に判断することができる。
 従来のOCT画像だけでは、画質が大きく異なるために通常内視鏡の画像との位置あわせが困難だったが、可視光表面情報が光立体構造像に添付されていることで、パターンマッチングで視野の広い内視鏡画像中の位置の特定が容易になる。
 さらに、この3次元CG画像では、通常内視鏡画像で視認できる病変の特徴と、光立体構造像の特徴を複合的に利用した病変部の抽出が可能となり、分解能が高く、病変部の境界がより高精度に見極めることができる。
 プローブ40は、コリメートレンズ451、452が融着されたファイバFB1、FB2と、集光レンズ460と、偏向回転ミラー470と、モータ480とにより構成するとしたが、これに限らず、以下の<変形例1>から<変形例5>のように構成してよい。
 <変形例1>図7は図2のプローブの変形例1の構成を示す図である。
 図7に示すように、プローブの変形例1では、集光レンズ460を2つの集光レンズ460a、460bとする。この場合、ファイバFB1から出射される測定光L1は、コリメートレンズ451によりコリメートビームとなる。ファイバFB2から出射される可視光Laも、コリメートレンズ452によりコリメートビームとなる。そして、2本の平行なコリメートビームは、2つの集光レンズ460a、460bにそれぞれ入射し、次に偏向回転ミラー470で反射され、測定対象Tに照射される。
 <変形例2>図8は図2のプローブの変形例2の構成を示す図であり、図9は図8のA-A線断面を示す図であり、図10は図8のプローブに適用される光立体構造画像化装置の構成を示す図である。
 図8に示すように、プローブの変形例2は、プローブ40に使うファイバを3本にした例である。すなわち、プローブの変形例2では、可視光用のファイバFB2を照明用のファイバFB21と反射光受光用のファイバFB22に分けて構成する。そして、図9に示すように、FB21、22の先端にはコリメートレンズ452a、452bが設けられている。このように可視光のファイバFB2を照明用のファイバFB21と反射光受光用のファイバFB22に分けると、図10に示すように、光立体構造画像化装置1では、ハーフミラー21が不要になるために光利用効率が高くなる。
 なお、プローブ40に使うファイバは2本に限らず、用途に合わせて何本でも重ねて良い。例えば、図示はしないが、OCT測定光用のファイバFB1に照射用と反射用とで2本のファイバを用いるようにしてもよい。この場合、偏波保存ファイバを2本用いて、互いに垂直な偏光を照射、あるいは受光するようにしてもよい。以下に、変形例2の具体例を実施例1ないし3として説明する。
 実施例1:本実施形態では、可視光画像を得るための照明光として白色光である可視光Laを用いたが、照明光としては白色光に限らない。例えば、青色レーザを照射して細胞の自家蛍光を受光することで病変部を視認しやすくする蛍光内視鏡がある。この蛍光内視鏡で用いられる青色励起光を照明光として用い、この青色励起光をファイバFB21により導波し、細胞の自家蛍光をファイバFB22により導波する。細胞の自家蛍光を受光するディテクタに緑色の蛍光を透過するフィルタを用いることで、蛍光内視鏡と同様な画像とOCTを組み合わせた表示ができ、よりがんの領域の視認性を上げることができる。あるいは、がんに選択的に集積し、特定の蛍光を発する薬剤を注入し、その励起光を照明光として使い、その励起光に合わせたファイバをファイバFB21として用い、その蛍光波長を選択的に受光するディテクタとその波長に合わせたファイバFB22を組み合わせることでも、よりがんの領域の視認性を上げることができる。
 また、励起光、および蛍光は、可視域とは限らない。例えば、インドシアニングリーンという公知の蛍光材料は、不可視領域である800nm~810nmの領域に吸収波長があり、806nmのレーザ光で励起されると不可視領域である波長830nmの蛍光を発色する。従って、照明光には806nmレーザ、ディテクタには806nm近傍の光を除去し830nm近傍の光を抽出するフィルタを用いることで、インドシアニングリーンが集積しているXY平面上の領域を光立体構造像に明示することができる。また、インドシアニングリーンを静脈注射し、粘膜深部の血管を強調表示する公知の技術がある。OCT断層像だけでは血管と他の腺管との区別が難しいが、XY平面上での血管位置が明瞭となることで、3次元的な血管網を描画することができる。
 実施例2:ファイバFB21として分散シフトファイバを用いて超短パルスレーザを導波し、超短パルスレーザを測定対象に照射した際に発生する2光子励起蛍光や第二次高調波を導波するマルチモードファイバをファイバFB22として組み合わせる構成としてもよい。あるいは、中空ファイバを用いて紫外光を測定対象に照射させ、蛍光を受光するように構成してもよい。
 実施例3:ラマン分光法やコヒーレントアンチストークスラマン分光法(CARS)と組み合わせて構成してもよい。CARSと組み合わせる場合、波長568nmと600nmの励起光を用い、照射用ファイバにはそれぞれの別々のシングルモードファイバからなる2本のファイバFB21を用い、さらに受光用のマルチモードファイバをファイバFB22として束ねる。この実施例3においては、プローブ40の先端では、CARS測定に適した角度でビームが照射、集光されるように各ファイバ先端の位置と光学系が調整されて設けられている。また、受光用のマルチモードファイバであるファイバFB22の受光端には分光素子、及び1次元フォトディテクタからなる分光器が備え付けられ、分光情報が取得されるようになっている。このようなCARS信号、あるいはラマン分光情報と組み合わせることで、測定対象の組成の違いやミトコンドリアの代謝活性情報と光構造画像が一体化された映像が得られる。
 <変形例3>図11は図2のプローブの変形例3の構成を示す図である。
 図11に示すように、プローブの変形例3は、上記変形例2とほとんど同じであって、紫外レーザ光を発する紫外レーザ光源(不図示)と、ファイバFB21の先端に塗られた蛍光塗料455とから可視光光源20を構成した例である。ファイバFB21は紫外レーザ光を導波し、紫外レーザ光がファイバFB2の先端の蛍光塗料で吸収される。蛍光塗料は白色の蛍光を発し、照明光となる。これを集光して照射し、その反射光を受光用マルチモードファイバからなる射光受光用のファイバFB22で導波し、光立体構造画像化装置1に備え付けられた可視光情報検出部60で受光する。
 <変形例4>図12は図2のプローブの変形例4の構成を示す図である。
 図12に示すように、プローブの変形例4は、ファイバFB1、FB2の代わりに、ファイバとしてシングルモードダブルクラッドファイバ490を用い、コリメートレンズ491を別体に設け、偏向回転ミラー470の代わりにガルバノミラー492を設けた構成例である。シングルモードダブルクラッドファイバ490のコア490aはファイバFB1に代わるシングルモード導波路になっており、シングルモードダブルクラッドファイバ490のクラッド490bはファイバFB2に代わる可視光が伝搬するマルチモード導波路となっている。このシングルモードダブルクラッドファイバ490を用いれば、複数本のファイバをバンドル化する必要がなく、プローブがより細径化できる。
 <変形例5>図13は図2のプローブの変形例5の構成を示す図である。
 図13に示すプローブの変形例5のように、各ファイバFB1、FB2の先端に設けられるコリメートレンズと集光レンズは、それぞれひとつの光学レンズ495a、495bにまとめてもよい。
 このように構成することで、プローブ40がよりコンパクトになる。逆に、図示はしないが、複数のレンズを組み合わせて、より高解像度化してもよい。組合せレンズを用いて色収差をなくすことがより望ましい。
 なお、可視光情報検出部60は、それぞれ赤、緑、青のフィルタ110r,110g,110bを前面に貼り付けられた3つのSiフォトディテクタ111r,111g,111bにより、OCT光源10の掃引トリガ信号Sに同期して可視光成分の光に対して可視光検出部112にてその瞬間の赤、緑、青の各光強度を画像情報として検出するとしたがこれに限らず、可視光情報検出部60を以下の(1)から(4)のように構成してよい。
 (1)図14は図1の可視光情報検出部の第1の変形例を示す図である。図14に示すように、2つのダイクロイックミラー400,401により可視光成分の光を赤、緑、青を分け、フィルタのない3つのSiフォトディテクタ111r,111g,111bにて、OCT光源10の掃引トリガ信号Sに同期して可視光成分の光に対して可視光検出部112にてその瞬間の赤、緑、青の各光強度を画像情報として検出するように可視光情報検出部60を構成してもよい。
 (2)図15は図1の可視光情報検出部の第2の変形例を示す図である。図15に示すように、回折格子410にて可視光成分の光を赤、緑、青を分け、フィルタのない3つのSiフォトディテクタ111r,111g,111bにて、OCT光源10の掃引トリガ信号Sに同期して可視光成分の光に対して可視光検出部112にてその瞬間の赤、緑、青の各光強度を画像情報として検出するように可視光情報検出部60を構成してもよい。
 (3)図16は図1の可視光情報検出部の第3の変形例を示す図である。図16に示すように、WDM(Wavelength Division Multiplexing)カップラやAWG(Arrayed Waveguide Grating)のような全ファイバ光学系420を用いて可視光成分の光を赤、緑、青を分け、フィルタのない3つのSiフォトディテクタ111r,111g,111bにて、OCT光源10の掃引トリガ信号Sに同期して可視光成分の光に対して可視光検出部112にてその瞬間の赤、緑、青の各光強度を画像情報として検出するように可視光情報検出部60を構成してもよい。
 (4)図17は図1の可視光情報検出部の第4の変形例を示す図である。図17に示すように、可視光情報検出部60のディテクタで色を分けるかわりに、可視光光源20からの照明光の色を時間分割照射してもよい。すなわち、照明光に赤、緑、青のレーザを用いて可視光光源20を構成することで、それぞれ赤、緑、青のレーザの発光時間帯が重ならないようにパルス的に照射し、可視光情報検出部60においてひとつのSiフォトディテクタ111で受光する。可視光光源20のレーザの発光タイミングと可視光情報検出部60の検出タイミングは掃引トリガ信号Sで同期させ、時間帯に応じて発光している色の情報としてコンピュータに入力し、フルカラー画像を生成する。なお、レーザの代わりに、色フィルタを通した白色光源を用い、色フィルタを時間的に切り替えてもよい。
 なお、本実施形態ではSS-OCT計測を例に説明したがこれに限らず、TD-OCT計測、SD-OCT計測に対しても適用できる。掃引トリガ信号Sに対応するトリガ信号としては、TD-OCT計測の場合は光路長遅延回路の周期となり、SD-OCT計測の場合はOCT用ディテクタアレイの信号取得周期となる。
 また、複数の色情報を取得するには、赤、緑、青に限らず、どの波長域でもよい。例えば、癌のスクリーニングに公知のNBI(Narrow Band Imaging)と呼ばれる手法や公知のFICE(Flexible spectral Imaging Color Enhancement)と呼ばれる手法がある。これらは、青、緑の波長域を画像化することで、病変部の特徴を視認しやすくする手法である。このNBI/FICE画像と重ねるには、NBI/FICEで用いる緑、青のフィルタと同じ波長域の物を用いることが望ましい。これにより、光立体構造像上でもより病変部の抽出がしやすくなる。ディテクタの数は3つに限らず、通常内視鏡と同じ赤緑青の他に、NBIや蛍光内視鏡などの特殊光観察に対応したディテクタを配置してもよい。
 OCT装置の光軸走査は、プローブを用いたものでも、ガルバノミラーを用いたものでも、ステージによって走査するタイプでも、どれでもよい。プローブの場合、偏向ミラーのみモータで回転させても、ファイバに固定して、ファイバ毎回転させてもよい。回転に限らず、MEMS(Micro Electro Mechanical Systems)ミラーを用いて線形走査させてもよい。
 なお、照明光としての可視光Laは、エイミング光(測定位置を明示する目印光)としての効果もある。また、内視鏡の照明光など、周囲の照明光だけで充分な照度が得られる場合は、照明光はなくてもよい。
 以上、本発明の光立体構造像装置としての光立体構造画像化装置について詳細に説明したが、本発明は、以上の例には限定されず、本発明の要旨を逸脱しない範囲において、各種の改良や変形を行ってもよいのはもちろんである。
 10…OCT光源、20…可視光光源、30…OCT干渉計、40…プローブ、60…可視光情報検出部、70…干渉情報検出部、90…断層画像生成部、91…第1メモリ、92…第2メモリ、93…信号処理部、94…制御部、100…モニタ、120…3次元化部、121…表面位置算出部、122…可視光画像生成部、123…レンダリング部、451、452…コリメートレンズ、460…集光レンズ、470…偏向回転ミラー、480…モータ、FB1、FB2…ファイバ

Claims (26)

  1.  第1の波長帯域の光を発する第1波長域光源と、
     前記第1の波長帯域の光を測定光と参照光に分離する光分離手段と、
     前記測定光を導波する第1の導波手段と、
     前記第1の導波手段を導波した前記測定光を測定対象に照射する照射手段と、
     前記測定対象上の点からの前記測定光に基づく光を前記第1の導波手段に集光する第1の集光手段と、
     前記第1の導波手段を導波した前記測定対象上の前記点からの前記測定光に基づく光と前記参照光との干渉情報を検出する干渉情報検出手段と、
     前記測定対象上の前記点からの前記第1の波長帯域とは異なる第2の波長帯域の光を集光する第2の集光手段と、
     前記第2の集光手段が集光した前記第2の波長帯域の光を導波する第2の導波手段と、
     前記第2の導波手段を導波した前記第2の波長帯域の光を受光し受光信号を取得する受光手段と、
     前記第1の集光手段及び前記第2の集光手段により集光する前記測定対象上の前記点を走査する走査手段と、
     を備えたことを特徴とする光立体構造像装置。
  2.  前記第1の集光手段及び前記第2の集光手段は、一体的に構成されることを特徴とする請求項1に記載の光立体構造像装置。
  3.  前記第1の導波手段は、前記第1の波長帯域に対してシングルモードの導波路であることを特徴とする請求項1または2に記載の光立体構造像装置。
  4.  前記第2の導波手段は、前記第2の波長帯域に対してマルチモードの導波路であることを特徴とする請求項1ないし3のいずれか1つに記載の光立体構造像装置。
  5.  前記第1の導波手段はダブルクラッドシングルモードファイバのコアであり、前記第2の導波手段は前記ダブルクラッドシングルモードファイバのクラッドであることを特徴とする請求項1または2に記載の光立体構造像装置。
  6.  前記干渉情報検出手段が検出する前記干渉情報は前記測定対象の深さ方向の情報であり、前記走査手段は前記深さ方向に対して略直交する面上を2次元走査することを特徴とする請求項1ないし5のいずれか1つに記載の光立体構造像装置。
  7.  前記第2の波長帯域は可視光域であって、前記受光手段は前記可視光域のR成分、G成分及びB成分毎に受光することを特徴とする請求項1ないし6のいずれか1つに記載の光立体構造像装置。
  8.  前記第1の波長帯域は700nmから1600nmの間であり、前記第2の波長帯域が350nmから1000nmの間であることを特徴とする請求項7に記載の光立体構造像装置。
  9.  前記干渉情報検出手段はInGaAsフォトディテクタを含み、前記受光手段はSiフォトディテクタを含むことを特徴とする請求項8に記載の光立体構造像装置。
  10.  前記第2の波長帯域の光を発する第2波長域光源をさらに備え、前記走査手段は、前記測定光及び前記第2波長域光源からの前記第2の波長帯域の光を合波し、この合波された前記測定光及び前記第2の波長帯域の光を走査することを特徴とする請求項1ないし9のいずれか1つに記載の光立体構造像装置。
  11.  前記第2の導波手段は、第2波長域光源が発した前記第2の波長帯域の光を前記第2の集光手段に導波する光源用導波路と、第2の集光手段が集光した前記測定対象上の前記点からの前記第2の波長帯域の光を前記受光手段に導波する受光用導波路とからなることを特徴とする請求項10に記載の光立体構造像装置。
  12.  前記第2波長域光源は、紫外線を発する紫外線光源部と、前記光源用導波路の先端に設けられ前記紫外線により白色蛍光を発する白色蛍光部と、からなることを特徴とする請求項11に記載の光立体構造像装置。
  13.  前記第2の波長帯域の光は前記測定対象からの自家蛍光あるいは薬剤蛍光であって、前記自家蛍光あるいは前記薬剤蛍光を励起させるための励起光を発する励起光光源を備え、前記走査手段は前記測定光及び前記励起光を走査することを特徴とする請求項1ないし6のいずれか1つに記載の光立体構造像装置。
  14.  前記干渉情報検出手段での前記干渉情報の検出タイミングと前記受光手段での前記受光情報の取得タイミングとを同期させる同期手段をさらに備えたことを特徴とする請求項1ないし13のいずれか1つに記載の光立体構造像装置。
  15.  前記参照光の前記所定光路長をトリガ信号に基づいて掃引して可変する光路長可変手段をさらに備え、前記同期手段は前記トリガ信号に基づいて前記干渉情報検出手段での前記干渉情報の検出タイミングと前記受光手段での前記受光情報の取得タイミングとを同期させることを特徴とする請求項14に記載の光立体構造像装置。
  16.  前記第1波長域光源は広帯域の低コヒーレント光を前記第1の波長帯域の光とする光源であり、前記干渉情報検出手段は前記測定光の前記測定対象からの反射光と前記参照光の前記参照光反射手段からの反射光との干渉光の周波数成分毎の強度を検出するディテクタアレイを備え所定のトリガ信号に基づいて前記ディテクタアレイより前記干渉情報を検出し、前記同期手段は前記トリガ信号に基づいて前記干渉情報検出手段での前記干渉情報の検出タイミングと前記受光手段での前記受光情報の取得タイミングとを同期させることを特徴とする請求項14に記載の光立体構造像装置。
  17.  前記第1波長域光源は前記第1の波長帯域の光の周波数をトリガ信号に基づいて時間掃引するレーザであって、前記同期手段は前記トリガ信号に基づいて前記干渉情報検出手段での前記干渉情報の検出タイミングと前記受光手段での前記受光情報の取得タイミングとを同期させることを特徴とする請求項14に記載の光立体構造像装置。
  18.  前記干渉情報検出手段が検出した前記干渉情報を記憶する第1の記憶手段と、
     前記受光手段が取得した前記受光情報を記憶する第2の記憶手段と、
     前記第1の記憶手段に記憶されている前記干渉情報に基づき、前記測定対象上の任意の点における前記測定光の光路長に依存した光構造情報を生成する光構造情報生成手段と、
     前記走査手段の走査情報と前記光構造情報と前記第2の記憶手段に記憶されている前記受光情報に基づき、光構造画像を生成する光構造画像生成手段と、
     をさらに備えたことを特徴とする請求項1ないし17のいずれか1つに記載の光立体構造像装置。
  19.  前記構造情報は、3次元構造情報であって、
     前記光構造画像生成手段は、
     前記測定対象の表面位置を算出する表面位置算出手段と、
     前記第2の記憶手段に記憶されている前記受光情報に基づき、前記測定対象の画像情報を生成する画像情報生成手段と、
     前記画像情報を前記表面位置に対応する前記3次元構造情報の位置にレンダリングするレンダリング手段と、
     からなることを特徴とする請求項18に記載の光立体構造像装置。
  20.  前記画像情報生成手段は、前記受光手段の受光情報のうちの複数の狭帯域光成分の受光情報に基づき前記画像情報を生成することを特徴とする請求項19に記載の光立体構造像装置。
  21.  前記受光手段は複数の狭帯域光を受光し、前記画像情報生成手段は前記狭帯域光の受光情報に基づき前記画像情報を生成することを特徴とする請求項19に記載の光立体構造像装置。
  22.  前記光構造画像を表示する画像表示手段をさらに備えたことを特徴とする請求項18ないし21のいずれか1つに記載の光立体構造像装置。
  23.  前記第1波長域光源は前記第1の波長帯域の光をパルス発光するものであって、前記第1波長域光源の非発光時に前記第2の波長帯域の光を発光する第2波長域光源をさらに備えたことを特徴とする請求項1ないし6のいずれか1つに記載の光立体構造像装置。
  24.  第1の波長帯域の光を測定光と参照光に分離して、測定対象上に前記測定光を照射し、前記測定対象上の点からの光を集光して第1の導波路に光を導波させると共に前記測定対象上の前記点を走査し、前記測定対象上の前記点からの光と前記参照光との干渉情報を検出する干渉情報検出ステップと、
     前記測定対象からの光を集光して第2の導波路に光を導波させ、前記第1の波長帯域とは異なる第2の波長帯域の光を選別して受光し受光信号を取得する受光ステップと、
     を備えたことを特徴とする光立体構造像装置の光信号処理方法。
  25.  前記干渉情報検出ステップにて検出した前記干渉情報を記憶する第1の記憶ステップと、
     前記受光ステップにて取得した前記受光情報を記憶する第2の記憶ステップと、
     前記第1の記憶ステップにて記憶した前記干渉情報に基づき、前記測定対象上の任意の点における前記測定光の光路長に依存した構造情報を生成する光構造情報生成ステップと、
     前記走査手段の走査情報と前記光構造情報と前記第2の記憶手段に記憶されている前記受光情報に基づき、光構造画像を生成する光構造画像生成ステップと、
     をさらに備えたことを特徴とする請求項24に記載の光立体構造像装置の光信号処理方法。
  26.  前記構造情報は、3次元構造情報であって、
     前記光構造画像生成ステップは、
     前記測定対象の表面位置を算出する表面位置算出ステップと、
     前記第2の記憶ステップにて記憶した前記受光情報に基づき、前記測定対象の画像情報を生成する画像情報生成ステップと、
     前記画像情報を前記表面位置に対応する前記3次元構造情報の位置にレンダリングするレンダリングステップと、
     からなることを特徴とする請求項25に記載の光立体構造像装置の光信号処理方法。
PCT/JP2009/070583 2008-12-10 2009-12-09 光立体構造像装置及びその光信号処理方法 Ceased WO2010067813A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008-314837 2008-12-10
JP2008314837A JP5162431B2 (ja) 2008-12-10 2008-12-10 光立体構造像装置

Publications (1)

Publication Number Publication Date
WO2010067813A1 true WO2010067813A1 (ja) 2010-06-17

Family

ID=42242801

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/070583 Ceased WO2010067813A1 (ja) 2008-12-10 2009-12-09 光立体構造像装置及びその光信号処理方法

Country Status (2)

Country Link
JP (1) JP5162431B2 (ja)
WO (1) WO2010067813A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012091957A1 (en) * 2010-12-30 2012-07-05 Axsun Technologies, Inc. Integrated balanced optical detector system with amplifier for oct imaging
US8437007B2 (en) 2010-12-30 2013-05-07 Axsun Technologies, Inc. Integrated optical coherence tomography system
EP2600137A4 (en) * 2010-07-30 2014-01-08 Topcon Corp OPTICAL TOMOGRAPHY IMAGING SYSTEM AND OPTICAL TOMOGRAPHY IMAGING PROCESS
WO2014169103A3 (en) * 2013-04-12 2015-02-26 Ninepoint Medical, Inc. Multiple aperture, multiple modal optical systems and methods
JP2015519571A (ja) * 2012-05-31 2015-07-09 サーモ サイエンティフィック ポータブル アナリティカル インスツルメンツ インコーポレイテッド X線蛍光およびラマン分光法の組み合わせを利用した試料分析

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5663240B2 (ja) * 2010-08-31 2015-02-04 株式会社トプコン 光断層画像化装置及びその作動方法
JP5663241B2 (ja) * 2010-08-31 2015-02-04 株式会社トプコン 光断層画像化装置及びその作動方法
JP5796738B2 (ja) * 2011-09-22 2015-10-21 アイシン精機株式会社 テラヘルツ波発生検出装置及びテラヘルツ波伝播装置
US9581497B2 (en) 2012-10-19 2017-02-28 Hitachi, Ltd. Cars microscope
JP6082273B2 (ja) * 2013-02-25 2017-02-15 日本板硝子株式会社 蛍光検出装置
JP6364305B2 (ja) * 2014-10-09 2018-07-25 株式会社四国総合研究所 水素ガス濃度計測装置および方法
WO2017186529A1 (en) * 2016-04-27 2017-11-02 Lumileds Holding B.V. Laser-based light source
WO2019142896A1 (ja) * 2018-01-18 2019-07-25 株式会社アサヒビジョン 生体組織分析装置および生体組織分析方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003050199A (ja) * 2001-08-03 2003-02-21 Olympus Optical Co Ltd 光イメージング装置
JP2003535659A (ja) * 2000-06-19 2003-12-02 ユニヴァーシティ オブ ワシントン 走査型単一光ファイバシステムを用いる医療用画像化、診断および治療
JP2007268132A (ja) * 2006-03-31 2007-10-18 Terumo Corp 画像診断装置およびその処理方法
JP2007325831A (ja) * 2006-06-09 2007-12-20 Topcon Corp 眼底観察装置、眼科画像処理装置及び眼科画像処理プログラム
JP2008506426A (ja) * 2004-07-02 2008-03-06 ザ ジェネラル ホスピタル コーポレイション ダブルクラッドファイバを有する内視鏡撮像プローブ
JP2008145188A (ja) * 2006-12-07 2008-06-26 Fujifilm Corp 光断層画像化装置
WO2008142823A1 (ja) * 2007-05-23 2008-11-27 Kabushiki Kaisha Topcon 眼底観察装置及びそれを制御するプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003535659A (ja) * 2000-06-19 2003-12-02 ユニヴァーシティ オブ ワシントン 走査型単一光ファイバシステムを用いる医療用画像化、診断および治療
JP2003050199A (ja) * 2001-08-03 2003-02-21 Olympus Optical Co Ltd 光イメージング装置
JP2008506426A (ja) * 2004-07-02 2008-03-06 ザ ジェネラル ホスピタル コーポレイション ダブルクラッドファイバを有する内視鏡撮像プローブ
JP2007268132A (ja) * 2006-03-31 2007-10-18 Terumo Corp 画像診断装置およびその処理方法
JP2007325831A (ja) * 2006-06-09 2007-12-20 Topcon Corp 眼底観察装置、眼科画像処理装置及び眼科画像処理プログラム
JP2008145188A (ja) * 2006-12-07 2008-06-26 Fujifilm Corp 光断層画像化装置
WO2008142823A1 (ja) * 2007-05-23 2008-11-27 Kabushiki Kaisha Topcon 眼底観察装置及びそれを制御するプログラム

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2600137A4 (en) * 2010-07-30 2014-01-08 Topcon Corp OPTICAL TOMOGRAPHY IMAGING SYSTEM AND OPTICAL TOMOGRAPHY IMAGING PROCESS
US9140538B2 (en) 2010-07-30 2015-09-22 Topcon Corporation Optical tomographic imaging system and optical tomographic imaging method to generate tomographic image and surface image of a subject
WO2012091957A1 (en) * 2010-12-30 2012-07-05 Axsun Technologies, Inc. Integrated balanced optical detector system with amplifier for oct imaging
US8437007B2 (en) 2010-12-30 2013-05-07 Axsun Technologies, Inc. Integrated optical coherence tomography system
US9046337B2 (en) 2010-12-30 2015-06-02 Volcano Corporation Integrated OCT detector system with transimpedance amplifier
US10488177B2 (en) 2010-12-30 2019-11-26 Axsun Technologies, Inc. Optical coherence tomography (OCT) system having integrated detector and analysis systems
JP2015519571A (ja) * 2012-05-31 2015-07-09 サーモ サイエンティフィック ポータブル アナリティカル インスツルメンツ インコーポレイテッド X線蛍光およびラマン分光法の組み合わせを利用した試料分析
WO2014169103A3 (en) * 2013-04-12 2015-02-26 Ninepoint Medical, Inc. Multiple aperture, multiple modal optical systems and methods

Also Published As

Publication number Publication date
JP5162431B2 (ja) 2013-03-13
JP2010139327A (ja) 2010-06-24

Similar Documents

Publication Publication Date Title
JP5162431B2 (ja) 光立体構造像装置
JP4869877B2 (ja) 光断層画像化装置
US10800831B2 (en) Systems and methods for obtaining information associated with an anatomical sample using optical microscopy
JP4869896B2 (ja) 光断層画像化装置
EP1971848B1 (en) Systems and methods for generating data based on one or more spectrally-encoded endoscopy techniques
EP1945094B1 (en) Spectral- and frequency- encoded fluorescence imaging
JP2010200820A (ja) 光立体構造像装置及びその光信号処理方法
JP4869895B2 (ja) 光断層画像化装置
JP4642681B2 (ja) 光断層画像化装置
JP2007101250A (ja) 光断層画像化方法
WO2005031320A1 (ja) 可変波長光発生装置及び光干渉トモグラフィ装置
JP2009041946A (ja) 光画像計測装置
WO2009036418A1 (en) Apparatuses, systems, and methods for low-coherence interferometry (lci)
JP5541831B2 (ja) 光断層画像化装置およびその作動方法
JP5373485B2 (ja) Oct装置及びその干渉信号レベル制御方法
JP2007101268A (ja) 光断層画像化装置
JP2008128709A (ja) 光断層画像化装置
JP2007101262A (ja) 光断層画像化装置
JP4895277B2 (ja) 光断層画像化装置
JP2007101263A (ja) 光断層画像化装置
JP2010210501A (ja) 光立体構造像装置
WO2010064516A1 (ja) 光立体構造像装置及びその光信号処理方法
JP2009300097A (ja) 光断層画像化装置
WO2016081731A1 (en) Systems and methods for obtaining information associated with an anatomical sample using optical microscopy
JP2008089349A (ja) 光断層画像化装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09831917

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09831917

Country of ref document: EP

Kind code of ref document: A1