[go: up one dir, main page]

WO2012002312A1 - 蛍光観察装置 - Google Patents

蛍光観察装置 Download PDF

Info

Publication number
WO2012002312A1
WO2012002312A1 PCT/JP2011/064651 JP2011064651W WO2012002312A1 WO 2012002312 A1 WO2012002312 A1 WO 2012002312A1 JP 2011064651 W JP2011064651 W JP 2011064651W WO 2012002312 A1 WO2012002312 A1 WO 2012002312A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unit
fluorescence
treatment
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2011/064651
Other languages
English (en)
French (fr)
Inventor
裕美 志田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to CN201180031653.0A priority Critical patent/CN102958419B/zh
Publication of WO2012002312A1 publication Critical patent/WO2012002312A1/ja
Priority to US13/724,815 priority patent/US20130116508A1/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/043Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for fluorescence imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Instruments for taking body samples for diagnostic purposes; Other methods or instruments for diagnosis, e.g. for vaccination diagnosis, sex determination or ovulation-period determination; Throat striking implements
    • A61B10/02Instruments for taking cell samples or for biopsy
    • A61B10/04Endoscopic instruments, e.g. catheter-type instruments

Definitions

  • the present invention relates to a fluorescence observation apparatus.
  • a fluorescent image and a white light image are acquired by irradiating a subject with excitation light and white light, and an affected part is identified in the fluorescent image, and then the white light image is switched to the affected part while viewing the white light image.
  • Endoscopic treatment for example, a fluorescence endoscope apparatus that collects affected tissue is known (see, for example, Patent Document 1).
  • a fluorescence endoscope apparatus that collects affected tissue is known (see, for example, Patent Document 1).
  • the mark when a mark is given to the affected part specified in the fluorescence image, the mark remains at the position of the specified affected part even after switching to the white light image. It makes work easier.
  • the present invention has been made in view of the above-described circumstances, and an object of the present invention is to provide a fluorescence observation apparatus capable of easily confirming the result of treatment on an affected area.
  • One embodiment of the present invention is an illumination unit that irradiates a subject with illumination light and excitation light, and a fluorescence imaging unit that captures fluorescence generated in the subject by irradiation of excitation light from the illumination unit and acquires a fluorescence image
  • a return light imaging unit that captures the return light that is returned from the subject by irradiation of illumination light from the illumination unit and acquires a return light image
  • a fluorescence image storage unit that stores the fluorescence image acquired by the fluorescence imaging unit
  • a treatment input unit that inputs treatment start and end signals for the subject, a fluorescence image stored in the fluorescence image storage unit when a treatment start signal is input to the treatment input unit, and a treatment
  • a comparison image generation unit that generates a comparison image that can be compared with the fluorescence image acquired when the end signal is input, and a display unit that displays the comparison image generated by the comparison image generation unit Providing an optical observation device.
  • excitation light and illumination light are emitted from an illumination unit to a subject, and a fluorescence image is acquired by photographing fluorescence generated in the subject with a fluorescence imaging unit.
  • a return light image is acquired by photographing the return light of the illumination light by the return light imaging unit.
  • an area with high fluorescence intensity can be specified as an area to be treated.
  • the surface state of the subject can be confirmed, and the treatment is performed while viewing the return light image.
  • a treatment end signal is input at the treatment input unit at the time when the treatment is finished, the fluorescence image acquired at that time and the fluorescence image at the start of treatment stored in the fluorescence image storage unit
  • the comparison image generation unit generates a comparison image that can be compared with and is displayed on the display unit. Thereby, it becomes possible to easily confirm the change of the fluorescence image before and after the treatment by the comparison image displayed on the display unit.
  • the return light image acquired by the return light imaging unit, the fluorescence image acquired by the fluorescence imaging unit, and the comparison image generated by the comparison image generation unit are switched to the display unit.
  • a display switching unit to be displayed, and the display switching unit displays the fluorescent image on the display unit, and when the treatment start signal is input to the treatment input unit, the display unit
  • the display image in the display unit is displayed when a treatment end signal is input to the treatment input unit in a state where the display image is switched to the return light image and the display unit displays the return light image. May be switched to the comparative image.
  • the display switching unit displays a fluorescent image on the display unit, specifies the site to be treated, and inputs a treatment start signal, the display switching unit displays the display on the display unit. Switch from fluorescent image to return light image.
  • the treatment is performed while confirming the surface state of the subject from the return light image.
  • the display switching unit switches the display on the display unit from the return light image to the comparison image.
  • the comparison image generation unit receives a fluorescence image stored in the fluorescence image storage unit and a treatment end signal when a treatment start signal is input.
  • a comparison image may be generated in parallel with the fluorescence image of the time.
  • a return light image storage unit that stores the return light image when a treatment start signal is input to the treatment input unit, and a treatment end signal to the treatment input unit.
  • a positional deviation calculation unit that calculates a positional deviation amount between the return light image acquired when the input is input and the return light image stored in the return light image storage unit, and generating the comparison image The unit may perform the difference calculation after aligning the fluorescent image using the positional deviation amount calculated by the positional deviation calculation unit.
  • the difference calculation can be performed by matching the relative positions of the two fluorescence images, and the change in the fluorescence image before and after the treatment can be accurately extracted as the difference image.
  • a peak for extracting a peak region having the highest fluorescence intensity in a fluorescence image stored in the fluorescence image storage unit when a treatment start signal is input to the treatment input unit may be provided, and the comparison image generation unit may generate a comparison image in which the peak region extracted by the peak extraction unit is superimposed on the difference image.
  • FIG. 1 is an overall configuration diagram showing a fluorescence observation apparatus according to a first embodiment of the present invention. It is a figure which shows an example of the comparative image produced
  • the fluorescence observation apparatus 1 is an endoscope apparatus, and is opposed to an insertion portion 2 to be inserted into a body cavity and a distal end surface 2a of the insertion portion 2.
  • An illuminating unit 3 that irradiates a living tissue (hereinafter referred to as a subject) A with white light (illumination light) and excitation light, and an image acquisition unit that acquires a fluorescent image signal and a white light image signal of the subject A 4, an image processing unit 5 that processes an image signal acquired by the image acquisition unit 4, and a monitor (display unit) 6 that displays an image generated by the image processing unit 5.
  • the illumination unit 3 includes a xenon lamp 7, a filter 8, a coupling lens 9, a light guide fiber 10, and an illumination optical system 11.
  • the filter 8 has a transmittance characteristic that transmits light in the wavelength band of white light and excitation light (for example, 400 to 750 nm) and blocks light in other wavelength bands.
  • the coupling lens 9 condenses the white light and the excitation light transmitted through the filter 8 so as to be incident on the end of the light guide fiber 10.
  • the light guide fiber 10 is disposed over the entire length from the proximal end to the distal end of the insertion portion 2, and guides white light and excitation light to the distal end surface 2 a of the insertion portion 2.
  • the illumination optical system 11 diffuses the white light and excitation light guided by the light guide fiber 10 to irradiate the subject A.
  • the image acquisition unit 4 is disposed at the distal end of the insertion unit 2 and collects the fluorescence generated in the subject A and the white light return light from the subject A, and the light collected by the objective lens 12.
  • a dichroic mirror 13 that branches into fluorescence and white light, a condenser lens 14 that condenses the fluorescence and white light branched by the dichroic mirror 13, and fluorescence that is collected by the condenser lens 14 are photographed.
  • a fluorescence CCD (fluorescence imaging unit) 15 and a white light CCD (return light imaging unit) 16 that captures white light collected by the condenser lens 14 are provided.
  • reference numeral 17 denotes an excitation light cut filter that blocks the excitation light from entering the fluorescence CCD 15.
  • the image processing unit 5 processes the fluorescence image signal acquired by the fluorescence CCD 15 to generate a fluorescence image, and processes the white light image signal acquired by the white light CCD 16 to generate white light.
  • a white light image generation unit 19 that generates an image
  • an input unit (treatment input unit) 20 that inputs an external command signal
  • an image storage unit 21 that stores a fluorescent image
  • a comparative image generation unit that generates a comparison image 22
  • a control unit (display switching unit) 23 that controls the image storage unit 21, the comparison image generation unit 22, and the monitor 6 in response to inputs from the fluorescence image generation unit 18, the white light image generation unit 19, and the input unit 20.
  • the input unit 20 is an input unit such as a push button for inputting a command signal when an operator such as a doctor starts a treatment on the subject A and ends the treatment.
  • a command signal for starting treatment is input from the input unit 20
  • the control unit 23 sends the fluorescence image acquired at that time to the image storage unit 21 for storage.
  • the control unit 23 starts the treatment stored in the image storage unit 21 and the fluorescence image after the treatment acquired at that time.
  • the fluorescence image is sent to the comparison image generation unit 22 to generate a comparison image.
  • the comparison image generation unit 22 generates a comparison image G3 in which the fluorescence image G10 at the start of the treatment and the fluorescence image G11 at the end of the treatment are arranged in parallel, and the control unit 23 To enter.
  • control unit 23 is configured to switch the fluorescent image, the white light image, and the comparison image to be displayed on the monitor 6.
  • the control unit 23 displays a fluorescent image and causes an operator such as a doctor to observe the state of the lesioned portion with the fluorescent image, and when the operator marks a high-luminance region or the like in the fluorescent image. Is supposed to remember this.
  • the control unit 23 switches the display on the monitor 6 from the fluorescent image to the white light image, and at that time, the mark attached to the fluorescent image is changed to the white light. It is also left on the image.
  • the operator performs a treatment on the marked area while confirming the surface state of the subject A in the white light image, and inputs a command signal for ending the treatment from the input unit 20 when the treatment is finished.
  • control unit 23 displays the comparison image input from the comparison image generation unit 22 instead of the white light image displayed on the monitor 6. It has become.
  • the illumination unit 3 is operated, and the subject A is irradiated with the white light and the excitation light by the illumination optical system 11 at the distal end of the insertion unit 2 through the light guide fiber 10 (step S1). ).
  • the fluorescent probe is excited in the subject A to generate fluorescence.
  • the white light is irradiated, the reflected light of the white light on the surface of the subject A returns to the distal end surface 2 a side of the insertion portion 2.
  • Fluorescence and white light incident on the distal end surface 2a side of the insertion portion 2 are collected by the objective lens 12, branched by the dichroic mirror 13, and photographed by the fluorescence CCD 15 and the white light CCD 16, respectively.
  • the fluorescence image signal output from the fluorescence CCD 15 is sent to the fluorescence image generation unit 18 of the image processing unit 5 to generate a fluorescence image G1.
  • the white light image signal output from the white light CCD 16 is sent to the white light image generation unit 19 of the image processing unit 5 to generate a white light image G2 (step S2).
  • the controller 23 first displays the white light image G2 on the monitor 6 as shown in FIG. 4A (step S3). Then, when the operator operates the insertion portion 2 while observing the surface state of the subject A with the white light image G2 on the monitor 6 and approaches the suspicious portion of the lesion, FIG. 4B shows. Thus, the display on the monitor 6 is switched to the fluorescence image G1 (step S4).
  • the operator searches for the lesioned part B, which is a region with high fluorescence brightness, while viewing the fluorescent image G1 displayed on the monitor 6, and as shown in FIG. A mark C is added (step S5).
  • the application of the mark C is performed on the monitor 6 with a mouse or the like (not shown) and is stored in the control unit 23. Thereafter, the operator performs an input to start treatment from the input unit 20 (step S6).
  • the control unit 23 sends the fluorescent image G10 displayed on the monitor 6 at that time to the image storage unit 21 for storage (step S7).
  • a white light image G2 is displayed on the monitor 6 instead of the fluorescent image G1 (step S8).
  • the mark C attached on the fluorescent image G1 and stored in the control unit 23 remains on the white light image G2.
  • the control unit 23 uses the fluorescence image G ⁇ b> 11 acquired at that time and the fluorescence image G ⁇ b> 10 stored in the image storage unit 21 as a comparison image generation unit 22.
  • the comparison image G3 is generated (step S11).
  • the comparison image generation unit 22 generates a comparison image G3 in which two fluorescent images G10 and G11 are arranged in parallel and sends the comparison image G3 to the control unit 23).
  • the control unit 23 displays the comparison image G3 sent from the comparison image generation unit 22 in place of the white light image G2 displayed on the monitor 6 ( Step S12).
  • step S8 the processes from step S8 are repeated (step S13).
  • the fluorescence observation apparatus 30 includes a position shift calculation unit 31 that calculates the shift amount of the white light image G2 before and after the operation of the control unit 23 and the treatment.
  • the comparison image generation unit 22 is different from the fluorescence observation apparatus 1 according to the first embodiment in that the difference image between the fluorescence images G10 and G11 before and after the treatment is generated as the comparison image G3.
  • the control unit 23 sends the fluorescence image G ⁇ b> 10 and the white light image acquired at that time to the image storage unit 21. It comes to memorize.
  • the control unit 23 acquires the post-treatment fluorescent image G ⁇ b> 11 acquired at that time and the pre-treatment fluorescent image stored in the image storage unit 21.
  • G10 is sent to the comparison image generation unit 22, and the white light image after treatment and the white light image before treatment stored in the image storage unit 21 are sent to the positional deviation calculation unit 31.
  • the positional deviation calculation unit 31 includes a white light image before treatment stored in the image storage unit 21 and a white light image after treatment acquired when a treatment end signal is input to the input unit 20.
  • the positional deviation amount between the white light images is calculated by being inputted. Specifically, a feature point (for example, a shape feature point, a color feature point, etc.) in each white light image is extracted, and a moving direction and a distance of the corresponding feature point thus extracted are obtained. The direction and distance in which the field of view is shifted before and after are obtained.
  • a feature point for example, a shape feature point, a color feature point, etc.
  • the comparison image generation unit 22 includes a fluorescence image G10 before treatment stored in the image storage unit 21, a fluorescence image G11 after treatment acquired when a treatment end signal is input to the input unit 20, and The positional deviation amount calculated by the positional deviation calculation unit 31 is input.
  • the comparison image generation unit 22 first, alignment processing of the two fluorescent images G10 and G11 is performed. That is, since the visual fields of the white light image G2 and the fluorescent image G1 acquired at the same time coincide with each other, the fluorescent images G10 and G11 are in the same direction as the positional deviation amount calculated using the white light image before and after the treatment. There is also a gap. Therefore, alignment can be easily performed by relatively moving the two fluorescent images G10 and G11 by the input positional shift amount.
  • the comparison image generation unit 22 performs a difference calculation between the two aligned fluorescence images G10 and G11.
  • the difference image as the comparison image G3 generated by the comparison image generation unit 22 is displayed on the monitor 6.
  • the fluorescence observation apparatus 30 since the comparison image G3 including the difference image representing the difference between the fluorescence images G10 and G11 before and after the treatment is displayed on the monitor 6, the parallel display is performed. There is an advantage that even a minute difference in the fluorescence image G1 that cannot be discriminated can be clearly confirmed. In particular, since the fluorescence images G10 and G11 before and after the treatment are aligned using the white light images before and after the treatment, only the changed portions in the fluorescence images G10 and G11 before and after the treatment are accurately displayed. Can do.
  • the difference image is displayed on the monitor 6 as the comparison image G3.
  • the comparison image G3 including the difference image is displayed in parallel with the fluorescent image G11 after the treatment.
  • the comparison image G3 composed of the difference image may be displayed superimposed on the treated fluorescence image G11.
  • a peak extraction unit 32 that extracts a peak region E including a pixel having the highest fluorescence intensity in the fluorescence image G ⁇ b> 10 before the treatment is provided, and the extracted peak region E is stored in the control unit 23.
  • the peak region E may be displayed together with the mark C, or the peak region E may be displayed together with the comparative image G3. Further, it is determined whether or not the region having the difference in the comparison image G3 matches the peak region E, and if the region having the difference matches the peak region E, it means that the treatment has been performed on the correct region.
  • the color of the screen display may be changed, or a display such as “Procedure was performed correctly” may be performed.
  • the alignment of the fluorescence images G10 and G11 before and after the treatment is performed using the amount of positional deviation calculated from the corresponding white light image before and after the treatment, but instead of this, the fluorescence image G10 , G11 itself may be extracted to perform alignment processing.
  • the reflected light of white light was illustrated as an example of return light, it replaces with this and you may use other arbitrary lights, such as near-infrared light and autofluorescence, as return light.

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Signal Processing (AREA)
  • Endoscopes (AREA)
  • Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)

Abstract

 患部に対する処置の結果を容易に確認する。被写体(A)に対し、照明光および励起光を照射する照明部(3)と、励起光の照射により被写体(A)において発生した蛍光を撮影し蛍光画像を取得する蛍光撮像部(15)と、照明光の照射により被写体(A)から戻る戻り光を撮影し戻り光画像を取得する戻り光撮像部(16)と、蛍光撮像部(15)により取得された蛍光画像を記憶する蛍光画像記憶部(21)と、被写体(A)に対する処置の開始および終了の信号を入力する処置入力部(20)と、該処置入力部(20)に処置の開始の信号が入力されたときに蛍光画像記憶部(21)に記憶された蛍光画像と、処置の終了の信号が入力されたときに取得された蛍光画像とを対比可能な比較画像を生成する比較画像生成部(22)と、生成された比較画像を表示する表示部(6)とを備える蛍光観察装置(1)を提供する。

Description

蛍光観察装置
 本発明は、蛍光観察装置に関するものである。
 従来、被写体に対して励起光と白色光とを照射して蛍光画像と白色光画像とを取得し、蛍光画像において患部を特定した後、白色光画像に切り替えて、白色光画像を観ながら患部に対する処置、例えば、患部組織の採取等を行う蛍光内視鏡装置が知られている(例えば、特許文献1参照。)。
 この蛍光内視鏡装置においては、蛍光画像において特定された患部にマークを付けると、白色光画像に切り替えた後においても特定された患部の位置にマークが残るようにして、患部に対する処置時の作業を容易にしている。
特許第3771985号公報
 しかしながら、特許文献1に開示されている蛍光内視鏡装置においては、白色光画像に切り替えた後においても患部の位置を特定できるものの、所望の処置を行うことができたか否かについて確認することは困難であるという不都合がある。
 本発明は、上述した事情に鑑みてなされたものであって、患部に対する処置の結果を容易に確認できる蛍光観察装置を提供することを目的としている。
 上記目的を達成するために、本発明は以下の手段を提供する。
 本発明の一態様は、被写体に対し、照明光および励起光を照射する照明部と、該照明部からの励起光の照射により前記被写体において発生した蛍光を撮影し蛍光画像を取得する蛍光撮像部と、前記照明部からの照明光の照射により前記被写体から戻る戻り光を撮影し戻り光画像を取得する戻り光撮像部と、前記蛍光撮像部により取得された蛍光画像を記憶する蛍光画像記憶部と、前記被写体に対する処置の開始および終了の信号を入力する処置入力部と、該処置入力部に処置の開始の信号が入力されたときに前記蛍光画像記憶部に記憶された蛍光画像と、処置の終了の信号が入力されたときに取得された蛍光画像とを対比可能な比較画像を生成する比較画像生成部と、該比較画像生成部により生成された比較画像を表示する表示部とを備える蛍光観察装置を提供する。
 本発明の一態様によれば、照明部から励起光および照明光が被写体に対して照射され、被写体において発生した蛍光を蛍光撮像部により撮影することによって蛍光画像が取得される一方、被写体からの照明光の戻り光を戻り光撮像部により撮影することによって戻り光画像が取得される。取得された蛍光画像においては、蛍光強度が高い領域を処置すべき領域として特定することができる。そして、処置入力部において処置の開始の信号が入力されると、その時点で取得されている蛍光画像が蛍光画像記憶部に記憶される。
 一方、取得された戻り光画像においては、被写体の表面状態を確認することができ、戻り光画像を見ながら処置が行われる。そして、処置が終了した時点で、処置入力部において処置の終了の信号が入力されると、その時点で取得されている蛍光画像と、蛍光画像記憶部に記憶されている処置開始時の蛍光画像とを対比可能な比較画像が比較画像生成部により生成され、表示部に表示される。これにより、表示部に表示された比較画像によって、処置の前後における蛍光画像の変化を容易に確認することが可能となる。
 本発明の一態様においては、前記戻り光撮像部により取得された戻り光画像、前記蛍光撮像部により取得された蛍光画像および前記比較画像生成部により生成された比較画像を切り替えて前記表示部に表示させる表示切替部とを備え、該表示切替部は、前記表示部に前記蛍光画像を表示させている状態で、前記処置入力部に処置の開始の信号が入力されたときに、前記表示部における表示画像を前記戻り光画像に切り替え、前記表示部に前記戻り光画像を表示させている状態で、前記処置入力部に処置の終了の信号が入力されたときに、前記表示部における表示画像を前記比較画像に切り替えてもよい。
 このようにすることで、表示切替部により表示部に蛍光画像を表示させて、処置すべき部位の特定を行わせ、処置の開始の信号を入力すると、表示切替部が、表示部の表示を蛍光画像から戻り光画像に切り替える。これにより、戻り光画像により被写体の表面状態を確認しながら処置が行われる。そして、処置の終了の信号を入力すると、表示切替部が、表示部の表示を戻り光画像から比較画像に切り替える。これにより、処置の前後における蛍光画像の変化を容易に確認することができる。
 また、本発明の一態様においては、前記比較画像生成部が、処置の開始の信号が入力されたときに前記蛍光画像記憶部に記憶された蛍光画像と、処置の終了の信号が入力されたときの蛍光画像とを並列させた比較画像を生成してもよい。
 このようにすることで、処置の前後の蛍光画像が並列して表示されるので、処置の結果を一目で確認することができる。
 また、本発明の一態様においては、前記比較画像生成部が、処置の開始の信号が入力されたときに前記蛍光画像記憶部に記憶された蛍光画像と、処置の終了の信号が入力されたときの蛍光画像との差分を演算した差分画像を比較画像として生成してもよい。
 このようにすることで、処置の前後における蛍光画像の変化が、差分画像として表示されるので、処置の結果の変化が微細な場合においても、これを明確に確認することができる。
 また、本発明の一態様においては、前記処置入力部に処置の開始の信号が入力されたときに前記戻り光画像を記憶する戻り光画像記憶部と、前記処置入力部に処置の終了の信号が入力されたときに取得された戻り光画像と、前記戻り光画像記憶部に記憶されている戻り光画像との間で位置ズレ量を算出する位置ズレ算出部とを備え、前記比較画像生成部が、前記位置ズレ算出部により算出された位置ズレ量を用いて、蛍光像の位置合わせを行った後に差分演算を行ってもよい。
 このようにすることで、2つの蛍光画像どうしの相対位置を一致させて差分演算を行うことができ、処置の前後における蛍光画像の変化を差分画像として正確に抽出することができる。
 また、本発明の一態様においては、前記処置入力部に処置の開始の信号が入力されたときに前記蛍光画像記憶部に記憶された蛍光画像内における蛍光強度の最も高いピーク領域を抽出するピーク抽出部を備え、前記比較画像生成部が、前記差分画像に、前記ピーク抽出部により抽出されたピーク領域を重畳した比較画像を生成してもよい。
 このようにすることで、蛍光強度の最も高いピーク領域に対して適切な処置が行われたか否かを一目で確認することができる。
 本発明によれば、患部に対する処置の結果を容易に確認できるという効果を奏する。
本発明の第1の実施形態に係る蛍光観察装置を示す全体構成図である。 図1の蛍光観察装置により生成された比較画像の一例を示す図である。 図1の蛍光観察装置による観察手順を示すフローチャートである。 図1の蛍光観察装置による観察手順を示す図であり、(a)白色光画像、(b)蛍光画像、(c)マークを付した蛍光画像、(d)マークを残した白色光画像、(e)白色画像による処置、(f)比較画像をそれぞれ示している。 本発明の第2の実施形態に係る蛍光観察装置を示す全体構成図である。 図5の蛍光観察装置の変形例を示す全体構成図である。 図6の蛍光観察装置により取得された蛍光画像にピーク領域を表示した図である。
 本発明の第1の実施形態に係る蛍光観察装置1について、図面を参照して以下に説明する。
 本実施形態に係る蛍光観察装置1は、図1に示されるように、内視鏡装置であって、体腔内に挿入される挿入部2と、該挿入部2の先端面2aに対向して配置される生体組織(以下、被写体という。)Aに対して白色光(照明光)および励起光を照射する照明部3と、被写体Aの蛍光画像信号および白色光画像信号を取得する画像取得部4と、該画像取得部4により取得された画像信号を処理する画像処理部5と、画像処理部5により生成された画像を表示するモニタ(表示部)6とを備えている。
 照明部3は、キセノンランプ7と、フィルタ8と、カップリングレンズ9と、ライトガイドファイバ10と、照明光学系11とを備えている。フィルタ8は、白色光および励起光の波長帯域(例えば、400~750nm)の光を透過し、それ以外の波長帯域の光を遮断する透過率特性を有している。
 カップリングレンズ9は、フィルタ8を透過した白色光および励起光を集光してライトガイドファイバ10の端部に入射させるようになっている。ライトガイドファイバ10は、挿入部2の基端から先端まで全長にわたって配置され、白色光および励起光を挿入部2の先端面2aまで導光するようになっている。照明光学系11は、ライトガイドファイバ10により導光された白色光および励起光を拡散させて、被写体Aに向けて照射するようになっている。
 画像取得部4は、挿入部2の先端に配置され、被写体Aにおいて発生した蛍光および被写体からの白色光の戻り光を集光する対物レンズ12と、該対物レンズ12により集光された光を蛍光と白色光とに分岐するダイクロイックミラー13と、該ダイクロイックミラー13によって分岐された蛍光および白色光をそれぞれ集光する集光レンズ14と、該集光レンズ14により集光された蛍光を撮影する蛍光用CCD(蛍光撮像部)15と、集光レンズ14により集光された白色光を撮影する白色光用CCD(戻り光撮像部)16とを備えている。図中、符号17は蛍光用CCD15への励起光の入射を遮断する励起光カットフィルタである。
 画像処理部5は、蛍光用CCD15により取得された蛍光画像信号を処理して蛍光画像を生成する蛍光画像生成部18と、白色光用CCD16により取得された白色光画像信号を処理して白色光画像を生成する白色光画像生成部19と、外部からの指令信号を入力する入力部(処置入力部)20と、蛍光画像を記憶する画像記憶部21と、比較画像を生成する比較画像生成部22と、蛍光画像生成部18、白色光画像生成部19および入力部20からの入力を受けて、画像記憶部21、比較画像生成部22およびモニタ6を制御する制御部(表示切替部)23とを備えている。
 入力部20は、医師等の操作者が、被写体Aに対する処置を開始する際、および処置を終了する際に指令信号を入力する押しボタン等の入力手段である。
 制御部23は、入力部20から処置を開始する指令信号が入力されたときには、その時点で取得されている蛍光画像を画像記憶部21に送って記憶させるようになっている。
 また、制御部23は、入力部20から処置を終了する指令信号が入力されたときには、その時点で取得されている処置後の蛍光画像と、画像記憶部21に記憶されている処置の開始時の蛍光画像とを比較画像生成部22に送り、比較画像を生成させるようになっている。
 比較画像生成部22は、例えば、図2に示されるように、処置の開始時における蛍光画像G10と、処置の終了時における蛍光画像G11とを並列させた比較画像G3を生成し、制御部23に入力するようになっている。
 また、制御部23は、蛍光画像、白色光画像および比較画像を切り替えてモニタ6に表示させるようになっている。
 例えば、制御部23は、蛍光画像を表示させて医師等の操作者に病変部の状態を蛍光画像によって観察させるとともに、操作者が、蛍光画像中における高輝度領域等にマークを付した場合には、これを記憶するようになっている。
 そして、制御部23は、入力部20から処置を開始する指令信号が入力されたときには、モニタ6の表示を蛍光画像から白色光画像に切り替え、その際に、蛍光画像に付したマークを白色光画像上にも残すようになっている。
 操作者は、白色光画像において被写体Aの表面状態を確認しながらマークの付された領域に対して処置を施し、処置が終了した時点で入力部20から処置を終了する指令信号を入力する。
 入力部20に処置を終了する指令信号が入力されると、制御部23は、モニタ6に表示していた白色光画像に代えて、比較画像生成部22から入力された比較画像を表示させるようになっている。
 このように構成された本実施形態に係る蛍光観察装置1の作用について以下に説明する。
 本実施形態に係る蛍光観察装置1を用いて、被写体Aの蛍光観察を行うには、病変部等に特異的に集積する蛍光プローブを被写体Aに付与するとともに、挿入部2を体腔内に挿入して、その先端面2aを被写体Aに対向配置させる。
 そして、図3に示されるように、照明部3を作動させて、白色光および励起光をライトガイドファイバ10を介して挿入部2の先端の照明光学系11により被写体Aに照射させる(ステップS1)。励起光が照射されることにより、被写体Aにおいては蛍光プローブが励起されて蛍光が発生する。また、白色光が照射されると、被写体Aの表面における白色光の反射光が挿入部2の先端面2a側に戻る。
 挿入部2の先端面2a側に入射してくる蛍光および白色光は対物レンズ12によって集光され、ダイクロイックミラー13によって分岐されてそれぞれ蛍光用CCD15および白色光用CCD16によって撮影される。蛍光用CCD15から出力された蛍光画像信号は、画像処理部5の蛍光画像生成部18に送られて蛍光画像G1が生成される。また、白色光用CCD16から出力された白色光画像信号は、画像処理部5の白色光画像生成部19に送られて白色光画像G2が生成される(ステップS2)。
 制御部23は、まず、図4(a)に示されるように、モニタ6に白色光画像G2を表示させる(ステップS3)。そして、操作者がモニタ6上の白色光画像G2により被写体Aの表面状態を観察しながら挿入部2を操作し、病変部の疑いのある部位近傍に差し掛かったら、図4(b)に示されるように、モニタ6の表示を蛍光画像G1に切り替える(ステップS4)。
 操作者は、モニタ6に表示されている蛍光画像G1を見ながら蛍光輝度の高い領域である病変部Bを捜索し、図4(c)に示されるように、発見された時点でその領域を示すマークCを付する(ステップS5)。マークCの付与は、図示しないマウス等によりモニタ6上において行い、制御部23が記憶する。操作者はその後、処置を開始する入力を入力部20から行う(ステップS6)。
 入力部20に、処置を開始する信号が入力されると、制御部23は、その時点でモニタ6に表示している蛍光画像G10を画像記憶部21に送って記憶させる(ステップS7)とともに、図4(d)に示されるように、蛍光画像G1に代えて白色光画像G2をモニタ6に表示させる(ステップS8)。この際、蛍光画像G1上で付され制御部23に記憶されているマークCは白色光画像G2上にも残る。
 操作者は、白色光画像G2によって被写体Aの表面状態を確認しながら、マークCが付された領域に対して、例えば、図4(e)に示されるように、処置具Dを用いて組織を切除する等の処置を行う(ステップS9)。そして、処置が終了した時点で、操作者は、処置を終了させる入力を入力部20から行う(ステップS10)。
 入力部20に、処置を終了する信号が入力されると、制御部23は、その時点で取得されている蛍光画像G11および画像記憶部21に記憶されている蛍光画像G10を比較画像生成部22に送り、比較画像G3を生成させる(ステップS11)。比較画像生成部22は、2つの蛍光画像G10,G11を並列に並べた比較画像G3を生成して制御部23に送る)。そして、制御部23は、図4(f)に示されるように、比較画像生成部22から送られてきた比較画像G3を、モニタ6に表示している白色光画像G2に代えて表示させる(ステップS12)。
 これにより、操作者は、モニタ6上に表示された比較画像G3の処置の前後の蛍光画像G10,G11を直接対比することによって、処置の前後における蛍光画像G10,G11における変化を容易に確認することができる。十分な処置が行われていない場合には、ステップS8からの工程を繰り返す(ステップS13)。
 このように、本実施形態に係る蛍光観察装置1によれば、白色光画像G2によって表面状態を確認しながら行った処置が良好に行われたか否かを、処置の前後の蛍光画像G10,G11を並列して提示することによって容易に確認することができ、観察を効率的に行うことができるとともに、処置の精度を向上することができるという利点がある。
 次に、本発明の第2の実施形態に係る蛍光観察装置30について、図面を参照して以下に説明する。
 本実施形態に係る蛍光観察装置30の説明において、上述した第1の実施形態に係る蛍光観察装置1と構成を共通とする箇所には同一符号を付して説明を省略する。
 本実施形態に係る蛍光観察装置30は、図5に示されるように、制御部23の動作、処置の前後の白色光画像G2のズレ量を算出する位置ズレ算出部31を備えている点、および、比較画像生成部22が、処置の前後の蛍光画像G10,G11の差分画像を比較画像G3として生成する点において、第1の実施形態に係る蛍光観察装置1と相違している。
 制御部23は、図5に示されるように、入力部20に処置の開始の信号が入力されたときには、その時点で取得されている蛍光画像G10および白色光画像を画像記憶部21に送って記憶させるようになっている。また、制御部23は、入力部20に処置の終了の信号が入力されたときには、その時点で取得されている処置後の蛍光画像G11および画像記憶部21に記憶されている処置前の蛍光画像G10を比較画像生成部22に送るとともに、処置後の白色光画像および画像記憶部21に記憶されている処置前の白色光画像を位置ズレ算出部31に送るようになっている。
 位置ズレ算出部31は、画像記憶部21に記憶していた処置前の白色光画像と、処置の終了の信号が入力部20に入力されたときに取得された処置後の白色光画像とが入力されて、それらの白色光画像間の位置ズレ量を算出するようになっている。具体的には、各白色光画像内の特徴点(例えば、形状的特徴点、色彩的特徴点等)を抽出し、抽出された対応する特徴点の移動方向と距離とを求めることにより、処置の前後において視野がずれた方向と距離とを求めるようになっている。
 比較画像生成部22は、画像記憶部21に記憶していた処置前の蛍光画像G10と、処置の終了の信号が入力部20に入力されたときに取得された処置後の蛍光画像G11と、位置ズレ算出部31により算出された位置ズレ量とが入力されるようになっている。
 比較画像生成部22においては、まず、2つの蛍光画像G10,G11の位置合わせ処理が行われる。すなわち、同時に取得された白色光画像G2と蛍光画像G1とは視野が一致しているので、処置の前後における白色光画像を用いて算出した位置ズレ量と同じだけ同じ方向に蛍光画像G10,G11もズレている。したがって、入力された位置ズレ量だけ2つの蛍光画像G10,G11を相対的に移動させることにより、容易に位置合わせを行うことができる。
 次いで、比較画像生成部22においては、位置合わせされた2つの蛍光画像G10,G11の差分演算を行う。比較画像生成部22により生成された比較画像G3としての差分画像は、モニタ6に表示されるようになっている。
 このように構成された本実施形態に係る蛍光観察装置30によれば、処置の前後における蛍光画像G10,G11の差分を表す差分画像からなる比較画像G3をモニタ6に表示するので、並列表示では判別できないような蛍光画像G1における微細な差異をも明確に確認することができるという利点がある。特に、処置の前後における白色光画像を用いて、処置の前後の蛍光画像G10,G11を位置合わせしているので、処置の前後の蛍光画像G10,G11において変化した部分のみを精度よく表示することができる。
 本実施形態においては、比較画像G3として差分画像をモニタ6に表示することとしたが、これに代えて、差分画像からなる比較画像G3を処置後の蛍光画像G11と並列させて表示することにしてもよいし、差分画像からなる比較画像G3を処置後の蛍光画像G11に重畳させて表示することにしてもよい。
 また、図6に示されるように、処置前の蛍光画像G10において蛍光強度の最も高い画素を含むピーク領域Eを抽出するピーク抽出部32を備え、抽出されたピーク領域Eを制御部23に記憶しておき、図7に示されるように、白色光画像G2を表示する際にマークCとともにピーク領域Eを表示し、あるいは、比較画像G3とともにピーク領域Eを表示することとしてもよい。
 さらに、比較画像G3の差分がある領域とピーク領域Eが一致しているか否かを判断して、ピーク領域Eと差分がある領域が一致した場合は、処置が正しい領域に行われたことを表示するために、画面表示の色を変更したり、「処置が正しく行われた」等の表示を行ったりしてもよい。
 また、本実施形態においては、処置前後の蛍光画像G10,G11の位置合わせを、処置前後の対応する白色光画像から算出した位置ズレ量を用いて行ったが、これに代えて、蛍光画像G10,G11自体の特徴点を抽出して、位置合わせ処理を行うことにしてもよい。
 また、戻り光の一例として白色光の反射光を例示したが、これに代えて、近赤外光、自家蛍光等、他の任意の光を戻り光として使用してもよい。
A 被写体
E ピーク領域
G1,G10,G11 蛍光画像
G2 白色光画像(戻り光画像)
G3 比較画像
1,30 蛍光観察装置
3 照明部
6 モニタ(表示部)
15 蛍光用CCD(蛍光撮像部)
16 白色光用CCD(戻り光撮像部)
20 入力部(処置入力部)
21 画像記憶部(蛍光画像記憶部、戻り光画像記憶部)
22 比較画像生成部
23 制御部(表示切替部)
31 位置ズレ算出部
32 ピーク抽出部

Claims (6)

  1.  被写体に対し、照明光および励起光を照射する照明部と、
     該照明部からの励起光の照射により前記被写体において発生した蛍光を撮影し蛍光画像を取得する蛍光撮像部と、
     前記照明部からの照明光の照射により前記被写体から戻る戻り光を撮影し戻り光画像を取得する戻り光撮像部と、
     前記蛍光撮像部により取得された蛍光画像を記憶する蛍光画像記憶部と、
     前記被写体に対する処置の開始および終了の信号を入力する処置入力部と、
     該処置入力部に処置の開始の信号が入力されたときに前記蛍光画像記憶部に記憶された蛍光画像と、処置の終了の信号が入力されたときに取得された蛍光画像とを対比可能な比較画像を生成する比較画像生成部と、
     該比較画像生成部により生成された比較画像を表示する表示部とを備える蛍光観察装置。
  2.  前記戻り光撮像部により取得された戻り光画像、前記蛍光撮像部により取得された蛍光画像および前記比較画像生成部により生成された比較画像を切り替えて前記表示部に表示させる表示切替部とを備え、
     該表示切替部は、前記表示部に前記蛍光画像を表示させている状態で、前記処置入力部に処置の開始の信号が入力されたときに、前記表示部における表示画像を前記戻り光画像に切り替え、前記表示部に前記戻り光画像を表示させている状態で、前記処置入力部に処置の終了の信号が入力されたときに、前記表示部における表示画像を前記比較画像に切り替える請求項1に記載の蛍光観察装置。
  3.  前記比較画像生成部が、処置の開始の信号が入力されたときに前記蛍光画像記憶部に記憶された蛍光画像と、処置の終了の信号が入力されたときの蛍光画像とを並列させた比較画像を生成する請求項1または請求項2に記載の蛍光観察装置。
  4.  前記比較画像生成部が、処置の開始の信号が入力されたときに前記蛍光画像記憶部に記憶された蛍光画像と、処置の終了の信号が入力されたときの蛍光画像との差分を演算した差分画像を比較画像として生成する請求項1または請求項2に記載の蛍光観察装置。
  5.  前記処置入力部に処置の開始の信号が入力されたときに前記戻り光画像を記憶する戻り光画像記憶部と、
     前記処置入力部に処置の終了の信号が入力されたときに取得された戻り光画像と、前記戻り光画像記憶部に記憶されている戻り光画像との間で位置ズレ量を算出する位置ズレ算出部とを備え、
     前記比較画像生成部が、前記位置ズレ算出部により算出された位置ズレ量を用いて、蛍光像の位置合わせを行った後に差分演算を行う請求項4に記載の蛍光観察装置。
  6.  前記処置入力部に処置の開始の信号が入力されたときに前記蛍光画像記憶部に記憶された蛍光画像内における蛍光強度の最も高いピーク領域を抽出するピーク抽出部を備え、
     前記比較画像生成部が、前記差分画像に、前記ピーク抽出部により抽出されたピーク領域を重畳した比較画像を生成する請求項4に記載の蛍光観察装置。
PCT/JP2011/064651 2010-06-30 2011-06-27 蛍光観察装置 Ceased WO2012002312A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201180031653.0A CN102958419B (zh) 2010-06-30 2011-06-27 荧光观察装置
US13/724,815 US20130116508A1 (en) 2010-06-30 2012-12-21 Fluoroscopy apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010149052A JP5675187B2 (ja) 2010-06-30 2010-06-30 蛍光観察装置
JP2010-149052 2010-06-30

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/724,815 Continuation US20130116508A1 (en) 2010-06-30 2012-12-21 Fluoroscopy apparatus

Publications (1)

Publication Number Publication Date
WO2012002312A1 true WO2012002312A1 (ja) 2012-01-05

Family

ID=45402025

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/064651 Ceased WO2012002312A1 (ja) 2010-06-30 2011-06-27 蛍光観察装置

Country Status (4)

Country Link
US (1) US20130116508A1 (ja)
JP (1) JP5675187B2 (ja)
CN (1) CN102958419B (ja)
WO (1) WO2012002312A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014120520A1 (en) * 2013-01-29 2014-08-07 Gyrus Acmi, Inc. (D.B.A. Olympus Surgical Technologies America) Navigation using a pre-acquired image

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5628062B2 (ja) * 2011-02-01 2014-11-19 富士フイルム株式会社 電子内視鏡システム
US9406123B2 (en) 2012-06-26 2016-08-02 Sony Corporation Imaging control apparatus, storage system, and storage medium
JP7142023B2 (ja) * 2017-11-01 2022-09-26 富士フイルム株式会社 生検支援装置、内視鏡装置、生検支援装置の作動方法、及び生検支援プログラム
US11382487B2 (en) 2018-04-03 2022-07-12 Curadel, LLC Micro CMOS scopes for medical imaging
JP7038641B2 (ja) * 2018-11-02 2022-03-18 富士フイルム株式会社 医療診断支援装置、内視鏡システム、及び作動方法
JP7281308B2 (ja) * 2019-03-07 2023-05-25 ソニー・オリンパスメディカルソリューションズ株式会社 医療用画像処理装置及び医療用観察システム
US10902572B1 (en) * 2019-10-09 2021-01-26 Karl Storz Imaging, Inc. Enhanced fluorescence imaging for imaging system
JP7653839B2 (ja) 2021-05-26 2025-03-31 富士フイルム株式会社 内視鏡業務支援装置及び内視鏡業務支援システム並びに内視鏡業務支援装置の作動方法
CN117396749A (zh) * 2021-05-27 2024-01-12 索尼集团公司 信息处理方法、信息处理装置及程序
CN114343873B (zh) * 2022-01-07 2023-04-18 苏州康多机器人有限公司 一种内窥镜手术监测系统及方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002345739A (ja) * 2001-05-25 2002-12-03 Fuji Photo Film Co Ltd 画像表示装置
JP2006061683A (ja) * 2004-07-30 2006-03-09 Olympus Corp 内視鏡装置
JP2006263044A (ja) * 2005-03-23 2006-10-05 Fuji Photo Film Co Ltd 蛍光検出システム
JP2007125245A (ja) * 2005-11-04 2007-05-24 Olympus Corp 蛍光内視鏡装置及び体腔内残渣検出方法
WO2009039207A1 (en) * 2007-09-19 2009-03-26 Oncofluor, Inc. Method for imaging and treating organs and tissues
JP2010104652A (ja) * 2008-10-31 2010-05-13 Morita Mfg Co Ltd 歯科用撮像装置、歯科用撮像システム及び歯科治療用インスツルメント装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060173358A1 (en) * 2005-01-11 2006-08-03 Olympus Corporation Fluorescence observation endoscope apparatus and fluorescence observation method
WO2007040270A1 (ja) * 2005-10-06 2007-04-12 Hitachi Medical Corporation 穿刺治療支援装置
US7896871B2 (en) * 2007-02-22 2011-03-01 Medtronic, Inc. Impedance computation for ablation therapy

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002345739A (ja) * 2001-05-25 2002-12-03 Fuji Photo Film Co Ltd 画像表示装置
JP2006061683A (ja) * 2004-07-30 2006-03-09 Olympus Corp 内視鏡装置
JP2006263044A (ja) * 2005-03-23 2006-10-05 Fuji Photo Film Co Ltd 蛍光検出システム
JP2007125245A (ja) * 2005-11-04 2007-05-24 Olympus Corp 蛍光内視鏡装置及び体腔内残渣検出方法
WO2009039207A1 (en) * 2007-09-19 2009-03-26 Oncofluor, Inc. Method for imaging and treating organs and tissues
JP2010104652A (ja) * 2008-10-31 2010-05-13 Morita Mfg Co Ltd 歯科用撮像装置、歯科用撮像システム及び歯科治療用インスツルメント装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014120520A1 (en) * 2013-01-29 2014-08-07 Gyrus Acmi, Inc. (D.B.A. Olympus Surgical Technologies America) Navigation using a pre-acquired image
CN104936505A (zh) * 2013-01-29 2015-09-23 捷锐士阿希迈公司(以奥林巴斯美国外科技术名义) 使用预先采集的图像进行的导航
JP2016509510A (ja) * 2013-01-29 2016-03-31 ジャイラス・エーシーエムアイ・インコーポレーテッド 事前取得画像を利用したナビゲーション
US9386908B2 (en) 2013-01-29 2016-07-12 Gyrus Acmi, Inc. (D.B.A. Olympus Surgical Technologies America) Navigation using a pre-acquired image
CN104936505B (zh) * 2013-01-29 2017-03-08 捷锐士阿希迈公司(以奥林巴斯美国外科技术名义) 使用预先采集的图像进行的导航

Also Published As

Publication number Publication date
JP2012010862A (ja) 2012-01-19
CN102958419A (zh) 2013-03-06
JP5675187B2 (ja) 2015-02-25
CN102958419B (zh) 2015-06-03
US20130116508A1 (en) 2013-05-09

Similar Documents

Publication Publication Date Title
JP5675187B2 (ja) 蛍光観察装置
CN103565393B (zh) 荧光观察装置和荧光观察系统
US9949645B2 (en) Fluorescence imaging apparatus for identifying fluorescence region based on specified processing condition and superimposing fluorescence region at corresponding region in return-light image
JP5562683B2 (ja) 蛍光観察装置
JP2012065698A (ja) 手術支援システムおよびそれを用いた手術支援方法
US9241615B2 (en) Image acquisition and display method and image capturing and display apparatus
US9518924B2 (en) Fluoroscopy apparatus and fluoroscopy apparatus operating method
JP2010082040A (ja) 内視鏡システム
WO2018034075A1 (ja) 撮像システム
JP2010227253A (ja) 画像処理装置、撮像装置、画像処理プログラムおよび画像処理方法
JPH10295633A (ja) 内視鏡観察装置
WO2012147820A1 (ja) 蛍光観察装置とその画像表示方法
WO2014084134A1 (ja) 観察装置
JP4566754B2 (ja) 画像処理装置
WO2016117277A1 (ja) 内視鏡システム
CN103298393A (zh) 医疗设备、医疗图像中的标记显示控制方法以及医疗用处理器
WO2013121610A1 (ja) 内視鏡装置及び医用システム
WO2018211885A1 (ja) 画像取得システム、制御装置及び画像取得方法
JP4633210B2 (ja) 手術用顕微鏡装置
JP2006075189A (ja) 着脱フィルタ装置および内視鏡装置
JP6609688B2 (ja) 光走査型撮影投影装置および内視鏡システム
JP2009022654A (ja) 電子内視鏡システム
CN105705074B (zh) 内窥镜系统
WO2016194699A1 (ja) 観察補助装置、情報処理方法、およびプログラム
JP2006325973A (ja) 画像生成装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180031653.0

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11800776

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11800776

Country of ref document: EP

Kind code of ref document: A1