[go: up one dir, main page]

WO2017006449A1 - 内視鏡装置 - Google Patents

内視鏡装置 Download PDF

Info

Publication number
WO2017006449A1
WO2017006449A1 PCT/JP2015/069590 JP2015069590W WO2017006449A1 WO 2017006449 A1 WO2017006449 A1 WO 2017006449A1 JP 2015069590 W JP2015069590 W JP 2015069590W WO 2017006449 A1 WO2017006449 A1 WO 2017006449A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
coordinates
observation position
unit
observation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2015/069590
Other languages
English (en)
French (fr)
Inventor
健郎 大澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2017527024A priority Critical patent/JP6577031B2/ja
Priority to PCT/JP2015/069590 priority patent/WO2017006449A1/ja
Priority to DE112015006617.9T priority patent/DE112015006617T5/de
Publication of WO2017006449A1 publication Critical patent/WO2017006449A1/ja
Priority to US15/838,652 priority patent/US20180098685A1/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00147Holding or positioning arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/05Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by the image sensor, e.g. camera, being in the distal end portion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes

Definitions

  • the present invention relates to an endoscope apparatus.
  • An endoscope apparatus in which an elongated insertion portion is inserted into a narrow space, and an image of a desired region of an observation target existing in the space is acquired and observed by an imaging unit provided at the distal end of the insertion portion.
  • an imaging unit provided at the distal end of the insertion portion.
  • An object of the present invention is to provide an endoscope apparatus that can shorten the time until the original work is restarted and improve convenience.
  • One embodiment of the present invention is an imaging unit that continuously acquires a plurality of images I (t1) to I (tn) to be observed at times t1 to tn (n is an integer) spaced apart from each other, and the imaging unit An image processing unit that processes a plurality of images acquired by the image processing unit, and a display unit that displays an image processed by the image processing unit.
  • the image processing unit includes an image I (tn) and an image I (tn ⁇ 1) a corresponding point detecting unit that detects a plurality of corresponding pixel positions as corresponding points, an observation position specifying unit that specifies the coordinates of the observation position in each of the images, and the observation position specifying unit in the image I (tn)
  • the coordinates of the observation position specified in the image I (tn-1) are converted into coordinates in the coordinate system of the image I (tn) using a plurality of corresponding points.
  • a coordinate conversion processing unit for performing the display Is an endoscope apparatus that displays information on the coordinates of the observation position in the coordinate system of the image I (tn) converted by the coordinate conversion processing unit together with the image I (tn) processed by the image processing unit.
  • the corresponding point detection unit detects a plurality of corresponding pixel positions of the image I (tn) and the image I (tn-1) as corresponding points, For each image, the observation position coordinates are specified by the observation position specifying unit. When this process is repeated sequentially and the coordinates of the observation position cannot be specified in the image I (tn), a plurality of corresponding points between the image I (tn) and the image I (tn ⁇ 1) are obtained by the coordinate conversion processing unit. Is used to convert the coordinates of the observation position specified in the image I (tn-1) into coordinates in the coordinate system of the image I (tn).
  • the fact that the coordinates of the observation position could not be specified in the image I (tn) can be considered that the observation position is not included in the image I (tn), that is, the observation position is lost. Therefore, using a plurality of corresponding points between the image I (tn) and the image I (tn ⁇ 1), the coordinates of the observation position specified in the image I (tn ⁇ 1) are changed to the coordinates of the image I (tn). By converting to coordinates in the system, the positional relationship between the image I (tn) and the image I (tn-1) can be estimated.
  • the information regarding the image I (tn) when the coordinates of the observation position cannot be specified, the information is displayed together with the image I (tn). It can be shown to the user in which direction. As a result, even if the user loses sight of the observation object or loses the direction to insert, the user can quickly find out the area to be observed and the direction to insert, and spend the time to resume the original work. It can be shortened.
  • the direction estimation unit that calculates the direction of the coordinate of the observation position converted by the coordinate conversion processing unit with respect to the image center, the direction of the coordinate of the observation position coordinate converted by the direction estimation unit It is possible to calculate and estimate in which direction the coordinates of the observation position are located when viewed from the image I (tn).
  • an imaging unit that continuously obtains a plurality of images I (t1) to I (tn) to be observed at times t1 to tn (n is an integer) spaced apart from each other;
  • the image processing unit includes an image processing unit that processes a plurality of images acquired by the imaging unit, and a display unit that displays the image processed by the image processing unit.
  • the image processing unit includes the image I (tn) and the image I.
  • a corresponding point detection unit that detects a plurality of pixel positions corresponding to (tn ⁇ 1) as corresponding points, and a separation distance between the image I (tn) and the image I (tn ⁇ 1) based on the plurality of corresponding points.
  • the observation position specifying unit that specifies the coordinates included in the image I (tn-1) as the coordinates of the observation position, and a plurality of corresponding points
  • the coordinates of the observation position specified in the image I (tn-1) are represented by the image I ( n) a coordinate conversion processing unit for converting into coordinates in the coordinate system
  • the display unit relates to the coordinates of the observation position in the coordinate system of the image I (tn) converted by the coordinate conversion processing unit. Is displayed together with the image I (tn) processed by the image processing unit.
  • a corresponding point detection unit detects a plurality of corresponding pixel positions of the image I (tn) and the image I (tn ⁇ 1) as a corresponding point, Based on the corresponding points, the distance between the image I (tn) and the image I (tn ⁇ 1) is calculated. This process is sequentially repeated, and when the separation distance is larger than a predetermined threshold, the coordinates (such as center coordinates) included in the image I (tn-1) are specified as the coordinates of the observation position by the observation position specifying unit.
  • the imaging unit changes the observation position. It is thought that he lost sight. Therefore, the coordinates included in the image I (tn ⁇ 1) are specified as the coordinates of the observation position by the observation position specifying unit, and the coordinates of the observation position are converted into the image I (tn) and the image I (tn) by the coordinate conversion processing unit. Using the plurality of corresponding points to -1), the image I (tn) is converted into coordinates in the coordinate system.
  • the observation position specifying unit can specify coordinates indicating the innermost position of the lumen in the observation target as the coordinates of the observation position.
  • the observation position specifying unit can specify the coordinates indicating the position of the lesioned part in the observation target as the coordinates of the observation position. In this way, for example, when a lesion is being treated, the direction of the lesion can be displayed even if the lesion is lost, and the user can quickly find the area to be treated and Work can be resumed.
  • the present invention even when the observation object is lost or the direction to be inserted is lost, it is possible to quickly find the region to be observed and the direction to be inserted, and to reduce the time until the original operation is resumed. There is an effect that it can be shortened and the convenience can be improved.
  • FIG. 1 is a block diagram showing a schematic configuration of an endoscope apparatus according to a first embodiment of the present invention. It is explanatory drawing which shows an example of the image acquired by the endoscope apparatus of FIG. It is explanatory drawing which shows an example of the image acquired by the endoscope apparatus of FIG. It is explanatory drawing which shows an example of the image acquired by the endoscope apparatus of FIG. It is explanatory drawing which shows an example of the image acquired by the endoscope apparatus of FIG. It is explanatory drawing which shows an example of the image acquired by the endoscope apparatus of FIG. It is explanatory drawing which shows an example of the image acquired by the endoscope apparatus of FIG. It is explanatory drawing which shows an example of the image acquired by the endoscope apparatus of FIG.
  • FIG. 2 is an explanatory diagram showing directions of observation positions after coordinate conversion in the endoscope apparatus of FIG.
  • FIG. 2 is an explanatory diagram when determining the direction of an arrow displayed on a guide image when the direction of an observation position is specified by the endoscope apparatus of FIG. 1 and a guide image is created.
  • FIG. 2 is an explanatory diagram illustrating an example of an image displayed on a display unit in the endoscope apparatus of FIG. 1. It is a flowchart which concerns on an effect
  • an endoscope apparatus according to a first embodiment of the present invention will be described with reference to the drawings.
  • the case where the observation target is the large intestine and the scope unit of the endoscope apparatus is inserted into the large intestine will be described as an example.
  • an endoscope apparatus includes a scope unit 2 that is flexible and elongated, is inserted into a subject and acquires an image to be observed, and the scope unit 2.
  • An image processing unit 3 that performs a predetermined process on the acquired image and a display unit 4 that displays the image processed by the image processing unit 3 are provided.
  • the scope unit 2 is provided with a CCD as an imaging unit and an objective lens disposed on the imaging surface side of the CCD at the distal end portion of the scope unit 2, and by curving the distal end portion in a desired direction, the time t1 At tn, images I (t1) to I (tn) are taken.
  • the scope unit 2 captures an image of the large intestine
  • images I (t1), I (t2), I (T3), I (t4)... I (tn) are imaged.
  • I (t0) and I (t1) it is easy to determine the back position of the lumen in the image, but in the image I (tn), the back position of the lumen in the image is determined. Is difficult.
  • the image processing unit 3 includes an observation position specifying unit 10, a corresponding point detection unit 11, an observation direction estimation unit 12 (coordinate conversion processing unit, direction estimation unit), a guide image creation unit 13, and an image synthesis unit 14.
  • the observation position specifying unit 10 specifies the coordinates of the observation position in the observation target image captured by the scope unit 2. That is, the coordinates (xg, yg) of the observation position are specified in each image, as shown in FIG.
  • the observation target in the present embodiment is the large intestine, and the scope unit 2 is inserted into the large intestine for examination and treatment. Accordingly, the coordinates of the observation position to be specified by the observation position specifying unit 10 here are the traveling direction of the scope unit 2, that is, the innermost part of the lumen. In order to detect the innermost part of the lumen as coordinates, for example, calculation can be performed based on luminance.
  • the center coordinates are specified as the coordinates of the innermost position of the lumen, that is, the coordinates (xg, yg) of the observation position as shown in the left figure of FIG.
  • the central coordinates of the local area showing the average luminance having the lowest ratio to the average luminance of the entire image are specified as the coordinates (xg, yg) of the observation position.
  • the scope unit 2 captures the intestinal wall of the large intestine and an image of the wall surface is obtained as an image, it is difficult to detect the depth of the lumen.
  • the coordinates ( ⁇ 1, ⁇ 1) are set assuming that the coordinates of the observation position cannot be specified.
  • the images I (t1) to I (t) at each time are associated with the coordinates of the specified observation position and output to the corresponding point detection unit 11.
  • the corresponding points for example, as shown in FIG. 6, the image I (tn) and the image I (tn ⁇ ) are obtained by using the features on the image caused by the blood vessel structure and the fold structure included in the image.
  • a pair of coordinates corresponding to the same position on the observation object are calculated as corresponding points. It is preferable to obtain three or more corresponding points.
  • FIG. 7 shows the relationship between corresponding points detected between a plurality of images.
  • the corresponding point cannot be detected.
  • the previously stored corresponding point at time tn ⁇ 1 is set as the corresponding point at time tn.
  • the corresponding point detection unit 11 stores the image I (tn) and the set corresponding point and outputs them to the observation direction estimation unit 12.
  • the observation direction estimating unit 12 specifies the image in the image I (tn ⁇ 1) using the plurality of corresponding points.
  • the coordinates of the observed position are converted into coordinates in the coordinate system of the image I (tn). That is, the observation direction estimation unit 12 receives the coordinates (xg, yg) and corresponding points of the observation position of the image I (tn) from the observation position specifying unit 10 via the corresponding point detection unit 11.
  • the observation direction estimation unit 12 calculates the direction of the coordinates of the converted observation position with respect to the image center. Specifically, as shown in FIG. 8, coordinates (xg ′, yg ′) are converted into coordinates in a polar coordinate system with the center position of the image as the center coordinate, and the lumen direction ⁇ viewed from the image center is calculated. This ⁇ is output to the guide image creation unit 13.
  • the guide image creation unit 13 creates a guide image indicating the direction indicated by ⁇ on the image as an arrow, for example, based on ⁇ output from the observation direction estimation unit 12. For example, the guide image creation unit 13 determines whether ⁇ belongs to one of the regions (1) to (8) among the circles equally divided into the regions (1) to (8) as shown in FIG. The direction of the arrow displayed on the guide image can be determined. The guide image creation unit 13 outputs the created guide image to the image composition unit 14.
  • the image synthesizing unit 14 synthesizes the guide image input from the guide image creating unit 13 and the image I (tn) input from the scope unit 2 so as to be superimposed, and outputs them to the display unit 4. For example, as shown in FIG. 10, an arrow indicating the direction of the lumen is displayed on the display unit 4 together with the image to be observed.
  • step S11 the scope unit 2 captures the image I (tn) at time tn, and the process proceeds to step S12.
  • step S12 the coordinates (xg, yg) of the observation position are specified in the observation target image captured by the scope unit 2 in step S11.
  • the observation target in the present embodiment is the large intestine
  • the coordinates of the observation position to be specified by the observation position specifying unit 10 here are the deepest position of the lumen. Therefore, when the image is divided into predetermined local areas, the average luminance is calculated for each local area, and when the average luminance of the local area is equal to or less than a predetermined ratio with respect to the average luminance of the entire image, the local area Is specified as the coordinates (xg, yg) of the observation position, for example, the center coordinates of the circle area indicated by the broken line in the left diagram of FIG.
  • the center coordinates of the local area showing the average luminance with the lowest ratio to the average luminance of the entire image are specified as the coordinates (xg, yg) of the observation position To do.
  • the image I (tn) and the coordinates of the specified observation position are associated and output to the corresponding point detection unit 11.
  • step S12 When it is determined in step S12 that the observation position cannot be specified, that is, when the scope unit 2 captures the intestinal wall of the large intestine and an image of the wall surface is obtained as an image as shown in the right diagram of FIG. Makes it difficult to detect the depth of the lumen.
  • the coordinates ( ⁇ 1, ⁇ 1) are set assuming that the coordinates of the observation position cannot be specified.
  • step S14 it is determined whether or not the observation position has been specified in step S12. If the observation position can be specified, the process proceeds to step S15b and the observation position is stored.
  • step S15a the coordinates (xg, yg) of the observation position of the image I (tn-1) stored in advance are the coordinates in the coordinate system of the image I (tn). Convert to (xg ′, yg ′).
  • step S16 the coordinates (xg ′, yg ′) are converted into coordinates in a polar coordinate system having the center position of the image as the center coordinate, the lumen direction ⁇ viewed from the image center is calculated, and the direction indicated by ⁇ For example, a guide image shown on the image as an arrow is created.
  • step S ⁇ b> 17 the image I (tn) input from the scope unit 2 and the guide image are combined so as to be superimposed and output to the display unit 4. For example, as shown in FIG. 10, an arrow indicating the direction of the lumen is displayed on the display unit 4 together with the image to be observed.
  • the scope unit 2 even when the scope unit 2 loses sight of the observation object or loses the direction to be inserted, it quickly searches for the region to be observed and the direction to be inserted. It is possible to shorten the time until the work is resumed and improve the convenience.
  • the lumen direction ⁇ viewed from the center of the image is calculated from the coordinates (xg ′, yg ′) of the observation position, and a guide image shown on the image as an arrow is created, and the image I (tn) and the guide image are generated.
  • any method can be used as long as the positional relationship between the image I (tn) and the coordinates (xg ′, yg ′) of the observation position can be indicated. May be.
  • the image I (tn) may be reduced and displayed, and the reduced image I (tn) and a mark indicating the position of the observation position coordinate (xg ′, yg ′) may be combined and displayed.
  • the distance r from the center of the image is also calculated from the coordinates (xg ′, yg ′), and an arrow having a length proportional to r is created as a guide image and combined with the image I (tn). May be displayed.
  • the image processing apparatus 5 includes a corresponding point detection unit 11, an observation direction estimation unit 12 (coordinate conversion processing unit, direction estimation unit), a guide image creation unit 13, and an image composition unit 14.
  • a separation distance between the image I (tn) and the image I (tn ⁇ 1) is calculated based on a plurality of corresponding points, and when the separation distance is larger than a predetermined threshold, the image I (tn ⁇ 1) ) Is specified as the coordinates (xg, yg) of the observation position. Together with the detected corresponding points, the coordinates (xg, yg) of the identified observation position are output to the observation direction estimation unit 12.
  • the corresponding point detection unit 11 stores the image I (tn) and the corresponding point in the corresponding point detection unit 11.
  • the observation direction estimation unit 12 converts the coordinates of the observation position specified in the image I (tn-1) into coordinates in the coordinate system of the image I (tn) using a plurality of corresponding points, and converts the observation The direction of the position coordinates relative to the image center is calculated. Since the process in the observation direction estimation unit 12 is the same as the process in the first embodiment, a detailed description thereof is omitted here.
  • the endoscope apparatus configured in this way, when it is determined that a sudden change has occurred from the acquired image, it can be determined that the observation position has been lost due to an unintended sudden change. And since the direction of the observation position can be estimated from the image before it is determined that the observation position has been lost, it takes time to quickly find the area to be observed and the direction to be inserted and resume the original work. Can be shortened and convenience can be improved.
  • the guide image is created assuming that the center coordinates of the image I (tn ⁇ 1) immediately before the large movement is taken as the coordinates (xg, yg) of the observation position.
  • the coordinates (xg, yg) are coordinates included in the image I (tn ⁇ 1)
  • an arbitrary position may be used as the coordinates (xg, yg).
  • a position closest to the image I (tn) among the positions in the image I (tn ⁇ 1) may be used as the coordinates (xg, yg).
  • the description has been made on the assumption that the observation target is the large intestine.
  • the observation target is not limited to the large intestine, and may be, for example, a lesion in any organ.
  • a region of interest including a lesion having some characteristic different from the surroundings is detected from the image acquired by the scope unit 2, the central pixel of the region of interest is specified as the coordinates of the observation position, and the processing is performed.
  • the observation object is not limited to the medical field, and can be applied to an observation object in the industrial field. For example, when the endoscope is used for inspection of a flaw in a pipe, the same processing as described above can be used by setting the observation target as a flaw in the pipe.
  • a method for detecting a region of interest when a lesion is a region of interest a method of classifying and detecting the region of interest based on the size of the area and the density difference between the surroundings (for example, red) is used. Can do.
  • the same processing as in the above-described embodiment is performed, and at the time of creating the guide image, a guide image indicating the direction of the region of interest including the lesion is created, and an image superposed on the observation image is displayed on the display unit 4
  • the region to be observed and the direction to be inserted can be quickly shown to the observer, and the time until the original operation is resumed can be shortened and the convenience can be improved.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Optics & Photonics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Signal Processing (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

時間間隔をあけた時刻t1~tn(nは整数)において観察対象の複数の画像I(t1)~I(tn)を連続して取得し、各前記画像において観察位置の座標を特定し、画像I(tn)と画像I(tn-1)との対応する画素位置を対応点として複数検出する。画像I(tn)における観察位置の座標が特定できなかった場合に、画像I(tn-1)内に特定された観察位置の座標を画像I(tn)の座標系における座標に変換し、変換した観察位置の座標の画像中心に対する方向を算出して画像I(tn)と共に表示する内視鏡装置。

Description

内視鏡装置
 本発明は、内視鏡装置に関するものである。
 細長い挿入部を狭隘なスペースに挿入し、挿入部の先端に設けられた撮像部によりスペース内に存在する観察対象物の所望の領域について画像を取得して観察する内視鏡装置が知られている(例えば、特許文献1及び特許文献2参照)。
特開2012-245161号公報 特開2011-152202号公報
 上記した各特許文献の内視鏡装置を用いた観察対象物の観察中に、挿入部の先端や観察対象物が意図せず動いてしまうことによって、観察すべき領域を見失ったり、挿入すべき方向を見失ったりすることがある。このような場合には、観察対象物や挿入方向を試行錯誤により探し出す必要があり、元の作業を再開するまでに多大な時間を費やすことになる。
 本発明は上述した事情に鑑みてなされたものであって、観察対象物を見失ったり、挿入すべき方向を見失ったりした場合にも、観察すべき領域や挿入すべき方向を迅速に探し出して、元の作業を再開するまでの時間を短縮し利便性を向上させることができる内視鏡装置を提供することを目的としている。
 本発明の一態様は、時間間隔をあけた時刻t1~tn(nは整数)において観察対象の複数の画像I(t1)~I(tn)を連続して取得する撮像部と、該撮像部により取得された複数の画像を処理する画像処理部と、該画像処理部により処理された画像を表示する表示部とを備え、前記画像処理部が、画像I(tn)と画像I(tn-1)との対応する画素位置を対応点として複数検出する対応点検出部と、各前記画像において観察位置の座標を特定する観察位置特定部と、該観察位置特定部により画像I(tn)における観察位置の座標が特定できなかった場合に、複数の対応点を用いて、画像I(tn-1)内に特定された前記観察位置の座標を画像I(tn)の座標系における座標に変換する座標変換処理部と、を有し、前記表示部が、前記座標変換処理部により変換された画像I(tn)の座標系における前記観察位置の座標に関する情報を前記画像処理部により処理された画像I(tn)と共に表示する内視鏡装置である。
 上記態様によれば、撮像部により取得された複数の画像について、対応点検出部により画像I(tn)と画像I(tn-1)との対応する画素位置を対応点として複数検出すると共に、各画像について観察位置特定部により観察位置の座標を特定する。この処理を順次繰り返し、画像I(tn)において、観察位置の座標が特定できなかった場合には、座標変換処理部により画像I(tn)と画像I(tn-1)との複数の対応点を用いて、画像I(tn-1)内に特定された前記観察位置の座標を画像I(tn)の座標系における座標に変換する。
 画像I(tn)において、観察位置の座標が特定できなかったということは、画像I(tn)中に観察位置が含まれていない、すなわち、観察位置を見失っていることが考えられる。そこで、画像I(tn)と画像I(tn-1)との複数の対応点を用いて、画像I(tn-1)内に特定された前記観察位置の座標を画像I(tn)の座標系における座標に変換することで、画像I(tn)と画像I(tn-1)との位置関係を推定することができる。
 これにより、画像I(tn)からみて観察位置の座標が何れの方向に位置するかを算出し推定することができ、推定された方向を画像I(tn)の座標系における前記観察位置の座標に関する情報として、観察位置の座標が特定できなかった画像I(tn)と共に表示することで、画像I(tn)に観察位置が含まれていない場合でも、画像I(tn)からみて観察位置が何れの方向に存在するかをユーザに示すことができる。これにより、ユーザは、観察対象物を見失ったり、挿入すべき方向を見失ったりした場合にも、観察すべき領域や挿入すべき方向を迅速に探し出して、元の作業を再開するまでの時間を短縮することができる。
 なお、座標変換処理部により変換された観察位置の座標の画像中心に対する方向を算出する方向推定部を備えることで、該方向推定部により、座標変換された観察位置の座標の画像中心に対する方向を算出して、画像I(tn)からみて観察位置の座標が何れの方向に位置するかを算出し推定することができる。
 また本発明の他の態様は、時間間隔をあけた時刻t1~tn(nは整数)において、観察対象の複数の画像I(t1)~I(tn)を連続して取得する撮像部と、該撮像部により取得された複数の画像を処理する画像処理部と、該画像処理部により処理された画像を表示する表示部とを備え、前記画像処理部が、画像I(tn)と画像I(tn-1)との対応する画素位置を対応点として複数検出する対応点検出部と、複数の前記対応点に基づいて、画像I(tn)と画像I(tn-1)との離間距離を算出し、該離間距離が所定の閾値よりも大きい場合に、画像I(tn-1)に含まれる座標を観察位置の座標として特定する観察位置特定部と、複数の対応点を用いて、画像I(tn-1)内に特定された前記観察位置の座標を画像I(tn)の座標系における座標に変換する座標変換処理部と、を有し、前記表示部が、前記座標変換処理部により変換された画像I(tn)の座標系における前記観察位置の座標に関する情報を前記画像処理部により処理された画像I(tn)と共に表示する内視鏡装置である。
 上記態様によれば、撮像部により取得された複数の画像について、対応点検出部により画像I(tn)と画像I(tn-1)との対応する画素位置を対応点として複数検出し、複数の対応点に基づいて、画像I(tn)と画像I(tn-1)との離間距離を算出する。この処理を順次繰り返し、観察位置特定部により、離間距離が所定の閾値よりも大きい場合に、画像I(tn-1)に含まれる(中心座標などの)座標を観察位置の座標として特定する。画像I(tn)と画像I(tn-1)との離間距離が所定の閾値よりも大きい場合は、すなわち、時刻tnとtn-1との間に大きな動きが生じ、撮像部が観察位置を見失ったと考えられる。そこで、観察位置特定部により、画像I(tn-1)に含まれる座標を観察位置の座標として特定し、座標変換処理部により、観察位置の座標を、画像I(tn)と画像I(tn-1)との複数の対応点を用いて画像I(tn)の座標系における座標に変換する。
 これにより、画像I(tn)と画像I(tn-1)との位置関係を推定することができ、画像I(tn)からみて観察位置の座標が何れの方向に位置するかを算出し推定することができる。
 さらに、推定された方向を観察位置の座標が特定できなかった画像I(tn)と共に表示することで、画像I(tn)に観察位置が含まれていない場合でも、画像I(tn)からみて観察位置が何れの方向に存在するかをユーザに示すことができる。これにより、ユーザは、観察対象物を見失ったり、挿入すべき方向を見失ったりした場合にも、観察すべき領域や挿入すべき方向を迅速に探し出して、元の作業を再開するまでの時間を短縮することができる。
 上記態様において、前記観察位置特定部が、観察位置の座標として、前記観察対象中の管腔の最も奥の位置を示す座標を特定することができる。
 このようにすることで、例えば、観察対象が大腸であって、大腸の管腔に挿入しながら検査や治療を行う場合に、進行方向を見失っても進行方向を表示することができ、ユーザは、観察すべき領域や挿入すべき方向を迅速に探し出して元の作業を再開することができる。
 上記態様において、前記観察位置特定部が、観察位置の座標として、前記観察対象中の病変部の位置を示す座標を特定することができる。
 このようにすることで、例えば、病変部の治療を行っている場合に、病変部を見失っても病変部の方向を表示することができ、ユーザは、治療すべき領域を迅速に探し出して元の作業を再開することができる。
 本発明によれば、観察対象物を見失ったり、挿入すべき方向を見失ったりした場合にも、観察すべき領域や挿入すべき方向を迅速に探し出して、元の作業を再開するまでの時間を短縮し利便性を向上させることができるという効果を奏する。
本発明の第1の実施形態に係る内視鏡装置の概略構成を示すブロック図である。 図1の内視鏡装置により取得される画像の一例を示す説明図である。 図1の内視鏡装置により取得される画像の一例を示す説明図である。 図1の内視鏡装置により取得される画像の一例を示す説明図である。 図1の内視鏡装置により取得される画像の一例を示す説明図である。 図1の内視鏡装置により取得される画像の一例を示す説明図である。 図1の内視鏡装置により取得される画像の一例を示す説明図である。 図1の内視鏡装置において、座標変換した観察位置の方向を示す説明図である。 図1の内視鏡装置により観察位置の方向を特定し、ガイド画像を作成する場合において、ガイド画像に表示する矢印の方向を決定する際の説明図である。 図1の内視鏡装置において、表示部に表示される画像の一例を示す説明図である。 図1の内視鏡装置の作用に係るフローチャートである。 本発明の第2の実施形態に係る内視鏡装置の概略構成を示すブロック図である。 図12の内視鏡装置により取得される画像の一例を示す説明図である。 図12の内視鏡装置により取得される画像の一例を示す説明図である。
(第1の実施形態)
 以下、本発明の第1の実施形態に係る内視鏡装置について、図面を参照して説明する。なお、本実施形態においては、観察対象が大腸であり、大腸内に内視鏡装置のスコープ部が挿入される場合を例として説明する。
 本実施形態に係る内視鏡装置は、図1に示すように、可撓性を有し細長に構成され被検体に挿入されて観察対象の画像を取得するスコープ部2と、スコープ部2により取得された画像に所定の処理を施す画像処理部3と、画像処理部3により処理された画像を表示する表示部4とを備えている。
 スコープ部2は、スコープ部2の先端部には、撮像部としてのCCDと、CCDの撮像面側に配置された対物レンズが設けられ、先端部を所望の方向に湾曲させことで、時刻t1~tnにおいて画像I(t1)~画像I(tn)の画像を撮像する。
 スコープ部2が、例えば、大腸を撮像する場合、図2に示すように時刻t=t0では、大腸の管腔の奥を含む範囲の画像が撮像されるとする。さらに時間の経過と共に一定のフレームレートで複数枚の画像が撮像され、時刻t=tnでは、図2の左下の枠内の画像が撮像されるものする。t=0~t=nとの間では、例えば図3及び図4に示すように時刻t=t1、t2、t3、t4・・・tnにおいて、画像I(t1)、I(t2)、I(t3)、I(t4)・・・I(tn)が撮像される。画像I(t0)やI(t1)では、画像中の管腔の奥の位置を判断することが容易であるが、画像I(tn)では、画像中の管腔の奥の位置を判断することが困難である。
 画像処理部3は、観察位置特定部10、対応点検出部11、観察方向推定部12(座標変換処理部、方向推定部)、ガイド画像作成部13及び画像合成部14を備えている。
 観察位置特定部10は、スコープ部2により撮像した観察対象の画像において観察位置の座標を特定する。すなわち、スコープ部2により撮像したt1~tnの各時刻における画像において、各画像内で図5のように、観察位置の座標(xg,yg)を特定する。
 本実施形態における観察対象は大腸であり、スコープ部2を大腸内に挿入して検査や治療を行う。従って、ここでの観察位置特定部10により特定すべき観察位置の座標は、スコープ部2の進行方向、つまり管腔の最も奥となる。管腔の最も奥を座標として検出するには、例えば、輝度に基づいて算出することができる。すなわち、画像内を所定の局所領域に区切って、局所領域毎に平均輝度を算出し、局所領域の平均輝度が画像全体の平均輝度に対して所定の比率以下となる場合に、当該局所領域の中心座標を管腔の最も奥の位置の座標、すなわち、例えば、図5の左図のように観察位置の座標(xg,yg)として特定する。複数の局所領域において座標が得られた場合には、画像全体の平均輝度に対する比率が最も低い平均輝度を示す局所領域の中心座標を観察位置の座標(xg,yg)として特定する。
 図5の右図のように、スコープ部2が大腸の腸壁を捉え、画像として壁面の画像が得られた場合には、管腔の奥を検出することが困難となる。この場合には、平均輝度が所定の比率以下となる局所領域が得られないため、観察位置の座標が特定できなかったとして仮に座標(-1,-1)を設定する。
 各時刻における画像I(t1)~I(t)と、特定した観察位置の座標とを対応付けて対応点検出部11に出力する。
 対応点検出部11は、画像I(tn)と画像I(tn-1)との対応する画素位置を対応点として複数検出する。すなわち、対応点検出部11は、時刻t=tnで撮像された画像I(tn)とI(tn)における観察位置の座標(xg,yg)の入力を受けて、予め記憶されていた時刻t=tn-1の画像I(tn-1)と入力された画像I(tn)との対応点を検出する。
 ここで、対応点としては、例えば、図6に示すように、画像内に含まれる血管の構造やヒダの構造により生じる画像上の特徴を手掛かりとして、画像I(tn)と画像I(tn-1)とにおいて観察対象上の同じ位置に対応する一対の座標を対応点として算出する。対応点は、3点以上求めることが好ましい。なお、図7に、複数の画像間において検出した対応点の関係を示す。
 なお、画像がボケている等、血管やヒダ等画像上の特徴が特定できない場合には、対応点を検出することができない。このような場合、例えば時刻tnで対応点が設定できなかった場合には、予め記憶されていた時刻tn-1の対応点を時刻tnの対応点として設定する。このような処理を行うことにより、対応点が設定できなかった場合にも時刻tn-1と同様の動きをしていると仮定した対応点の設定をすることができる。
 対応点検出部11は、画像I(tn)と設定した対応点とを記憶すると共に、観察方向推定部12に出力する。
 観察方向推定部12は、観察位置特定部10により画像I(tn)における観察位置の座標が特定できなかった場合に、複数の前記対応点を用いて、画像I(tn-1)内に特定された観察位置の座標を画像I(tn)の座標系における座標に変換する。すなわち、観察方向推定部12には、観察位置特定部10から対応点検出部11を介して画像I(tn)の観察位置の座標(xg,yg)及び対応点が入力される。
 観察位置特定部10から画像I(tn)の観察位置の座標として(-1,
-1)が入力された場合には、観察位置の座標が特定できなかったとして、予め記憶されていた画像I(tn-1)内に特定された観察位置の座標を画像I(tn)の座標系における座標(xg’,xy’)に変換する。なお、観察位置が特定されている場合には、この変換処理を行わずに、観察位置の座標を記憶する。
 ここで、画像I(tn-1)内に特定された観察位置の座標を画像I(tn)の座標系における座標に変換するために、下記の数式(1)のような座標変換マトリクスMを生成する。
Figure JPOXMLDOC01-appb-M000001
 上記数式(1)に示すように、変換前の画像の座標(x0,y0)は、座標(x1,y1)に変換される。また、mij(i=1~2,j=1~3)は、3点以上の対応点を用いて最小二乗法などを適用することにより算出する。
 このようにして、得られたマトリクスにより画像I(tn-1)内に特定された観察位置の座標(xg,yg)を画像I(tn)の座標系における座標(xg’,yg’)に変換し、変換した座標(xg’,yg’)を記憶する。
 さらに、観察方向推定部12は、変換された観察位置の座標の画像中心に対する方向を算出する。具体的には、図8に示すように、座標(xg’,yg’)を、画像の中心位置を中心座標とする極座標系の座標に変換し、画像中心から見た管腔方向θを算出し、このθをガイド画像作成部13に出力する。
 ガイド画像作成部13は観察方向推定部12から出力されたθに基づいて、θが示す方向を、例えば、矢印として画像上に示すガイド画像を作成する。ガイド画像作成部13は、例えば、θが図9に示すように(1)~(8)の領域に等分割された円うち、(1)~(8)の何れの領域に属するかで、ガイド画像上に表示する矢印の方向を決定することができる。ガイド画像作成部13は、作成されたガイド画像を画像合成部14に出力する。
 画像合成部14は、ガイド画像作成部13から入力されたガイド画像と、スコープ部2から入力された画像I(tn)とを重畳するように合成し、表示部4に出力する。
 表示部4には、例えば図10に示すように、観察対象の画像と共に、管腔の方向を示す矢印が表示される。
 以下、このように構成された内視鏡装置において、観察位置の方向を表示する場合の処理の流れを図11のフローチャートに従って説明する。
 ステップS11において、スコープ部2が、時刻tnにおいて画像I(tn)の画像を撮像し、ステップS12に進む。
 ステップS12では、ステップS11においてスコープ部2により撮像した観察対象の画像において観察位置の座標(xg,yg)を特定する。
 上述のように、本実施形態における観察対象は大腸であり、ここでの観察位置特定部10により特定すべき観察位置の座標は、管腔の最も奥の位置となる。このため、画像内を所定の局所領域に区切って、局所領域毎に平均輝度を算出し、局所領域の平均輝度が画像全体の平均輝度に対して所定の比率以下となる場合に、当該局所領域の中心座標を管腔の最も奥の位置の座標、すなわち、例えば、図5の左図の破線で示した円の領域の中心座標を観察位置の座標(xg,yg)として特定する。
 複数の局所領域において上記の観察位置の座標が得られた場合には、画像全体の平均輝度に対する比率が最も低い平均輝度を示す局所領域の中心座標を観察位置の座標(xg,yg)として特定する。画像I(tn)と、特定した観察位置の座標とを対応付けて対応点検出部11に出力する。
 ステップS12において、観察位置の特定ができなかったと判定された場合、つまり、図5の右図のように、スコープ部2が大腸の腸壁を捉え、画像として壁面の画像が得られた場合には、管腔の奥を検出することが困難となる。この場合には、平均輝度が所定の比率以下となる局所領域が得られないため、観察位置の座標が特定できなかったとして仮に座標(-1,-1)を設定する。
 ステップS13では、対応点検出部11において画像I(tn)と画像I(tn-1)との対応する画素位置を対応点として複数検出する。すなわち、対応点検出部11は、時刻t=tnで撮像された画像I(tn)とI(tn)における観察位置の座標(xg,yg)の入力を受けて、予め記憶されていた時刻t=tn-1の画像I(tn-1)と入力された画像I(tn)との対応点を検出し、画像I(tn)と検出した結果を記憶する。
 ステップS14では、ステップS12において観察位置の特定ができたか否かを判定する。観察位置の特定ができた場合には、ステップS15bに進み、観察位置を記憶する。
 観察位置の特定ができなかった場合には、ステップS15aに進み、予め記憶されていた画像I(tn-1)の観察位置の座標(xg,yg)を画像I(tn)の座標系における座標(xg’,yg’)に変換する。
 さらに、ステップS16では、座標(xg’,yg’)を、画像の中心位置を中心座標とする極座標系の座標に変換し、画像中心から見た管腔方向θを算出し、θが示す方向を、例えば、矢印として画像上に示すガイド画像を作成する。ステップS17では、スコープ部2から入力された画像I(tn)とガイド画像とを重畳するように合成し、表示部4に出力する。表示部4には、例えば図10に示すように、観察対象の画像と共に、管腔の方向を示す矢印を表示する。
 このように、本実施形態によれば、スコープ部2が観察対象物を見失ったり、挿入すべき方向を見失ったりした場合にも、観察すべき領域や挿入すべき方向を迅速に探し出して、元の作業を再開するまでの時間を短縮し利便性を向上させることができる。
 本実施形態では、観察位置の座標(xg’,yg’)から画像中心から見た管腔方向θを算出して矢印として画像上に示すガイド画像を作成し、画像I(tn)とガイド画像を重畳するように合成し、表示部4に出力する構成としたが、画像I(tn)と観察位置の座標(xg’,yg’)の位置関係を示すことができればどのような方法で出力してもよい。例えば、画像I(tn)を縮小表示し、縮小した画像I(tn)と観察位置の座標(xg’,yg’)の位置を示す印を合成して表示してもよい。また、別の例としては、座標(xg’,yg’)から画像中心からの距離rも算出してrに比例した長さの矢印をガイド画像として作成して画像I(tn)と合成して表示してもよい。
(第2の実施形態)
 以下、本発明の第2の実施形態に係る内視鏡装置について、図面を参照して説明する。図12に示す本実施形態に係る内視鏡装置において、上記した第1の実施形態と同一の構成については同符号を付しその説明を省略する。
 図13及び図14に示すように、本実施形態に係る内視鏡装置の画像処理部5は、観察対象が大腸である場合、スコープ部2により時間の経過と共に一定のフレームレートで複数枚の画像が撮像され、時刻t=t0、t1、t2、t3、t4・・・tnにおいて、画像I(t0)、I(t1)、I(t2)、I(t3)、I(t4)・・・I(tn)が撮像される。
 時刻t0、t1、t2間では、スコープ部2の動きが比較的少ない間に画像が撮像されているが、時刻t2とtnとの間では、大きな動きが生じて画像が撮像されている。つまり、画像I(t2)と画像I(tn)との間に対応点が少ない。この場合、意図しない急激な変化が生じ、管腔の奥の位置を判断することが困難になっていると考えられる。
 そこで、大きな動きが生じる直前の画像I(tn-1)の中心座標を観察位置の座標(xg,yg)と仮定してガイド画像を作成する。
 つまり、画像処理装置5は、対応点検出部11、観察方向推定部12(座標変換処理部、方向推定部)、ガイド画像作成部13及び画像合成部14を備えている。
 対応点検出部11は、画像I(tn)と画像I(tn-1)との対応する画素位置を対応点として複数検出する。すなわち、対応点検出部11は、時刻t=tnで撮像された画像I(tn)の入力を受けて、予め記憶されていた時刻t=tn-1の画像I(tn-1)と入力された画像I(tn)との対応点を検出する。
 また、複数の対応点に基づいて、画像I(tn)と画像I(tn-1)との離間距離を算出し、該離間距離が所定の閾値よりも大きい場合に、画像I(tn-1)の中心座標を観察位置の座標(xg,yg)として特定する。検出した対応点と共に、特定した観察位置の座標(xg,yg)を観察方向推定部12に出力する。対応点検出部11は、画像I(tn)と対応点を対応点検出部11に記憶する。
 観察方向推定部12は、複数の対応点を用いて、画像I(tn-1)内に特定された前記観察位置の座標を画像I(tn)の座標系における座標に変換し、変換した観察位置の座標の画像中心に対する方向を算出する。観察方向推定部12における処理は第1の実施形態における処理と同様であるので、ここでの詳細な説明を省略する。
 このように構成された内視鏡装置によれば、取得された画像から急激な変化が生じたと判定された場合に、意図しない急激な変化により観察位置を見失ったと判断することができる。そして、観察位置を見失ったと判断される前の画像から観察位置の方向を推定することができるので、観察すべき領域や挿入すべき方向を迅速に探し出して、元の作業を再開するまでの時間を短縮し利便性を向上させることができる。
 本実施形態では、大きな動きが生じる直前の画像I(tn-1)の中心座標を観察位置の座標(xg,yg)と仮定してガイド画像を作成する構成としたが、観察位置として仮定する座標(xg,yg)は画像I(tn-1)に含まれる座標であれば任意の位置を座標(xg,yg)としてよい。例えば、画像I(tn-1)内の位置のうち画像I(tn)に最も距離が近い位置を座標(xg,yg)としてもよい。
(変形例)
 上述した各実施形態においては、観察対象が大腸であることを前提として説明したが、観察対象は大腸に限られず、例えば、何らかの臓器における病変部とすることもできる。この場合には、例えば、スコープ部2により取得された画像から周囲とは何らかの特性が異なる病変部を含む注目領域を検出し、この注目領域の中心画素を観察位置の座標として特定し、処理を進めることができる。
 また、観察対象は医療分野に限られず、工業分野の観察対象にも適用できる。例えば、内視鏡を配管内の傷等の検査に用いる場合には、観察対象は配管内の傷とすることで上記と同様の処理を用いることができる。
 病変部を注目領域とした場合の注目領域の検出手法の一例として、注目領域を面積の大小及び周囲との色(例えば赤色)の濃度差の大小に基づいて分類し、検出する方法を用いることができる。以下、上記した実施形態と同様の処理を進め、ガイド画像作成時には、病変部を含む注目領域の方向を示すガイド画像を作成し、これを観察画像に重畳した画像を表示部4に表示させることで、観察者に観察すべき領域や挿入すべき方向を迅速に示すことができ、元の作業を再開するまでの時間を短縮し利便性を向上させることができる。
2 スコープ部(撮像部)
3 画像処理部
4 表示部
10 観察位置特定部
11 対応点検出部
12 観察方向推定部(座標変換処理部、方向推定部)
13 ガイド画像作成部
14 画像合成部

Claims (4)

  1.  時間間隔をあけた時刻t1~tn(nは整数)において観察対象の複数の画像I(t1)~I(tn)を連続して取得する撮像部と、
     該撮像部により取得された複数の画像を処理する画像処理部と、
     該画像処理部により処理された画像を表示する表示部とを備え、
     前記画像処理部が、
     画像I(tn)と画像I(tn-1)との対応する画素位置を対応点として複数検出する対応点検出部と、
     各前記画像において観察位置の座標を特定する観察位置特定部と、
     該観察位置特定部により画像I(tn)における観察位置の座標が特定できなかった場合に、複数の前記対応点を用いて、画像I(tn-1)内に特定された前記観察位置の座標を画像I(tn)の座標系における座標に変換する座標変換処理部と、を有し、
     前記表示部が、前記座標変換処理部により変換された画像I(tn)の座標系における前記観察位置の座標に関する情報を前記画像処理部により処理された画像I(tn)と共に表示する内視鏡装置。
  2.  時間間隔をあけた時刻t1~tn(nは整数)において観察対象の複数の画像I(t1)~I(tn)を連続して取得する撮像部と、
     該撮像部により取得された複数の画像を処理する画像処理部と、
     該画像処理部により処理された画像を表示する表示部とを備え、
     前記画像処理部が、
     画像I(tn)と画像I(tn-1)との対応する画素位置を対応点として複数検出する対応点検出部と、
     複数の前記対応点に基づいて、画像I(tn)と画像I(tn-1)との離間距離を算出し、該離間距離が所定の閾値よりも大きい場合に、画像I(tn-1)に含まれる座標を観察位置の座標として特定する観察位置特定部と、
     複数の前記対応点を用いて、画像I(tn-1)内に特定された前記観察位置の座標を画像I(tn)の座標系における座標に変換する座標変換処理部と、を有し、
     前記表示部が、前記座標変換処理部により変換された画像I(tn)の座標系における前記観察位置の座標に関する情報を前記画像処理部により処理された画像I(tn)と共に表示する内視鏡装置。
  3.  前記観察位置特定部が、前記観察位置の座標として、前記観察対象中の管腔の最も奥の位置を示す座標を特定する請求項1又は請求項2記載の内視鏡装置。
  4.  前記観察位置特定部が、前記観察位置の座標として、前記観察対象中の病変部の位置を示す座標を特定する請求項1又は請求項2記載の内視鏡装置。
PCT/JP2015/069590 2015-07-08 2015-07-08 内視鏡装置 Ceased WO2017006449A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017527024A JP6577031B2 (ja) 2015-07-08 2015-07-08 内視鏡装置
PCT/JP2015/069590 WO2017006449A1 (ja) 2015-07-08 2015-07-08 内視鏡装置
DE112015006617.9T DE112015006617T5 (de) 2015-07-08 2015-07-08 Endoskopvorrichtung
US15/838,652 US20180098685A1 (en) 2015-07-08 2017-12-12 Endoscope apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/069590 WO2017006449A1 (ja) 2015-07-08 2015-07-08 内視鏡装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/838,652 Continuation US20180098685A1 (en) 2015-07-08 2017-12-12 Endoscope apparatus

Publications (1)

Publication Number Publication Date
WO2017006449A1 true WO2017006449A1 (ja) 2017-01-12

Family

ID=57685093

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/069590 Ceased WO2017006449A1 (ja) 2015-07-08 2015-07-08 内視鏡装置

Country Status (4)

Country Link
US (1) US20180098685A1 (ja)
JP (1) JP6577031B2 (ja)
DE (1) DE112015006617T5 (ja)
WO (1) WO2017006449A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019207740A1 (ja) * 2018-04-26 2019-10-31 オリンパス株式会社 移動支援システム及び移動支援方法
JP2023178415A (ja) * 2021-01-14 2023-12-14 コ,ジファン 内視鏡を用いた大腸検査ガイド装置及び方法
WO2024171356A1 (ja) * 2023-02-15 2024-08-22 オリンパスメディカルシステムズ株式会社 内視鏡用画像処理装置および内視鏡用画像処理装置の作動方法
US12082770B2 (en) 2018-09-20 2024-09-10 Nec Corporation Location estimation apparatus, location estimation method, and computer readable recording medium
WO2025037403A1 (ja) * 2023-08-16 2025-02-20 オリンパスメディカルシステムズ株式会社 内視鏡補助情報生成装置、内視鏡補助情報生成方法、内視鏡補助情報生成プログラム、推論モデルの学習方法、および内視鏡補助システム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017103198A1 (de) * 2017-02-16 2018-08-16 avateramedical GmBH Vorrichtung zum Festlegen und Wiederauffinden eines Bezugspunkts während eines chirurgischen Eingriffs

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006334297A (ja) * 2005-06-06 2006-12-14 Olympus Medical Systems Corp 画像表示装置
JP2011224038A (ja) * 2010-04-15 2011-11-10 Olympus Corp 画像処理装置及びプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4885388B2 (ja) * 2001-09-25 2012-02-29 オリンパス株式会社 内視鏡挿入方向検出方法
WO2013156893A1 (en) * 2012-04-19 2013-10-24 Koninklijke Philips N.V. Guidance tools to manually steer endoscope using pre-operative and intra-operative 3d images

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006334297A (ja) * 2005-06-06 2006-12-14 Olympus Medical Systems Corp 画像表示装置
JP2011224038A (ja) * 2010-04-15 2011-11-10 Olympus Corp 画像処理装置及びプログラム

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019207740A1 (ja) * 2018-04-26 2019-10-31 オリンパス株式会社 移動支援システム及び移動支援方法
JPWO2019207740A1 (ja) * 2018-04-26 2021-02-12 オリンパス株式会社 移動支援システム及び移動支援方法
JP7093833B2 (ja) 2018-04-26 2022-06-30 オリンパス株式会社 移動支援システム及び移動支援方法
US11812925B2 (en) 2018-04-26 2023-11-14 Olympus Corporation Movement assistance system and movement assistance method for controlling output of position estimation result
US12082770B2 (en) 2018-09-20 2024-09-10 Nec Corporation Location estimation apparatus, location estimation method, and computer readable recording medium
JP2023178415A (ja) * 2021-01-14 2023-12-14 コ,ジファン 内視鏡を用いた大腸検査ガイド装置及び方法
JP7550947B2 (ja) 2021-01-14 2024-09-13 コ,ジファン 内視鏡を用いた大腸検査ガイド装置及び方法
WO2024171356A1 (ja) * 2023-02-15 2024-08-22 オリンパスメディカルシステムズ株式会社 内視鏡用画像処理装置および内視鏡用画像処理装置の作動方法
WO2025037403A1 (ja) * 2023-08-16 2025-02-20 オリンパスメディカルシステムズ株式会社 内視鏡補助情報生成装置、内視鏡補助情報生成方法、内視鏡補助情報生成プログラム、推論モデルの学習方法、および内視鏡補助システム

Also Published As

Publication number Publication date
DE112015006617T5 (de) 2018-03-08
US20180098685A1 (en) 2018-04-12
JPWO2017006449A1 (ja) 2018-05-24
JP6577031B2 (ja) 2019-09-18

Similar Documents

Publication Publication Date Title
JP6577031B2 (ja) 内視鏡装置
US10694933B2 (en) Image processing apparatus and image processing method for image display including determining position of superimposed zoomed image
JP6323184B2 (ja) 画像処理装置、画像処理方法、並びにプログラム
JP2015228954A5 (ja)
CN110099599B (zh) 医学图像处理设备、医学图像处理方法和程序
US11030745B2 (en) Image processing apparatus for endoscope and endoscope system
US9826884B2 (en) Image processing device for correcting captured image based on extracted irregularity information and enhancement level, information storage device, and image processing method
WO2017203814A1 (ja) 内視鏡装置、内視鏡装置の作動方法
JP2015228955A5 (ja)
Mori et al. A method for tracking the camera motion of real endoscope by epipolar geometry analysis and virtual endoscopy system
JP2018036898A5 (ja) 画像処理装置及び画像処理方法及びプログラム
JP7133828B2 (ja) 内視鏡画像処理プログラム及び内視鏡システム
JP6026932B2 (ja) 医用画像表示制御装置および方法並びにプログラム
WO2012046451A1 (ja) 医用画像処理装置、及び医用画像処理プログラム
JPWO2017158896A1 (ja) 画像処理装置、画像処理システム、画像処理装置の作動方法
KR102378497B1 (ko) 오브젝트 크기 측정 방법 및 장치
WO2016194446A1 (ja) 情報処理装置、情報処理方法、及び生体内撮像システム
JP4032994B2 (ja) 視線方向検出装置および視線方向検出方法
JP6646133B2 (ja) 画像処理装置および内視鏡
KR102386673B1 (ko) 오브젝트 검출 방법 및 장치
JP6211239B1 (ja) 内視鏡装置
US12178402B2 (en) Image processing system, image processing device, and image processing method
WO2019244345A1 (ja) ランドマーク推定方法、及び、内視鏡装置
JP5283015B2 (ja) 測距装置及びそのプログラム、並びに測距システム
Van Der Stap et al. A feasibility study of optical flow-based navigation during colonoscopy

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15897712

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017527024

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 112015006617

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15897712

Country of ref document: EP

Kind code of ref document: A1