[go: up one dir, main page]

WO2019244255A1 - 内視鏡画像処理装置および内視鏡画像処理方法 - Google Patents

内視鏡画像処理装置および内視鏡画像処理方法 Download PDF

Info

Publication number
WO2019244255A1
WO2019244255A1 PCT/JP2018/023341 JP2018023341W WO2019244255A1 WO 2019244255 A1 WO2019244255 A1 WO 2019244255A1 JP 2018023341 W JP2018023341 W JP 2018023341W WO 2019244255 A1 WO2019244255 A1 WO 2019244255A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
unit
determination
image
support information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2018/023341
Other languages
English (en)
French (fr)
Inventor
岩城 秀和
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2020525130A priority Critical patent/JP7045453B2/ja
Priority to PCT/JP2018/023341 priority patent/WO2019244255A1/ja
Priority to CN201880092214.2A priority patent/CN112040830B/zh
Publication of WO2019244255A1 publication Critical patent/WO2019244255A1/ja
Priority to US17/126,537 priority patent/US11871903B2/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00011Operational features of endoscopes characterised by signal transmission
    • A61B1/00013Operational features of endoscopes characterised by signal transmission using optical means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled

Definitions

  • the present invention relates to an endoscope image processing device and an endoscope image processing method.
  • an operator judges the presence or absence of a lesion by looking at an observation image.
  • a technique for displaying information for supporting an endoscopic examination (hereinafter referred to as support information) has been proposed.
  • support information for supporting an endoscopic examination
  • Japanese Patent Application Laid-Open No. 2011-255006 discloses an endoscope apparatus that displays an observation image by adding an alert image to a region of interest detected by image processing.
  • Japanese Patent No. 5597021 discloses that an attention area is detected based on feature amounts calculated in a plurality of local areas in an image, and the detected attention area is obtained before disappearing from a display target range.
  • An image processing apparatus for an endoscope system that estimates a position of a region of interest that has disappeared from a display target range using information of the region of interest that has been lost, and displays disappearance direction information that is guidance information for the region of interest that has disappeared has been disclosed. I have.
  • the alert image and disappearance direction information which are support information, are displayed on the display unit together with the observation image. If detailed observation has not been completed for the attention area that is the target of the support information, the support information is displayed to improve the detection rate of the lesion and reduce the time to detect the lesion. Or you can. However, when detailed observation has been completed, unnecessary support information is displayed on the display unit, burdening the surgeon, or hiding the observation image with the support information, resulting in an endoscope examination. In some cases, this was an obstacle.
  • an object of the present invention is to provide an endoscope image processing apparatus and an endoscope image processing method that can appropriately display support information.
  • An endoscope image processing device displays an image acquisition unit that acquires an image of a subject captured by an endoscope, and a display image that includes at least the image acquired by the image acquisition unit.
  • a display output unit that outputs to the unit, an attention area detection unit that detects an attention area included in the image acquired by the image acquisition unit, and whether the detection of the attention area in the attention area detection unit is interrupted.
  • a detection interruption determination unit that determines whether the detection of the attention area has been interrupted by the detection interruption determination unit.
  • a display determination unit for determining whether or not to display support information for assisting return to the screen of the unit on the display unit.
  • the display output unit If it is determined to display information, the display output unit outputs an image further including the support information to the display unit as the display image, and the display unit does not display the support information in the display availability determination. When it is determined, the display output unit outputs an image that does not include the support information to the display unit as the display image.
  • an image of a subject captured by an endoscope is obtained, and a display image including at least the obtained image is output to a display unit.
  • the display permission / inhibition is a determination as to whether or not to display on the display unit support information for assisting the attention area whose detection has been interrupted to return to the screen of the display unit.
  • an image further including the support information is output to the display unit as the display image.
  • the display determination not to display the support information the as the display image and outputs an image not including the support information on the display unit.
  • FIG. 1 is an explanatory diagram illustrating a schematic configuration of an endoscope system including an image processing device according to a first embodiment of the present invention.
  • FIG. 2 is an explanatory diagram illustrating an example of a hardware configuration of a main unit and an image processing apparatus illustrated in FIG. 1.
  • FIG. 2 is a functional block diagram illustrating a configuration of the image processing device according to the first embodiment of the present invention.
  • FIG. 3 is a functional block diagram illustrating a configuration of a display determination unit according to the first embodiment of the present invention. It is a flowchart which shows the display availability determination performed in the detailed observation determination part, the visibility determination part, the importance determination part, and the elapsed time determination part in the 1st Embodiment of this invention.
  • FIG. 5 is a flowchart illustrating display permission / inhibition determination performed by a display instruction determination unit according to the first embodiment of the present invention.
  • FIG. 3 is an explanatory diagram illustrating an example of a display image according to the first embodiment of the present invention.
  • FIG. 3 is an explanatory diagram illustrating a first example of an observation image according to the first embodiment of the present invention.
  • FIG. 9 is an explanatory diagram illustrating a state in which a region of interest has disappeared from the observation image illustrated in FIG. 8.
  • FIG. 5 is an explanatory diagram illustrating a second example of an observation image according to the first embodiment of the present invention.
  • FIG. 11 is an explanatory diagram illustrating a state in which a region of interest has disappeared from the observation image illustrated in FIG. 10.
  • FIG. 10 is an explanatory diagram illustrating an example of a display image according to the first embodiment of the present invention.
  • FIG. 9 is a functional block diagram illustrating a configuration of an image processing device according to a second embodiment of the present invention. It is a functional block diagram showing the composition of the display judging part in a 2nd embodiment of the present invention.
  • FIG. 14 is an explanatory diagram illustrating a first example of support information according to the second embodiment of the present invention. It is an explanatory view showing the 2nd example of the support information in a 2nd embodiment of the present invention.
  • FIG. 13 is a functional block diagram illustrating a configuration of an image processing device according to a third embodiment of the present invention. It is an explanatory view showing an example of a display image in a third embodiment of the present invention.
  • FIG. 1 is an explanatory diagram illustrating a schematic configuration of the endoscope system 100.
  • the endoscope system 100 includes an endoscope 1, a main body 2, and an endoscope image processing device (hereinafter, simply referred to as an image processing device) 3 according to the present embodiment. And a display unit 4 and a light source driving unit 5.
  • the endoscope 1 is connected to the main body 2.
  • the light source driving unit 5 is connected to the endoscope 1 and the main unit 2.
  • the main unit 2 is connected to the image processing device 3.
  • the image processing device 3 is connected to the display unit 4.
  • the endoscope 1 has an insertion portion to be inserted into the subject.
  • An imaging unit 10 is provided at the distal end of the insertion unit.
  • the imaging unit 10 has a light source unit 11 and an imaging element 12.
  • the light source unit 11 is configured by a light emitting element such as an LED, and generates illumination light to be irradiated on a subject.
  • the reflected light of the subject irradiated with the illumination light is taken into the image sensor 12 via an observation window (not shown).
  • the imaging device 12 is configured by, for example, a CCD or a CMOS, and photoelectrically converts reflected light of a subject to generate an imaging signal.
  • the imaging signal generated by the imaging element 12 is converted from an analog signal to a digital signal by an AD converter (not shown) provided in the imaging unit 10.
  • the imaging unit 10 outputs the imaging signal converted to a digital signal to the main unit 2.
  • the main unit 2 is configured as a video processor, and includes a control unit 21 that controls the endoscope 1 and the light source driving unit 5 and performs predetermined image processing on an image pickup signal.
  • the predetermined image processing includes, for example, image adjustment such as gain adjustment, white balance adjustment, gamma correction, contour emphasis correction, and scaling adjustment.
  • the control unit 21 sequentially outputs the imaging signal on which the predetermined image processing has been performed to the image processing device 3 as the observation image G1.
  • the light source driving section 5 is a circuit for driving the light source section 11 and is connected to the light source section 11 of the endoscope 1 and the control section 21 of the main body section 2.
  • the light source driving unit 5 outputs a driving signal to the light source unit 11 and drives the light source unit 11 to generate illumination light.
  • the image processing device 3 forms the display image G based on the observation image G1 output from the control unit 21 of the main unit 2 and outputs the display image G to the display unit 4.
  • the display unit 41 is configured by a monitor device or the like, and displays the display image G output from the image processing device 3 on a screen. The configuration of the image processing device 3 will be described later.
  • the endoscope system 100 further includes a display instruction unit 6 connected to the main unit 2.
  • the display instruction unit 6 will be described later.
  • FIG. 2 is an explanatory diagram illustrating an example of a hardware configuration of the main body 2 and the image processing device 3.
  • the main unit 2 includes a processor 2A, a memory 2B, and an input / output unit 2C.
  • the image processing device 3 includes a processor 3A, a memory 3B, and an input / output unit 3C.
  • the processor 2A is used to execute the functions of the components of the main unit 2 such as the control unit 21.
  • the processor 3A is used to execute functions of a plurality of components (excluding a storage unit) of the image processing device 3 described later.
  • Each of the processors 2A and 3A is configured by, for example, an FPGA (Field Programmable Gate Array).
  • At least some of the components of the main body 2 such as the control unit 21 and at least some of the plurality of components of the image processing device 3 may be configured as circuit blocks in the FPGA.
  • Each of the memories 2B and 3B is constituted by a rewritable storage element such as a RAM, for example.
  • the input / output unit 2C is used for transmitting and receiving signals between the main unit 2 and the outside.
  • the input / output unit 3C is used for transmitting and receiving signals between the image processing apparatus 3 and the outside.
  • Each of the processors 2A and 3A may be configured by a central processing unit (hereinafter, referred to as a CPU).
  • a central processing unit hereinafter, referred to as a CPU
  • the functions of the components of the main unit 2 such as the control unit 21 may be realized by the CPU reading a program from the memory 2B or a storage device (not shown) and executing the program.
  • the functions of each of the plurality of components of the image processing device 3 may be realized by the CPU reading and executing a program from the memory 3B or a storage device (not shown).
  • each of the components other than the control unit 21 of the control unit 21 and the main unit 2 may be configured as a separate electronic circuit.
  • the main body 2 and the image processing device 3 may be configured as an integrated device.
  • FIG. 3 is a functional block diagram illustrating a configuration of the image processing device 3.
  • the image processing device 3 includes an image acquisition unit 31, an image storage unit 32, an attention area detection unit 33, a detection interruption determination unit 34, a display determination unit 35, and a display output unit 36.
  • the image acquisition unit 31 acquires the observation image G1 output from the main unit 2 as an image of the subject captured by the endoscope 1. Further, the image acquisition unit 31 outputs the acquired observation image G1 to the image storage unit 32, the attention area detection unit 33, and the display output unit 36.
  • the observation image G1 acquired by the image acquisition unit 31 is input to the image storage unit 32.
  • the image storage unit 32 includes, for example, at least one of the memory 3B illustrated in FIG. 2 and a storage device (not illustrated), and stores the observation image G1.
  • the display output unit 36 is configured to be able to read out the observation image G1 stored in the image storage unit 32.
  • the observation image G ⁇ b> 1 acquired by the image acquisition unit 31 is input to the attention area detection unit 33.
  • the attention area detection unit 33 detects an attention area included in the observation image G1.
  • the attention area detection unit 33 outputs the detection result of the attention area to the detection interruption determination unit 34 and the display output unit 36.
  • the attention area detection unit 33 detects the lesion candidate area L as the attention area. The detailed configuration of the attention area detection unit 33 and a method for detecting the lesion candidate area L will be described later.
  • the detection interruption determination unit 34 receives the detection result of the attention area detection unit 33.
  • the detection interruption determination unit 34 determines whether or not the detection of the attention area by the attention area detection unit 33 has been interrupted based on the input detection result. Further, the detection interruption determination unit 34 outputs the determination result to the display determination unit 35.
  • a result of the determination that the detection of the attention area has been interrupted is referred to as an interruption determination.
  • the determination method in the detection interruption determination unit 34 will be described later.
  • the determination result of the detection interruption determination unit 34 is input to the display determination unit 35.
  • the display determination unit 35 determines whether or not to display on the display unit 4 support information for assisting the attention area whose detection has been interrupted to return to the screen of the display unit 4. A certain display availability determination is performed.
  • the display determination unit 35 outputs the result of the display availability determination to the display output unit 36. The detailed configuration of the display determination unit 35 and the content of the display availability determination will be described later.
  • the display output unit 36 reads the observation image G1 stored in the image storage unit 32, configures a display image G including at least the observation image G1, and outputs the configured display image G to the display unit 4. Note that the display output unit 36 may configure the display image G using the observation image G1 output by the image acquisition unit 31 instead of the observation image G1 stored in the image storage unit 32.
  • the display output unit 36 receives the result of the display determination by the display determination unit 35. If it is determined in the display availability determination that the support information is to be displayed on the display unit 4, the display output unit 36 configures an image including the support information as the display image G, and outputs the configured image to the display unit 4. I do. On the other hand, when it is determined that the support information is not displayed on the display unit 4 in the display availability determination, the display output unit 36 configures an image that does not include the support information as the display image G, and displays the configured image. Output to section 4. The detailed configuration of the display output unit 36 and the configuration of the display image G will be described later.
  • the attention area detection unit 33 includes a feature amount calculation unit 331, a lesion candidate detection unit 332, and a storage unit 333.
  • the storage unit 333 includes, for example, the memory 3B illustrated in FIG. 2 or a storage device (not illustrated).
  • the observation image G1 acquired by the image acquisition unit 31 is input to the feature amount calculation unit 331.
  • the feature amount calculation unit 331 calculates the feature amounts of the pixels included in the observation image G1 and outputs the calculated feature amounts to the lesion candidate detection unit 332.
  • the feature amount is calculated, for example, by calculating, for each predetermined small area on the observation image G1, a change amount between each pixel in the predetermined small area and a pixel adjacent to the pixel, that is, a slope value. .
  • the feature amount calculated by the feature amount calculation unit 331 is input to the lesion candidate detection unit 332.
  • the lesion candidate detection unit 332 detects the lesion candidate region L of the observation image G1 based on the feature amount, and outputs the detection result of the lesion candidate region L, specifically, information such as the position and size of the lesion candidate region L.
  • the included lesion candidate information is output to the detection interruption determination unit 34 and the display output unit 36.
  • the configuration of the attention area detection unit 33 is not limited to the above example.
  • the attention area detection unit 33 may be configured to detect the lesion candidate area L which is the attention area by a machine learning technique such as deep learning.
  • the detection of the lesion candidate region L is performed by comparing the feature amount with the lesion model information.
  • the lesion model information is configured by feature amounts of features that many lesion images have in common.
  • the storage unit 333 stores a plurality of lesion model information in advance.
  • the lesion candidate detection unit 332 reads a plurality of lesion model information from the storage unit 333, compares the input feature amount with the plurality of lesion model information, and detects a lesion candidate region L.
  • the lesion candidate detection unit 332 compares the feature amount of each predetermined small region input from the feature amount detection unit with the lesion model information, and determines an area where the feature amounts match each other. It is detected as a lesion candidate area L.
  • the detection interruption determination unit 34 determines whether the detection of the attention area in the attention area detection unit 33 has been interrupted based on the detection result of the attention area detection unit 33.
  • the determination of whether or not the detection of the attention area has been interrupted is performed by monitoring whether or not the attention area is continuously detected by the attention area detection unit 33.
  • the detection interruption determination unit 34 determines that the detection of the attention area by the attention area detection unit 33 is not interrupted.
  • the detection interruption determination unit 34 determines that the detection of the attention area by the attention area detection unit 33 is interrupted.
  • Lesion candidate information including information such as the position and size of the lesion candidate region L is input to the detection interruption determination unit 34 as a detection result of the attention region detection unit 33.
  • the detection interruption determining unit 34 determines whether the lesion candidate information detected from the current observation image G1 (hereinafter, referred to as first lesion candidate information) and a past observation image G1, for example, one of the current observation images G1.
  • a lesion candidate area L indicated by the first lesion candidate information and a second lesion It is determined whether or not the lesion candidate regions L indicated by the candidate information are the same. The determination as to whether they are the same is made based on, for example, the degree of overlap between the two lesion candidate areas L. When it is determined that the two lesion candidate areas L are the same, the detection interruption determination unit 34 determines that the detection of the lesion candidate area L is not interrupted.
  • the detection interruption determination unit 34 determines that the detection of the lesion candidate region L indicated by the second lesion candidate information has been interrupted. Further, even when the first lesion candidate information cannot be obtained, the detection interruption determination unit 34 determines that the detection of the lesion candidate region L indicated by the second lesion candidate information has been interrupted.
  • the detection interruption determination unit 34 may include a storage unit (not shown) that stores the second lesion candidate information.
  • the storage unit (not shown) includes, for example, the memory 3B shown in FIG. 2 or a storage device (not shown).
  • FIG. 4 is a functional block diagram illustrating the configuration of the display determination unit 35.
  • the display judging unit 35 includes a plurality of judging units for judging whether or not to display when the interruption judgment is obtained.
  • the display determination unit 35 includes a detailed observation determination unit 351, a visibility determination unit 352, an importance determination unit 353, a display instruction determination unit 354, an elapsed time determination unit 355, and a storage unit 356.
  • the storage unit 356 includes, for example, the memory 3B illustrated in FIG. 2 or a storage device (not illustrated).
  • the detailed observation determination unit 351 calculates a detailed observation parameter that changes depending on whether or not the lesion candidate area L, which is the attention area, is being observed in detail, and determines whether display is possible based on the calculated detailed observation parameter.
  • the detailed observation parameter is defined, for example, such that the numerical value increases as the possibility that the user of the endoscope 1 observes the lesion candidate region L in detail increases.
  • the detailed observation parameters are calculated based on at least one of the shape change amount of the lesion candidate region L, the movement amount of the lesion candidate region L, and the observation mode of the endoscope 1.
  • the shape change amount of the lesion candidate region L and the movement amount of the lesion candidate region L can be calculated using a plurality of lesion candidate information corresponding to the lesion candidate region L for which the detection has been determined to be interrupted.
  • the detailed observation parameter is calculated to be a large numerical value.
  • the storage unit 356 is configured to store lesion candidate information.
  • the detailed observation determination unit 351 reads, from the storage unit 356, a plurality of lesion candidate information items corresponding to the lesion candidate region L for which the detection has been determined to be discontinued, and determines the shape change amount of the lesion candidate region L and the lesion candidate region L The movement amount may be calculated.
  • the observation mode of the endoscope 1 can be designated by any operation means such as operation buttons and operation switches.
  • the operation means for example, the operation means 63 shown in FIG. 2 can be used.
  • the operating means 63 is connected to the input / output unit 2C of the main unit 2.
  • the control unit 21 of the main unit 2 outputs information on the observation mode of the endoscope 1 to the image processing device 3.
  • the information on the observation mode of the endoscope 1 output from the control unit 21 is input to the detailed observation determination unit 351.
  • the lesion candidate area L determined to have been interrupted from detection is detected from the observation image G1 obtained when the narrow-band light observation (Narrow / Band / Imaging) mode or the mode for staining and observing the inside of the subject is selected.
  • the detailed observation parameter is calculated to be a large numerical value.
  • the visibility determining unit 352 calculates a visibility parameter that changes depending on the visibility of the lesion candidate area L, which is the area of interest, and determines whether display is possible based on the calculated visibility parameter.
  • the visibility parameter is defined such that the greater the visibility of the lesion candidate area L, the greater the numerical value.
  • the visibility parameter is calculated based on at least one of the color, shape, and texture of the lesion candidate region L.
  • the color, shape, and texture of the lesion candidate region L are obtained from, for example, information such as the position and size of the lesion candidate region L that has been determined to be discontinued and the observation image G1 from which the lesion candidate region L has been detected. can do.
  • the more distinctive the color, shape, and texture of the lesion candidate region L the easier it is to visually recognize the lesion candidate region L. Therefore, the visibility parameter is calculated to be a large numerical value when the color, shape, and texture of the lesion candidate region L are characteristic.
  • the storage unit 356 is configured to store lesion candidate information.
  • the visibility determining unit 352 reads, from the storage unit 356, lesion candidate information corresponding to the lesion candidate area L for which the detection has been determined to be discontinued, and, from the image storage unit 32, an observation image in which the lesion candidate information has been detected.
  • the color, shape, and texture of the lesion candidate area L may be acquired by reading G1.
  • the importance determination unit 353 calculates the medical importance of the lesion candidate region L, which is the region of interest, and determines whether or not display is possible based on the calculated importance. In the present embodiment, in particular, the importance determination unit 353 determines whether or not display is possible based on the importance parameter having a correspondence with the importance.
  • the importance parameter is defined such that the higher the importance, that is, the higher the medical risk, the smaller the numerical value, and the smaller the importance, that is, the lower the medical risk, the larger the numerical value.
  • the importance is calculated based on at least one of the color, shape, and texture of the lesion candidate region L.
  • the importance determination unit 353 reads, from the storage unit 356, lesion candidate information corresponding to the lesion candidate region L for which the detection has been determined to be discontinued, and, from the image storage unit 32, an observation image in which the lesion candidate information has been detected.
  • the color, shape, and texture of the lesion candidate area L may be acquired by reading G1.
  • the display instruction determining unit 354 determines whether or not to display the support information by the user of the endoscope 1 based on the instruction as to whether or not to display the support information.
  • the instruction as to whether or not to display the support information is obtained, for example, via the display instruction unit 6 shown in FIG.
  • the control unit 21 of the main unit 2 outputs the content of the acquired instruction to the image processing device 3.
  • the content of the instruction output from the control unit 21 is input to the display instruction determination unit 354.
  • the instruction as to whether or not to display the support information is made by at least one of the user's line of sight, the user's remark, and the operation of the instruction means by the user.
  • the display instruction unit 6 includes, for example, a camera 61 that detects a user's line of sight, a microphone 62 that detects a user's utterance, and operation means such as operation buttons and operation switches as instruction means. 63.
  • the display instruction unit 6 may be connected to the image processing device 3.
  • the display instruction determination unit 354 may directly acquire the content of the instruction from the display instruction unit 6.
  • the camera 61, the microphone 62, and the operation unit 63 shown in FIG. 2 are connected to the input / output unit 3C of the image processing device 3.
  • the elapsed time determination unit 355 measures the elapsed time from the time when the interruption determination is obtained, and determines whether display is possible based on the measured elapsed time.
  • the display determination unit 35 outputs to the display output unit 36 based on the determination results of the detailed observation determination unit 351, the visibility determination unit 352, the importance determination unit 353, the display instruction determination unit 354, and the elapsed time determination unit 355.
  • the content of the determination result to be determined is determined, and the determined determination result is output to the display output unit 36.
  • the determination of the content of the determination result is performed, for example, as follows.
  • four parameters are calculated by normalizing the parameters used for the display availability determination. These normalization parameters are, for example, 1 when the possibility that it is determined that the support information is not displayed is 1 and 0 when the possibility that it is determined that the support information is not displayed is the lowest.
  • the instruction used for the display permission / inhibition determination in the display instruction determination unit 354 is digitized and used as a standardized parameter. This normalization parameter is 1 for an instruction not to display support information, and is 0 for an instruction to display support information. Then, the contents of the determination result are determined based on the standardization parameter having the largest numerical value among the above five standardization parameters.
  • the standardized parameter having the largest numerical value is compared with a predetermined threshold (a value larger than 0 and smaller than 1).
  • a predetermined threshold a value larger than 0 and smaller than 1.
  • the display determination unit 35 determines the determination result to be output to the display output unit 36 to indicate that the support information is not displayed.
  • the display determination unit 35 determines the determination result to be output to the display output unit 36 to display the support information.
  • the method of determining the content of the determination result is not limited to the above method.
  • the above five normalization parameters may be weighted and averaged, and the content of the determination result may be determined based on the weighted averaged normalization parameters.
  • the configuration of the display determination unit 35 is not limited to the example illustrated in FIG.
  • the display determination unit 35 may include only a part of the plurality of determination units illustrated in FIG. 4 or may include a determination unit other than the plurality of determination units illustrated in FIG. .
  • FIG. 5 is a flowchart showing the display availability determination performed by the detailed observation determination unit 351, the visibility determination unit 352, the importance determination unit 353, and the elapsed time determination unit 355.
  • the detailed observation determination unit 351 first calculates a detailed observation parameter (step S11). Next, the detailed observation parameter is compared with a predetermined threshold (step S12). When the detailed observation parameter is equal to or larger than the predetermined threshold (YES), the detailed observation determination unit 351 determines that the support information is not displayed (Step S13). On the other hand, when the detailed observation parameter is smaller than the predetermined threshold (NO), the detailed observation determination unit 351 determines to display the support information (Step S14). Steps S12, S13, and S14 shown in FIG. 5 correspond to the display availability determination performed by the detailed observation determination unit 351.
  • the case where the detailed observation parameter is equal to or larger than the predetermined threshold value corresponds to the case where it is estimated that the lesion candidate region L is observed in detail.
  • the case where the detailed observation parameter is less than the predetermined threshold corresponds to the case where it is estimated that the lesion candidate region L has not been observed in detail.
  • the details of the display availability determination performed by the visibility determination unit 352, the importance determination unit 353, and the elapsed time determination unit 355 are basically the same as the details of the display availability determination performed by the detailed observation determination unit 351. That is, when the interruption determination is obtained, the visibility determining unit 352 first calculates a visibility parameter (step S11). Next, the visibility parameter is compared with a predetermined threshold (step S12). When the visibility parameter is equal to or greater than the predetermined threshold (YES), the visibility determination unit 352 determines that the support information is not to be displayed (Step S13). On the other hand, when the visibility parameter is less than the predetermined threshold (NO), the visibility determination unit 352 determines to display the support information (Step S14). Steps S12, S13, and S14 shown in FIG. 5 correspond to the display permission / inhibition determination performed by the visibility determination unit 352.
  • the case where the visibility parameter is equal to or larger than the predetermined threshold value corresponds to the case where the lesion candidate region L is easily visible.
  • the case where the visibility parameter is less than the predetermined threshold corresponds to the case where the lesion candidate region L is difficult to visually recognize.
  • the importance determination unit 353 first calculates the importance and calculates an importance parameter having a correspondence with the importance (step S11). Next, the importance parameter is compared with a predetermined threshold (step S12). When the importance parameter is equal to or larger than a predetermined threshold (YES), that is, when the importance is low, the importance determination unit 353 determines that the support information is not displayed (step S13). On the other hand, when the importance parameter is less than the predetermined threshold (NO), that is, when the importance is high, the importance determination unit 353 determines to display the support information (step S14). Steps S12, S13, and S14 shown in FIG. 5 correspond to the display availability determination performed by the importance determination unit 353.
  • the elapsed time determination unit 355 measures the elapsed time from the time when the interruption determination is obtained.
  • the elapsed time corresponds to the parameter in step S11 in FIG.
  • the elapsed time which is a parameter, is compared with a predetermined threshold (step S12).
  • the elapsed time is equal to or greater than the predetermined threshold (YES)
  • the elapsed time determination unit 355 determines that the support information is not to be displayed (Step S13).
  • the elapsed time is less than the predetermined threshold (NO)
  • the elapsed time determination unit 355 determines to display the support information (Step S14).
  • Steps S12, S13, and S14 shown in FIG. 5 correspond to the display availability determination performed by the elapsed time determination unit 355. Note that the display permission / inhibition determination performed by the elapsed time determination unit 355 may be repeatedly performed at predetermined intervals after the interruption determination, for example.
  • FIG. 6 is a flowchart illustrating the display permission / inhibition determination performed by the display instruction determination unit 354.
  • the display instruction determination unit 354 first obtains the content of the instruction as to whether or not to display the support information (step S21).
  • the display instruction determination unit 354 determines whether display is possible based on the content of the acquired instruction (step S22).
  • the display instruction determination unit 354 determines that the support information is not displayed. If the content of the acquired instruction is to display the support information, the display instruction determination unit 354 determines to display the support information.
  • the display permission / inhibition determination performed by the display instruction determination unit 354 may be repeatedly performed at predetermined intervals after the interruption determination, for example.
  • the display output unit 36 includes an emphasis processing unit 361 and a support information processing unit 362.
  • the display output unit 36 includes the observation image G1 read from the image storage unit 32, the detection result of the lesion candidate area L input from the lesion candidate detection unit 332, that is, the lesion candidate information, and the determination result input from the display determination unit 35. , It is possible to perform an emphasis process and a support information display process.
  • the emphasis processing unit 361 performs emphasis processing on the observed image G1 when the lesion candidate detection unit 332 detects the lesion candidate area L.
  • the emphasis process is a process of performing a display indicating the position of the lesion candidate region L in an emphasized manner.
  • the emphasis processing unit 361 may perform a process of adding a marker image surrounding the lesion candidate area L to the observation image G1 as the emphasis processing, Processing for making the color tone different from the surrounding area may be performed.
  • the support information processing unit 362 performs the support information display process on the observation image G1 when the determination result input from the display determination unit 35 indicates that the support information is to be displayed.
  • the support information display process is a process of displaying the position of the lesion candidate region L when the lesion candidate region L, which is the region of interest, disappears from the screen of the display unit 4.
  • the support information processing unit 362 may perform a process of adding an alert image indicating the position and the direction of the lost lesion candidate region L to the observation image G1 as the support information display process. Then, a process of changing the color of the outer frame of the observation image G1 may be performed.
  • the display output unit 36 uses the enhancement processing and the support as the display image G.
  • the display unit 4 (see FIG. 1) displays an observation image G1 on which the information display process has been performed, that is, an image including a display indicating the position of the lesion candidate region L in an emphasized manner and a display indicating the position of the lesion candidate region L as support information. ).
  • the display output section 36 emphasizes the display image G as the display image G.
  • the observation image G1 in which the support information display processing is performed without performing the processing that is, the image including the display indicating the position of the lesion candidate area L as the support information but not including the display indicating the position of the lesion candidate area L in an emphasized manner is included. , To the display unit 4.
  • the display output section 36 emphasizes the display image G as the display image G.
  • the display unit displays the observation image G1 that has not been subjected to the processing and the support information display processing, that is, a display that highlights the position of the lesion candidate area L and an image that does not include a display that indicates the position of the lesion candidate area L as support information. 4 is output.
  • FIG. 7 is an explanatory diagram illustrating an example of the configuration of the display image G.
  • the observation image G1 is arranged on the display image G output from the display output unit 36.
  • FIG. 7 illustrates an inner wall of a large intestine having a lesion candidate region L as an example of the observation image G1.
  • FIG. 8 is an explanatory diagram illustrating a first example of the observation image G1.
  • FIG. 10 is an explanatory diagram illustrating a second example of the observation image G1.
  • the candidate lesion area L is displayed in the observation image G1.
  • FIG. 9 shows a state where the lesion candidate area L, which is the attention area, has disappeared from the observation image G1 shown in FIG.
  • FIG. 9 particularly shows an example in which the lesion candidate area L has moved outside the outer edge of the observation image G1.
  • the lesion candidate area L is not displayed on the screen of the display unit 4.
  • the support information processing unit 362 adds the alert image G2 to the observation image G1.
  • FIG. 9 illustrates an example in which an image indicating the position and direction of the lesion candidate area L by the vertices of a triangle is added as the alert image G2.
  • the alert image G2 may be another image such as an arrow.
  • FIG. 10 is an explanatory diagram showing a second example of the observation image G1. As shown in FIG. 10, a lesion candidate area L is displayed near the fold F in the observation image G1.
  • FIG. 11 shows a state where the lesion candidate area L has disappeared from the observation image G1 shown in FIG.
  • FIG. 11 particularly shows an example in which the lesion candidate area L is hidden behind the fold F. In this state, the lesion candidate area L is not displayed on the screen of the display unit 4.
  • the support information processing unit 362 adds the alert image G2 to the observation image G1.
  • FIG. 9 shows an example in which an image indicating the position and direction of a lesion candidate area L hidden behind the pleat F by a vertex of a triangle is added as the alert image G2.
  • the support information processing unit 362 sets the observation image No alert image G2 is added to G1.
  • the display determination unit 35 determines whether or not to display the support information on the display unit 4 to determine whether or not to display the support information.
  • the support information can be appropriately displayed. Specifically, as described above, when it is determined that the support information is to be displayed in the display availability determination, the display output unit 36 outputs an image further including the support information to the display unit 4 as the display image G. I do. On the other hand, when it is determined that the support information is not to be displayed in the display availability determination, the display output unit 36 outputs an image that does not include the support information to the display unit 4 as the display image G.
  • effects of the present embodiment will be described in detail.
  • the display determination unit 35 is provided with a detailed observation determination unit 351.
  • the detailed observation determination unit 351 determines not to display the support information when the lesion candidate area L is estimated to be observed in detail based on the detailed observation parameters, and observes the lesion candidate area L in detail. If it is estimated that the support information is not displayed, it is determined that the support information is to be displayed. Thus, according to the present embodiment, the support information can be appropriately displayed.
  • the display determination unit 35 is provided with a visibility determination unit 352.
  • the visibility determining unit 352 determines that the support information is not displayed when the lesion candidate area L is easily visible based on the visibility parameter, and when the lesion candidate area L is difficult to visually recognize. Is determined to display the support information.
  • the support information can be appropriately displayed.
  • the display determination unit 35 is provided with an importance determination unit 353.
  • the importance determining unit 353 determines that the support information is not displayed when the importance is low, and determines that the support information is displayed when the importance is high. Thus, according to the present embodiment, the support information can be appropriately displayed.
  • the display determination unit 35 is provided with the display instruction determination unit 354.
  • the display instruction determination unit 354 determines whether or not to display the support information based on an instruction from the user of the endoscope 1 whether to display the support information. That is, according to the present embodiment, it is possible to select whether or not to display the support information by a direct instruction. Thus, according to the present embodiment, the support information can be appropriately displayed.
  • the display determination unit 35 is provided with an elapsed time determination unit 355.
  • the elapsed time determination unit 355 determines that the support information is not to be displayed when the time after the disappearance of the lesion candidate area L has been increased to some extent.
  • the support information can be appropriately displayed.
  • the selection of whether or not to display the support information is automatically performed even when there is no user instruction. Things.
  • the burden on the user can be reduced.
  • FIG. 12 is a functional block diagram illustrating a configuration of the image processing apparatus according to the present embodiment.
  • the image processing device 3 according to the present embodiment includes a position estimating unit 37.
  • the position estimating unit 37 includes a storage unit 371.
  • the storage unit 371 is configured by, for example, the memory 3B illustrated in FIG. 2 or the storage device (not illustrated) in the first embodiment.
  • the determination result of the detection interruption determination unit 34 is input to the position estimation unit 37.
  • the position estimating unit 37 is configured to be able to read out the observation image G1 stored in the image storage unit 32.
  • the position estimating unit 37 estimates the position of the lesion candidate region L which is the region of interest after the interruption determination, and outputs the estimated position of the lesion candidate region L to the display determining unit 35. A method for estimating the position of the lesion candidate region L will be described later.
  • FIG. 13 is a functional block diagram showing the configuration of the display determination unit 35 in the present embodiment.
  • the display determination unit 35 displays the support information that assists the lesion candidate area L, which is the attention area whose detection has been interrupted, to return to the screen of the display unit 4. Is performed to determine whether or not to display the image.
  • the display determination unit 35 includes a return operation determination unit 357 and an out-of-frame distance determination unit 358 in addition to the plurality of determination units and the storage unit 356 in the first embodiment.
  • the return operation determining unit 357 sets a return operation parameter that changes depending on whether or not a return operation of operating the endoscope 1 is performed so that the lesion candidate region L that is the attention region returns to the screen of the display unit 4.
  • the display is determined based on the calculated return operation parameters.
  • the return operation parameter is defined so as to have a larger value as the possibility that the return operation is performed is lower.
  • the return operation parameter is calculated based on a change in the estimated position of the lesion candidate region L estimated by the position estimating unit 37. If the estimated position of the lesion candidate area L has changed so as to be away from an arbitrary point on the current observation image G1, it is unlikely that the return operation has been performed. Therefore, in this case, the return operation parameter is calculated to be a large numerical value.
  • the out-of-frame distance determination unit 358 calculates an out-of-frame distance that is a distance from the outer edge of the observation image G1 to the estimated position of the lesion candidate area L estimated by the position estimating unit 37, and determines whether or not to display based on the calculated out-of-frame distance. Do.
  • the display determination unit 35 determines the content of the determination result to be output to the display output unit 36 based on at least the determination results of the return operation determination unit 357 and the out-of-frame distance determination unit 358.
  • the determined result is output to the display output unit 36.
  • the method of determining the content of the determination result is the same as the method of determining the content of the determination result based on the determination results of each of the plurality of determination units of the display determination unit 35 in the first embodiment.
  • the display output unit 36 when it is determined that the support information is to be displayed on the display unit 4 in the display availability determination, the display output unit 36 includes the support information as the display image G. An image is composed, and the composed image is output to the display unit 4.
  • the support information processing unit of the display output unit 36 In step 362, a process of changing the support information according to the estimated position of the lesion candidate region L is performed as the support information display process.
  • the estimated position of the lesion candidate region L is input to the support information processing unit 362 from the position estimation unit 37.
  • the position estimating unit 37 may output the estimated position of the lesion candidate region L to the support information processing unit 362 via the display determining unit 35, or may directly output the estimated position of the lesion candidate region L to the support information processing unit 362. 362.
  • the position estimating unit 37 generates first displacement information and second displacement information, and estimates the position of the lesion candidate area L based on the first displacement information and the second displacement information.
  • the position estimation unit 37 First displacement information, which is information indicating the displacement amount and the displacement direction, is generated.
  • the position estimation unit 37 generates the first displacement information, for example, as follows. First, the position estimating unit 37 calculates the center of gravity of the lesion candidate area L from the lesion candidate information detected from each of the two consecutive observation images G1. Next, the position estimating unit 37 calculates a first motion vector representing the motion of the center of gravity between two consecutive frames. Next, the position estimating unit 37 calculates the velocity and acceleration of the center of gravity based on the first motion vector. Next, the position estimating unit 37 generates first displacement information based on at least one of the calculated velocity and acceleration of the center of gravity.
  • the position estimation unit 37 repeatedly generates the first displacement information while the lesion candidate area L is continuously detected.
  • the generated first displacement information is stored in the storage unit 371.
  • the second displacement information which is the information indicating the displacement amount and the displacement direction of an arbitrary point is generated.
  • the position estimating unit 37 generates the second displacement information as follows, for example. First, the position estimating unit 37 reads a current observation image G1 (hereinafter, referred to as a first observation image G1) from the image storage unit 32. Next, the position estimating unit 37 sets an arbitrary point (hereinafter, referred to as a tracking point) that can be tracked by the position estimating unit 37 in the first observation image G1. Next, the position estimating unit 37 reads an observation image G1 (hereinafter, referred to as a second observation image G1) of a frame next to the first observation image G1 from the image storage unit 32. Next, the position estimating unit 37 detects the position of the tracking point in the second observation image G1.
  • a current observation image G1 hereinafter, referred to as a first observation image G1
  • the position estimating unit 37 sets an arbitrary point (hereinafter, referred to as a tracking point) that can be tracked by the position estimating unit 37 in the first observation image G1.
  • the position estimating unit 37 read
  • the position estimating unit 37 calculates a second motion vector representing the movement of the tracking point between the first observation image G1 and the second observation image G1. Next, the position estimating unit 37 calculates the speed and the acceleration of the tracking point based on the second motion vector. Next, the position estimating unit 37 generates second displacement information based on at least one of the calculated velocity and acceleration of the tracking point.
  • the position estimation unit 37 repeatedly generates the second displacement information while the detection of the lesion candidate region L is interrupted.
  • the generated second displacement information is stored in the storage unit 371.
  • the position estimating unit 37 estimates the position of the lesion candidate area L after the time when the interruption determination is obtained based on the first displacement information and the second displacement information. More specifically, the position estimating unit 37 uses the second displacement information to detect the movement of the subject included in the observation image G1 after the time when the interruption determination is obtained, and Is synthesized with the first displacement information to estimate the position of the lesion candidate area L after the time when the interruption determination is obtained.
  • the position estimating unit 37 determines whether the lesion candidate area L is located outside the outer edge of the observation image G1 based on the first displacement information immediately before the interruption determination is obtained, or It is determined whether it is located inside. If it is determined that the lesion candidate area L is located outside the outer edge of the observation image G1, the position estimating unit 37 determines that the lesion candidate area L exists in an area outside the outer edge of the observation image G1 based on the second displacement information. The position of the lesion candidate area L to be changed is estimated. When it is determined that the lesion candidate region L is located inside the outer edge of the observation image G1, the position estimating unit 37 determines the position of the lesion candidate region L existing in the observation image G1 based on the second displacement information. Estimate the position.
  • the return operation determination unit 357 first calculates a return operation parameter (step S11 in FIG. 5). Next, the return operation parameter is compared with a predetermined threshold (step S12 in FIG. 5). When the return operation parameter is equal to or greater than the predetermined threshold (YES), the return operation determination unit 357 determines that the support information is not to be displayed (Step S13 in FIG. 5). On the other hand, when the return operation parameter is smaller than the predetermined threshold (NO), the return operation determination unit 357 determines to display the support information (Step S14 in FIG. 5). Steps S12, S13, and S14 shown in FIG. 5 correspond to the display permission / inhibition determination performed by the return operation determination unit 357.
  • a case where the return operation parameter is equal to or more than the predetermined threshold value corresponds to a case where it is estimated that the return operation is not performed.
  • the case where the return operation parameter is less than the predetermined threshold corresponds to the case where it is estimated that the return operation is being performed.
  • the display permission / prohibition determination performed by the return operation determination unit 357 may be repeatedly performed at predetermined intervals after the interruption determination, for example.
  • the out-of-frame distance determination unit 358 first calculates the out-of-frame distance when the interruption determination is obtained.
  • the out-of-frame distance corresponds to the parameter in step S11 in FIG.
  • the out-of-frame distance which is a parameter, is compared with a predetermined threshold (step S12 in FIG. 5). If the out-of-frame distance is equal to or greater than the predetermined threshold (YES), the out-of-frame distance determination unit 358 determines that the support information is not to be displayed (Step S13 in FIG. 5).
  • the out-of-frame distance determination unit 358 determines to display the support information (Step S14 in FIG. 5). Steps S12, S13, and S14 shown in FIG. 5 correspond to the display availability determination performed by the out-of-frame distance determination unit 358.
  • the display permission / inhibition determination performed by the out-of-frame distance determination unit 358 may be repeatedly performed at predetermined intervals after the interruption determination, for example.
  • FIG. 14 is an explanatory diagram illustrating a first example of the support information.
  • FIG. 14 shows a state in which the lesion candidate region L has disappeared from the observation image G1 by moving the lesion candidate region L outside the outer edge of the observation image G1, as in FIG. 9 in the first embodiment. ing.
  • FIG. 14 shows a state in which the lesion candidate region L has disappeared from the observation image G1 by moving the lesion candidate region L outside the outer edge of the observation image G1, as in FIG. 9 in the first embodiment. ing.
  • the support information processing unit 362 increases the alert image G2 (triangle) as support information as the distance from the outer edge of the observation image G1 to the lesion candidate area L increases. Is also good.
  • FIG. 15 is an explanatory diagram showing a second example of the support information.
  • FIG. 15 shows a state in which the lesion candidate area L disappears from the observation image G1 by hiding the lesion candidate area L behind the pleat F, similarly to FIG. 11 in the first embodiment.
  • FIG. 15 shows an example in which the position of the lesion candidate region L estimated by the position estimating unit 37 has changed from the state shown in FIG.
  • the support information processing unit 362 may change the position of the alert image G2 (triangle), which is the support information, so as to follow the change in the estimated position of the lesion candidate area L. Good.
  • the position estimating unit 37 estimates the position of the lesion candidate region L, which is the region of interest after the time when the interruption determination is obtained.
  • the display determination unit 35 determines whether display is possible based on at least the estimated position of the lesion candidate area L.
  • the support information can be appropriately displayed.
  • the display determination unit 35 is provided with a return operation determination unit 357.
  • the return operation determination unit 357 calculates a return operation parameter based on a change in the estimated position of the lesion candidate region L, and based on the calculated return operation parameter, when it is estimated that the return operation has not been performed, When it is determined that the support information is not to be displayed and it is estimated that the return operation is being performed, it is determined that the support information is to be displayed. Thus, according to the present embodiment, the support information can be appropriately displayed.
  • the return operation is performed when the user of the endoscope 1 intends to return and observe the lesion candidate region L that has disappeared after the interruption determination.
  • the return operation determination unit 357 can estimate the intention of the user after the interruption determination.
  • the display determination unit 35 is provided with an out-of-frame distance determination unit 358.
  • the out-of-frame distance determination unit 358 determines that the support information is not displayed when the out-of-frame distance has increased to some extent.
  • the support information can be appropriately displayed.
  • FIG. 16 is a functional block diagram illustrating a configuration of the image processing apparatus according to the present embodiment.
  • the image processing device 3 according to the present embodiment includes a reverse playback display unit 38.
  • the determination result of the detection interruption determination unit 34 is input to the reverse reproduction display unit 38.
  • the reverse reproduction display unit 38 is configured to be able to read out the observation image G1 stored in the image storage unit 32.
  • the reverse reproduction display unit 38 is stored in the image storage unit 32 in chronological order from the first time point when the interruption determination is obtained by the detection interruption determination unit 34 to a second time point after the first time point.
  • the plurality of observation images G1 are read.
  • the reverse reproduction display unit 38 generates a moving image G3 displayed on the display unit 4 (see FIG. 1) in the reverse order to the above-described time series by using the plurality of read observation images G1.
  • the generated moving image G3 is output to the display output unit 36.
  • the display output unit 36 sets the display image G as the display image G. And an image including the support information, and outputs the formed image to the display unit 4.
  • the display output unit 36 uses a moving image G3 as the support information in addition to the alert image G2 described in the first embodiment.
  • FIG. 17 shows an example of the display image G according to the present embodiment.
  • the lesion candidate area L moves outside the outer edge of the observation image G1, and the lesion candidate area L as the attention area disappears from the observation image G1.
  • the moving image G3 is displayed beside the observation image G1.
  • the determination whether to display the moving image G3 may be performed separately from the determination whether to display the alert image G2.
  • the display determination unit 35 determines whether to display the moving image G3 based on, for example, an instruction as to whether to display the moving image G3.
  • the instruction as to whether to display the moving image G3 may be obtained, for example, via the display instruction unit 6 shown in FIG. 1 in the first embodiment.
  • the hardware configuration of the image processing device 3 is not limited to the example described with reference to FIG.
  • the reverse reproduction display unit 38 may be realized by one processor or may be realized by a plurality of processors.
  • the image acquisition unit 31, the attention area detection unit 33, the detection interruption determination unit 34, the display determination unit 35, the display output unit 36, the position estimation unit 37, and the reverse reproduction display unit 38 are realized by separate processors. You may.

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Signal Processing (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

内視鏡画像処理装置(3)は、画像取得部(31)と、注目領域検出部(33)と、検出途絶判定部(34)と、表示判定部(35)と、表示出力部(36)とを備えている。検出途絶判定部(34)は、注目領域検出部(33)における注目領域の検出が途絶したか否かを判定する。表示判定部(35)は、検出途絶判定部(34)において途絶判定が得られた場合に、検出が途絶した注目領域が表示部(4)の画面上に復帰するように支援する支援情報を表示部(4)に表示するか否かの判定である表示可否判定を行う。

Description

内視鏡画像処理装置および内視鏡画像処理方法
 本発明は、内視鏡画像処理装置および内視鏡画像処理方法に関する。
 従来、内視鏡装置では、術者が、観察画像を見て病変部の有無等を判断している。術者が観察画像を見る際に病変部の見落としを抑止するために、内視鏡検査を支援するための情報(以下、支援情報と言う。)を表示する技術が提案されている。例えば、日本国特開2011-255006号公報には、画像処理により検出された注目領域にアラート画像を付加して観察画像を表示する内視鏡装置が開示されている。
 また、例えば、日本国特許第5597021号公報には、画像内の複数の局所領域において算出した特徴量に基づいて注目領域を検出し、検出した注目領域が表示対象範囲から消失する前に得られた注目領域の情報を用いて表示対象範囲から消失した注目領域の位置を推定し、消失した注目領域への誘導情報である消失方向情報を表示する内視鏡システムの画像処理装置が開示されている。
 支援情報であるアラート画像や消失方向情報は、観察画像と共に表示部に表示される。支援情報の対象となる注目領域に対して、詳細観察が完了していない場合には、支援情報を表示させることにより、病変部の検出率を向上させたり、病変部を検出する時間を短縮させたりすることができる。しかし、詳細観察が完了している場合には、表示部に不要な支援情報が表示されることで術者の負担となったり、支援情報が観察画像を隠したりして、内視鏡検査の妨げとなる場合があった。
 そこで、本発明は、支援情報を適切に表示させることができる内視鏡画像処理装置および内視鏡画像処理方法を提供することを目的とする。
 本発明の一態様の内視鏡画像処理装置は、内視鏡によって撮影された被写体の画像を取得する画像取得部と、少なくとも前記画像取得部によって取得された前記画像を含む表示用画像を表示部に出力する表示出力部と、前記画像取得部によって取得された前記画像に含まれる注目領域を検出する注目領域検出部と、前記注目領域検出部における前記注目領域の検出が途絶したか否かを判定する検出途絶判定部と、前記検出途絶判定部において前記注目領域の検出が途絶したと判定された判定結果である途絶判定が得られた場合に、検出が途絶した前記注目領域が前記表示部の画面上に復帰するように支援する支援情報を前記表示部に表示するか否かの判定である表示可否判定を行う表示判定部とを備え、前記表示可否判定において前記支援情報を表示すると判定された場合には、前記表示出力部は、前記表示用画像として、前記支援情報を更に含む画像を前記表示部に出力し、前記表示可否判定において前記支援情報を表示しないと判定された場合には、前記表示出力部は、前記表示用画像として、前記支援情報を含まない画像を前記表示部に出力する。
 また、本発明の一態様の内視鏡画像処理装置方法は、内視鏡によって撮影された被写体の画像を取得するステップと、少なくとも取得された前記画像を含む表示用画像を表示部に出力するステップと、取得された前記画像に含まれる注目領域を検出するステップと、前記注目領域の検出が途絶したか否かを判定するステップと、前記注目領域の検出が途絶したと判定された判定結果である途絶判定が得られた場合に、検出が途絶した前記注目領域が前記表示部の画面上に復帰するように支援する支援情報を前記表示部に表示するか否かの判定である表示可否判定を行うステップとを含み、前記表示可否判定において前記支援情報を表示すると判定された場合には、前記表示用画像として、前記支援情報を更に含む画像を前記表示部に出力し、前記表示可否判定において前記支援情報を表示しないと判定された場合には、前記表示用画像として、前記支援情報を含まない画像を前記表示部に出力する。
本発明の第1の実施の形態に係わる画像処理装置を含む内視鏡システムの概略の構成を示す説明図である。 図1に示した本体部と画像処理装置のハードウェア構成の一例を示す説明図である。 本発明の第1の実施の形態に係わる画像処理装置の構成を示す機能ブロック図である。 本発明の第1の実施の形態における表示判定部の構成を示す機能ブロック図である。 本発明の第1の実施の形態における詳細観察判定部、視認性判定部、重要性判定部および経過時間判定部において行われる表示可否判定を示すフローチャートである。 本発明の第1の実施の形態における表示指示判定部において行われる表示可否判定を示すフローチャートである。 本発明の第1の実施の形態における表示用画像の一例を示す説明図である。 本発明の第1の実施の形態における観察画像の第1の例を示す説明図である。 図8に示した観察画像から注目領域が消失した状態を示す説明図である。 本発明の第1の実施の形態における観察画像の第2の例を示す説明図である。 図10に示した観察画像から注目領域が消失した状態を示す説明図である。 本発明の第2の実施の形態に係わる画像処理装置の構成を示す機能ブロック図である。 本発明の第2の実施の形態における表示判定部の構成を示す機能ブロック図である。 本発明の第2の実施の形態における支援情報の第1の例を示す説明図である。 本発明の第2の実施の形態における支援情報の第2の例を示す説明図である。 本発明の第3の実施の形態に係わる画像処理装置の構成を示す機能ブロック図である。 本発明の第3の実施の形態における表示用画像の一例を示す説明図である。
 以下、図面を参照して、本発明の実施の形態を説明する。
[第1の実施の形態]
(内視鏡システムの構成)
 始めに、本発明の第1の実施の形態に係わる内視鏡画像処理装置を含む内視鏡システムの概略の構成について説明する。図1は、内視鏡システム100の概略の構成を示す説明図である。図1に示したように、内視鏡システム100は、内視鏡1と、本体部2と、本実施の形態に係わる内視鏡画像処理装置(以下、単に画像処理装置と記す。)3と、表示部4と、光源駆動部5とを備えている。内視鏡1は、本体部2に接続されている。光源駆動部5は、内視鏡1と本体部2に接続されている。本体部2は、画像処理装置3に接続されている。画像処理装置3は、表示部4に接続されている。
 内視鏡1は、被検体内に挿入される挿入部を有している。挿入部の先端部には、撮像部10が設けられている。撮像部10は、光源部11と撮像素子12とを有している。光源部11は、LED等の発光素子によって構成されており、被写体に照射される照明光を発生する。照明光が照射された被写体の反射光は、図示しない観察窓を介して撮像素子12に取り込まれる。撮像素子12は、例えばCCDまたはCMOSによって構成されており、被写体の反射光を光電変換して、撮像信号を生成する。
 撮像素子12によって生成された撮像信号は、撮像部10に設けられた図示しないAD変換器によって、アナログ信号からデジタル信号に変換される。撮像部10は、デジタル信号に変換された撮像信号を、本体部2に出力する。
 本体部2は、ビデオプロセッサとして構成されており、内視鏡1と光源駆動部5を制御すると共に撮像信号に対して所定の画像処理を行う制御部21を含んでいる。所定の画像処理としては、例えば、ゲイン調整、ホワイトバランス調整、ガンマ補正、輪郭強調補正、拡大縮小調整等の画像調整がある。制御部21は、所定の画像処理が行われた撮像信号を、観察画像G1として画像処理装置3に順次出力する。
 光源駆動部5は、光源部11を駆動する回路であり、内視鏡1の光源部11と本体部2の制御部21とに接続されている。光源駆動部5は、本体部2の制御部21から制御信号が入力されると、光源部11に対して駆動信号を出力し、光源部11を駆動して照明光を発生させる。
 画像処理装置3は、本体部2の制御部21から出力された観察画像G1に基づいて表示用画像Gを構成し、表示用画像Gを表示部4に出力する。表示部41は、モニタ装置等によって構成されており、画像処理装置3から出力された表示用画像Gを画面上に表示する。画像処理装置3の構成については、後で説明する。
 内視鏡システム100は、更に、本体部2に接続された表示指示部6を備えている。表示指示部6については、後で説明する。
 ここで、図2を参照して、本体部2と画像処理装置3のハードウェア構成について説明する。図2は、本体部2と画像処理装置3のハードウェア構成の一例を示す説明図である。図2に示した例では、本体部2は、プロセッサ2Aと、メモリ2Bと、入出力部2Cとによって構成されている。また、画像処理装置3は、プロセッサ3Aと、メモリ3Bと、入出力部3Cとによって構成されている。
 プロセッサ2Aは、制御部21等の本体部2の構成要素の機能を実行するために用いられる。プロセッサ3Aは、後述する画像処理装置3の複数の構成要素(記憶部を除く。)の機能を実行するために用いられる。プロセッサ2A,3Aの各々は、例えば、FPGA(Field Programmable Gate Array)によって構成されている。制御部21等の本体部2の構成要素の少なくとも一部と、画像処理装置3の複数の構成要素の少なくとも一部は、それぞれ、FPGAにおける回路ブロックとして構成されていてもよい。
 メモリ2B,3Bの各々は、例えば、RAM等の書き換え可能な記憶素子によって構成されている。入出力部2Cは、本体部2と外部との間で信号の送受信を行うために用いられる。入出力部3Cは、画像処理装置3と外部との間で信号の送受信を行うために用いられる。
 なお、プロセッサ2A,3Aの各々は、中央演算処理装置(以下、CPUと記す。)によって構成されていてもよい。この場合、制御部21等の本体部2の構成要素の機能は、CPUがメモリ2Bまたは図示しない記憶装置からプログラムを読み出して実行することによって実現されてもよい。同様に、画像処理装置3の複数の構成要素の各々の機能は、CPUがメモリ3Bまたは図示しない記憶装置からプログラムを読み出して実行することによって実現されてもよい。
 また、本体部2と画像処理装置3のハードウェア構成は、図2に示した例に限られない。例えば、制御部21と本体部2の制御部21以外の構成要素の各々は、別個の電子回路として構成されていてもよい。また、本体部2と画像処理装置3は、一体化された装置として構成されていてもよい。
(画像処理装置の構成)
 次に、図3を参照して、画像処理装置3の構成について説明する。図3は、画像処理装置3の構成を示す機能ブロック図である。画像処理装置3は、画像取得部31と、画像保存部32と、注目領域検出部33と、検出途絶判定部34と、表示判定部35と、表示出力部36とを備えている。
 画像取得部31は、内視鏡1によって撮影された被写体の画像として、本体部2から出力された観察画像G1を取得する。また、画像取得部31は、取得した観察画像G1を、画像保存部32、注目領域検出部33および表示出力部36に出力する。
 画像保存部32には、画像取得部31によって取得された観察画像G1が入力される。画像保存部32は、例えば、図2に示したメモリ3Bおよび図示しない記憶装置のうちの少なくとも1つによって構成されており、観察画像G1を保存する。表示出力部36は、画像保存部32に保存された観察画像G1を読み出すことができるように構成されている。
 注目領域検出部33には、画像取得部31によって取得された観察画像G1が入力される。注目領域検出部33は、観察画像G1に含まれる注目領域を検出する。また、注目領域検出部33は、注目領域の検出結果を、検出途絶判定部34および表示出力部36に出力する。本実施の形態では、注目領域検出部33は、注目領域として、病変候補領域Lを検出する。注目領域検出部33の詳細な構成と、病変候補領域Lの検出方法については、後で説明する。
 検出途絶判定部34には、注目領域検出部33の検出結果が入力される。検出途絶判定部34は、入力された検出結果に基づいて、注目領域検出部33における注目領域の検出が途絶したか否かを判定する。また、検出途絶判定部34は、その判定結果を、表示判定部35に出力する。以下、注目領域の検出が途絶したと判定された判定結果を、途絶判定と言う。検出途絶判定部34における判定の方法については、後で説明する。
 表示判定部35には、検出途絶判定部34の判定結果が入力される。表示判定部35は、途絶判定が得られた場合に、検出が途絶した注目領域が表示部4の画面上に復帰するように支援する支援情報を表示部4に表示するか否かの判定である表示可否判定を行う。また、表示判定部35は、表示可否判定の結果を、表示出力部36に出力する。表示判定部35の詳細な構成と、表示可否判定の内容については、後で説明する。
 表示出力部36は、画像保存部32に保存された観察画像G1を読み出して、少なくとも観察画像G1を含む表示用画像Gを構成し、構成した表示用画像Gを表示部4に出力する。なお、表示出力部36は、画像保存部32に保存された観察画像G1の代わりに、画像取得部31によって出力された観察画像G1を用いて、表示用画像Gを構成してもよい。
 また、表示出力部36には、表示判定部35の表示可否判定の結果が入力される。表示可否判定において支援情報を表示部4に表示すると判定された場合には、表示出力部36は、表示用画像Gとして、支援情報を含む画像を構成し、構成した画像を表示部4に出力する。一方、表示可否判定において支援情報を表示部4に表示しないと判定された場合には、表示出力部36は、表示用画像Gとして、支援情報を含まない画像を構成し、構成した画像を表示部4に出力する。表示出力部36の詳細な構成と、表示用画像Gの構成については、後で説明する。
(注目領域検出部の構成)
 次に、図3を参照して、注目領域検出部33の構成について説明する。本実施の形態では、注目領域検出部33は、特徴量算出部331と、病変候補検出部332と、記憶部333とを含んでいる。記憶部333は、例えば図2に示したメモリ3Bまたは図示しない記憶装置によって構成されている。
 特徴量算出部331には、画像取得部31によって取得された観察画像G1が入力される。特徴量算出部331は、観察画像G1に含まれる画素の特徴量を算出し、算出した特徴量を病変候補検出部332に出力する。特徴量は、例えば、観察画像G1上の所定の小領域毎に、所定の小領域内の各画素と、当該画素に隣接する画素との変化量、すなわち、傾き値を演算して算出される。
 病変候補検出部332には、特徴量算出部331によって算出された特徴量が入力される。病変候補検出部332は、特徴量に基づいて、観察画像G1の病変候補領域Lを検出し、病変候補領域Lの検出結果、具体的には病変候補領域Lの位置および大きさ等の情報を含む病変候補情報を、検出途絶判定部34および表示出力部36に出力する。
 なお、注目領域検出部33の構成は、上記の例に限られない。例えば、注目領域検出部33は、深層学習等の機械学習の手法によって注目領域である病変候補領域Lを検出するように構成されていてもよい。
(病変候補領域の検出方法)
 以下、病変候補検出部332における病変候補領域Lの検出方法について説明する。病変候補領域Lの検出は、特徴量と、病変モデル情報とを比較することによって行われる。病変モデル情報は、多くの病変画像が共通して持つ特徴の特徴量によって構成される。記憶部333には、予め、複数の病変モデル情報が記憶されている。病変候補検出部332は、記憶部333から複数の病変モデル情報を読み出して、入力された特徴量と、複数の病変モデル情報とを比較して、病変候補領域Lを検出する。
 具体的には、病変候補検出部332は、例えば、特徴量検出部から入力される所定の小領域毎の特徴量と、病変モデル情報とを比較し、互いの特徴量が一致した領域を、病変候補領域Lとして検出する。
(検出途絶判定部における判定方法)
 次に、検出途絶判定部34における判定方法について説明する。前述のように、検出途絶判定部34は、注目領域検出部33の検出結果に基づいて、注目領域検出部33における注目領域の検出が途絶したか否かを判定する。注目領域の検出が途絶したか否かの判定は、注目領域検出部33において、注目領域が継続して検出されているか否かを監視することによって行われる。注目領域が継続して検出されている場合には、検出途絶判定部34は、注目領域検出部33における注目領域の検出が途絶していないと判定する。一方、注目領域の検出が途絶した場合には、検出途絶判定部34は、注目領域検出部33における注目領域の検出が途絶したと判定する。
 以下、病変候補領域Lを例にとって、具体的な判定方法の一例について説明する。検出途絶判定部34には、注目領域検出部33の検出結果として、病変候補領域Lの位置および大きさ等の情報を含む病変候補情報が入力される。検出途絶判定部34は、まず、現在の観察画像G1から検出された病変候補情報(以下、第1の病変候補情報と言う。)と、過去の観察画像G1、例えば現在の観察画像G1の1フレーム前の観察画像G1から検出された病変候補情報(以下、第2の病変候補情報と言う。)とを用いて、第1の病変候補情報によって示される病変候補領域Lと、第2の病変候補情報によって示される病変候補領域Lが、同一であるか否かを判定する。同一であるか否かの判定は、例えば、2つの病変候補領域Lの重なり具合に基づいて行われる。2つの病変候補領域Lが同一であると判定された場合には、検出途絶判定部34は、病変候補領域Lの検出が途絶していないと判定する。
 一方、2つの病変候補領域Lが同一でないと判定された場合には、検出途絶判定部34は、第2の病変候補情報によって示される病変候補領域Lの検出が途絶したと判定する。また、検出途絶判定部34は、第1の病変候補情報が得られない場合にも、第2の病変候補情報によって示される病変候補領域Lの検出が途絶したと判定する。
 なお、検出途絶判定部34は、第2の病変候補情報を記憶する図示しない記憶部を含んでいてもよい。図示しない記憶部は、例えば図2に示したメモリ3Bまたは図示しない記憶装置によって構成されている。
(表示判定部の構成)
 次に、図4を参照して、表示判定部35の構成について説明する。図4は、表示判定部35の構成を示す機能ブロック図である。表示判定部35は、途絶判定が得られた場合に表示可否判定を行う複数の判定部を含んでいる。本実施の形態では、表示判定部35は、詳細観察判定部351と、視認性判定部352と、重要性判定部353と、表示指示判定部354と、経過時間判定部355と、記憶部356とを含んでいる。記憶部356は、例えば図2に示したメモリ3Bまたは図示しない記憶装置によって構成されている。
 詳細観察判定部351は、注目領域である病変候補領域Lが詳細に観察されているか否かによって変化する詳細観察パラメータを算出し、算出された詳細観察パラメータに基づいて表示可否判定を行う。詳細観察パラメータは、例えば、内視鏡1の使用者が病変候補領域Lを詳細に観察した可能性が高くなるに従って大きな数値になるように規定される。
 本実施の形態では、詳細観察パラメータは、病変候補領域Lの形状変化量、病変候補領域Lの移動量および内視鏡1の観察モードのうちの少なくとも1つに基づいて算出される。病変候補領域Lの形状変化量と病変候補領域Lの移動量は、検出が途絶したと判定された病変候補領域Lに対応する複数の病変候補情報を用いて算出することができる。形状変化量と移動量が少ない場合、使用者が病変候補領域Lを詳細に観察した可能性が高くなる。従って、この場合には、詳細観察パラメータは、大きな数値なるように算出される。
 なお、記憶部356は、病変候補情報を記憶するように構成されている。詳細観察判定部351は、記憶部356から、検出が途絶したと判定された病変候補領域Lに対応する複数の病変候補情報を読み出して、病変候補領域Lの形状変化量と病変候補領域Lの移動量を算出してもよい。
 内視鏡1の観察モードは、例えば、操作ボタンや操作スイッチ等の任意の操作手段によって指定することができる。操作手段としては、例えば、図2に示した操作手段63を用いることができる。操作手段63は、本体部2の入出力部2Cに接続されている。本体部2の制御部21は、内視鏡1の観察モードの情報を画像処理装置3に出力する。詳細観察判定部351には、制御部21が出力した内視鏡1の観察モードの情報が入力される。例えば、検出が途絶したと判定された病変候補領域Lが、狭帯域光観察(Narrow Band Imaging)モードや被検体内を染色して観察するモードの選択時に得られた観察画像G1から検出された場合には、使用者が病変候補領域Lを詳細に観察した可能性が高くなる。従って、この場合には、詳細観察パラメータは、大きな数値なるように算出される。
 視認性判定部352は、注目領域である病変候補領域Lの視認のしやすさによって変化する視認性パラメータを算出し、算出された視認性パラメータに基づいて表示可否判定を行う。視認性パラメータは、例えば、病変候補領域Lが視認しやすいほど、大きな数値になるように規定される。
 本実施の形態では、視認性パラメータは、病変候補領域Lの色、形状およびテクスチャのうちの少なくとも1つに基づいて算出される。病変候補領域Lの色、形状およびテクスチャは、例えば、検出が途絶したと判定された病変候補領域Lの位置および大きさ等の情報と、この病変候補領域Lが検出された観察画像G1から取得することができる。病変候補領域Lの色、形状およびテクスチャが特徴的であるほど、病変候補領域Lが視認しやすくなる。従って、視認性パラメータは、病変候補領域Lの色、形状およびテクスチャが特徴的な場合、大きな数値なるように算出される。
 なお、前述のように、記憶部356は、病変候補情報を記憶するように構成されている。視認性判定部352は、記憶部356から、検出が途絶したと判定された病変候補領域Lに対応する病変候補情報を読み出すと共に、画像保存部32から、この病変候補情報が検出された観察画像G1を読み出して、病変候補領域Lの色、形状およびテクスチャを取得してもよい。
 重要性判定部353は、注目領域である病変候補領域Lの医学的な重要度を算出し、算出された重要度に基づいて表示可否判定を行う。本実施の形態では特に、重要性判定部353は、重要度と対応関係を有する重要度パラメータに基づいて表示可否判定を行う。重要度パラメータは、重要度が高くなるすなわち医学的な危険性が高くなるほど小さな数値になり、重要度が低くなるすなわち医学的な危険性が低くなるほど大きな数値になるように規定される。
 重要度は、病変候補領域Lの色、形状およびテクスチャのうちの少なくとも1つに基づいて算出される。重要性判定部353は、記憶部356から、検出が途絶したと判定された病変候補領域Lに対応する病変候補情報を読み出すと共に、画像保存部32から、この病変候補情報が検出された観察画像G1を読み出して、病変候補領域Lの色、形状およびテクスチャを取得してもよい。
 表示指示判定部354は、途絶判定が得られた場合に、内視鏡1の使用者による支援情報を表示するか否かの指示に基づいて表示可否判定を行う。支援情報を表示するか否かの指示は、例えば、図1に示した表示指示部6を介して取得される。本体部2の制御部21は、取得した指示の内容を画像処理装置3に出力する。表示指示判定部354には、制御部21が出力した指示の内容が入力される。
 本実施の形態では、支援情報を表示するか否かの指示は、使用者の視線、使用者の発言および使用者による指示手段の操作のうちの少なくとも1つによって行われる。図2に示したように、表示指示部6は、例えば、使用者の視線を検出するカメラ61、使用者の発言を検出するマイク62、および指示手段としての操作ボタンや操作スイッチ等の操作手段63とを含んでいる。
 なお、表示指示部6は、画像処理装置3に接続されていてもよい。この場合、表示指示判定部354が、直接、表示指示部6から指示の内容を取得してもよい。なお、この場合、図2に示したカメラ61、マイク62および操作手段63は、画像処理装置3の入出力部3Cに接続される。
 経過時間判定部355は、途絶判定が得られた時点からの経過時間を計測し、計測した経過時間に基づいて表示可否判定を行う。
 表示判定部35は、詳細観察判定部351、視認性判定部352、重要性判定部353、表示指示判定部354および経過時間判定部355の各々の判定結果に基づいて、表示出力部36に出力する判定結果の内容を決定し、決定した判定結果を表示出力部36に出力する。
 ここで、判定結果の内容の決定方法について説明する。判定結果の内容の決定は、例えば、以下のようにして行われる。まず、詳細観察判定部351、視認性判定部352、重要性判定部353および経過時間判定部355の各々において表示可否判定に用いられたパラメータを規格化して4つの規格化パラメータを算出する。これらの規格化パラメータは、例えば、支援情報を表示しないと判定される可能性が最も高くなる場合が1になり、支援情報を表示すると判定される可能性が最も低くなる場合が0になるように規格化される。また、表示指示判定部354において表示可否判定に用いられた指示を数値化して、規格化パラメータとする。この規格化パラメータは、支援情報を表示しない指示の場合は1であり、支援情報を表示する指示の場合は0である。そして、上記の5つの規格化パラメータのうち、最も数値が大きい規格化パラメータに基づいて、判定結果の内容を決定する。
 具体的には、例えば、最も数値が大きい規格化パラメータと所定の閾値(0よりも大きく1未満の値)とを比較する。最も数値が大きい規格化パラメータが所定の閾値以上の場合、表示判定部35は、表示出力部36に出力する判定結果を、支援情報を表示しないという内容に決定する。一方、最も数値が大きい規格化パラメータが所定の閾値未満の場合、表示判定部35は、表示出力部36に出力する判定結果を、支援情報を表示するという内容に決定する。
 なお、判定結果の内容の決定方法は、上記の方法に限られない。例えば、上記の5つの規格化パラメータを加重平均し、加重平均された規格化パラメータに基づいて、判定結果の内容を決定してもよい。
 また、表示判定部35の構成は、図4に示した例に限られない。例えば、表示判定部35は、図4に示した複数の判定部のうちの一部のみを含んでいてもよいし、図4に示した複数の判定部以外の判定部を含んでいてもよい。
(表示可否判定の内容)
 次に、詳細観察判定部351、視認性判定部352、重要性判定部353、表示指示判定部354および経過時間判定部355の各々において行われる表示可否判定の内容について説明する。始めに、図5を参照して、詳細観察判定部351において行われる表示可否判定について説明する。図5は、詳細観察判定部351、視認性判定部352、重要性判定部353および経過時間判定部355において行われる表示可否判定を示すフローチャートである。
 詳細観察判定部351は、途絶判定が得られた場合に、まず、詳細観察パラメータを算出する(ステップS11)。次に、詳細観察パラメータと所定の閾値とを比較する(ステップS12)。詳細観察パラメータが所定の閾値以上の場合(YES)、詳細観察判定部351は、支援情報を表示しないと判定する(ステップS13)。一方、詳細観察パラメータが所定の閾値未満の場合(NO)、詳細観察判定部351は、支援情報を表示すると判定する(ステップS14)。図5に示したステップS12,S13,S14が、詳細観察判定部351において行われる表示可否判定に対応する。
 なお、詳細観察パラメータが所定の閾値以上の場合は、病変候補領域Lが詳細に観察されていると推定される場合に相当する。詳細観察パラメータが所定の閾値未満の場合は、病変候補領域Lが詳細に観察されていないと推定される場合に相当する。
 視認性判定部352、重要性判定部353および経過時間判定部355において行われる表示可否判定の内容は、基本的には、詳細観察判定部351において行われる表示可否判定の内容と同様である。すなわち、視認性判定部352は、途絶判定が得られた場合に、まず、視認性パラメータを算出する(ステップS11)。次に、視認性パラメータと所定の閾値とを比較する(ステップS12)。視認性パラメータが所定の閾値以上の場合(YES)、視認性判定部352は、支援情報を表示しないと判定する(ステップS13)。一方、視認性パラメータが所定の閾値未満の場合(NO)、視認性判定部352は、支援情報を表示すると判定する(ステップS14)。図5に示したステップS12,S13,S14が、視認性判定部352において行われる表示可否判定に対応する。
 なお、視認性パラメータが所定の閾値以上の場合は、病変候補領域Lが視認しやすいものである場合に相当する。視認性パラメータが所定の閾値未満の場合は、病変候補領域Lが視認しにくいものである場合に相当する。
 また、重要性判定部353は、途絶判定が得られた場合に、まず、重要度を算出し、重要度と対応関係を有する重要度パラメータを算出する(ステップS11)。次に、重要度パラメータと所定の閾値とを比較する(ステップS12)。重要度パラメータが所定の閾値以上の場合(YES)、すなわち重要度が低い場合には、重要性判定部353は、支援情報を表示しないと判定する(ステップS13)。一方、重要度パラメータが所定の閾値未満の場合(NO)、すなわち重要度が高い場合には、重要性判定部353は、支援情報を表示すると判定する(ステップS14)。図5に示したステップS12,S13,S14が、重要性判定部353において行われる表示可否判定に対応する。
 また、経過時間判定部355は、途絶判定が得られた場合に、まず、途絶判定が得られた時点からの経過時間を計測する。経過時間は、図5のステップS11におけるパラメータに対応する。次に、パラメータである経過時間と所定の閾値とを比較する(ステップS12)。経過時間が所定の閾値以上の場合(YES)、経過時間判定部355は、支援情報を表示しないと判定する(ステップS13)。一方、経過時間が所定の閾値未満の場合(NO)、経過時間判定部355は、支援情報を表示すると判定する(ステップS14)。図5に示したステップS12,S13,S14が、経過時間判定部355において行われる表示可否判定に対応する。なお、経過時間判定部355において行われる表示可否判定は、例えば、途絶判定後、所定の間隔で繰り返し実行されてもよい。
 次に、図6を参照して、表示指示判定部354において行われる表示可否判定について説明する。図6は、表示指示判定部354において行われる表示可否判定を示すフローチャートである。表示指示判定部354は、途絶判定が得られた場合に、まず、支援情報を表示するか否かの指示の内容を取得する(ステップS21)。表示指示判定部354は、次に、取得した指示の内容に基づいて表示可否判定を行う(ステップS22)。取得した指示の内容が支援情報を表示しないという内容である場合、表示指示判定部354は、支援情報を表示しないと判定する。取得した指示の内容が支援情報を表示するという内容である場合、表示指示判定部354は、支援情報を表示すると判定する。なお、表示指示判定部354において行われる表示可否判定は、例えば、途絶判定後、所定の間隔で繰り返し実行されてもよい。
(表示出力部の構成)
 次に、図3を参照して、表示出力部36の構成について説明する。本実施の形態では、表示出力部36は、強調処理部361と支援情報処理部362とを含んでいる。表示出力部36は、画像保存部32から読み出した観察画像G1と、病変候補検出部332から入力される病変候補領域Lの検出結果すなわち病変候補情報と、表示判定部35から入力される判定結果に基づいて、強調処理および支援情報表示処理を行うことが可能である。
 強調処理部361は、病変候補検出部332において病変候補領域Lが検出された場合に、観察画像G1に対して強調処理を行う。強調処理は、病変候補領域Lの位置を強調して示す表示を行う処理である。具体的には、例えば、強調処理部361は、強調処理として、観察画像G1に対して、病変候補領域Lを囲むマーカ画像を付加する処理を行ってもよいし、病変候補領域Lの明るさや色調を周辺領域とは異なるものとする処理を行ってもよい。
 支援情報処理部362は、表示判定部35から入力された判定結果が、支援情報を表示するという内容である場合に、観察画像G1に対して支援情報表示処理を行う。支援情報表示処理は、注目領域である病変候補領域Lが表示部4の画面上から消失した場合に、病変候補領域Lの位置を示す表示を行う処理である。具体的には、例えば、支援情報処理部362は、支援情報表示処理として、観察画像G1に対して、消失した病変候補領域Lの位置や方向を示すアラート画像を付加する処理を行ってもよいし、観察画像G1の外枠の色を変化させる処理を行ってもよい。
 病変候補検出部332において病変候補領域Lが検出され、表示判定部35における判定結果が、支援情報を表示するという内容である場合、表示出力部36は、表示用画像Gとして、強調処理および支援情報表示処理が行われた観察画像G1、すなわち病変候補領域Lの位置を強調して示す表示と、支援情報として病変候補領域Lの位置を示す表示を含む画像を、表示部4(図1参照)に出力する。
 また、病変候補検出部332において病変候補領域Lが検出されず、表示判定部35における判定結果が、支援情報を表示するという内容である場合、表示出力部36は、表示用画像Gとして、強調処理が行われず支援情報表示処理が行われた観察画像G1、すなわち支援情報として病変候補領域Lの位置を示す表示を含むが、病変候補領域Lの位置を強調して示す表示は含まない画像を、表示部4に出力する。
 また、病変候補検出部332において病変候補領域Lが検出されず、表示判定部35における判定結果が、支援情報を表示しないという内容である場合、表示出力部36は、表示用画像Gとして、強調処理と支援情報表示処理が行われていない観察画像G1、すなわち病変候補領域Lの位置を強調して示す表示と、支援情報として病変候補領域Lの位置を示す表示を含まない画像を、表示部4に出力する。
(表示用画像の構成)
 次に、表示用画像Gの構成について説明する。図7は、表示用画像Gの構成の一例を示す説明図である。図7に示したように、表示出力部36から出力される表示用画像G上には、観察画像G1が配置される。図7には、観察画像G1の一例として、病変候補領域Lを有する大腸の内壁を表している。
 ここで、観察画像G1に対して行われる支援情報表示処理の第1の例と第2の例について説明する。図8は、観察画像G1の第1の例を示す説明図である。図10は、観察画像G1の第2の例を示す説明図である。
 図8に示したように、観察画像G1には、病変候補領域Lが表示されている。
 図9は、図8に示した観察画像G1から注目領域である病変候補領域Lが消失した状態を示している。図9では、特に、病変候補領域Lが、観察画像G1の外縁よりも外側に移動した例を示している。この状態では、病変候補領域Lは、表示部4の画面上には表示されない。観察画像G1に対して支援情報表示処理を行う場合、支援情報処理部362は、観察画像G1に対してアラート画像G2を付加する。図9には、アラート画像G2として、病変候補領域Lの位置と方向を三角形の頂点で示す画像を付加した例を示している。なお、アラート画像G2は、矢印等の他の画像であってもよい。
 図10は、観察画像G1の第2の例を示す説明図である。図10に示したように、観察画像G1には、ひだFの近傍に、病変候補領域Lが表示されている。
 図11は、図10に示した観察画像G1から病変候補領域Lが消失した状態を示している。図11では、特に、病変候補領域Lが、ひだFの裏側に隠れた例を示している。この状態では、病変候補領域Lは、表示部4の画面上には表示されない。観察画像G1に対して支援情報表示処理を行う場合、支援情報処理部362は、観察画像G1に対してアラート画像G2を付加する。図9には、アラート画像G2として、ひだFの裏側に隠れた病変候補領域Lが存在すると推定される位置と方向を三角形の頂点で示す画像を付加した例を示している。
 なお、観察画像G1に対して支援情報表示処理を行わない場合、すなわち、表示判定部35から入力される判定結果が、支援情報を表示しないという内容の場合、支援情報処理部362は、観察画像G1に対してアラート画像G2を付加しない。
(作用および効果)
 次に、本実施の形態に係わる画像処理装置3の作用および効果について説明する。本実施の形態では、表示判定部35は、途絶判定が得られた場合に、支援情報を表示部4に表示するか否かの判定である表示可否判定を行う。これにより、本実施の形態によれば、支援情報を適切に表示させることができる。具体的には、前述のように、表示可否判定において支援情報を表示すると判定された場合には、表示出力部36は、表示用画像Gとして、支援情報を更に含む画像を表示部4に出力する。一方、表示可否判定において支援情報を表示しないと判定された場合には、表示出力部36は、表示用画像Gとして、支援情報を含まない画像を表示部4に出力する。以下、本実施の形態の効果について詳しく説明する。
 注目領域である病変候補領域Lが表示部4の画面上から消失した場合であって、病変候補領域Lに対する詳細な観察が完了している場合には、内視鏡1の使用者の負担を軽減したり、支援情報によって他の病変候補領域Lが隠れないようにしたりする観点から、支援情報を表示しないことが好ましい。本実施の形態では、表示判定部35には、詳細観察判定部351が設けられている。詳細観察判定部351は、詳細観察パラメータに基づいて、病変候補領域Lが詳細に観察されていると推定される場合には、支援情報を表示しないと判定し、病変候補領域Lが詳細に観察されていないと推定される場合には、支援情報を表示すると判定する。これにより、本実施の形態によれば、支援情報を適切に表示させることができる。
 また、消失した病変候補領域Lが視認しやすいものである場合、病変候補領域Lに対する詳細な観察が完了している可能性がある。一方、消失した病変候補領域Lが視認しにくいものである場合、病変候補領域Lを見落としている可能性がある。本実施の形態では、表示判定部35には、視認性判定部352が設けられている。視認性判定部352は、視認性パラメータに基づいて、病変候補領域Lが視認しやすいものである場合には、支援情報を表示しないと判定し、病変候補領域Lが視認しにくいものである場合には、支援情報を表示すると判定する。これにより、本実施の形態によれば、支援情報を適切に表示させることができる。
 また、消失した病変候補領域Lの重要度が低い場合には、消失した病変候補領域Lを復帰させて観察する必要性は少ない。しかし、消失した病変候補領域Lの重要度が高い場合には、消失した病変候補領域Lを復帰させて詳細に観察することが好ましい。本実施の形態では、表示判定部35には、重要性判定部353が設けられている。重要性判定部353は、重要度が低い場合には、支援情報を表示しないと判定し、重要度が高い場合には、支援情報を表示すると判定する。これにより、本実施の形態によれば、支援情報を適切に表示させることができる。
 また、本実施の形態では、表示判定部35には、表示指示判定部354が設けられている。表示指示判定部354は、内視鏡1の使用者による支援情報を表示するか否かの指示によって基づいて表示可否判定を行う。すなわち、本実施の形態によれば、直接的な指示によって、支援情報を表示するか否かの選択を行うことができる。これにより、本実施の形態によれば、支援情報を適切に表示させることができる。
 また、病変候補領域Lが消失してからの時間が十分に長い場合には、消失した病変候補領域Lを復帰させて観察する意思がない可能性が高い。本実施の形態では、表示判定部35には、経過時間判定部355が設けられている。経過時間判定部355は、病変候補領域Lが消失してからの時間がある程度長くなった場合には、支援情報を表示しないと判定する。これにより、本実施の形態によれば、支援情報を適切に表示させることができる。
 なお、表示指示判定部354以外の判定部によって行われる表示可否判定は、いずれも、使用者の指示がない場合であっても、自動的に、支援情報を表示するか否かの選択を行うものである。これにより、本実施の形態によれば、使用者の負担を低減することができる。
[第2の実施の形態]
(画像処理装置の構成)
 次に、本発明の第2の実施の形態に係わる画像処理装置について説明する。図12は、本実施の形態に係わる画像処理装置の構成を示す機能ブロック図である。本実施の形態に係わる画像処理装置3は、位置推定部37を備えている。位置推定部37は、記憶部371を含んでいる。記憶部371は、例えば、第1の実施の形態における図2に示したメモリ3Bまたは図示しない記憶装置によって構成されている。
 位置推定部37には、検出途絶判定部34の判定結果が入力される。また、位置推定部37は、画像保存部32に保存された観察画像G1を読み出すことができるように構成されている。位置推定部37は、途絶判定後の注目領域である病変候補領域Lの位置を推定し、病変候補領域Lの推定位置を表示判定部35に出力する。病変候補領域Lの位置の推定方法については、後で説明する。
 また、図13は、本実施の形態における表示判定部35の構成を示す機能ブロック図である。第1の実施の形態で説明したように、表示判定部35は、検出が途絶した注目領域である病変候補領域Lが表示部4の画面上に復帰するように支援する支援情報を表示部4に表示するか否かの判定である表示可否判定を行う。本実施の形態では、表示判定部35は、第1の実施の形態における複数の判定部と記憶部356の他に、復帰動作判定部357と、枠外距離判定部358とを含んでいる。
 復帰動作判定部357は、注目領域である病変候補領域Lが表示部4の画面上に復帰するように内視鏡1を操作する復帰動作が行われているか否かによって変化する復帰動作パラメータを算出し、算出された復帰動作パラメータに基づいて表示可否判定を行う。復帰動作パラメータは、例えば、復帰動作が行われている可能性が低くなるに従って大きな数値になるように規定される。
 本実施の形態では、復帰動作パラメータは、位置推定部37によって推定された病変候補領域Lの推定位置の変化に基づいて算出される。病変候補領域Lの推定位置が、現在の観察画像G1上の任意の点から遠ざかるように変化している場合には、復帰動作が行われている可能性は低い。従って、この場合には、復帰動作パラメータは、大きな数値になるように算出される。
 枠外距離判定部358は、観察画像G1の外縁から位置推定部37によって推定された病変候補領域Lの推定位置までの距離である枠外距離を算出し、算出した枠外距離に基づいて表示可否判定を行う。
 本実施の形態では、表示判定部35は、少なくとも、復帰動作判定部357および枠外距離判定部358の各々の判定結果に基づいて、表示出力部36に出力する判定結果の内容を決定し、決定した判定結果を表示出力部36に出力する。判定結果の内容の決定方法は、第1の実施の形態における、表示判定部35の複数の判定部の各々の判定結果に基づいて判定結果の内容を決定する方法と同様である。
 また、第1の実施の形態で説明したように、表示可否判定において支援情報を表示部4に表示すると判定された場合には、表示出力部36は、表示用画像Gとして、支援情報を含む画像を構成し、構成した画像を表示部4に出力する。本実施の形態では、位置推定部37において注目領域である病変候補領域Lの位置が推定され且つ表示可否判定において支援情報を表示すると判定された場合には、表示出力部36の支援情報処理部362は、支援情報表示処理として、病変候補領域Lの推定位置に応じて支援情報を変化させる処理を行う。この場合、支援情報処理部362には、位置推定部37から病変候補領域Lの推定位置が入力される。なお、位置推定部37は、表示判定部35を介して病変候補領域Lの推定位置を支援情報処理部362に出力してもよいし、直接、病変候補領域Lの推定位置を支援情報処理部362に出力してもよい。
(病変候補領域の位置の推定方法)
 次に、位置推定部37における病変候補領域Lの位置の推定方法について説明する。位置推定部37は、第1の変位情報と第2の変位情報を生成し、第1の変位情報と第2の変位情報に基づいて、病変候補領域Lの位置を推定する。
 始めに、第1の変位情報について説明する。位置推定部37は、病変候補領域Lが継続して検出されている場合、すなわち、検出途絶判定部34において病変候補領域Lの検出が途絶していないと判定された場合に、病変候補領域Lの変位量および変位方向を示す情報である第1の変位情報を生成する。
 位置推定部37は、例えば、以下のようにして第1の変位情報を生成する。まず、位置推定部37は、連続する2フレームの観察画像G1の各々から検出された病変候補情報から、病変候補領域Lの重心を算出する。次に、位置推定部37は、連続する2フレーム間における重心の動きを表す第1の動きベクトルを算出する。次に、位置推定部37は、第1の動きベクトルに基づいて重心の速度および加速度を算出する。次に、位置推定部37は、算出された重心の速度および加速度のうちの少なくとも1つに基づいて、第1の変位情報を生成する。
 位置推定部37は、病変候補領域Lが継続して検出されている間、第1の変位情報を繰り返し生成する。生成された第1の変位情報は、記憶部371に記憶される。
 次に、第2の変位情報について説明する。位置推定部37は、病変候補領域Lの検出が途絶した場合、すなわち、検出途絶判定部34において病変候補領域Lの検出が途絶したと判定された途絶判定が得られた場合に、観察画像G1の任意の点の変位量および変位方向を示す情報である第2の変位情報を生成する。
 位置推定部37は、例えば、以下のようにして第2の変位情報を生成する。まず、位置推定部37は、画像保存部32から、現在の観察画像G1(以下、第1の観察画像G1と記す。)を読み出す。次に、位置推定部37は、第1の観察画像G1において位置推定部37が追跡可能な任意の点(以下、追跡点と記す。)を設定する。次に、位置推定部37は、画像保存部32から、第1の観察画像G1の次のフレームの観察画像G1(以下、第2の観察画像G1と記す。)を読み出す。次に、位置推定部37は、第2の観察画像G1における追跡点の位置を検出する。位置推定部37は、第1の観察画像G1と第2の観察画像G1の間における追跡点の動きを表す第2の動きベクトルを算出する。次に、位置推定部37は、第2の動きベクトルに基づいて追跡点の速度および加速度を算出する。次に、位置推定部37は、算出された追跡点の速度および加速度のうちの少なくとも1つに基づいて、第2の変位情報を生成する。
 位置推定部37は、病変候補領域Lの検出が途絶している間、第2の変位情報を繰り返し生成する。生成された第2の変位情報は、記憶部371に記憶される。
 次に、病変候補領域Lの位置の推定方法について説明する。位置推定部37は、第1の変位情報と第2の変位情報に基づいて、途絶判定が得られた時点よりも後の病変候補領域Lの位置を推定する。より具体的に説明すると、位置推定部37は、第2の変位情報を用いて、途絶判定が得られた時点よりも後の観察画像G1に含まれる被写体の動きを検出し、検出された被写体の動きを第1の変位情報に合成することによって、途絶判定が得られた時点よりも後の病変候補領域Lの位置を推定する。
 なお、位置推定部37は、途絶判定が得られる直前の第1の変位情報に基づいて、病変候補領域Lが、観察画像G1の外縁よりも外側に位置するのか、観察画像G1の外縁よりも内側に位置するのかを判定する。病変候補領域Lが観察画像G1の外縁よりも外側に位置することが判定された場合、位置推定部37は、第2の変位情報に基づいて、観察画像G1の外縁よりも外側の領域に存在する病変候補領域Lの位置を推定する。病変候補領域Lが観察画像G1の外縁よりも内側に位置することが判定された場合、位置推定部37は、第2の変位情報に基づいて、観察画像G1中に存在する病変候補領域Lの位置を推定する。
(表示可否判定の内容)
 次に、復帰動作判定部357および枠外距離判定部358の各々において行われる表示可否判定について説明する。第1の実施の形態において図5に示したフローチャートは、復帰動作判定部357および枠外距離判定部358の各々において行われる表示可否判定も示している。
 始めに、復帰動作判定部357において行われる表示可否判定について説明する。復帰動作判定部357は、途絶判定が得られた場合に、まず、復帰動作パラメータを算出する(図5のステップS11)。次に、復帰動作パラメータと所定の閾値とを比較する(図5のステップS12)。復帰動作パラメータが所定の閾値以上の場合(YES)、復帰動作判定部357は、支援情報を表示しないと判定する(図5のステップS13)。一方、復帰動作パラメータが所定の閾値未満の場合(NO)、復帰動作判定部357は、支援情報を表示すると判定する(図5のステップS14)。図5に示したステップS12,S13,S14が、復帰動作判定部357において行われる表示可否判定に対応する。
 なお、復帰動作パラメータが所定の閾値以上の場合は、復帰動作が行われていないと推定される場合に相当する。復帰動作パラメータが所定の閾値未満の場合は、復帰動作が行われていると推定される場合に相当する。復帰動作判定部357において行われる表示可否判定は、例えば、途絶判定後、所定の間隔で繰り返し実行されてもよい。
 次に、枠外距離判定部358において行われる表示可否判定について説明する。枠外距離判定部358は、途絶判定が得られた場合に、まず、枠外距離を算出する。枠外距離は、図5のステップS11におけるパラメータに対応する。次に、パラメータである枠外距離と所定の閾値とを比較する(図5のステップS12)。枠外距離が所定の閾値以上の場合(YES)、枠外距離判定部358は、支援情報を表示しないと判定する(図5のステップS13)。一方、枠外距離が所定の閾値未満の場合(NO)、枠外距離判定部358は、支援情報を表示すると判定する(図5のステップS14)。図5に示したステップS12,S13,S14が、枠外距離判定部358において行われる表示可否判定に対応する。
 なお、枠外距離判定部358において行われる表示可否判定は、例えば、途絶判定後、所定の間隔で繰り返し実行されてもよい。
(支援情報の例)
 次に、位置推定部37において注目領域である病変候補領域Lの位置が推定され且つ表示可否判定において支援情報を表示すると判定された場合に行われる、病変候補領域Lの推定位置に応じて支援情報を変化させる処理の例について説明する。図14は、支援情報の第1の例を示す説明図である。図14は、第1の実施の形態における図9と同様に、病変候補領域Lが観察画像G1の外縁よりも外側に移動することによって、観察画像G1から病変候補領域Lが消失した状態を示している。図14には、位置推定部37によって推定される病変候補領域Lの位置が、図9に示した状態よりも、観察画像G1の外縁からより遠い場合を示している。図9および図14に示したように、支援情報処理部362は、観察画像G1の外縁から病変候補領域Lまでの距離が大きくなるに従って、支援情報であるアラート画像G2(三角形)を大きくしてもよい。
 図15は、支援情報の第2の例を示す説明図である。図15は、第1の実施の形態における図11と同様に、病変候補領域LがひだFの裏側に隠れることによって、観察画像G1から病変候補領域Lが消失した状態を示している。図15には、位置推定部37によって推定される病変候補領域Lの位置が、図9に示した状態から変化した例を示している。図11および図15に示したように、支援情報処理部362は、病変候補領域Lの推定位置の変化に追従するように、支援情報であるアラート画像G2(三角形)の位置を変化させてもよい。
(作用および効果)
 次に、本実施の形態特有の作用および効果について説明する。本実施の形態では、位置推定部37によって、途絶判定が得られた時点よりも後の注目領域である病変候補領域Lの位置が推定される。表示判定部35は、少なくとも、病変候補領域Lの推定位置に基づいて、表示可否判定を行う。これにより、本実施の形態によれば、支援情報を適切に表示させることができる。以下、この効果について詳しく説明する。
 注目領域である病変候補領域Lが表示部4の画面上から消失した場合であって、復帰動作が行われていない場合には、内視鏡1の使用者の負担を軽減したり、支援情報によって他の病変候補領域Lが隠れないようにしたりする観点から、支援情報を表示しないことが好ましい。本実施の形態では、表示判定部35には、復帰動作判定部357が設けられている。復帰動作判定部357は、病変候補領域Lの推定位置の変化に基づいて復帰動作パラメータを算出し、算出した復帰動作パラメータに基づいて、復帰動作が行われていないと推定される場合には、支援情報を表示しないと判定し、復帰動作が行われていると推定される場合には、支援情報を表示すると判定する。これにより、本実施の形態によれば、支援情報を適切に表示させることができる。
 なお、復帰動作は、内視鏡1の使用者が、途絶判定後に消失した病変候補領域Lを復帰させて観察する意思がある場合に実行されるものである。本実施の形態によれば、復帰動作判定部357によって、途絶判定後の使用者の意思を推定することができる。
 また、病変候補領域Lが観察画像G1の外縁の外側に移動し、観察画像G1の外縁から病変候補領域Lまでの距離が十分に大きい場合には、消失した病変候補領域Lを復帰させて観察する意思がない可能性が高い。本実施の形態では、表示判定部35には、枠外距離判定部358が設けられている。枠外距離判定部358は、枠外距離がある程度大きくなった場合には、支援情報を表示しないと判定する。これにより、本実施の形態によれば、支援情報を適切に表示させることができる。
 本実施の形態におけるその他の構成、作用および効果は、第1の実施の形態と同様である。
[第3の実施の形態]
 次に、本発明の第3の実施の形態に係わる画像処理装置について説明する。図16は、本実施の形態に係わる画像処理装置の構成を示す機能ブロック図である。本実施の形態に係わる画像処理装置3は、逆再生表示部38を備えている。
 逆再生表示部38には、検出途絶判定部34の判定結果が入力される。また、逆再生表示部38は、画像保存部32に保存された観察画像G1を読み出すことができるように構成されている。逆再生表示部38は、検出途絶判定部34において途絶判定が得られた第1の時点からこの第1の時点よりも後の第2の時点までに画像保存部32に時系列順に保存された複数の観察画像G1を読み出す。そして、逆再生表示部38は、読み出した複数の観察画像G1を用いて、表示部4(図1参照)において上記の時系列とは逆の順序で表示される動画像G3を生成し、生成した動画像G3を表示出力部36に出力する。
 また、第1の実施の形態で説明したように、表示判定部35における表示可否判定において支援情報を表示部4に表示すると判定された場合には、表示出力部36は、表示用画像Gとして、支援情報を含む画像を構成し、構成した画像を表示部4に出力する。本実施の形態では、表示出力部36は、支援情報として、第1の実施の形態で説明したアラート画像G2の他に、動画像G3を用いる。
 図17は、本実施の形態における表示用画像Gの一例を示している。図17には、第1の実施の形態における図9と同様に、病変候補領域Lが観察画像G1の外縁よりも外側に移動して、観察画像G1から注目領域である病変候補領域Lが消失した状態を示している。図17に示した例では、動画像G3は、観察画像G1の横に表示されている。
 なお、動画像G3を表示するか否かの判定は、アラート画像G2を表示するか否かの判定とは別に行われてもよい。この場合、表示判定部35は、例えば、動画像G3を表示するか否かの指示に基づいて、動画像G3を表示するか否かの判定を行う。動画像G3を表示するか否かの指示は、例えば、第1の実施の形態における図1に示した表示指示部6を介して取得されてもよい。
 本実施の形態におけるその他の構成、作用および効果は、第1の実施の形態と同様である。
 本発明は、上述した実施の形態に限定されるものではなく、本発明の要旨を変えない範囲において、種々の変更、改変等が可能である。例えば、画像処理装置3のハードウェア構成は、図2を参照して説明した例に限られない。具体的には、例えば、画像処理装置3の画像取得部31、注目領域検出部33、検出途絶判定部34、表示判定部35、表示出力部36、位置推定部37(第2の実施の形態)および逆再生表示部38(第3の実施の形態)は、1つのプロセッサによって実現されてもよいし、複数のプロセッサによって実現されてもよい。後者の場合、画像取得部31、注目領域検出部33、検出途絶判定部34、表示判定部35、表示出力部36、位置推定部37および逆再生表示部38は、それぞれ別々のプロセッサによって実現されてもよい。

Claims (17)

  1.  内視鏡によって撮影された被写体の画像を取得する画像取得部と、
     少なくとも前記画像取得部によって取得された前記画像を含む表示用画像を表示部に出力する表示出力部と、
     前記画像取得部によって取得された前記画像に含まれる注目領域を検出する注目領域検出部と、
     前記注目領域検出部における前記注目領域の検出が途絶したか否かを判定する検出途絶判定部と、
     前記検出途絶判定部において前記注目領域の検出が途絶したと判定された判定結果である途絶判定が得られた場合に、検出が途絶した前記注目領域が前記表示部の画面上に復帰するように支援する支援情報を前記表示部に表示するか否かの判定である表示可否判定を行う表示判定部とを備え、
     前記表示可否判定において前記支援情報を表示すると判定された場合には、前記表示出力部は、前記表示用画像として、前記支援情報を更に含む画像を前記表示部に出力し、
     前記表示可否判定において前記支援情報を表示しないと判定された場合には、前記表示出力部は、前記表示用画像として、前記支援情報を含まない画像を前記表示部に出力することを特徴とする内視鏡画像処理装置。
  2.  前記表示判定部は、詳細観察判定部を含み、
     前記詳細観察判定部は、前記注目領域が詳細に観察されているか否かによって変化する詳細観察パラメータを算出し、前記詳細観察パラメータに基づいて前記表示可否判定を行うことを特徴とする請求項1に記載の内視鏡画像処理装置。
  3.  前記詳細観察パラメータは、前記注目領域の形状変化量、前記注目領域の移動量および前記内視鏡の観察モードのうちの少なくとも1つに基づいて算出されることを特徴とする請求項2に記載の内視鏡画像処理装置。
  4.  前記表示判定部は、視認性判定部を含み、
     前記視認性判定部は、前記注目領域の視認のしやすさによって変化する視認性パラメータを算出し、前記視認性パラメータに基づいて前記表示可否判定を行うことを特徴とする請求項1に記載の内視鏡画像処理装置。
  5.  前記視認性パラメータは、前記注目領域の色、形状およびテクスチャのうちの少なくとも1つに基づいて算出されることを特徴とする請求項4に記載の内視鏡画像処理装置。
  6.  前記表示判定部は、重要性判定部を含み、
     前記重要性判定部は、前記注目領域の重要度を算出し、前記重要度に基づいて前記表示可否判定を行うことを特徴とする請求項1に記載の内視鏡画像処理装置。
  7.  前記重要度は、前記注目領域の色、形状およびテクスチャのうちの少なくとも1つに基づいて算出されることを特徴とする請求項6に記載の内視鏡画像処理装置。
  8.  前記表示判定部は、表示指示判定部を含み、
     前記表示指示判定部は、前記途絶判定が得られた場合に、前記内視鏡の使用者による前記支援情報を表示するか否かの指示に基づいて前記表示可否判定を行うことを特徴とする請求項1に記載の内視鏡画像処理装置。
  9.  前記指示は、前記使用者の視線、前記使用者の発言および前記使用者による指示手段の操作のうちの少なくとも1つによって行われることを特徴とする請求項8に記載の内視鏡画像処理装置。
  10.  前記表示判定部は、経過時間判定部を含み、
     前記経過時間判定部は、前記途絶判定が得られた時点からの経過時間を計測し、前記経過時間に基づいて前記表示可否判定を行うことを特徴とする請求項1に記載の内視鏡画像処理装置。
  11.  更に、前記途絶判定後の前記注目領域の位置を推定する位置推定部を備え、
     前記位置推定部において前記注目領域の位置が推定され且つ前記表示可否判定において前記支援情報を表示すると判定された場合には、前記表示出力部は、前記注目領域の推定位置に応じて前記支援情報を変化させることを特徴とする請求項1に記載の内視鏡画像処理装置。
  12.  前記表示判定部は、復帰動作判定部を含み、
     前記復帰動作判定部は、前記注目領域が前記表示部の画面上に復帰するように前記内視鏡を操作する復帰動作が行われているか否かによって変化する復帰動作パラメータを算出し、前記復帰動作パラメータに基づいて前記表示可否判定を行うことを特徴とする請求項11に記載の内視鏡画像処理装置。
  13.  前記復帰動作パラメータは、前記位置推定部によって推定された前記注目領域の位置の変化に基づいて算出されることを特徴とする請求項12に記載の内視鏡画像処理装置。
  14.  前記表示判定部は、枠外距離判定部を含み、
     前記枠外距離判定部は、前記画像の外縁から前記位置推定部によって推定された前記注目領域の位置までの距離を算出し、前記距離に基づいて前記表示可否判定を行うことを特徴とする請求項11に記載の内視鏡画像処理装置。
  15.  更に、前記画像取得部によって取得された前記画像を保存する画像保存部と、
     逆再生表示部とを備え、
     前記逆再生表示部は、前記途絶判定が得られた第1の時点から前記第1の時点よりも後の第2の時点までに前記画像保存部に時系列順に保存された複数の前記画像を用いて、前記表示部において前記時系列とは逆の順序で表示される動画像を生成することを特徴とする請求項1に記載の内視鏡画像処理装置。
  16.  前記表示可否判定において前記支援情報を表示すると判定された場合には、前記表示出力部は、前記支援情報として、前記動画像を用いることを特徴とする請求項15に記載の内視鏡画像処理装置。
  17.  内視鏡によって撮影された被写体の画像を取得するステップと、
     少なくとも取得された前記画像を含む表示用画像を表示部に出力するステップと、
     取得された前記画像に含まれる注目領域を検出するステップと、
     前記注目領域の検出が途絶したか否かを判定するステップと、
     前記注目領域の検出が途絶したと判定された判定結果である途絶判定が得られた場合に、検出が途絶した前記注目領域が前記表示部の画面上に復帰するように支援する支援情報を前記表示部に表示するか否かの判定である表示可否判定を行うステップとを含み、
     前記表示可否判定において前記支援情報を表示すると判定された場合には、前記表示用画像として、前記支援情報を更に含む画像を前記表示部に出力し、
     前記表示可否判定において前記支援情報を表示しないと判定された場合には、前記表示用画像として、前記支援情報を含まない画像を前記表示部に出力することを特徴とする内視鏡画像処理方法。
PCT/JP2018/023341 2018-06-19 2018-06-19 内視鏡画像処理装置および内視鏡画像処理方法 Ceased WO2019244255A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020525130A JP7045453B2 (ja) 2018-06-19 2018-06-19 内視鏡画像処理装置、内視鏡画像処理装置の作動方法およびプログラム
PCT/JP2018/023341 WO2019244255A1 (ja) 2018-06-19 2018-06-19 内視鏡画像処理装置および内視鏡画像処理方法
CN201880092214.2A CN112040830B (zh) 2018-06-19 2018-06-19 内窥镜图像处理装置、内窥镜图像处理方法和记录介质
US17/126,537 US11871903B2 (en) 2018-06-19 2020-12-18 Endoscopic image processing apparatus, endoscopic image processing method, and non-transitory computer readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/023341 WO2019244255A1 (ja) 2018-06-19 2018-06-19 内視鏡画像処理装置および内視鏡画像処理方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/126,537 Continuation US11871903B2 (en) 2018-06-19 2020-12-18 Endoscopic image processing apparatus, endoscopic image processing method, and non-transitory computer readable recording medium

Publications (1)

Publication Number Publication Date
WO2019244255A1 true WO2019244255A1 (ja) 2019-12-26

Family

ID=68983842

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/023341 Ceased WO2019244255A1 (ja) 2018-06-19 2018-06-19 内視鏡画像処理装置および内視鏡画像処理方法

Country Status (4)

Country Link
US (1) US11871903B2 (ja)
JP (1) JP7045453B2 (ja)
CN (1) CN112040830B (ja)
WO (1) WO2019244255A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021153471A1 (ja) * 2020-01-27 2021-08-05
WO2021201272A1 (ja) * 2020-04-03 2021-10-07 富士フイルム株式会社 医療画像処理装置、内視鏡システム及び医療画像処理装置の作動方法並びに医療画像処理装置用プログラム
CN113842162A (zh) * 2020-06-25 2021-12-28 株式会社日立制作所 超声波诊断装置以及诊断辅助方法
JPWO2022190740A1 (ja) * 2021-03-09 2022-09-15
WO2022191128A1 (ja) * 2021-03-09 2022-09-15 富士フイルム株式会社 内視鏡システム及びその作動方法
WO2022191129A1 (ja) * 2021-03-09 2022-09-15 富士フイルム株式会社 内視鏡システム及びその作動方法
WO2024028924A1 (ja) * 2022-08-01 2024-02-08 日本電気株式会社 内視鏡検査支援装置、内視鏡検査支援方法、及び、記録媒体

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7038641B2 (ja) * 2018-11-02 2022-03-18 富士フイルム株式会社 医療診断支援装置、内視鏡システム、及び作動方法
CN113226151B (zh) * 2018-12-28 2024-06-18 奥林巴斯株式会社 内窥镜图像处理装置、显示控制方法及存储介质
US11790524B2 (en) * 2019-06-20 2023-10-17 Ohio State Innovation Foundation System and method for quantitative volumetric assessment and modeling of tumor lesions
JP7567804B2 (ja) * 2019-10-17 2024-10-16 ソニーグループ株式会社 手術用情報処理装置、手術用情報処理方法及び手術用情報処理プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011010841A (ja) * 2009-07-01 2011-01-20 Hoya Corp 内視鏡装置
JP2011224038A (ja) * 2010-04-15 2011-11-10 Olympus Corp 画像処理装置及びプログラム
JP2013231772A (ja) * 2012-04-27 2013-11-14 Morita Mfg Co Ltd 医療用診療装置
WO2014084134A1 (ja) * 2012-11-30 2014-06-05 オリンパス株式会社 観察装置
WO2018078724A1 (ja) * 2016-10-25 2018-05-03 オリンパス株式会社 内視鏡画像処理装置及び内視鏡画像処理方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2111147B1 (en) * 2007-01-19 2016-06-29 Sunnybrook Health Science Centre Scanning mechanisms for imaging probe
JP2009225933A (ja) * 2008-03-21 2009-10-08 Fujifilm Corp カプセル内視鏡システム及びカプセル内視鏡の動作制御方法
JP5802364B2 (ja) * 2009-11-13 2015-10-28 オリンパス株式会社 画像処理装置、電子機器、内視鏡システム及びプログラム
JP5484977B2 (ja) * 2010-03-23 2014-05-07 オリンパス株式会社 蛍光観察装置
JP2011255006A (ja) 2010-06-09 2011-12-22 Olympus Corp 画像処理装置、内視鏡装置、プログラム及び画像処理方法
JP5580758B2 (ja) * 2011-02-22 2014-08-27 オリンパス株式会社 蛍光観察装置
WO2012147820A1 (ja) * 2011-04-28 2012-11-01 オリンパス株式会社 蛍光観察装置とその画像表示方法
JP6017219B2 (ja) * 2012-08-01 2016-10-26 オリンパス株式会社 蛍光観察装置および蛍光観察システム
JP6196922B2 (ja) * 2014-03-17 2017-09-13 オリンパス株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
WO2017002184A1 (ja) * 2015-06-29 2017-01-05 オリンパス株式会社 画像処理装置、内視鏡システム、画像処理方法、及び画像処理プログラム
JP6315873B2 (ja) * 2015-10-26 2018-04-25 オリンパス株式会社 内視鏡画像処理装置
WO2017203560A1 (ja) * 2016-05-23 2017-11-30 オリンパス株式会社 内視鏡画像処理装置
JP6833978B2 (ja) * 2017-03-30 2021-02-24 富士フイルム株式会社 内視鏡システム、プロセッサ装置、及び、内視鏡システムの作動方法
WO2019106712A1 (ja) 2017-11-28 2019-06-06 オリンパス株式会社 内視鏡画像処理装置及び内視鏡画像処理方法
JP2019180966A (ja) * 2018-04-13 2019-10-24 学校法人昭和大学 内視鏡観察支援装置、内視鏡観察支援方法、及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011010841A (ja) * 2009-07-01 2011-01-20 Hoya Corp 内視鏡装置
JP2011224038A (ja) * 2010-04-15 2011-11-10 Olympus Corp 画像処理装置及びプログラム
JP2013231772A (ja) * 2012-04-27 2013-11-14 Morita Mfg Co Ltd 医療用診療装置
WO2014084134A1 (ja) * 2012-11-30 2014-06-05 オリンパス株式会社 観察装置
WO2018078724A1 (ja) * 2016-10-25 2018-05-03 オリンパス株式会社 内視鏡画像処理装置及び内視鏡画像処理方法

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021153471A1 (ja) * 2020-01-27 2021-08-05 富士フイルム株式会社 医療画像処理装置、医療画像処理方法、及びプログラム
CN114980799A (zh) * 2020-01-27 2022-08-30 富士胶片株式会社 医疗图像处理装置、医疗图像处理方法及程序
CN114980799B (zh) * 2020-01-27 2025-09-12 富士胶片株式会社 医疗图像处理装置、医疗图像处理方法及记录介质
US12383142B2 (en) 2020-01-27 2025-08-12 Fujifilm Corporation Medical image processing apparatus, medical image processing method, and program
JPWO2021153471A1 (ja) * 2020-01-27 2021-08-05
JP2025078874A (ja) * 2020-01-27 2025-05-20 富士フイルム株式会社 医療画像処理装置、医療画像処理方法、及びプログラム
EP4099080A4 (en) * 2020-01-27 2023-07-12 FUJIFILM Corporation MEDICAL IMAGE PROCESSING DEVICE, MEDICAL IMAGE PROCESSING METHOD AND PROGRAM
WO2021201272A1 (ja) * 2020-04-03 2021-10-07 富士フイルム株式会社 医療画像処理装置、内視鏡システム及び医療画像処理装置の作動方法並びに医療画像処理装置用プログラム
JPWO2021201272A1 (ja) * 2020-04-03 2021-10-07
JP7610582B2 (ja) 2020-04-03 2025-01-08 富士フイルム株式会社 医療画像処理装置、内視鏡システム及び医療画像処理装置の作動方法並びに医療画像処理装置用プログラム
CN113842162B (zh) * 2020-06-25 2024-05-10 富士胶片医疗健康株式会社 超声波诊断装置以及诊断辅助方法
CN113842162A (zh) * 2020-06-25 2021-12-28 株式会社日立制作所 超声波诊断装置以及诊断辅助方法
WO2022191129A1 (ja) * 2021-03-09 2022-09-15 富士フイルム株式会社 内視鏡システム及びその作動方法
WO2022190740A1 (ja) * 2021-03-09 2022-09-15 富士フイルム株式会社 内視鏡システム及びその作動方法
WO2022191128A1 (ja) * 2021-03-09 2022-09-15 富士フイルム株式会社 内視鏡システム及びその作動方法
JPWO2022190740A1 (ja) * 2021-03-09 2022-09-15
WO2024029503A1 (ja) * 2022-08-01 2024-02-08 日本電気株式会社 内視鏡検査支援装置、内視鏡検査支援方法、及び、記録媒体
WO2024028924A1 (ja) * 2022-08-01 2024-02-08 日本電気株式会社 内視鏡検査支援装置、内視鏡検査支援方法、及び、記録媒体

Also Published As

Publication number Publication date
US11871903B2 (en) 2024-01-16
CN112040830B (zh) 2024-08-23
JP7045453B2 (ja) 2022-03-31
US20210106208A1 (en) 2021-04-15
CN112040830A (zh) 2020-12-04
JPWO2019244255A1 (ja) 2021-02-18

Similar Documents

Publication Publication Date Title
JP7045453B2 (ja) 内視鏡画像処理装置、内視鏡画像処理装置の作動方法およびプログラム
US10893792B2 (en) Endoscope image processing apparatus and endoscope image processing method
JP6602969B2 (ja) 内視鏡画像処理装置
JP5597021B2 (ja) 画像処理装置及びプログラム
US11642005B2 (en) Endoscope system, endoscope image processing method, and storage medium
JP6549711B2 (ja) 内視鏡装置及び内視鏡装置の作動方法
CN108135457B (zh) 内窥镜图像处理装置
US11341637B2 (en) Endoscope image processing device and endoscope image processing method
US20140028821A1 (en) Image processing apparatus
US20150363942A1 (en) Image processing device, endoscope apparatus, image processing method, and information storage device
US20200065970A1 (en) Image processing apparatus and storage medium
JP6168876B2 (ja) 検出装置、学習装置、検出方法、学習方法及びプログラム
US20150257628A1 (en) Image processing device, information storage device, and image processing method
JP4994737B2 (ja) 医療用画像処理装置及び医療用画像処理方法
JP2017213097A (ja) 画像処理装置、画像処理方法およびプログラム
JP2007244517A (ja) 医療用画像処理装置及び医療用画像処理方法
JP6956853B2 (ja) 診断支援装置、診断支援プログラム、及び、診断支援方法
JP2008288707A (ja) 監視装置
US20150363929A1 (en) Endoscope apparatus, image processing method, and information storage device
WO2021171464A1 (ja) 処理装置、内視鏡システム及び撮像画像の処理方法
CN110769731B (zh) 内窥镜系统、内窥镜用处理系统、图像处理方法
US9323978B2 (en) Image processing device, endoscope apparatus, and image processing method
JP4855912B2 (ja) 内視鏡挿入形状解析システム
JP7750418B2 (ja) 内視鏡検査支援装置、内視鏡検査支援方法、及び、プログラム
JP5148096B2 (ja) 医療用画像処理装置及び医療用画像処理装置の作動方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18923420

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020525130

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18923420

Country of ref document: EP

Kind code of ref document: A1