[go: up one dir, main page]

WO2019012911A1 - 医療画像処理装置、内視鏡システム、診断支援装置、並びに医療業務支援装置 - Google Patents

医療画像処理装置、内視鏡システム、診断支援装置、並びに医療業務支援装置 Download PDF

Info

Publication number
WO2019012911A1
WO2019012911A1 PCT/JP2018/022866 JP2018022866W WO2019012911A1 WO 2019012911 A1 WO2019012911 A1 WO 2019012911A1 JP 2018022866 W JP2018022866 W JP 2018022866W WO 2019012911 A1 WO2019012911 A1 WO 2019012911A1
Authority
WO
WIPO (PCT)
Prior art keywords
region
interest
medical image
light
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2018/022866
Other languages
English (en)
French (fr)
Inventor
孝明 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2019529006A priority Critical patent/JP6831463B2/ja
Priority to CN201880044172.5A priority patent/CN110831487B/zh
Priority to EP18831878.6A priority patent/EP3653106B1/en
Publication of WO2019012911A1 publication Critical patent/WO2019012911A1/ja
Priority to US16/716,279 priority patent/US10891737B2/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00039Operational features of endoscopes provided with input arrangements for the user
    • A61B1/00042Operational features of endoscopes provided with input arrangements for the user for mechanical operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Definitions

  • the present invention relates to a medical image processing apparatus that extracts a region of interest from a medical image, an endoscope system, a diagnosis support apparatus, and a medical service support apparatus.
  • diagnosis support information regarding a pathological condition is obtained by extracting a region of interest having a possibility of a lesion from a medical image and performing image analysis on the extracted region of interest. .
  • the acquired diagnostic support information is provided to the user by displaying it on a display unit such as a monitor.
  • Patent Document 1 a plurality of regions of interest are extracted from a medical image, and the plurality of regions of interest extracted are classified into several attributes. The attributes after classification are provided to the user as diagnostic support information. Further, in Patent Document 2, a plurality of regions of interest are extracted from a medical image, and for each region of interest, the degree of risk based on the score according to the state of a lesion site is set. The set degree of risk is provided to the user by displaying different colors for each degree of risk as diagnostic support information.
  • the diagnosis support information finally provided to the user largely depends on the extraction result of the region of interest extracted from the medical image.
  • an image of an observation target is acquired while moving in a lumen, and the observation target is not fixed, and it is not possible to accurately set the target area at a target position. There is.
  • the region of interest may not be extracted accurately. If the region of interest can not be properly extracted in this way, as a result, problematic diagnostic support information will be provided to the user.
  • the present invention provides a medical image processing apparatus, an endoscope system, a diagnosis support apparatus, and a medical service support apparatus capable of providing appropriate diagnosis support information from a region of interest by appropriately extracting a region of interest.
  • the purpose is to
  • a medical image processing apparatus includes an image acquisition unit for acquiring a medical image obtained by imaging an observation target, a region of interest extraction unit for extracting a first region of interest as a region of interest from a medical image, and A region-of-interest change unit that performs a correction process to correct the region of interest into a second region of interest and a user interface that receives an instruction from the user to the region-of-interest change unit.
  • the correction process preferably includes at least one of enlargement, reduction, or repositioning of the first region of interest.
  • the region-of-interest changing unit preferably performs an addition process of adding a third region of interest at a position different from the first region of interest, or a deletion process of deleting the first region of interest.
  • the user interface preferably receives an instruction to perform a correction process, an addition process, or a deletion process.
  • the region-of-interest extraction unit calculates the first feature amount from the medical image, extracts the region in which the first feature amount falls within the first region extraction range as the region of interest, and the region-of-interest extraction condition is the first It is preferable that the conditions are for the area extraction range.
  • the region-of-interest extraction unit calculates the first feature amount and the second feature amount from the medical image, and the region in which the first feature amount is included in the first region extraction range and the second feature amount is the second region
  • the region of interest is extracted based on the region included in the extraction range, and the region of interest extraction conditions are preferably conditions relating to the first region extraction range and the second region extraction range.
  • the user interface preferably receives an instruction to change the region of interest extraction condition.
  • the feature amount selection unit performs feature amount selection processing for selecting a feature amount to be used for extracting a region of interest from among a plurality of feature amounts, and the region of interest extraction unit is selected from the medical image by the feature amount selection unit It is preferable to calculate the feature amount and to extract the region of interest based on the calculated feature amount.
  • the user interface receives an instruction regarding the feature amount selection process.
  • the medical image includes the first medical image and the second medical image which are different from each other, and the region-of-interest changing unit performs correction processing on the region of interest extracted from the first medical image, and the region-of-interest extraction unit
  • the region of interest is extracted from the second medical image using region correction information related to the correction process.
  • an area correction information storage unit that stores area correction information.
  • a diagnosis support information calculation unit that calculates diagnosis support information from the first region of interest or the second region of interest.
  • appropriate diagnosis support information can be provided from the region of interest by appropriately extracting the region of interest.
  • FIG. 13 is an explanatory view showing that the change of the region of interest extraction condition performed during the image diagnosis of the patient A is also applied to the image diagnosis of the other patient B.
  • the endoscope system 10 includes an endoscope 12, a light source device 14, a processor device 16, a monitor 18, and a user interface 19.
  • the endoscope 12 emits illumination light to an object to be observed, and captures an image of the object illuminated by the illumination light.
  • the light source device 14 generates illumination light for irradiating a subject.
  • the processor device 16 performs system control, image processing, and the like of the endoscope system 10.
  • the monitor 18 is a display unit that displays an image output from the processor device 16.
  • the user interface 19 is an input device for performing setting input and the like to the processor device 16 and the like, and includes a keyboard KB, a mouse MS, and the like.
  • the user interface 19 is not limited to the mouse MS and the keyboard KB, and may be a graphical user interface, voice input, a touch display, or the like.
  • the medical image processing apparatus of the present invention also includes an image acquisition unit 54 and an image processing unit 61 (see FIG. 2) provided in the processor device 16, and a user interface 19.
  • the endoscope 12 includes an insertion portion 12a to be inserted into a subject, an operation portion 12b provided at a proximal end portion of the insertion portion 12a, a curved portion 12c provided at the distal end side of the insertion portion 12a, and a distal end portion 12d. ,have.
  • the bending portion 12c is bent by operating the angle knob 12e of the operation portion 12b.
  • the bending of the bending portion 12 c causes the tip 12 d to face in a desired direction.
  • the tip end 12d is provided with an injection port (not shown) for injecting air, water or the like toward the subject.
  • the zoom operation unit 13 is provided in the operation unit 12b. By operating the zoom operation unit 13, it is possible to magnify or reduce an image of an object. Further, a forceps channel (not shown) for inserting a treatment tool or the like is provided from the insertion portion 12a to the distal end portion 12d. The treatment tool is inserted into the forceps channel from the forceps inlet 12f.
  • the light source device 14 includes a light source unit 20 and a light source control unit 22.
  • the light source unit 20 emits illumination light for illuminating a subject.
  • the light source unit 20 includes one or more light sources.
  • the light source control unit 22 controls the drive of the light source unit 20.
  • the light source control unit 22 independently controls the timing of turning on or off the light source constituting the light source unit 20, the light emission amount at the time of lighting, and the like. As a result, the light source unit 20 can emit plural types of illumination lights having different light emission amounts and light emission timings.
  • the illumination light emitted by the light source unit 20 is incident on the light guide 41.
  • the light guide 41 is incorporated in the endoscope 12 and the universal cord (not shown), and propagates the illumination light to the distal end 12 d of the endoscope 12.
  • the universal cord is a cord that connects the endoscope 12 to the light source device 14 and the processor device 16.
  • a multimode fiber can be used. As an example, it is possible to use a thin fiber cable having a core diameter of 105 ⁇ m, a cladding diameter of 125 ⁇ m, and a diameter of ⁇ 0.3 to 0.5 mm including a protective layer to be an outer shell.
  • An illumination optical system 30 a and an imaging optical system 30 b are provided at the distal end 12 d of the endoscope 12.
  • the illumination optical system 30 a has an illumination lens 45, and illumination light is emitted toward the subject through the illumination lens 45.
  • the imaging optical system 30 b includes an objective lens 46, a zoom lens 47, and an image sensor 48.
  • the image sensor 48 is a reflected light of illumination light returning from the subject via the objective lens 46 and the zoom lens 47 (in addition to the reflected light, the scattered light, the fluorescence emitted from the subject, or the drug administered to the subject)
  • the subject is imaged using fluorescence and the like.
  • the zoom lens 47 moves by operating the zoom operation unit 13 and enlarges or reduces an object to be imaged using the image sensor 48.
  • the image sensor 48 is, for example, a color sensor having a primary color filter, and has B pixels (blue pixels) having blue color filters, G pixels (green pixels) having green color filters, and R having red color filters. There are three types of pixels (red pixels). Blue color filters transmit mainly violet to blue light. The green color filter is mainly green light. The red color filter transmits mainly red light. As described above, when an object is imaged using the primary color image sensor 48, at most, a B image (blue image) obtained from B pixels, a G image (green image) obtained from G pixels, and an R obtained from R pixels Three types of images (red image) can be obtained simultaneously.
  • a charge coupled device (CCD) sensor or a complementary metal oxide semiconductor (CMOS) sensor can be used.
  • CMOS complementary metal oxide semiconductor
  • the complementary color sensor includes, for example, a cyan pixel provided with a cyan color filter, a magenta pixel provided with a magenta color filter, a yellow pixel provided with a yellow color filter, and a green pixel provided with a green color filter.
  • the image obtained from the pixels of each color when using a complementary color sensor can be converted into a B image, a G image, and an R image by performing complementary-primary color conversion.
  • a monochrome sensor without a color filter can be used as the image sensor 48. In this case, an image of each color can be obtained by sequentially imaging the subject using illumination light of each color such as BGR.
  • the processor device 16 includes a central control unit 52, an image acquisition unit 54, an image processing unit 61, and a display control unit 66.
  • the central control unit 52 performs overall control of the endoscope system 10 such as synchronous control of the irradiation timing of the illumination light and the imaging timing.
  • the central control unit 52 controls the input various settings as the light source control unit 22, the image sensor 48, or the image processing unit 61.
  • the data is input to each part of the endoscope system 10.
  • the image acquisition unit 54 acquires, from the image sensor 48, an image obtained by imaging a subject.
  • the image acquired by the image acquisition unit 54 is an image acquired by a medical device such as the endoscope 12 and thus is referred to as a medical image.
  • the image acquisition unit 54 includes a DSP (Digital Signal Processor) 56, a noise reduction unit 58, and a conversion unit 59, and uses these to perform various processes on the acquired medical image as needed.
  • the DSP 56 performs various processing such as defect correction processing, offset processing, gain correction processing, linear matrix processing, gamma conversion processing, demosaicing processing, and YC conversion processing, as necessary, on the acquired medical image.
  • the defect correction process is a process of correcting the pixel value of the pixel corresponding to the defective pixel of the image sensor 48.
  • the offset process is a process of reducing the dark current component from the image subjected to the defect correction process and setting an accurate zero level.
  • the gain correction process is a process of adjusting the signal level of each image by multiplying the image subjected to the offset process by the gain.
  • the linear matrix processing is processing for improving the color reproducibility of the image subjected to the offset processing, and the gamma conversion processing is processing for adjusting the brightness and saturation of the image after the linear matrix processing.
  • demosaicing processing is processing for interpolating the pixel value of a missing pixel, and is applied to an image after gamma conversion processing.
  • the missing pixels are pixels having no pixel value due to the arrangement of the color filters (because pixels of other colors are arranged in the image sensor 48).
  • the demosaicing process interpolates the B image to generate pixel values of pixels located at G and R pixel positions of the image sensor 48.
  • the YC conversion process is a process of converting the image after the demosaicing process into a luminance channel Y, a color difference channel Cb, and a color difference channel Cr.
  • the noise reduction unit 58 performs noise reduction processing on the luminance channel Y, the color difference channel Cb, and the color difference channel Cr using, for example, a moving average method or a median filter method.
  • the conversion unit 59 reconverts the luminance channel Y, the color difference channel Cb, and the color difference channel Cr after the noise reduction processing into an image of each color of BGR.
  • the image processing unit 61 performs various types of image processing on the medical image acquired by the image acquisition unit 54. Further, the image processing unit 61 extracts a region of interest from the medical image, and calculates diagnosis support information for supporting diagnosis of the observation target from the extracted region of interest. The extraction of the region of interest and the calculation of the diagnosis support information will be described later.
  • the display control unit 66 converts the medical image or the diagnosis support information sent from the image processing unit 61 into a format suitable for display on the monitor 18 and outputs the converted format to the monitor 18. As a result, at least the medical image and the diagnostic support information are displayed on the monitor 18.
  • the image processing unit 61 includes an unnecessary area removing unit 68, a region of interest extraction unit 70, a diagnosis support information calculation unit 72, and a region of interest changing unit 74.
  • the unnecessary area removal unit 68 performs a removal process of removing an excessively dark area and an excessively bright area which interfere with accurate calculation of the diagnosis support information in the medical image.
  • the lower limit value and the upper limit value are set for each of the B image, the G image, and the R image in the medical image. Then, an area below the lower limit value is detected as an excessively dark area, and is removed from each image. Similarly, a region exceeding the upper limit value is detected as a too bright region and removed from each image.
  • the region of interest is extracted from the medical image from which the regions that are too dark and regions that are too bright are removed. Note that the removal of an area that is too dark and an area that is too bright may not be performed depending on the state of the medical image.
  • the region-of-interest extraction unit 70 detects, from the medical image, a region of interest to be noted as a target of examination or diagnosis.
  • the region of interest extraction unit 70 calculates a first feature amount from the medical image. Then, the region in which the calculated first feature value is included in the first region extraction range is extracted as the region of interest.
  • the first region extraction range represents the numerical range of the first feature value set in advance to extract the region of interest. For example, in the region-of-interest setting unit, “ln (G / B)” is calculated by logarithmically converting B / G indicating the ratio between G image and B image as the first feature amount, and “ln (G / B) The region where “is in the first region extraction range is extracted as the region of interest.
  • the region of interest extracted based on the first feature amount mainly includes the region of superficial blood vessels.
  • the region of interest extracted by the region-of-interest extraction unit 70 is not limited to a two-dimensional region such as the surface of the observation target.
  • a three-dimensional region in the depth direction (infiltration) of the observation target may be extracted as the region of interest.
  • the first feature value in addition to “ln (G / B)”, a blood vessel index value for a blood vessel described later or a ductal index value for a duct structure may be used.
  • the first feature quantity for example, in addition to performing a convolutional neural network on a medical image, a feature quantity obtained by color information of a medical image, a gradient of pixel values, or the like may be used.
  • the gradient of the pixel value is, for example, the shape of the subject (such as the global unevenness of the mucous membrane or the local depression or bulge), the color (color such as inflammation, hemorrhage, redness, or whitening due to atrophy)
  • the region of interest extracted by the region-of-interest extraction unit 70 includes, for example, a lesion site represented by cancer, a benign tumor site, an inflammation site (in addition to so-called inflammation, it includes a site with changes such as bleeding or atrophy)
  • a lesion site represented by cancer
  • a benign tumor site an inflammation site (in addition to so-called inflammation, it includes a site with changes such as bleeding or atrophy)
  • the region of interest extraction unit 70 detects a region including at least one of a lesion, a benign tumor, an inflammation, a marking unit, and a biopsy performing unit as a region of interest.
  • the diagnosis support information calculation unit 72 calculates various index values from the regions of interest extracted by the region of interest extraction unit 70, and calculates diagnosis support information for supporting diagnosis of a lesion based on the calculated various index values.
  • the various index values include blood vessel index values related to blood vessels such as blood vessel density and blood vessel travel patterns, and ductal index values related to duct structure.
  • the diagnosis support information may include, for example, the degree of progression (stage) of the lesion.
  • the calculated diagnosis support information 80 is displayed on the monitor 18 in association with the region of interest ROI as shown in FIG. 4 (“Stage 1” in FIG. 4).
  • the region-of-interest change unit 74 performs a correction process of changing the region of interest extracted by the region-of-interest extraction unit 70 from the first region of interest to the second region of interest.
  • the first region of interest is the region of interest before the modification process
  • the second region of interest is the region of interest after the modification process.
  • the correction process is performed when the user interface 19 receives an instruction of the correction process which is one of the instructions to the region of interest change unit 74.
  • the mouse MS is preferably used as the user interface 19.
  • the correction process includes enlargement, reduction or repositioning of the first region of interest.
  • the diagnosis support information calculation unit 72 recalculates various index values from the second region of interest, and based on the calculated various index values, recalculates the diagnosis support information for supporting diagnosis of the lesion area. calculate.
  • information on the correction process may be stored as area correction information in an area correction information storage unit 76 (see FIG. 13) described later.
  • the mouse 82 When enlargement is performed in the correction process, as shown in FIG. 5, the mouse 82 is operated to move the pointer 82 displayed on the monitor 18 to the boundary portion of the first region of interest ROIx (represented by a dotted line). Focus on Then, in a state where the mouse MS is right-clicked at the boundary portion of the first region of interest ROIx, the mouse MS is operated so that the pointer 82 moves in a direction to expand the first region of interest ROIx. Thereby, a second region of interest ROIy (represented by a solid line) obtained by enlarging the first region of interest ROIx is obtained.
  • the diagnostic support information 80 is recalculated from the second region of interest ROIy, and the recalculated diagnostic support information 80 is displayed on the monitor 18 in association with the second region of interest ROIy Diagnosis support information after calculation is "Stage 2").
  • the pointer 82 is moved in the direction to reduce the first region of interest ROIx with the mouse MS right-clicked at the boundary of the first region of interest ROIx. To operate the mouse MS.
  • the mouse MS When the position change is performed in the correction process, as shown in FIG. 6, the mouse MS is operated to set the pointer 82 inside the first region of interest ROIx (indicated by a dotted line). Then, in a state where the mouse MS is right-clicked inside the first region of interest ROIx, the mouse MS is operated such that the pointer 82 moves in the direction toward the region where the user wants to change the position. As a result, a second region of interest ROIy (indicated by a solid line) in which the position of the first region of interest ROIx has been changed is obtained.
  • the diagnostic support information is recalculated from the second region of interest ROIy, and the recalculated diagnostic support information is displayed on the monitor 18 in association with the second region of interest ROIy (after recalculation Diagnosis support information is "Stage 2").
  • the mouse MS is operated so that the pointer 82 is set to a region where a new region of interest is desired to be set.
  • the mouse MS is left-clicked.
  • the third region of interest ROIz is added at a position different from the first region of interest ROIx.
  • the third region of interest ROIz to be added is preferably a square region.
  • the diagnostic support information is recalculated from the third region of interest ROIz, and the recalculated diagnostic support information is displayed on the monitor 18 in association with the third region of interest ROIz (a first region of interest
  • the diagnosis support information of the ROI x is “stage 2”, and the diagnosis support information of the third region of interest ROI z is “stage 1”).
  • the added third region of interest ROIz can also be subjected to correction processing such as enlargement, reduction, or position change.
  • the region of interest change unit 74 may perform deletion processing for deleting the first region of interest as the region of interest extracted by the region of interest extraction unit 70.
  • the mouse MS is operated to set the pointer 82 inside the first region of interest ROIx.
  • the right click of the mouse MS is operated a plurality of times (for example, twice) inside the first region of interest ROIx.
  • the diagnostic support information that has been displayed in association with the first region of interest ROIx is also deleted (the dotted line in FIG. 8 indicates that it has been deleted).
  • unnecessary regions of interest are deleted from the plurality of regions of interest by deletion processing. It is also good.
  • the first feature amount is calculated from the acquired medical image, and the region of interest is extracted based on the calculated first feature amount.
  • calculation of diagnosis support information is performed from the region of interest.
  • the region of interest and the diagnostic support information are displayed on the monitor 18.
  • the user checks the region of interest and the diagnostic support information displayed on the monitor 18 to determine whether the calculated diagnostic support information is valid. As a result, when there is no problem in the extraction result of the region of interest and it is determined that the diagnosis support information is appropriate, the correction process is not performed.
  • the correction process corrects the first region of interest having a problem as the region of interest by the user interface 19 such as the mouse MS. This provides a second region of interest in which the first region of interest has been modified.
  • diagnosis support information is recalculated from the second region of interest.
  • the recalculated diagnostic support information is displayed on the monitor 18 together with the second region of interest. The correction of the region of interest and the recalculation of the diagnostic support information are repeated until the user determines that the correction of the region of interest is not necessary.
  • a correction process of correcting the first region of interest into a second region of interest is performed by changing the region-of-interest extraction condition for extracting the region of interest.
  • the region-of-interest extraction condition is a condition related to the first region extraction range described in the first embodiment.
  • a plurality of first region extraction ranges are provided so that the plurality of regions of interest extraction conditions can be changed.
  • five region extraction ranges R11, R12, R13, R14, and R15 are provided as a plurality of first region extraction ranges.
  • R11 is the narrowest as a region extraction range
  • the region extraction range is wider in the order of R12, R13 and R14
  • R15 is the widest region extraction range.
  • the second embodiment is the same as the first embodiment except that correction processing is performed by changing the region of interest extraction condition.
  • the plurality of first region extraction ranges R11, R12, R13, R14, R15 are respectively indicated on the scales R11, R12, R13, R14, R15 of the slide bar 86 indicating the first region extraction ranges. It corresponds.
  • a slider 88 provided on the slide bar 86 indicates the currently set first area extraction range.
  • the region extraction range R11 is set.
  • a region where the first feature value is included in the first region extraction range R11 is extracted as the region of interest ROI, and the diagnosis support information 80 is calculated from the region of interest ROI (“Stage 1” in FIG. 10).
  • the slider 88 can be moved on the slide bar 86 when the user interface 19 receives an instruction to change the first area extraction range. Thereby, it is possible to change the first region extraction range used to extract the region of interest. That is, the region of interest extraction condition can be changed.
  • the user interface 19 can also be moved by operation with respect to sliders 92 and 98 described later.
  • an area in which the first feature value is included in the first area extraction range R11 is A first region of interest ROIx is extracted.
  • diagnosis support information is calculated from the first region of interest ROIx and displayed on the monitor 18.
  • the slider 88 is moved to the scale R13 (indicated by a solid line)
  • the first region extraction range used for extraction of the region of interest is from the first region extraction range R11. Is also changed to a first region extraction range R13 having a wide range.
  • diagnosis support information 80 is calculated from the second region of interest ROIy and displayed on the monitor 18 ("Stage 2" in FIG. 11).
  • the region in which the first feature value is included in the first region extraction range R13 is A first region of interest ROIx is extracted.
  • diagnosis support information is calculated from the first region of interest ROIx and displayed on the monitor 18.
  • the slider 88 is moved to the scale R11 (indicated by a solid line)
  • the first region extraction range used to extract the region of interest is greater than the first region extraction range R11. Is also changed to a first region extraction range R11 having a narrow range.
  • diagnosis support information 80 is calculated from the second region of interest ROIy and displayed on the monitor 18 ("Stage 1" in FIG. 12).
  • the history in which the region of interest is corrected by the change in the region of interest extraction condition is stored in the region correction information storage unit 76 shown in FIG. 13 as region correction information.
  • Region correction information is used when extracting a region of interest from a medical image acquired after changing the region of interest extraction condition.
  • the region correction information obtained by changing the region of interest extraction condition is stored in the region correction information storage unit 76.
  • the second medical image is an image acquired after the first medical image, and the region of interest is extracted using the region correction information stored in the region correction information storage unit 76.
  • the history in which the region of interest is corrected by changing the region of interest extraction condition may be stored in the region correction information storage unit 76 as region correction information.
  • the first region extraction information is used.
  • the region of interest is extracted using the range R13.
  • the area correction information may be reset by the user interface 19 and returned to the default first area extraction range (for example, the first area extraction range R11).
  • the area correction information may be used when diagnosing another patient with the endoscope 12.
  • the region of interest is extracted from the first medical image obtained during image diagnosis of the patient A, and the change in the region of interest extraction condition performed on the region of interest is taken as the region correction condition. It is stored in the correction information storage unit 76.
  • the region of interest information is extracted using the region correction information stored in the region correction information storage unit 76.
  • the area correction information may be used when performing image diagnosis with the endoscope 12 in another hospital or clinic.
  • a correction process of correcting the first region of interest into a second region of interest is performed by changing the region-of-interest extraction condition for extracting the region of interest.
  • the region of interest extraction conditions are extracted using a plurality of feature quantities.
  • a second feature amount “ln (R / G)” is used in addition to the first feature amount “ln (G / B) in addition to the first feature amount “ln (G / B) in addition to the first feature amount “ln (G / B)”, a second feature amount “ln (R / G)” is used.
  • the second feature amount “ln (R / G)” is obtained by logarithmically converting the ratio R / G of the R image to the G image.
  • the extraction of the region of interest extracted based on the first feature amount and the second feature amount mainly includes a surface blood vessel region and a reddish region.
  • the region of interest is extracted in advance as the region of interest extraction condition in the condition regarding the first region extraction range described in the first embodiment.
  • a condition regarding a second region extraction range indicating the set numerical range of the second feature amount is added.
  • the third embodiment is the same as the first embodiment except that correction processing is performed by changing the region of interest extraction condition.
  • a plurality of first region extraction ranges and a plurality of second region extraction ranges are provided so that the plurality of regions of interest extraction conditions can be changed.
  • the plurality of first area extraction ranges five area extraction ranges R11, R12, R13, R14, and R15 are provided as in the second embodiment.
  • five range extraction ranges R21, R22, R23, R24, and R25 are provided as the plurality of second range extraction ranges.
  • R21 is the narrowest as a region extraction range, and the region extraction range is wider in the order of R22, R23 and R24, and R25 is the widest region extraction range.
  • the plurality of first region extraction ranges R11, R12, R13, R14, R15 are scales R11, R12, and R12 of the slide bar 86 indicating the first region extraction ranges. It corresponds to R13, R14, R15 respectively.
  • the plurality of second region extraction ranges R21, R22, R23, R24, and R25 correspond to the scales R21, R22, R23, R24, and R25 of the slide bar 90 indicating the second region extraction ranges, respectively.
  • the first feature amount is the first region.
  • a region where the region ROIbg in the extraction range R11 and the region ROIgr in which the second feature amount is in the second region extraction region 21 overlap is extracted as a first region of interest ROI.
  • diagnosis support information 80 is calculated from the first region of interest ROIx and displayed on the monitor 18 ("Stage 1" in FIG. 16).
  • the first region extraction range used for extraction of the region of interest has a wider range than the first region extraction range R11. It is changed to the first region extraction range R13.
  • the second region extraction range used for extraction of the region of interest is the second region extraction range R23 having a range wider than the second region extraction range R21. Be changed.
  • the region ROIbg in which the first feature amount falls within the first region extraction range R13 and the second region of interest ROIy in which the second feature amount overlaps the region ROIgr within which the second feature amount falls in the second region extraction range R23 are changed.
  • diagnosis support information is calculated from the second region of interest ROIy and displayed on the monitor 18 (“Stage 2” in FIG. 17).
  • the region of interest may be extracted using feature amounts other than the first feature amount or the second feature amount.
  • feature amount selection processing may be performed to select a feature amount to be used for extracting a region of interest from among a plurality of feature amounts.
  • the feature amount selection processing is performed by the feature amount selection unit 94.
  • the feature amount selection unit 94 performs feature amount selection processing when the user interface 19 receives an instruction related to the feature amount selection processing.
  • the third feature “ln (B /)” is used as the feature used for extracting the region of interest.
  • the feature amount selecting unit 94 performs the first feature amount “ln (G / B)” and the third feature amount “ln (B / (R + G) When “+ B))” is selected, as shown in FIG. 19, the monitor 18 displays the slide bar 86 and the slider 88 indicating the first feature “ln (G / B)”, and the third feature “ A slide bar 96 and a slider 98 indicating ln (B / (R + G + B)) are displayed.
  • a plurality of third region extraction ranges R31, R32, R33, R34, and R35 indicating the preset numerical value ranges of the third feature amount respectively indicate scales R31, R32, and R34 of the slide bar 96. It corresponds to R33, R34, R35.
  • a correction process for correcting the first region of interest into the second region of interest is not performed, and a plurality of regions of interest extraction conditions are provided A plurality of regions of interest are extracted according to the region extraction condition.
  • the region-of-interest extraction condition is a condition related to the first region extraction range described in the first embodiment, and a plurality of first region extraction ranges are provided.
  • the plurality of first region extraction ranges five region extraction ranges R11, R12, R13, R14, and R15 are provided as in the second embodiment.
  • the fourth embodiment is the same as the first embodiment except that the correction process is not performed and a plurality of regions of interest are extracted.
  • the range for region extraction is five, it may be less than or more than this, but it is preferably about ten.
  • diagnosis support information 80 of ROI 1 is “stage 2”
  • diagnosis support information 80 of ROI 2 is “stage 2”
  • diagnosis support information 80 of ROI 3 is “stage 1”
  • diagnosis support of ROI 4 The information 80 is “stage 1”
  • diagnosis support information 80 of the ROI 5 is “stage 2”.
  • each of the regions of interest ROI1 to ROI5 it is preferable to change the brightness and the color so that the differences can be seen.
  • the user interface 19 may be operated to enlarge and display a specific region of interest.
  • the plurality of extracted regions of interest ROI1 to ROI5 be combined and displayed on the medical image together with the diagnostic support information calculated from the regions of interest.
  • the medical image to be synthesized is preferably a normal light image or a special light image described later.
  • the medical images obtained by extracting the plurality of regions of interest ROI1 to ROI5 and the diagnosis support information calculated from the regions of interest are stored in the diagnosis support information storage unit 95 (see FIG. 18) in the processor device 16 in association with each other. It is preferable to do so.
  • the medical image and the diagnostic support information may be associated and stored as described above, not only in this embodiment but also in the first to third embodiments or the fifth embodiment.
  • the medical image and the diagnostic support information are stored in association with each other, for example, when the diagnostic support information is represented by numerical data, the medical image can be read out so that the diagnostic support information can be read out by the image viewer.
  • the diagnostic support information may be attached to the header.
  • only the diagnostic support information selected by the user may be stored. This user selection is made by the user interface 19.
  • the region-of-interest extraction condition is the condition related to the first region extraction range described in the first embodiment and the condition related to the second region extraction range described in the third embodiment.
  • a plurality of first area extraction ranges are provided, and a plurality of second area extraction ranges are also provided.
  • the fifth embodiment is the same as the first embodiment except that a plurality of regions of interest are extracted without performing correction processing.
  • first region extraction ranges five region extraction ranges R11, R12, R13, R14, and R15 are provided as in the second embodiment. Further, as the plurality of second region extraction ranges, five region extraction ranges R21, R22, R23, R24, and R25 are provided as in the third embodiment.
  • first region extraction range is five, it may be less than or more than this, but is preferably about ten. The same applies to the second region extraction range.
  • a region where the first feature amount is included in the first region extraction range R11 and the second feature amount is included in the second region extraction range R21 is extracted as the region of interest ROI1. Ru.
  • a region in which a region in which the first feature amount is included in the first region extraction range R12 and a region in which the second feature amount is included in the second region extraction range R22 is defined as ROI2.
  • a region where a region in which the first feature amount is included in the first region extraction range R13 and a region in which the second feature amount is included in the second region extraction range R24 is set as ROI3.
  • a region in which a region in which the first feature amount is included in the first region extraction range R14 and a region in which the second feature amount is included in the second region extraction range R25 is defined as ROI4. Further, a region where a region in which the first feature amount is included in the first region extraction range R15 and a region in which the second feature amount is included in the second region extraction range R25 is set as a ROI 5.
  • diagnosis support information is calculated and displayed on the monitor 18 (see FIG. 20).
  • two regions to be overlapped for extraction of the regions of interest ROI1 to ROI5 may be regions other than the above.
  • the shape of the region of interest ROI is represented by a square (rectangle) in the drawing, but the shape may be other than the square (rectangle). This is because, in the first to fifth embodiments, since the region of interest is extracted based on the feature amount, the shape of the region of interest changes according to the distribution state of the feature amount. Also, as in the second and third embodiments, when changing the numerical value range of the first feature amount or the second feature amount for extracting the region of interest by the correction process, the interest before and after the correction process The shape of the area may change.
  • the blood vessel index value calculated by the diagnosis support information calculation unit 72 the blood vessel density, the blood vessel thickness, and the blood vessel index value
  • proportions, proportions of veins, concentrations of dyes administered, running patterns, and blood flow are proportions, proportions of veins, concentrations of dyes administered, running patterns, and blood flow.
  • the blood vessel density is represented by the proportion of blood vessels contained in a specific area in the image.
  • the thickness of the blood vessel (blood vessel diameter) is the distance between the boundary line of the blood vessel and the mucous membrane, for example, counting the number of pixels along the lateral direction of the blood vessel from the edge of the extracted blood vessel through the blood vessel Count by. Therefore, although the thickness of the blood vessel is the number of pixels, it can be converted to a unit of length such as " ⁇ m" if necessary when the imaging distance and zoom magnification etc. at the time of imaging a medical image are known. is there.
  • the number of blood vessels is the number of blood vessels extracted in the entire medical image or in the region of interest.
  • the number of blood vessels is calculated using, for example, the number of branch points of the extracted blood vessels (the number of branches), the number of intersections with other blood vessels (the number of intersections), or the like.
  • the bifurcation angle of a blood vessel is an angle which two blood vessels make at a bifurcation point.
  • the distance between bifurcation points is a linear distance between any bifurcation point and its neighboring bifurcation point, or a length along a blood vessel from any bifurcation point to its neighboring bifurcation point.
  • the number of crossings of blood vessels is the number of crossing points where blood vessels having different submucosal depths cross on a medical image. More specifically, the number of crossings of blood vessels is the number of blood vessels at relatively shallow positions under the submucosa crossing blood vessels at deep positions.
  • the change in the thickness of the blood vessel is blood vessel information related to the variation in the thickness of the blood vessel, and is also referred to as the aperture unequal degree.
  • the change in thickness of the blood vessel is, for example, the rate of change in the diameter of the blood vessel (also referred to as the degree of dilation).
  • the medical image acquired in the past examination With respect to the thickness of the extracted blood vessel, the temporal change in the thickness of the same blood vessel extracted from the medical image obtained in the subsequent new examination may be used as the change in the thickness of the blood vessel.
  • the ratio of the small diameter portion or the ratio of the large diameter portion may be calculated.
  • the thin diameter portion is a portion whose thickness is equal to or less than the threshold
  • the large diameter portion is a portion whose thickness is thicker than the threshold.
  • the complexity of change in blood vessel thickness (hereinafter referred to as “complexity of change in thickness”) is blood vessel information that indicates how complex the change is in the case of blood vessel thickness change.
  • the blood vessel information is calculated by combining a plurality of blood vessel information representing a change in the thickness of the blood vessel (that is, the change rate of the blood vessel diameter, the ratio of the narrow diameter portion, or the ratio of the wide diameter portion).
  • the complexity of the thickness change can be determined, for example, by the product of the change rate of the blood vessel diameter and the ratio of the small diameter portion.
  • the length of the blood vessel is the number of pixels counted along the longitudinal direction of the extracted blood vessel.
  • the blood vessel interval is the number of pixels of pixels representing the mucous membrane between the edges of the extracted blood vessel. When one blood vessel is extracted, the blood vessel interval has no value.
  • the blood vessel depth is measured relative to the mucous membrane (more specifically, the surface of the mucous membrane).
  • the depth of the blood vessel relative to the mucous membrane can be calculated, for example, based on the color of the blood vessel.
  • blood vessels located near the surface of the mucous membrane are expressed in magenta, and blood vessels located far from the mucous membrane surface and deep in the submucosa are expressed in cyan.
  • the blood vessel depth based on the mucous membrane is calculated for each pixel.
  • the height difference of the blood vessel is the size of the difference in the depth of the blood vessel.
  • the height difference of one blood vessel to be noticed is obtained by the difference between the depth (maximum depth) of the deepest part of the blood vessel and the depth (minimum depth) of the shallowest part. When the depth is constant, the height difference is zero.
  • the blood vessel may be divided into a plurality of sections, and the inclination of the blood vessel may be calculated in each section.
  • the area of the blood vessel is a value proportional to the number of pixels of pixels extracted as blood vessels or the number of pixels of pixels extracted as blood vessels.
  • the area of the blood vessel is calculated within the region of interest, outside the region of interest or for the entire medical image.
  • the contrast of the blood vessel is the relative contrast to the mucous membrane to be observed.
  • the contrast of the blood vessel is calculated, for example, by “Y V / Y M ” or “(Y V ⁇ Y M ) / (Y V + Y M )” using the blood vessel brightness Y V and the mucous membrane brightness Y M Do.
  • the color of a blood vessel is each value of RGB of the pixel showing a blood vessel.
  • the change in blood vessel color is the difference or ratio between the maximum value and the minimum value of each of the RGB values of the pixel representing the blood vessel.
  • the ratio of the maximum value to the minimum value of the pixel value of the B pixel representing the blood vessel, the ratio of the maximum value to the minimum value of the pixel value of the G pixel, or the ratio of the maximum value to the minimum value of the pixel value of the R pixel is Represents the change in color of
  • the color change of the blood vessel and the color of the blood vessel may be calculated for each value such as cyan, magenta, yellow, and green by converting into a complementary color.
  • the meandering degree of a blood vessel is blood vessel information that represents the width of a range in which the blood vessel travels in a meandering manner.
  • the meandering degree of the blood vessel is, for example, the smallest rectangular area (number of pixels) including the blood vessel for which the meandering degree is calculated. Further, the ratio of the length of the blood vessel to the straight distance between the start point and the end point of the blood vessel may be the meander degree of the blood vessel.
  • the blood concentration of a blood vessel is blood vessel information that is proportional to the amount of hemoglobin contained in the blood vessel. Since the ratio (G / R) of the pixel value of the G pixel to the pixel value of the R pixel representing the blood vessel is proportional to the amount of hemoglobin, the blood concentration is calculated for each pixel by calculating the value of G / R. Can.
  • Blood vessel oxygen saturation is the amount of oxygenated hemoglobin relative to the total amount of hemoglobin (total amount of oxygenated hemoglobin and reduced hemoglobin).
  • the oxygen saturation may be calculated using a medical image obtained by photographing an observation target with light of a specific wavelength band (for example, blue light with a wavelength of about 470 ⁇ 10 nm) having a large difference between the absorption coefficients of oxidized hemoglobin and reduced hemoglobin. it can.
  • a specific wavelength band for example, blue light with a wavelength of about 470 ⁇ 10 nm
  • the pixel value of the B pixel representing the blood vessel has a correlation with the oxygen saturation, so using a table etc.
  • the oxygen saturation of each pixel to be represented can be calculated.
  • the proportion of arteries is the ratio of the number of pixels of arteries to the number of pixels of all blood vessels.
  • the ratio of veins is the ratio of the number of pixels of veins to the number of pixels of all blood vessels.
  • Arteries and veins can be distinguished by oxygen saturation. For example, if a blood vessel having an oxygen saturation of 70% or more is an artery and a blood vessel having an oxygen saturation of less than 70% is a vein, the extracted blood vessel can be divided into an artery and a vein. Can be calculated.
  • the concentration of the administered dye is the concentration of the dye dispersed to the observation subject or the concentration of the dye injected into the blood vessel by intravenous injection.
  • the concentration of the administered dye is calculated, for example, by the ratio of the pixel value of the dye color to the pixel value of the pixel other than the dye color. For example, when a pigment colored in blue is administered, the ratio B / G of the B image to the G image, the ratio B / R of the B image to the R image, etc. are fixed (or temporarily attached) to the observation target Represents the concentration of dye.
  • the travel pattern of the blood vessel is blood vessel information regarding the travel direction of the blood vessel.
  • the traveling pattern of the blood vessel is, for example, an average angle (traveling direction) of the blood vessel with respect to a reference line set arbitrarily, dispersion of an angle formed by the blood vessel with respect to the reference line arbitrarily set (variation in traveling direction), and the like.
  • Blood flow in blood vessels is the number of red blood cells per unit time.
  • the Doppler shift frequency of each pixel representing a blood vessel of a medical image is calculated using a signal obtained by the ultrasound probe. You can determine the flow rate.
  • a medical image having an image acquisition unit 54, an image processing unit 61, and a user interface 19 in the processor unit 16 and processing an endoscopic image which is one of medical images.
  • the present invention is applied to the processing device, the present invention can also be applied to a medical image processing device that processes medical images other than endoscopic images.
  • the present invention is also applicable to a diagnosis support apparatus for performing diagnosis support to a user using a medical image.
  • the present invention can be applied to a medical service support apparatus for supporting medical services such as diagnostic reports using medical images.
  • the medical image is preferably a normal light image obtained by irradiating light of a plurality of wavelength bands as light of a white band or light of a white band.
  • the medical image is a special light image obtained by irradiating light of a specific wavelength band, and light of the specific wavelength band is preferably a band narrower than the white band.
  • the specific wavelength band is preferably included in the blue or green band in the visible range.
  • the specific wavelength band includes a wavelength band of 390 nm to 450 nm, or 530 nm to 550 nm, and light of a specific wavelength band has a peak wavelength within the wavelength band of 390 nm to 450 nm, or 530 nm to 550 nm. Is preferred.
  • the specific wavelength band is preferably included in the red band in the visible range.
  • the specific wavelength band includes a wavelength band of 585 nm to 615 nm, or 610 nm to 730 nm, and light of the specific wavelength band has a peak wavelength within the wavelength band of 585 nm to 615 nm, or 610 nm to 730 nm. It is preferable to have.
  • the specific wavelength band includes wavelength bands having different absorption coefficients for oxyhemoglobin and reduced hemoglobin, and light of a specific wavelength band has peak wavelengths in wavelength bands having different absorption coefficients for oxyhemoglobin and reduced hemoglobin. Is preferred.
  • the specific wavelength band includes wavelength bands of 400 ⁇ 10 nm, 440 ⁇ 10 nm, 470 ⁇ 10 nm, or 600 nm to 750 nm, and light of the specific wavelength band is 400 ⁇ 10 nm, 440 ⁇ 10 nm, 470 ⁇ 10 nm It is preferable to have a peak wavelength in a wavelength band of 600 nm or more and 750 nm or less.
  • the medical image is an in-vivo image obtained by copying the inside of a living body, and the in-vivo image preferably has information of fluorescence emitted from a fluorescent substance in the living body.
  • the fluorescence is preferably obtained by irradiating the living body with excitation light included in a wavelength standby of a peak wavelength of 390 or more and 470 nm or less.
  • the medical image is an in-vivo image obtained by copying the inside of a living body, and the specific wavelength band is preferably a wavelength band of infrared light.
  • the specific wavelength band includes a wavelength band of 790 nm to 820 nm, or 905 nm to 970 nm, and light of a specific wavelength band has a peak wavelength in a wavelength band of 790 nm to 820 nm, or 905 nm to 970 nm. Is preferred.
  • the image acquisition unit acquires a special light image having a signal of a specific wavelength band based on a normal light image obtained by irradiating white band light or light of a plurality of wavelength bands as light of the white band. It is preferable to have a special light image acquisition unit, and the medical image is a special light image.
  • the signal in the specific wavelength band is obtained by calculation based on RGB or CMY color information included in the normal light image.
  • an arithmetic image generation unit that generates an arithmetic image by arithmetic operation be provided, and the medical image be an arithmetic image.
  • the hardware-like structure of a processing unit (processing unit) that executes various processes such as the diagnosis support information storage unit 95 is various processors as described below.
  • Various processors include CPUs (Central Processing Units), which are general-purpose processors that execute software (programs) and function as various processing units.
  • Programmable Logic Device which is a processor whose circuit configuration can be changed after manufacturing (Field Programmable Gate Array) or the like, or a processor having a circuit configuration specially designed to execute various processing. A dedicated electric circuit etc. are included.
  • One processing unit may be configured of one of these various processors, or configured of a combination of two or more processors of the same type or different types (for example, a plurality of FPGAs or a combination of a CPU and an FPGA) It may be done.
  • a plurality of processing units may be configured by one processor.
  • one processor is configured by a combination of one or more CPUs and software as represented by computers such as clients and servers; There is a form in which this processor functions as a plurality of processing units.
  • SoC system on chip
  • IC integrated circuit
  • circuitry in the form in which circuit elements such as semiconductor elements are combined.
  • An image acquisition unit that acquires a medical image as a medical image obtained by imaging an observation target;
  • a medical image processing apparatus comprising: a region-of-interest extraction unit that extracts a region of interest from the medical image; and a region-of-interest extraction unit that extracts a plurality of regions of interest from the medical image according to a plurality of different regions of interest extraction conditions.
  • the region of interest extraction unit calculates a first feature amount from the first medical image, and extracts the region of interest based on the first feature amount.
  • the medical image processing apparatus according to claim 1, wherein the plurality of regions of interest extraction conditions are different in the first region extraction range.
  • the region of interest extraction unit calculates a first feature amount and a second feature amount from the first medical image, and extracts the region of interest based on the first feature amount and the second feature amount.
  • the medical image processing apparatus according to claim 1, wherein the plurality of regions of interest extraction conditions are different in the first region extraction range and the second region extraction range.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Endoscopes (AREA)

Abstract

関心領域の抽出を適切に行うことによって、関心領域から適切な診断支援情報を提供することができる医療画像処理装置、内視鏡システム、診断支援装置、並びに医療業務支援装置を提供する。画像取得部は、観察対象を撮像して得られる医療画像を取得する。関心領域抽出部は、医療画像から関心領域として第1の関心領域を抽出する。関心領域変更部は、第1の関心領域を修正して第2の関心領域にする修正処理を行う。ユーザーインターフェースは、関心領域変更部への指示を受け付ける。修正処理には、前記第1の関心領域の拡大、縮小、又は位置変更が含まれる。

Description

医療画像処理装置、内視鏡システム、診断支援装置、並びに医療業務支援装置
 本発明は、医療画像から関心領域を抽出する医療画像処理装置、内視鏡システム、診断支援装置、並びに医療業務支援装置に関する。
 現在の医療分野においては、内視鏡システムに組み込まれる内視鏡用のプロセッサ装置などのように、医療画像を用いる医療画像処理装置が普及している。また、近年においては、医療画像から病変部の可能性のある関心領域を抽出し、抽出した関心領域に対して画像解析を行うことによって、病態に関する診断支援情報を取得することが行われている。取得した診断支援情報については、モニタなどの表示部に表示することによって、ユーザーに提供される。
 例えば、特許文献1では、医療画像から複数の関心領域を抽出し、抽出した複数の関心領域について、いくつかの属性に分類することを行っている。分類後の属性については、診断支援情報として、ユーザーに提供される。また、特許文献2では、医療画像から複数の関心領域を抽出し、各関心領域について、病変部の状態に応じた点数に基づく危険度を設定している。設定した危険度については、診断支援情報として、危険度毎に異なる色で表示することによって、ユーザーに提供される。
国際公開番号WO2013/140667号 特開2012-157384号公報
 以上のように、最終的にユーザーに提供される診断支援情報については、医療画像から抽出する関心領域の抽出結果に大きく依存する。特に、内視鏡においては、管腔内を移動させながら観察対象の画像の取得を行っていることもあり、観察対象は固定されず、関心領域を狙った位置に正確に定めることができない場合がある。また、観察対象に付着した粘膜表面の付着物等が医療画像に写り込んでいる場合には、関心領域の抽出を正確に行うことができない場合がある。このように関心領域の抽出を適切に行うことができなかった場合には、結果的として、問題のある診断支援情報をユーザーに提供することになる。
 本発明は、関心領域の抽出を適切に行うことによって、関心領域から適切な診断支援情報を提供することができる医療画像処理装置、内視鏡システム、診断支援装置、並びに医療業務支援装置を提供することを目的とする。
 本発明の医療画像処理装置は、観察対象を撮像して得られる医療画像を取得する画像取得部と、医療画像から関心領域として第1の関心領域を抽出する関心領域抽出部と、第1の関心領域を修正して第2の関心領域にする修正処理を行う関心領域変更部と、ユーザーによる関心領域変更部への指示を受け付けるユーザーインターフェースとを備える。
 修正処理は、第1の関心領域の拡大、縮小、又は位置変更のうち、少なくとも一つを含むことが好ましい。関心領域変更部は、第1の関心領域と異なる位置に第3の関心領域を追加する追加処理、又は、第1の関心領域を削除する削除処理を行うことが好ましい。ユーザーインターフェースは、修正処理、追加処理、又は削除処理を行うための指示を受け付けることが好ましい。
 関心領域抽出部は、医療画像から第1特徴量を算出し、第1特徴量が、第1領域抽出用範囲に入っている領域を、関心領域として抽出し、関心領域抽出条件は、第1領域抽出用範囲に関する条件であることが好ましい。関心領域抽出部は、医療画像から第1特徴量及び第2特徴量を算出し、第1特徴量が、第1領域抽出用範囲に入っている領域、及び第2特徴量が、第2領域抽出用範囲に入っている領域に基づいて、関心領域の抽出を行い、関心領域抽出条件は、第1領域抽出用範囲、及び第2領域抽出用範囲に関する条件であることが好ましい。ユーザーインターフェースは、関心領域抽出条件を変更するための指示を受け付けることが好ましい。
 複数の特徴量の中から、関心領域の抽出に使用する特徴量を選択する特徴量選択処理を行う特徴量選択部を有し、関心領域抽出部は、医療画像から特徴量選択部で選択された特徴量を算出し、算出した特徴量に基づいて関心領域の抽出を行うことが好ましい。ユーザーインターフェースは、特徴量選択処理に関する指示を受け付けることが好ましい。
 医療画像には、互いに異なる第1の医療画像と第2の医療画像が含まれ、関心領域変更部は、第1の医療画像から抽出した関心領域に対して修正処理を行い、関心領域抽出部は、修正処理に関する領域修正情報を用いて、第2の医療画像から関心領域を抽出することが好ましい。領域修正情報を記憶する領域修正情報記憶部を有することが好ましい。第1の関心領域又は第2の関心領域から診断支援情報を算出する診断支援情報算出部を有することが好ましい。
 本発明によれば、関心領域の抽出を適切に行うことによって、関心領域から適切な診断支援情報を提供することができる。
内視鏡システムの外観図である。 内視鏡システムのブロック図である。 第1実施形態の画像処理部の機能を示すブロック図である。 第1実施形態における関心領域と診断支援情報を示す画像図である。 第1の関心領域ROIxを拡大した第2の関心領域ROIyを示す説明図である。 第1の関心領域ROIxの位置変更を行った第2の関心領域ROIyを示す説明図である。 新たに追加された第3の関心領域ROIzを示す説明図である。 削除処理を示す説明図である。 修正処理の流れを示すフローチャートである。 関心領域、診断支援情報、及び第1領域抽出用範囲を変更するためのスライダを示す画像図である。 第2実施形態で行う修正処理を示す説明図である。 第2実施形態において図11と異なる修正処理を示す説明図である。 第2実施形態の画像処理部の機能を示すブロック図である。 第1の医療画像取得時に行った関心領域抽出条件の変更を、第2の医療画像の取得以降も適用することを示す説明図である。 患者Aの画像診断中に行った関心領域抽出条件の変更を、他の患者Bの画像診断にも適用することを示す説明図である。 関心領域、診断支援情報、第1領域抽出用範囲及び第2領域抽出用範囲を変更するためのスライダを示す画像図である。 第3実施形態の修正処理を示す説明図である。 第3実施形態の画像処理部の機能を示すブロック図である。 関心領域、診断支援情報、第1領域抽出用範囲及び第3の領域抽出用範囲を変更するためのスライダを示す画像図である。 複数の関心領域とそれら関心領域から算出した診断支援情報を示す画像図である。
 [第1実施形態]
 図1に示すように、内視鏡システム10は、内視鏡12と、光源装置14と、プロセッサ装置16と、モニタ18と、ユーザーインターフェース19と、を備える。内視鏡12は、観察対象である被写体に照明光を照射し、照明光で照射された被写体を撮像する。光源装置14は、被写体に照射するための照明光を発生する。プロセッサ装置16は、内視鏡システム10のシステム制御及び画像処理等を行う。モニタ18は、プロセッサ装置16から出力された画像を表示する表示部である。ユーザーインターフェース19は、プロセッサ装置16等への設定入力等を行う入力デバイスであり、キーボードKBやマウスMSなどから構成される。
 なお、ユーザーインターフェース19は、マウスMS、キーボードKBに限定されず、グラフィカルユーザーインターフェースや音声入力、タッチディスプレイなどであってもよい。また、本発明の医療画像処理装置は、プロセッサ装置16内に設けられた画像取得部54及び画像処理部61(図2参照)と、ユーザーインターフェース19とを含んでいる。
 内視鏡12は、被検体内に挿入する挿入部12aと、挿入部12aの基端部分に設けた操作部12bと、挿入部12aの先端側に設けた湾曲部12cと、先端部12dと、を有している。操作部12bのアングルノブ12eを操作することにより、湾曲部12cが湾曲する。湾曲部12cが湾曲することにより、先端部12dが所望の方向に向く。先端部12dには、被写体に向けて空気や水等を噴射する噴射口(図示しない)が設けられている。
 また、操作部12bには、アングルノブ12eの他、ズーム操作部13が設けられている。ズーム操作部13を操作することによって、被写体を拡大または縮小して撮像することができる。また、挿入部12aから先端部12dにわたって、処置具などを挿通するための鉗子チャンネル(図示しない)が設けられている。処置具は、鉗子入口12fから鉗子チャンネル内に挿入される。
 図2に示すように、光源装置14は、光源部20と、光源制御部22と、を備える。光源部20は、被写体を照明するための照明光を発光する。光源部20は、1又は複数の光源を備えている。光源制御部22は、光源部20の駆動を制御する。光源制御部22は、光源部20を構成する光源の点灯または消灯のタイミング、及び、点灯時の発光量等をそれぞれ独立に制御する。その結果、光源部20は、発光量や発光タイミングが異なる複数種類の照明光を発光することができる。
 光源部20が発光した照明光は、ライトガイド41に入射する。ライトガイド41は、内視鏡12及びユニバーサルコード(図示しない)内に内蔵されており、照明光を内視鏡12の先端部12dまで伝搬する。ユニバーサルコードは、内視鏡12と光源装置14及びプロセッサ装置16とを接続するコードである。なお、ライトガイド41としては、マルチモードファイバを使用できる。一例として、コア径105μm、クラッド径125μm、外皮となる保護層を含めた径がφ0.3~0.5mmの細径なファイバケーブルを使用できる。
 内視鏡12の先端部12dには、照明光学系30aと撮像光学系30bが設けられている。照明光学系30aは、照明レンズ45を有しており、この照明レンズ45を介して照明光が被写体に向けて出射する。撮像光学系30bは、対物レンズ46、ズームレンズ47、及びイメージセンサ48を有している。イメージセンサ48は、対物レンズ46及びズームレンズ47を介して、被写体から戻る照明光の反射光等(反射光の他、散乱光、被写体が発する蛍光、または、被写体に投与等した薬剤に起因した蛍光等を含む)を用いて被写体を撮像する。ズームレンズ47は、ズーム操作部13の操作をすることで移動し、イメージセンサ48を用いて撮像する被写体を拡大または縮小する。
 イメージセンサ48は、例えば原色系のカラーフィルタを有するカラーセンサであり、青色カラーフィルタを有するB画素(青色画素)、緑色カラーフィルタを有するG画素(緑色画素)、及び、赤色カラーフィルタを有するR画素(赤色画素)の3種類の画素を備える。青色カラーフィルタは、主として紫色から青色の光を透過する。緑色カラーフィルタは、主として緑色の光。赤色カラーフィルタは、主として赤色の光を透過する。上記のように原色系のイメージセンサ48を用いて被写体を撮像すると、最大で、B画素から得るB画像(青色画像)、G画素から得るG画像(緑色画像)、及び、R画素から得るR画像(赤色画像)の3種類の画像を同時に得ることができる。
 なお、イメージセンサ48としては、CCD(Charge Coupled Device)センサや、CMOS(Complementary Metal Oxide Semiconductor)センサを利用可能である。また、本実施形態のイメージセンサ48は、原色系のカラーセンサであるが、補色系のカラーセンサを用いることもできる。補色系のカラーセンサは、例えば、シアンカラーフィルタが設けられたシアン画素、マゼンタカラーフィルタが設けられたマゼンタ画素、イエローカラーフィルタが設けられたイエロー画素、及び、グリーンカラーフィルタが設けられたグリーン画素を有する。補色系カラーセンサを用いる場合に上記各色の画素から得る画像は、補色-原色色変換をすれば、B画像、G画像、及びR画像に変換できる。また、カラーセンサの代わりに、カラーフィルタを設けていないモノクロセンサをイメージセンサ48として使用できる。この場合、BGR等各色の照明光を用いて被写体を順次撮像することにより、上記各色の画像を得ることができる。
 プロセッサ装置16は、中央制御部52と、画像取得部54と、画像処理部61と、表示制御部66とを有する。中央制御部52は、照明光の照射タイミングと撮像のタイミングの同期制御等の内視鏡システム10の統括的な制御を行う。また、ユーザーインターフェース19等を用いて、各種設定の入力等をした場合には、中央制御部52は、入力された各種設定を、光源制御部22、イメージセンサ48、または画像処理部61等の内視鏡システム10の各部に入力する。
 画像取得部54は、イメージセンサ48から、被写体を撮像した画像を取得する。この画像取得部54で取得する画像は、内視鏡12のような医療用装置により得られた画像であることから、医療画像と称する。画像取得部54は、DSP(Digital Signal Processor)56と、ノイズ低減部58と、変換部59と、を有し、これらを用いて、取得した医療画像に必要に応じて各種処理を施す。DSP56は、取得した医療画像に対し、必要に応じて欠陥補正処理、オフセット処理、ゲイン補正処理、リニアマトリクス処理、ガンマ変換処理、デモザイク処理、及びYC変換処理等の各種処理を施す。
 欠陥補正処理は、イメージセンサ48の欠陥画素に対応する画素の画素値を補正する処理である。オフセット処理は、欠陥補正処理を施した画像から暗電流成分を低減し、正確な零レベルを設定する処理である。ゲイン補正処理は、オフセット処理をした画像にゲインを乗じることにより各画像の信号レベルを整える処理である。リニアマトリクス処理は、オフセット処理をした画像の色再現性を高める処理であり、ガンマ変換処理は、リニアマトリクス処理後の画像の明るさや彩度を整える処理である。
 なお、イメージセンサ48がカラーセンサである場合には、デモザイク処理が行われる。デモザイク処理(等方化処理や同時化処理とも言う)は、欠落した画素の画素値を補間する処理であり、ガンマ変換処理後の画像に対して施す。欠落した画素とは、カラーフィルタの配列に起因して(イメージセンサ48において他の色の画素を配置しているため)、画素値がない画素である。例えば、B画像はB画素において被写体を撮像して得る画像なので、G画素やR画素に対応する位置の画素には画素値がない。デモザイク処理は、B画像を補間して、イメージセンサ48のG画素及びR画素の位置にある画素の画素値を生成する。YC変換処理は、デモザイク処理後の画像を、輝度チャンネルYと色差チャンネルCb及び色差チャンネルCrに変換する処理である。
 ノイズ低減部58は、輝度チャンネルY、色差チャンネルCb及び色差チャンネルCrに対して、例えば、移動平均法またはメディアンフィルタ法等を用いてノイズ低減処理を施す。変換部59は、ノイズ低減処理後の輝度チャンネルY、色差チャンネルCb及び色差チャンネルCrを再びBGRの各色の画像に再変換する。
 画像処理部61は、画像取得部54が取得した医療画像に対して各種の画像処理を施す。また、画像処理部61は、医療画像から関心領域の抽出を行い、抽出した関心領域から観察対象の診断を支援するための診断支援情報を算出する。関心領域の抽出及び診断支援情報の算出については後述する。表示制御部66は、画像処理部61から送られる医療画像又は診断支援情報を用い、モニタ18での表示に適した形式に変換してモニタ18に出力する。これにより、モニタ18には、医療画像と診断支援情報が少なくとも表示される。
 図3に示すように、画像処理部61は、不要領域除去部68と、関心領域抽出部70と、診断支援情報算出部72と、関心領域変更部74と、を備えている。不要領域除去部68は、医療画像のうち、診断支援情報の正確な算出の妨げとなる暗過ぎる領域と明る過ぎる領域とを除去する除去処理を行う。この除去処理では、医療画像のうちB画像、G画像、R画像のそれぞれに対して、下限値と上限値を設定する。そして、下限値を下回る領域を暗すぎる領域として検出し、各画像から除去する。同様にして、上限値を超える領域を明る過ぎる領域として検出し、各画像から除去する。暗すぎる領域と明る過ぎる領域を除去した医療画像に対して、関心領域の抽出を行う。なお、暗すぎる領域と明る過ぎる領域の除去については、医療画像の状態によっては、行わなくてもよい。
 関心領域抽出部70は、医療画像から検査または診断の対象として注目すべき関心領域を検出する。関心領域抽出部70では、医療画像から第1特徴量を算出する。そして、算出した第1特徴量が、第1領域抽出用範囲に入っている領域を関心領域として抽出する。第1領域抽出用範囲は、関心領域を抽出するために、予め設定された第1特徴量の数値範囲を表している。例えば、関心領域設定部では、第1特徴量として、G画像とB画像との比率を示すB/Gを対数化した「ln(G/B)」を算出し、「ln(G/B)」が第1領域抽出用範囲に入っている領域を関心領域として抽出する。この第1特徴量に基づいて抽出される関心領域には、主に、表層血管の領域が含まれる。なお、関心領域抽出部70により抽出する関心領域は、観察対象の表面など2次元の領域に限られない。例えば、観察対象の表面に加えて、観察対象の深さ方向(浸潤)の3次元の領域を、関心領域として抽出するようにしてもよい。
 ここで、第1特徴量としては、「ln(G/B)」の他に、後述する血管に関する血管指標値や、腺管構造に関する腺管指標値であってもよい。また、第1特徴量としては、例えば、医療画像に対してConvolutional Neural Networkを行うことの他、医療画像の色情報、画素値の勾配等で得られる特徴量を用いてもよい。なお、画素値の勾配等は、例えば、被写体の形状(粘膜の大局的な起伏または局所的な陥凹もしくは隆起等)、色(炎症、出血、発赤、または萎縮に起因した白化等の色)、組織の特徴(血管の太さ、深さ、密度、もしくはこれらの組み合わせ等)、または、構造の特徴(ピットパターン等)等によって、変化が表れる。
 また、関心領域抽出部70で抽出される関心領域は、例えば、がんに代表される病変部、良性腫瘍部、炎症部(いわゆる炎症の他、出血または萎縮等の変化がある部分を含む)、加熱による焼灼跡もしくは着色剤、蛍光薬剤等による着色によってマーキングしたマーキング部、または、生体検査(いわゆる生検)を実施した生検実施部を含む領域である。すなわち、病変を含む領域、病変の可能性がある領域、生検等の何らかの処置をした領域、クリップやかん子などの処置具、または、暗部領域(ヒダ(襞)の裏、管腔奥のため観察光が届きにくい領域)など病変の可能性にかかわらず詳細な観察が必要である領域等が関心領域になり得る。内視鏡システム10においては、関心領域抽出部70は、病変部、良性腫瘍部、炎症部、マーキング部、または、生検実施部のうち少なくともいずれかを含む領域を関心領域として検出する。
 診断支援情報算出部72は、関心領域抽出部70で抽出された関心領域から各種指標値を算出し、算出した各種指標値に基づいて、病変部の診断を支援するための診断支援情報を算出する。各種指標値としては、血管密度や血管走行パターンなどの血管に関する血管指標値や、腺管構造に関する腺管指標値などが含まれる。診断支援情報としては、例えば、病変部の進行度(ステージ)などが挙げられる。算出された診断支援情報80は、図4に示すように、関心領域ROIに対応づけられてモニタ18に表示される(図4では「ステージ1」)。
 関心領域変更部74は、関心領域抽出部70によって抽出する関心領域を、第1の関心領域から第2の関心領域に修正する修正処理を行う。第1の関心領域は修正処理前の関心領域であり、第2の関心領域は修正処理後の関心領域である。修正処理は、ユーザーインターフェース19が、関心領域変更部74への指示の一つである修正処理の指示を受け付けたことを契機に、行われる。第1実施形態では、ユーザーインターフェース19として、マウスMSが用いられることが好ましい。修正処理には、第1の関心領域の拡大、縮小、又は位置変更が含まれる。修正処理後は、診断支援情報算出部72が、第2の関心領域から各種指標値を再算出し、算出した各種指標値に基づいて、病変部の診断を支援するための診断支援情報を再算出する。なお、修正処理後は、修正処理に関する情報を領域修正情報として、後述する領域修正情報記憶部76(図13参照)に記憶させてもよい。
 修正処理のうち拡大を行う場合には、図5に示すように、マウスMSを操作して、モニタ18上に表示されたポインタ82を、第1の関心領域ROIx(点線で表記)の境界部分に当てる。そして、第1の関心領域ROIxの境界部分においてマウスMSを右クリックした状態で、ポインタ82が第1の関心領域ROIxを拡大する方向に動くように、マウスMSを操作する。これにより、第1の関心領域ROIxを拡大した第2の関心領域ROIy(実線で表記)が得られる。そして、拡大後には、第2の関心領域ROIyから診断支援情報80が再算出され、再算出された診断支援情報80は、第2の関心領域ROIyと対応付けてモニタ18に表示される(再算出後の診断支援情報は「ステージ2」)。一方、第1の関心領域ROIxを縮小する場合には、第1の関心領域ROIxの境界部分においてマウスMSを右クリックした状態で、ポインタ82が第1の関心領域ROIxを縮小する方向に動くように、マウスMSを操作する。
 修正処理のうち位置変更を行う場合は、図6に示すように、マウスMSを操作して、ポインタ82を第1の関心領域ROIx(点線で表記)の内部にセットする。そして、この第1の関心領域ROIxの内部においてマウスMSを右クリックした状態で、ユーザーが位置変更したい領域に向かう方向にポインタ82が動くように、マウスMSを操作する。これにより、第1の関心領域ROIxの位置変更を行った第2の関心領域ROIy(実線で表記)が得られる。位置変更後には、第2の関心領域ROIyから診断支援情報が再算出され、再算出された診断支援情報は、第2の関心領域ROIyと対応付けてモニタ18に表示される(再算出後の診断支援情報は「ステージ2」)。
 また、関心領域変更部74においては、関心領域抽出部70によって抽出する関心領域として、第1の関心領域に加えて、第1の関心領域と異なる位置に第3の関心領域を追加する追加処理を行ってもよい。追加処理では、図7に示すように、新たに関心領域を設定したい領域にポインタ82がセットされるように、マウスMSを操作する。ポインタ82が関心領域を設定したい部分にセットされると、マウスMSを左クリックする。これにより、第1の関心領域ROIxとは異なる位置に第3の関心領域ROIzが追加される。追加する第3の関心領域ROIzは、正方形領域とすることが好ましい。追加後には、第3の関心領域ROIzから診断支援情報が再算出され、再算出された診断支援情報は、第3の関心領域ROIzと対応付けてモニタ18に表示される(第1の関心領域ROIxの診断支援情報は「ステージ2」、第3の関心領域ROIzの診断支援情報は「ステージ1」)。なお、追加された第3の関心領域ROIzは、拡大、縮小、又は位置変更などの修正処理を行うこともできる。
 また、関心領域変更部74においては、関心領域抽出部70によって抽出する関心領域として、第1の関心領域を削除する削除処理を行ってもよい。削除処理では、図8に示すように、マウスMSを操作して、ポインタ82を第1の関心領域ROIxの内部にセットする。そして、第1の関心領域ROIxの内部においてマウスMSの右クリックを複数回(例えば2回)操作する。これにより、第1の関心領域ROIxが削除される。合わせて、第1の関心領域ROIxと対応付けて表示されていた診断支援情報も削除される(図8の点線は削除されたことを示している)。なお、後述の第4実施形態又は第5実施形態のように、複数の関心領域をモニタ18に表示する場合には、複数の関心領域のうち不要な関心領域を削除処理によって削除するようにしてもよい。
 次に、関心領域の修正処理について、図9に示すフローチャートに沿って説明を行う。まず、取得した医療画像から第1特徴量を算出して、算出した第1特徴量に基づいて関心領域の抽出を行う。そして、関心領域から診断支援情報の算出を行う。関心領域と診断支援情報については、モニタ18に表示される。ユーザーは、モニタ18に表示された関心領域と診断支援情報を確認して、算出された診断支援情報が妥当か否かを判断する。その結果、関心領域の抽出結果に問題がなく、診断支援情報が妥当であると判断した場合には、修正処理を行わない。
 これに対して、関心領域の抽出結果に問題があり、診断支援情報が妥当でないと判断した場合には、関心領域の修正が必要であると判断して、修正処理を行う。修正処理は、関心領域として問題がある第1の関心領域を、マウスMSなどのユーザーインターフェース19によって修正する。これにより、第1の関心領域が修正された第2の関心領域が得られる。修正処理後は、第2の関心領域から診断支援情報を再算出する。再算出された診断支援情報は、第2の関心領域とともにモニタ18に表示される。この関心領域の修正と診断支援情報の再算出は、ユーザーが、関心領域の修正が必要無いと判断するまで、繰り返し行われる。
 [第2実施形態]
 第2実施形態では、関心領域を抽出するための関心領域抽出条件を変更することによって、第1の関心領域を第2の関心領域に修正する修正処理を行う。ここで、関心領域抽出条件は、第1実施形態で示した第1領域抽出用範囲に関する条件である。第2実施形態では、複数の関心領域抽出条件に変更できるように、複数の第1領域抽出用範囲が設けられている。複数の第1領域抽出用範囲として、5つの領域抽出用範囲R11、R12、R13、R14、R15が設けられている。R11が領域抽出用範囲としては一番狭く、R12、R13、R14の順で、領域抽出用範囲が広くなっており、R15が、一番領域抽出用範囲が広くなっている。なお、第2実施形態は、関心領域抽出条件の変更によって修正処理を行う以外は、第1実施形態と同様である。
 図10に示すように、複数の第1領域抽出用範囲R11、R12、R13、R14、R15は、第1領域抽出用範囲を示すスライドバー86の目盛りR11、R12、R13、R14、R15にそれぞれ対応している。スライドバー86上に設けられたスライダ88は、現在設定されている第1領域抽出用範囲を示している。ここでは、領域抽出用範囲R11に設定されている。これにより、第1特徴量が第1領域抽出用範囲R11に入っている領域が関心領域ROIとして抽出され、関心領域ROIから診断支援情報80が算出される(図10では「ステージ1」)。
 スライダ88は、ユーザーインターフェース19が、第1領域抽出用範囲を変更するための指示を受け付けたことを契機に、スライドバー86上で移動させることが可能となっている。これにより、関心領域の抽出に使用する第1領域抽出用範囲を変更することができる。即ち、関心領域抽出条件を変更することができる。なお、後述するスライダ92、98についても、ユーザーインターフェース19を操作により移動させることができる。
 例えば、第1領域抽出用範囲の変更前に、スライダ88が目盛りR11にセットされている場合(点線で表記)には、第1特徴量が第1領域抽出用範囲R11に入っている領域が第1の関心領域ROIxとして抽出される。第1の関心領域抽出後は、第1の関心領域ROIxから診断支援情報が算出されてモニタ18に表示される。そして、図11に示すように、スライダ88を目盛りR13にまで動かした場合(実線で表記)には、関心領域の抽出に使用する第1領域抽出用範囲が、第1領域抽出用範囲R11よりも広い範囲を有する第1領域抽出用範囲R13に変更される。これにより、第1特徴量が第1領域抽出用範囲R13に入っている領域が第2の関心領域ROIyとして抽出される。第2の関心領域抽出後は、第2の関心領域ROIyから診断支援情報80が算出されてモニタ18に表示される(図11では「ステージ2」)。
 また、第1領域抽出用範囲の変更前に、スライダ88が目盛りR13にセットされている場合(点線で表記)には、第1特徴量が第1領域抽出用範囲R13に入っている領域が第1の関心領域ROIxとして抽出される。第1の関心領域抽出後は、第1の関心領域ROIxから診断支援情報が算出されてモニタ18に表示される。そして、図12に示すように、スライダ88を目盛りR11にまで動かした場合(実線で表記)には、関心領域の抽出に使用する第1領域抽出用範囲が、第1領域抽出用範囲R11よりも狭い範囲を有する第1領域抽出用範囲R11に変更される。これにより、第1特徴量が第1領域抽出用範囲R11に入っている領域が第2の関心領域ROIyとして抽出される。第2の関心領域抽出後は、第2の関心領域ROIyから診断支援情報80が算出されてモニタ18に表示される(図12では「ステージ1」)。
 第2実施形態では、関心領域抽出条件の変更によって関心領域を修正した履歴は、領域修正情報として、図13に示す領域修正情報記憶部76に記憶される。領域修正情報は、関心領域抽出条件変更後に取得した医療画像から関心領域を抽出する際に用いられる。図14では、第1の医療画像において、関心領域抽出条件の変更により得られた領域修正情報を領域修正情報記憶部76に記憶する。第2の医療画像は、第1の医療画像よりも後に取得した画像であり、領域修正情報記憶部76に記憶した領域修正情報を用いて、関心領域の抽出を行う。なお、後述する第3実施形態においても、関心領域抽出条件の変更によって関心領域を修正した履歴を、領域修正情報として、領域修正情報記憶部76に記憶するようにしてもよい。
 例えば、領域修正情報が、第1領域抽出用範囲R11から第1領域抽出用範囲R13への変更履歴を有している場合には、第2の医療画像に対しては、第1領域抽出用範囲R13を用いて関心領域の抽出を行う。以上のように、領域修正情報を用いることで、診断中にスライダ88を操作するなど関心領域抽出条件の変更によるユーザーによる手間を省くことができる。なお、領域修正情報は、ユーザーインターフェース19によってリセットして、デフォルトの第1領域抽出用範囲(例えば、第1領域抽出用範囲R11)に戻すようにしてもよい。
 また、領域修正情報は、別の患者を内視鏡12により診断する際に、用いるようにしてもよい。図15に示すように、患者Aの画像診断中に得られた第1の医療画像から関心領域を抽出し、その関心領域に対して行った関心領域抽出条件の変更を、領域修正条件として領域修正情報記憶部76に記憶しておく。そして、患者Aとは異なる患者Bの画像診断中に得られた第2の医療画像に対しては、領域修正情報記憶部76に記憶した領域修正情報を用いて、関心領域の抽出を行う。なお、領域修正情報は、別の病院やクリニックで内視鏡12により画像診断を行う際に、用いるようにしてもよい。
 [第3実施形態]
 第3実施形態では、第2実施形態と同様に、関心領域を抽出するための関心領域抽出条件を変更することによって、第1の関心領域を第2の関心領域に修正する修正処理を行う。ただし、関心領域抽出条件は、第2実施形態と異なり、複数の特徴量を用いて、関心領域の抽出を行う。第3実施形態では、第1特徴量「ln(G/B)」の他に、第2特徴量「ln(R/G)」を用いる。第2特徴量「ln(R/G)」は、R画像とG画像の比R/Gを対数化したものである。第1特徴量と第2特徴量に基づいて抽出される関心領域の抽出には、主として、表層血管の領域と発赤の領域とが含まれる。これら2つの第1特徴量と第2特徴量を用いることに伴い、関心領域抽出条件として、第1実施形態で示した第1領域抽出用範囲に関する条件に、関心領域を抽出するために、予め設定された第2特徴量の数値範囲を示す第2領域抽出用範囲に関する条件が加えられる。なお、第3実施形態は、関心領域抽出条件の変更によって修正処理を行う以外は、第1実施形態と同様である。
 また、複数の関心領域抽出条件に変更できるように、複数の第1領域抽出用範囲と複数の第2領域抽出用範囲とが設けられている。複数の第1領域抽出用範囲として、第2実施形態と同様に、5つの領域抽出用範囲R11、R12、R13、R14、R15が設けられている。また、複数の第2領域抽出用範囲として、5つの領域抽出用範囲R21、R22、R23、R24、R25が設けられている。R21が領域抽出用範囲としては一番狭く、R22、R23、R24の順で、領域抽出用範囲が広くなっており、R25が、一番領域抽出用範囲が広くなっている。
 図16に示すように、第2実施形態と同様、複数の第1領域抽出用範囲R11、R12、R13、R14、R15は、第1領域抽出用範囲を示すスライドバー86の目盛りR11、R12、R13、R14、R15にそれぞれ対応している。また、複数の第2領域抽出用範囲R21、R22、R23、R24、R25は、第2領域抽出用範囲を示すスライドバー90の目盛りR21、R22、R23、R24、R25にそれぞれ対応している。スライドバー86上に設けられたスライダ88を動かすことによって、関心領域の抽出に使用する第1領域抽出用範囲を変更することができる。また、スライドバー90上に設けられたスライダ92を動かすことによって、関心領域の抽出に使用する第2領域抽出用範囲を変更することができる。
 例えば、第1領域抽出用範囲及び第2領域抽出用範囲の変更前に、スライダ88が目盛りR11にセットされ、スライダ92がR21にセットされている場合には、第1特徴量が第1領域抽出用範囲R11に入っている領域ROIbgと第2特徴量が第2領域抽出用範囲21に入っている領域ROIgrとが重複する領域が、第1の関心領域ROIとして抽出される。第1の関心領域抽出後は、第1の関心領域ROIxから診断支援情報80が算出されてモニタ18に表示される(図16では「ステージ1」)。
 そして、図17に示すように、スライダ88を目盛りR13にまで動かした場合には、関心領域の抽出に使用する第1領域抽出用範囲が、第1領域抽出用範囲R11よりも広い範囲を有する第1領域抽出用範囲R13に変更される。また、スライダ92を目盛りR23まで動かした場合には、関心領域の抽出に使用する第2領域抽出用範囲が、第2領域抽出用範囲R21よりも広い範囲を有する第2領域抽出用範囲R23に変更される。これにより、第1特徴量が第1領域抽出用範囲R13に入る領域ROIbgと、第2特徴量が第2領域抽出用範囲R23に入る領域ROIgrとが重複する第2の関心領域ROIyに変更される。第2の関心領域抽出後は、第2の関心領域ROIyから診断支援情報が算出されてモニタ18に表示される(図17では「ステージ2」)。
 なお、第3実施形態においては、第1特徴量又は第2特徴量以外の特徴量を用いて、関心領域の抽出を行うようにしてもよい。この場合、複数の特徴量の中から関心領域の抽出に使用する特徴量を選択する特徴量選択処理を行うようにしてもよい。この特徴量選択処理は、特徴量選択部94によって行われる。この特徴量選択部94は、ユーザーインターフェース19が特徴量選択処理に関する指示を受け付けたこと契機に、特徴量選択処理を行う。
 例えば、関心領域の抽出に用いる特徴量として、第1特徴量「ln(G/B)」、第2特徴量
「ln(R/G)」の他に、第3特徴量「ln(B/(R+G+B))」が設けられている場合に、特徴量選択部94によって、第1特徴量「ln(G/B)」及び第3特徴量「ln(B/(R+G+B))」が選択された場合、図19に示すように、モニタ18には、第1特徴量「ln(G/B)」を示すスライドバー86及びスライダ88と、第3特徴量「ln(B/(R+G+B))」を示すスライドバー96及びスライダ98とが表示される。関心領域を抽出するために、予め設定された第3特徴量の数値範囲を示す複数の第3領域抽出用範囲R31、R32、R33、R34、R35は、それぞれスライドバー96の目盛りR31、R32、R33、R34、R35に対応している。これらスライダ88とスライダ98を動かすことによって、関心領域の抽出に使用する第1領域抽出用範囲と第3領域抽出用範囲を変更することができる。
 [第4実施形態]
 第4実施形態においては、第1~第3実施形態のように、第1の関心領域を第2の関心領域に修正する修正処理を行わず、関心領域抽出条件を複数設け、それら複数の関心領域抽出条件に従って、複数の関心領域を抽出するようにする。第4実施形態では、関心領域抽出条件は、第1実施形態で示した第1領域抽出用範囲に関する条件であり、この第1領域抽出用範囲が複数設けられている。複数の第1領域抽出用範囲としては、第2実施形態と同様に、5つの領域抽出用範囲R11、R12、R13、R14、R15が設けられている。なお、第4実施形態は、修正処理を行わず、複数の関心領域を抽出すること以外は、第1実施形態と同様である。また、領域抽出用範囲を5つとしたが、これ以下又は以上であってもよいが、10つ程度であることが好ましい。
 図20に示すように、第1特徴量が第1領域抽出用範囲R11に入っている領域はROI1として抽出される。同様にして、第1特徴量が第1領域抽出用範囲R12、R13、R14、R15に入っている領域は、それぞれROI2、ROI3、ROI4、ROI5として抽出される。また、抽出した関心領域ROI1~ROI5については、それぞれ診断支援情報が算出されてモニタ18に表示される。図20では、ROI1の診断支援情報80は「ステージ2」であり、ROI2の診断支援情報80は「ステージ2」であり、ROI3の診断支援情報80は「ステージ1」であり、ROI4の診断支援情報80は「ステージ1」であり、ROI5の診断支援情報80は「ステージ2」である。
 なお、各関心領域ROI1~ROI5については、互いに違いが分かるように明るさや色を変えることが好ましい。また、複数の関心領域ROI1~ROI5のうち、ユーザーインターフェース19を操作して、特定の関心領域を拡大表示するようにしてもよい。また、抽出した複数の関心領域ROI1~ROI5は、それら関心領域から算出した診断支援情報とともに、医療画像上に合成して表示することが好ましい。合成する医療画像としては、後述する通常光画像や特殊光画像であることが好ましい。
 また、複数の関心領域ROI1~ROI5を抽出した医療画像とそれら関心領域から算出した診断支援情報とは、互いに対応付けてプロセッサ装置16内の診断支援情報記憶部95(図18参照)に保存するようにすることが好ましい。このように医療画像と診断支援情報を対応付けて保存することに関しては、本実施形態のみならず、第1~3実施形態又は第5実施形態においても行うようにしてもよい。医療画像と診断支援情報を対応付けて保存を行う際には、例えば、診断支援情報が数値データで表される場合には、画像ビューワーによって診断支援情報を読み出すことができるように、医療画像のヘッダに診断支援情報を添付するようにしてもよい。また、保存を行う際には、複数の関心領域ROI1~ROI5から算出した診断支援情報の全てを保存する他、ユーザーが選択した診断支援情報のみ保存するようにしてもよい。このユーザーによる選択は、ユーザーインターフェース19によって行われる。
 [第5実施形態]
 第5実施形態においては、第4実施形態と同様、第1の関心領域を第2の関心領域に修正する修正処理を行わず、関心領域抽出条件を複数設け、それら複数の関心領域抽出条件に従って、複数の関心領域を抽出するようにする。ただし、第5実施形態では、関心領域抽出条件は、第1実施形態で示した第1領域抽出用範囲に関する条件と、第3実施形態で示した第2領域抽出用範囲に関する条件である。この第1領域抽出用範囲が複数設けられ、第2領域抽出用範囲も複数設けられている。なお、第5実施形態は、修正処理を行わず、複数の関心領域を抽出すること以外は、第1実施形態と同様である。
 複数の第1領域抽出用範囲としては、第2実施形態と同様に、5つの領域抽出用範囲R11、R12、R13、R14、R15が設けられている。また、複数の第2領域抽出用範囲としては、第3実施形態と同様に、5つの領域抽出用範囲R21、R22、R23、R24、R25が設けられている。なお、第1領域抽出用範囲を5つとしたが、これ以下又は以上であってもよいが、10つ程度であることが好ましい。第2領域抽出用範囲についても同様である。
 第1特徴量が第1領域抽出用範囲R11に入っている領域と、第2特徴量が第2領域抽出用範囲R21に入っている領域ROIとが重複する領域を、関心領域ROI1として抽出される。同様にして、第1特徴量が第1領域抽出用範囲R12に入っている領域と第2特徴量が第2領域抽出用範囲R22に入っている領域とが重複する領域をROI2とする。また、第1特徴量が第1領域抽出用範囲R13に入っている領域と第2特徴量が第2領域抽出用範囲R24に入っている領域とが重複する領域をROI3とする。また、第1特徴量が第1領域抽出用範囲R14に入っている領域と第2特徴量が第2領域抽出用範囲R25に入っている領域とが重複する領域をROI4とする。また、第1特徴量が第1領域抽出用範囲R15に入っている領域と第2特徴量が第2領域抽出用範囲R25に入っている領域とが重複する領域をROI5とする。
 以上のように抽出した関心領域ROI1~ROI5については、それぞれ診断支援情報が算出されてモニタ18に表示される(図20参照)。なお、各関心領域ROI1~ROI5については、それら関心領域ROI1~ROI5の抽出のために重複させる2つの領域を、上記以外の領域としてもよい。
 なお、第1~第5実施形態において、図中では関心領域ROIの形状を四角(矩形)で表しているが、形状は四角(矩形)以外もあり得る。これは、第1~第5実施形態では、特徴量に基づいて関心領域を抽出しているため、特徴量の分布状況に応じて、関心領域の形状が変わるからである。また、第2及び第3実施形態のように、修正処理によって、関心領域を抽出するための第1特徴量又は第2特徴量の数値範囲を変更する場合には、修正処理の前後で、関心領域の形状が変わる場合がある。
 なお、第1~第5実施形態において、診断支援情報算出部72で算出する血管指標値としては、例えば、血管密度、血管太さ、血管の指標値としては、血管の本数、分岐数、分岐角度、分岐点間距離、交差数、太さの変化、間隔、粘膜を基準とした深さ、高低差、傾き、コントラスト、色、色の変化、蛇行度、血液濃度、酸素飽和度、動脈の割合、静脈の割合、投与した色素の濃度、走行パターン、及び血流量などがある。
 血管密度は、画像において特定領域に含まれる血管が占める割合によって表される。血管の太さ(血管径)とは、血管と粘膜の境界線間の距離であり、例えば、抽出した血管のエッジから血管の中を通って血管の短手方向に沿って画素数を計数することにより計数する。したがって、血管の太さは画素数であるが、医療画像を撮影した際の撮影距離やズーム倍率等が既知の場合には、必要に応じて「μm」等の長さの単位に換算可能である。
 血管の本数とは、医療画像全体または関心領域内で抽出した血管の数である。血管の本数は、例えば、抽出した血管の分岐点の個数(分岐数)や他の血管との交差点の個数(交差数)等を用いて算出する。血管の分岐角度は、2本の血管が分岐点においてなす角度である。分岐点間距離は、任意の分岐点とその隣の分岐点の直線距離、または、任意の分岐点とその隣の分岐点までの血管に沿った長さである。
 血管の交差数とは、粘膜下の深さが異なる血管が医療画像上で交差する交差点の個数である。より具体的には、血管の交差数とは、相対的に粘膜下の浅い位置にある血管が、深い位置にある血管を横切る数である。
 血管の太さの変化とは、血管の太さのばらつきに関する血管情報であり、口径不同度ともいう。血管の太さの変化は、例えば、血管径の変化率(拡張度ともいう)である。血管径の変化率は、血管の最も細い部分の太さ(最小径)と血管の最も太い部分の太さ(最大径)を用いて、「血管径の変化率(%)=最小径/最大径×100」で求める。
 なお、過去の検査で観察対象を撮影して得た医療画像と、その後の新たな検査で同じ観察対象を撮影して得た医療画像と、を用いる場合、過去の検査で得た医療画像から抽出した血管の太さに対して、その後の新たな検査で得た医療画像から抽出した同じ血管の太さの時間的な変化を血管の太さの変化としてもよい。
 また、血管の太さの変化として、細径部の割合、または太径部の割合を算出しても良い。細径部とは太さが閾値以下の部分であり、太径部とは太さが閾値よりも太い部分である。細径部の割合は、「細径部の割合(%)=細径部の長さ/血管の長さ×100」で求める。同様に、太径部の割合は、「太径部の割合(%)=太径部の長さ/血管の長さ×100」で求める。
 血管の太さの変化の複雑度(以下、「太さ変化の複雑度」という)は、血管の太さ変化している場合に、その変化がどの程度複雑であるかを表す血管情報であり、血管の太さの変化を表す血管情報(すなわち血管径の変化率、細径部の割合、または太径部の割合)を複数組み合わせて算出する血管情報である。太さ変化の複雑度は、例えば、血管径の変化率と細径部の割合の積で求めることができる。
 血管の長さとは、抽出した血管の長手方向に沿って計数した画素数である。
 血管の間隔とは、抽出した血管のエッジ間にある粘膜を表す画素の画素数である。抽出した血管が1本の場合、血管の間隔は値を持たない。
 血管の深さは、粘膜(より具体的には粘膜の表面)を基準として測る。この粘膜を基準とした血管の深さは、例えば、血管の色に基づいて算出することができる。特殊観察画像の場合、粘膜の表面に近い位置にある血管はマゼンタ系の色で表され、粘膜の表面から遠く、粘膜下の深い位置にある血管はシアン系の色で表されるので、血管として抽出した画素のR,G,B各色の信号のバランスに基づいて、粘膜を基準とした血管の深さを画素毎に算出する。
 血管の高低差とは、血管の深さの差の大きさである。例えば、注目する1本の血管の高低差は、この血管の最も深い箇所の深さ(最大深さ)と、最も浅い箇所の深さ(最小深さ)の差で求める。深さが一定の場合、高低差は零である。
 血管の傾きとは、血管の深さの変化率であり、血管の長さと血管の深さを用いて算出する。すなわち、血管の傾きは、「血管の傾き=血管の深さ/血管の長さ」で求める。なお、血管を複数の区間に区切り、各区間で血管の傾きを算出してもよい。
 血管の面積は、血管として抽出した画素の画素数、または、血管として抽出した画素の画素数に比例する値である。血管の面積は、関心領域内、関心領域外、または、医療画像全体について算出する。
 血管のコントラストとは、観察対象の粘膜に対する相対的なコントラストである。血管のコントラストは、血管の輝度YVと、粘膜の輝度YMと、を用いて、例えば「YV/YM」または「(YV-YM)/(YV+YM)」で算出する。
 血管の色とは、血管を表す画素のRGBの各値である。そして、血管の色の変化とは、血管を表す画素のRGB各値の各々の最大値と最小値の差または比である。例えば、血管を表すB画素の画素値の最大値と最小値の比、G画素の画素値の最大値と最小値の比、またはR画素の画素値の最大値と最小値の比は、血管の色の変化を表す。もちろん、補色に変換して、シアン、マゼンタ、イエロー、グリーン等の各値について血管の色及び血管の色の変化を算出しても良い。
 血管の蛇行度とは、血管が蛇行して走行する範囲の広さを表す血管情報である。血管の蛇行度は、例えば、蛇行度を算出する血管を含む最小の長方形の面積(画素数)である。また、血管の始点と終点の直線距離に対する血管の長さの比を血管の蛇行度としても良い。
 血管の血液濃度とは、血管が含むヘモグロビンの量に比例する血管情報である。血管を表すR画素の画素値に対するG画素の画素値の比(G/R)はヘモグロビンの量に比例するので、G/Rの値を算出することで、画素ごとに血液濃度を算出することができる。
 血管の酸素飽和度とは、ヘモグロビンの総量(酸化ヘモグロビン及び還元ヘモグロビンの総量)に対する酸化ヘモグロビンの量である。酸素飽和度は、酸化ヘモグロビンと還元ヘモグロビンの吸光係数に違いが大きい特定の波長帯域の光(例えば、波長470±10nm程度の青色光)で観察対象を撮影した医療画像を用いて算出することができる。波長470±10nm程度の青色光を用いる場合、血管を表すB画素の画素値は酸素飽和度と相関があるので、B画素の画素値を酸素飽和度に対応付けるテーブル等を用いることで、血管を表す各画素の酸素飽和度を算出することができる。
 動脈の割合とは、全血管の画素数に対する動脈の画素数の割合である。同様に、静脈の割合とは、全血管の画素数に対する静脈の画素数の割合である。動脈と静脈は、酸素飽和度によって区別することができる。例えば、酸素飽和度が70%以上の血管を動脈とし、酸素飽和度が70%未満の血管を静脈とすれば、抽出した血管を動脈と静脈に分けられるので、上記動脈の割合及び静脈の割合を算出するするこができる。
 投与した色素の濃度とは、観察対象に対して散布した色素、または静脈注射により血管に注入した色素の濃度である。投与した色素の濃度は、例えば、色素色以外の画素の画素値に対する色素色の画素値の割合で算出する。例えば、青色に着色する色素を投与した場合は、B画像とG画像の比率B/Gや、B画像とR画像の比率B/R等が、観察対象に定着(あるいは一時的に付着)した色素の濃度を表す。
 血管の走行パターンとは、血管の走行方向に関する血管情報である。血管の走行パターンは、例えば、任意に設定する基準線に対する血管の平均角度(走行方向)や、任意に設定する基準線に対して血管がなす角度の分散(走行方向のばらつき)等である。
 血管の血流量(血流速度ともいう)は、単位時間あたりに赤血球が通り抜ける数である。超音波プローブを内視鏡12の鉗子チャンネル等を介して併用する場合等に、医療画像の血管を表す各画素のドップラーシフト周波数を、超音波プローブで得る信号を用いて算出する、血管の血流量を求めるができる。
 なお、第1~第5実施形態では、プロセッサ装置16内の画像取得部54及び画像処理部61とユーザーインターフェース19を有し、医療画像の一つである内視鏡画像の処理を行う医療画像処理装置に対して、本発明の適用を行っているが、内視鏡画像以外の医療画像を処理する医療画像処理装置に対しても本発明の適用は可能である。また、医療画像を用いてユーザーに診断支援を行うための診断支援装置に対しても本発明の適用は可能である。また、医療画像を用いて、診断レポートなどの医療業務を支援するための医療業務支援装置に対しても本発明の適用は可能である。
 なお、医療画像は、白色帯域の光、又は白色帯域の光として複数の波長帯域の光を照射して得られた通常光画像であることが好ましい。
 医療画像は、特定の波長帯域の光を照射して得た特殊光画像であり、特定の波長帯域の光は白色帯域よりも狭い帯域であることが好ましい。特定の波長帯域は可視域の青色もしくは緑色帯域に含まれることが好ましい。特定の波長帯域は390nm以上450nm以下、または530nm以上550nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、390nm以上450nm以下、または530nm以上550nm以下の波長帯域内にピーク波長を有することが好ましい。
 特定の波長帯域は可視域の赤色帯域に含まれることが好ましい。特定の波長帯域は、585nm以上615nm以下、または610nm以上730nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、585nm以上615nm以下、または610nm以上730nm以下の波長帯域内にピーク波長を有することが好ましい。
 特定の波長帯域は、酸化ヘモグロビンと還元ヘモグロビンとで吸収係数の異なる波長帯域を含み、かつ、特定の波長帯域の光は、酸化ヘモグロビンと還元ヘモグロビンとで吸収係数の異なる波長帯域にピーク波長を有することが好ましい。特定の波長帯域は、400±10nm、440±10nm、470±10nm、又は600nm以上750nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、400±10nm、440±10nm、470±10nm、又は600nm以上750nm以下の波長帯域にピーク波長を有することが好ましい。
 医療画像は生体内を写した生体内画像であり、生体内画像は、生体内の蛍光物質が発する蛍光の情報を有することが好ましい。蛍光は、ピーク波長が390以上470nm以下の波長待機に含まれる励起光を生体内に照射して得られることが好ましい。
 医療画像は生体内を写した生体内画像であり、特定の波長帯域は赤外光の波長帯域であることが好ましい。特定の波長帯域は、790nm以上820nm以下、又は905nm以上970nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、790nm以上820nm以下、又は905nm以上970nm以下の波長帯域にピーク波長を有することが好ましい。
 画像取得部は、白色帯域の光、又は白色帯域の光として複数の波長帯域の光を照射して得られた通常光画像に基づいて、特定の波長帯域の信号を有する特殊光画像を取得する特殊光画像取得部を有し、医療画像は特殊光画像であることが好ましい。
 特定の波長帯域の信号は、通常光画像に含まれるRGBあるいはCMYの色情報に基づく演算により得られることが好ましい。
 白色帯域の光、又は白色帯域の光として複数の波長帯域の光を照射して得られた通常光画像と、特定の波長帯域の光を照射して得られる特殊光画像との少なくとも一方に基づく演算によって、演算画像を生成する演算画像生成部を有し、医療画像は演算画像であることが好ましい。
 上記実施形態において、画像処理部61に含まれる不要領域除去部68、関心領域抽出部70、診断支援情報算出部72、関心領域変更部74、領域修正情報記憶部76、特徴量選択部94、又は診断支援情報記憶部95といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウエア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA
(Field Programmable Gate Array) などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、各種の処理を実行するために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
 1つの処理部は、これら各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合せ(例えば、複数のFPGAや、CPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウエアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
 さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた形態の電気回路(circuitry)である。
 [付記項1]
 観察対象を撮像して得られる医療画像として医療画像を取得する画像取得部と、
 前記医療画像から関心領域の抽出を行う関心領域抽出部であり、互いに異なる複数の関心領域抽出条件に従って、前記医療画像から複数の関心領域を抽出する関心領域抽出部とを備える医療画像処理装置。
 [付記項2]
 前記関心領域抽出部は、前記第1の医療画像から第1特徴量を算出し、前記第1特徴量に基づいて前記関心領域の抽出を行い、
 前記複数の関心領域抽出条件は、前記第1領域抽出用範囲がそれぞれ異なっている付記項1記載の医療画像処理装置。
 [付記項3]
 前記関心領域抽出部は、前記第1の医療画像から第1特徴量及び第2特徴量を算出し、前記第1特徴量及び第2特徴量に基づいて前記関心領域の抽出を行い、
 前記複数の関心領域抽出条件は、前記第1領域抽出用範囲及び前記第2領域抽出用範囲が、それぞれ異なっている付記項1記載の医療画像処理装置。
 [付記項4]
 前記複数の関心領域のそれぞれについて診断支援情報を算出する診断支援情報算出部を有する付記項1ないし3いずれか1項記載の医療画像処理装置。
 [付記項5]
 前記関心領域と前記関心領域から算出した診断支援情報とを対応付けて保存する診断支援情報記憶部を有する付記項1ないし4いずれか1項記載の医療画像処理装置。
10 内視鏡システム
12 内視鏡
12a 挿入部
12b 操作部
12c 湾曲部
12d 先端部
12e アングルノブ
12f 鉗子入口
13 ズーム操作部
14 光源装置
16 プロセッサ装置
18 モニタ
19 ユーザーインターフェース
20 光源部
22 光源制御部
30a 照明光学系
30b 撮像光学系
41 ライトガイド
45 照明レンズ
46 対物レンズ
47 ズームレンズ
48 イメージセンサ
52 中央制御部
54 画像取得部
56 DSP(Digital Signal Processor)
58 ノイズ低減部
59 変換部
61 画像処理部
66 表示制御部
68 不要領域除去部
70 関心領域抽出部
72 診断支援情報算出部
74 関心領域変更部
76 領域修正情報記憶部
80 診断支援情報
82 ポインタ
86 スライドバー
88 スライダ
90 スライドバー
92 スライダ
94 特徴量選択部
95 診断支援情報記憶部
96 スライドバー
98 スライダ

Claims (31)

  1.  観察対象を撮像して得られる医療画像を取得する画像取得部と、
     前記医療画像から関心領域として第1の関心領域を抽出する関心領域抽出部と、
     前記第1の関心領域を修正して第2の関心領域にする修正処理を行う関心領域変更部と、
     ユーザーによる前記関心領域変更部への指示を受け付けるユーザーインターフェースとを備える医療画像処理装置。
  2.  前記修正処理は、前記第1の関心領域の拡大、縮小、又は位置変更のうち、少なくとも一つを含む請求項1記載の医療画像処理装置。
  3.  前記関心領域変更部は、前記第1の関心領域と異なる位置に第3の関心領域を追加する追加処理、又は、前記第1の関心領域を削除する削除処理を行う請求項1または2記載の医療画像処理装置。
  4.  前記ユーザーインターフェースは、前記修正処理、前記追加処理、又は前記削除処理を行うための指示を受け付ける請求項3記載の医療画像処理装置。
  5.  前記関心領域変更部は、前記関心領域を抽出するための関心領域抽出条件を変更することによって、前記修正処理を行う請求項1記載の医療画像処理装置。
  6.  前記関心領域抽出部は、前記医療画像から第1特徴量を算出し、前記第1特徴量が、第1領域抽出用範囲に入っている領域を、前記関心領域として抽出し、
     前記関心領域抽出条件は、前記第1領域抽出用範囲に関する条件である請求項5記載の医療画像処理装置。
  7.  前記関心領域抽出部は、前記医療画像から第1特徴量及び第2特徴量を算出し、前記第1特徴量が、第1領域抽出用範囲に入っている領域、及び前記第2特徴量が、第2領域抽出用範囲に入っている領域に基づいて、前記関心領域の抽出を行い、
     前記関心領域抽出条件は、前記第1領域抽出用範囲、及び前記第2領域抽出用範囲に関する条件である請求項5記載の医療画像処理装置。
  8.  前記ユーザーインターフェースは、前記関心領域抽出条件を変更するための指示を受け付ける請求項5ないし7いずれか1項記載の医療画像処理装置。
  9.  複数の特徴量の中から、前記関心領域の抽出に使用する特徴量を選択する特徴量選択処理を行う特徴量選択部を有し、
     前記関心領域抽出部は、前記医療画像から前記特徴量選択部で選択された特徴量を算出し、算出した特徴量に基づいて前記関心領域の抽出を行う請求項5記載の医療画像処理装置。
  10.  前記ユーザーインターフェースは、前記特徴量選択処理に関する指示を受け付ける請求項9記載の医療画像処理装置。
  11.  前記医療画像には、互いに異なる第1の医療画像と第2の医療画像が含まれ、
     前記関心領域変更部は、前記第1の医療画像から抽出した関心領域に対して前記修正処理を行い、
     前記関心領域抽出部は、
     前記修正処理に関する領域修正情報を用いて、前記第2の医療画像から関心領域を抽出する請求項1ないし10いずれか1項記載の医療画像処理装置。
  12.  前記領域修正情報を記憶する領域修正情報記憶部を有する請求項11記載の医療画像処理装置。
  13.  前記第1の関心領域又は前記第2の関心領域から診断支援情報を算出する診断支援情報算出部を有する請求項1ないし12いずれか1項記載の医療画像処理装置。
  14.  前記医療画像は、白色帯域の光、又は前記白色帯域の光として複数の波長帯域の光を照射して得られた通常光画像である請求項1ないし13いずれか1項記載の医療画像処理装置。
  15.  前記医療画像は、特定の波長帯域の光を照射して得た特殊光画像であり、
     前記特定の波長帯域の光は白色帯域よりも狭い帯域である請求項1ないし13いずれか1項記載の医療画像処理装置。
  16.  前記特定の波長帯域は可視域の青色もしくは緑色帯域に含まれる請求項15記載の医療画像処理装置。
  17.  前記特定の波長帯域は390nm以上450nm以下、または530nm以上550nm以下の波長帯域を含み、かつ、前記特定の波長帯域の光は、390nm以上450nm以下、または530nm以上550nm以下の波長帯域内にピーク波長を有する請求項16記載の医療画像処理装置。
  18.  前記特定の波長帯域は可視域の赤色帯域に含まれる請求項15記載の医療画像処理装置。
  19.  前記特定の波長帯域は、585nm以上615nm以下、または610nm以上730nm以下の波長帯域を含み、かつ、前記特定の波長帯域の光は、585nm以上615nm以下、または610nm以上730nm以下の波長帯域内にピーク波長を有する請求項18記載の医療画像処理装置。
  20.  前記特定の波長帯域は、酸化ヘモグロビンと還元ヘモグロビンとで吸収係数の異なる波長帯域を含み、かつ、前記特定の波長帯域の光は、酸化ヘモグロビンと還元ヘモグロビンとで吸収係数の異なる波長帯域にピーク波長を有する請求項15記載の医療画像処理装置。
  21.  前記特定の波長帯域は、400±10nm、440±10nm、470±10nm、又は600nm以上750nm以下の波長帯域を含み、かつ、前記特定の波長帯域の光は、400±10nm、440±10nm、470±10nm、又は600nm以上750nm以下の波長帯域にピーク波長を有する請求項20記載の医療画像処理装置。
  22.  前記医療画像は生体内を写した生体内画像であり、
     前記生体内画像は、生体内の蛍光物質が発する蛍光の情報を有する請求項15記載の医療画像処理装置。
  23.  前記蛍光は、ピーク波長が390以上470nm以下の波長待機に含まれる励起光を前記生体内に照射して得られる請求項22記載の医療画像処理装置。
  24.  前記医療画像は生体内を写した生体内画像であり、
     前記特定の波長帯域は赤外光の波長帯域である請求項15記載の医療画像処理装置。
  25.  前記特定の波長帯域は、790nm以上820nm以下、又は905nm以上970nm以下の波長帯域を含み、かつ、前記特定の波長帯域の光は、790nm以上820nm以下、又は905nm以上970nm以下の波長帯域にピーク波長を有する請求項24記載の医療画像処理装置。
  26.  前記画像取得部は、
     白色帯域の光、又は前記白色帯域の光として複数の波長帯域の光を照射して得られた通常光画像に基づいて、特定の波長帯域の信号を有する特殊光画像を取得する特殊光画像取得部を有し、
     前記医療画像は前記特殊光画像である請求項1ないし13いずれか1項記載の医療画像処理装置。
  27.  前記特定の波長帯域の信号は、前記通常光画像に含まれるRGBあるいはCMYの色情報に基づく演算により得られる請求項26記載の医療画像処理装置。
  28.  白色帯域の光、又は前記白色帯域の光として複数の波長帯域の光を照射して得られた通常光画像と、特定の波長帯域の光を照射して得られる特殊光画像との少なくとも一方に基づく演算によって、演算画像を生成する演算画像生成部を有し、
     前記医療画像は前記演算画像である請求項1ないし13いずれか1項記載の医療画像処理装置。
  29.  請求項1ないし28いずれか1項記載の医療画像処理装置と、
     白色の波長帯域の光、または、特定の波長帯域の光の少なくともいずれかを照射する内視鏡とを有する内視鏡システム。
  30.  請求項1ないし28いずれか1項記載の医療画像処理装置を有する診断支援装置。
  31.  請求項1ないし28いずれか1項記載の医療画像処理装置を有する医療業務支援装置。
PCT/JP2018/022866 2017-07-14 2018-06-15 医療画像処理装置、内視鏡システム、診断支援装置、並びに医療業務支援装置 Ceased WO2019012911A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019529006A JP6831463B2 (ja) 2017-07-14 2018-06-15 医療画像処理装置、内視鏡システム、診断支援装置、並びに医療業務支援装置
CN201880044172.5A CN110831487B (zh) 2017-07-14 2018-06-15 医疗图像处理装置、内窥镜系统、诊断支持装置及医疗服务支持装置
EP18831878.6A EP3653106B1 (en) 2017-07-14 2018-06-15 Medical image processing device, endoscope system, diagnosis assistance device, and medical operation assistance device
US16/716,279 US10891737B2 (en) 2017-07-14 2019-12-16 Medical image processing device, endoscope system, diagnosis support device, and medical service support device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-137731 2017-07-14
JP2017137731 2017-07-14

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/716,279 Continuation US10891737B2 (en) 2017-07-14 2019-12-16 Medical image processing device, endoscope system, diagnosis support device, and medical service support device

Publications (1)

Publication Number Publication Date
WO2019012911A1 true WO2019012911A1 (ja) 2019-01-17

Family

ID=65001587

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/022866 Ceased WO2019012911A1 (ja) 2017-07-14 2018-06-15 医療画像処理装置、内視鏡システム、診断支援装置、並びに医療業務支援装置

Country Status (5)

Country Link
US (1) US10891737B2 (ja)
EP (1) EP3653106B1 (ja)
JP (1) JP6831463B2 (ja)
CN (1) CN110831487B (ja)
WO (1) WO2019012911A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111064934A (zh) * 2019-12-30 2020-04-24 元力(天津)科技有限公司 一种医用影像处理系统及方法
WO2021044900A1 (ja) * 2019-09-02 2021-03-11 ソニー株式会社 施術システム、画像処理装置、画像処理方法、及びプログラム
JP2022121091A (ja) * 2021-02-08 2022-08-19 国立大学法人九州工業大学 口腔粘膜疾患診断支援システム,方法およびプログラム
WO2022190298A1 (ja) * 2021-03-10 2022-09-15 オリンパスメディカルシステムズ株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
WO2024034253A1 (ja) * 2022-08-12 2024-02-15 富士フイルム株式会社 内視鏡システム及びその作動方法

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7077093B2 (ja) * 2018-03-26 2022-05-30 三菱重工業株式会社 領域検出装置、領域検出方法及びそのプログラム
CN113544743B (zh) * 2019-09-20 2024-03-12 Hoya株式会社 内窥镜用处理器、程序、信息处理方法和信息处理装置
JP7324937B2 (ja) 2020-03-30 2023-08-10 富士フイルム株式会社 撮影支援装置、その作動方法、及び作動プログラム
CN112037167B (zh) * 2020-07-21 2023-11-24 苏州动影信息科技有限公司 一种基于影像组学和遗传算法的目标区域确定系统
CN113409312B (zh) * 2021-08-03 2021-11-02 广东博创佳禾科技有限公司 一种用于生物医疗影像的图像处理方法和装置
US12396621B2 (en) * 2021-12-14 2025-08-26 Karl Storz Imaging, Inc. Frame processing of imaging scope data for user interface presentation
JP2024044923A (ja) * 2022-09-21 2024-04-02 富士フイルム株式会社 情報処理装置、情報処理方法及び情報処理プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007325641A (ja) * 2006-06-06 2007-12-20 Hitachi Medical Corp 医用画像表示装置
JP2012157384A (ja) 2011-01-28 2012-08-23 Fujifilm Corp 診断支援装置、診断支援方法、病変部検出装置、及び病変部検出方法
JP2013180024A (ja) * 2012-03-01 2013-09-12 Hitachi Medical Corp X線撮影装置
WO2013140667A1 (ja) 2012-03-21 2013-09-26 オリンパスメディカルシステムズ株式会社 画像処理装置

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5993378A (en) * 1980-10-28 1999-11-30 Lemelson; Jerome H. Electro-optical instruments and methods for treating disease
GB0126531D0 (en) * 2001-11-05 2002-01-02 Glaxo Group Ltd Method
US7054406B2 (en) * 2002-09-05 2006-05-30 Kabushiki Kaisha Toshiba X-ray CT apparatus and method of measuring CT values
US20070263929A1 (en) * 2004-10-12 2007-11-15 Daisuke Kaji Image Processing Apparatus, Image Processing Method and Image Processing Program
JP4257615B2 (ja) * 2006-07-14 2009-04-22 ソニー株式会社 画像処理装置および方法、並びにプログラム
US8548823B2 (en) * 2008-07-08 2013-10-01 International Business Machines Corporation Automatically determining ideal treatment plans for complex neuropsychiatric conditions
US20110137235A1 (en) * 2008-08-08 2011-06-09 Toto Ltd. Ultrasonic cancer therapy accelerator
JP5562598B2 (ja) * 2008-10-24 2014-07-30 株式会社東芝 画像表示装置、画像表示方法および磁気共鳴イメージング装置
CN101756713A (zh) * 2009-09-09 2010-06-30 西安交通大学 超声造影成像、灌注参量估计和灌注参量功能成像及其集成方法
JP5399187B2 (ja) * 2009-09-28 2014-01-29 富士フイルム株式会社 画像取得装置の作動方法および画像取得装置
JP5220780B2 (ja) 2010-02-05 2013-06-26 オリンパス株式会社 画像処理装置、内視鏡システム、プログラム及び画像処理装置の作動方法
JP4931027B2 (ja) * 2010-03-29 2012-05-16 富士フイルム株式会社 医用画像診断支援装置および方法、並びにプログラム
JP2011255006A (ja) * 2010-06-09 2011-12-22 Olympus Corp 画像処理装置、内視鏡装置、プログラム及び画像処理方法
US20120101372A1 (en) * 2010-10-25 2012-04-26 Fujifilm Corporation Diagnosis support apparatus, diagnosis support method, lesioned part detection apparatus, and lesioned part detection method
JP6057890B2 (ja) * 2011-02-21 2017-01-11 オリンパス株式会社 蛍光観察装置
CN103187002A (zh) * 2011-12-29 2013-07-03 北京移动坚石信息技术有限公司 生成电子地图的方法
GB201213827D0 (en) * 2012-08-03 2012-09-19 Artemis Diagnostics Ltd Method and apparatus for imaging
JP6169831B2 (ja) * 2012-08-27 2017-07-26 東芝メディカルシステムズ株式会社 X線コンピュータ断層撮影装置
EP2815692B1 (en) 2012-11-07 2017-09-20 Olympus Corporation Medical image processing device
EP3000382A1 (en) * 2012-12-28 2016-03-30 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP2014132958A (ja) * 2013-01-09 2014-07-24 Hitachi Medical Corp 磁気共鳴イメージング装置及び画像処理方法
JP6066197B2 (ja) * 2013-03-25 2017-01-25 富士フイルム株式会社 手術支援装置、方法およびプログラム
JP2015016067A (ja) * 2013-07-10 2015-01-29 富士フイルム株式会社 画像表示方法および装置並びにプログラム
US9361711B2 (en) * 2013-08-05 2016-06-07 Siemens Aktiengesellschaft Lesion-type specific reconstruction and display of digital breast tomosynthesis volumes
EP3050484A4 (en) * 2013-09-24 2017-05-31 Olympus Corporation Endoscope device and method for controlling endoscope device
JP5997676B2 (ja) * 2013-10-03 2016-09-28 富士フイルム株式会社 内視鏡用光源装置、およびこれを用いた内視鏡システム
CN103699904B (zh) * 2013-12-25 2017-01-04 大连理工大学 多序列核磁共振影像的图像计算机辅助判断方法
CN103977498B (zh) * 2014-05-15 2017-07-28 中国人民解放军第四军医大学 一种放射性粒子锥形布源的三维构建方法
JP6064084B2 (ja) * 2014-07-30 2017-01-18 オリンパス株式会社 画像処理装置
JP6581984B2 (ja) * 2015-01-21 2019-09-25 Hoya株式会社 内視鏡システム
CN108366717B (zh) * 2015-12-17 2020-04-07 奥林巴斯株式会社 内窥镜装置
US10163209B2 (en) * 2016-11-23 2018-12-25 Toshiba Medical Systems Corporation Medical image processing apparatus, medical image processing method, and X-ray CT apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007325641A (ja) * 2006-06-06 2007-12-20 Hitachi Medical Corp 医用画像表示装置
JP2012157384A (ja) 2011-01-28 2012-08-23 Fujifilm Corp 診断支援装置、診断支援方法、病変部検出装置、及び病変部検出方法
JP2013180024A (ja) * 2012-03-01 2013-09-12 Hitachi Medical Corp X線撮影装置
WO2013140667A1 (ja) 2012-03-21 2013-09-26 オリンパスメディカルシステムズ株式会社 画像処理装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3653106A4

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021044900A1 (ja) * 2019-09-02 2021-03-11 ソニー株式会社 施術システム、画像処理装置、画像処理方法、及びプログラム
CN111064934A (zh) * 2019-12-30 2020-04-24 元力(天津)科技有限公司 一种医用影像处理系统及方法
JP2022121091A (ja) * 2021-02-08 2022-08-19 国立大学法人九州工業大学 口腔粘膜疾患診断支援システム,方法およびプログラム
WO2022190298A1 (ja) * 2021-03-10 2022-09-15 オリンパスメディカルシステムズ株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
JPWO2022190298A1 (ja) * 2021-03-10 2022-09-15
JP7612831B2 (ja) 2021-03-10 2025-01-14 オリンパスメディカルシステムズ株式会社 画像処理装置、画像処理方法、及び記録媒体
WO2024034253A1 (ja) * 2022-08-12 2024-02-15 富士フイルム株式会社 内視鏡システム及びその作動方法

Also Published As

Publication number Publication date
CN110831487B (zh) 2022-06-10
CN110831487A (zh) 2020-02-21
EP3653106A4 (en) 2020-07-08
JP6831463B2 (ja) 2021-02-17
JPWO2019012911A1 (ja) 2020-06-11
US10891737B2 (en) 2021-01-12
US20200118274A1 (en) 2020-04-16
EP3653106B1 (en) 2025-07-09
EP3653106A1 (en) 2020-05-20

Similar Documents

Publication Publication Date Title
JP6831463B2 (ja) 医療画像処理装置、内視鏡システム、診断支援装置、並びに医療業務支援装置
US10653295B2 (en) Image processing apparatus, endoscope system, and image processing method
US10672123B2 (en) Image processing apparatus, endoscope system, and image processing method
US10426318B2 (en) Image processing apparatus, endoscope system, and image processing method
JP6538634B2 (ja) プロセッサ装置及び内視鏡システム並びにプロセッサ装置の作動方法
JP2017158670A (ja) 血管情報取得装置、内視鏡システム及び血管情報取得方法
US20180218499A1 (en) Image processing apparatus, endoscope system, and image processing method
JP6796725B2 (ja) 医療画像処理システム、内視鏡システム、診断支援装置、及び医療業務支援装置
CN111107778B (zh) 医疗图像处理系统、内窥镜系统、诊断支持装置及医疗服务支持装置
WO2019078237A1 (ja) 医療画像処理装置、内視鏡システム、診断支援装置、並びに医療業務支援装置
CN112752535B (zh) 医用图像处理装置和内窥镜系统以及医用图像处理装置的工作方法
US20180206738A1 (en) Endoscope system and method of operating endoscope system
US11064864B2 (en) Processor device, endoscope system, and method of operating processor device
JPWO2019082993A1 (ja) 医療画像処理システム、内視鏡システム、診断支援装置、及び医療業務支援装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18831878

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
ENP Entry into the national phase

Ref document number: 2019529006

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018831878

Country of ref document: EP

Effective date: 20200214

WWG Wipo information: grant in national office

Ref document number: 2018831878

Country of ref document: EP