WO2019065111A1 - 医療画像処理システム、内視鏡システム、診断支援装置、及び医療業務支援装置 - Google Patents
医療画像処理システム、内視鏡システム、診断支援装置、及び医療業務支援装置 Download PDFInfo
- Publication number
- WO2019065111A1 WO2019065111A1 PCT/JP2018/032663 JP2018032663W WO2019065111A1 WO 2019065111 A1 WO2019065111 A1 WO 2019065111A1 JP 2018032663 W JP2018032663 W JP 2018032663W WO 2019065111 A1 WO2019065111 A1 WO 2019065111A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- diagnostic information
- unit
- image
- information
- attention area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/045—Control thereof
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
Definitions
- the present invention relates to a medical image processing system for extracting a region of interest from a medical image, an endoscope system, a diagnosis support device, and a medical service support device.
- diagnostic information about a pathological condition is obtained by extracting a notable area of interest with a possibility of a lesion from a medical image and performing image analysis on the extracted notable area.
- the endoscope system shown in Patent Document 1 in the feature space based on pixel values, the distance between the region of a normal mucous membrane and the specific region in which the pixel values of the observation target imaged by the endoscope are distributed , It is judged whether the state of observation object is a lesion or normal.
- image analysis is performed depending on imaging conditions such as imaging angle, distance to the observation object, scale of the observation object (for example, size etc.), brightness, blur, blur, water fog, etc. and differences among patients.
- Incorrect diagnostic information may be calculated for the attention area extracted by the above. In such a case, usability may be reduced, or even serious misdiagnosis may occur.
- the examination content and the lesion desired to be displayed as an attention area may be different for each patient.
- an expert examines an obvious lesion can be determined to be a lesion without automatically extracting it as a region of interest. In such a case, automatically extracting and displaying a region of interest results in a decrease in usability.
- the present invention suppresses the presentation of erroneous diagnostic information to a user, and can provide a medical image processing system capable of presenting appropriate diagnostic information to the user, an endoscope system, and a diagnostic support device. And providing a medical service support apparatus.
- the medical image processing system comprises an image acquisition unit for acquiring a medical image obtained by imaging an observation target, an attention area extraction unit for extracting an attention area including the attention target from the medical image, and an attention area.
- a diagnostic information determination unit that determines diagnostic information related to a target of interest, a display unit that displays a focused region and diagnostic information determined for the focused region, and first diagnostic information specified among diagnostic information displayed on the display unit
- a display control unit that performs control not to display the first attention area determined to be the first diagnosis information in the diagnosis information determination unit on the display unit.
- the designation of the first diagnostic information is preferably performed by a position designation operation of designating the position of the first diagnostic information.
- a position designation operation of designating the position of the first diagnostic information.
- the designation of the first diagnostic information is made from the switching operation for instructing the display unit to switch and display the plurality of diagnostic information and displaying the first diagnostic information and the diagnostic information in the switching display.
- a similar image storage unit for storing similar images and similar image diagnostic information that is diagnostic information determined for similar images and images similar to the image of the first attention area, the display unit including the similar image and similar image diagnostic information It is preferable to display, and the diagnosis information designation unit designates the first diagnosis information from among the similar image diagnosis information stored in the similar image storage unit.
- the display unit preferably displays a list of similar images and similar image diagnostic information.
- the specific attention target tracking unit for tracking the first attention target included in the first attention area is provided, and the display control unit controls not to display the first attention target being tracked as the first attention area on the display unit. It is preferred to do.
- An endoscope system focuses on an endoscope for imaging an observation target, an image acquisition unit for acquiring a medical image obtained by imaging the observation target, and an attention area for extracting an attention area including the attention target from the medical image.
- the diagnostic support apparatus of the present invention includes the medical image processing system of the present invention described above.
- a medical service support apparatus according to the present invention is a medical service support apparatus including the medical image processing system according to the present invention described above.
- the present invention it is possible to suppress the presentation of erroneous diagnostic information to the user, and to present appropriate diagnostic information to the user.
- FIG. It is an external view of an endoscope system. It is a block diagram of an endoscope system. It is a block diagram which shows the function of an image processing part. It is an image figure of a monitor which displays a diagnostic information judged to a plurality of attention areas and each attention area. It is explanatory drawing which shows the designation
- FIG. It is an image figure of the monitor which displays the similar image and similar image diagnostic information which are displayed as a list. It is an explanatory view showing correction processing. It is an explanatory view showing tracking processing of the 1st tracking object.
- the endoscope system 10 includes an endoscope 12, a light source device 14, a processor device 16, a monitor 18, and a user interface 19.
- the endoscope 12 emits illumination light to an object to be observed, and captures an image of the object illuminated by the illumination light.
- the light source device 14 generates illumination light for irradiating a subject.
- the processor device 16 performs system control, image processing, and the like of the endoscope system 10.
- the monitor 18 is a display unit that displays an image output from the processor device 16.
- the user interface 19 is an input device for performing setting input and the like to the processor device 16 and the like, and includes a keyboard KB, a mouse MS, a foot switch FS and the like.
- the user interface 19 is not limited to the keyboard KB, the mouse MS, and the foot switch FS, and may be a graphical user interface, voice input, a touch display, or the like. Further, the medical image processing system of the present invention includes an image acquisition unit 54 and an image processing unit 61 provided in the processor device 16, a monitor 18, and a user interface 19.
- the endoscope 12 includes an insertion portion 12a to be inserted into a subject, an operation portion 12b provided at a proximal end portion of the insertion portion 12a, a curved portion 12c provided at the distal end side of the insertion portion 12a, and a distal end portion 12d. ,have.
- the bending portion 12c is bent by operating the angle knob 12e of the operation portion 12b.
- the bending of the bending portion 12 c causes the tip 12 d to face in a desired direction.
- the tip end 12d is provided with an injection port (not shown) for injecting air, water or the like toward the subject.
- the operation unit 12b is provided with a zoom operation unit 13a.
- a forceps channel (not shown) for inserting a treatment tool or the like is provided from the insertion portion 12a to the distal end portion 12d. The treatment tool is inserted into the forceps channel from the forceps inlet 12f.
- the light source device 14 includes a light source unit 20 and a light source control unit 22.
- the light source unit 20 emits illumination light for illuminating a subject.
- the light source unit 20 includes one or more light sources.
- the light source control unit 22 controls the drive of the light source unit 20.
- the light source control unit 22 independently controls the timing of turning on or off the light source constituting the light source unit 20, the light emission amount at the time of lighting, and the like. As a result, the light source unit 20 can emit plural types of illumination lights having different light emission amounts and light emission timings.
- the illumination light emitted by the light source unit 20 is incident on the light guide 41.
- the light guide 41 is incorporated in the endoscope 12 and the universal cord (not shown), and propagates the illumination light to the distal end 12 d of the endoscope 12.
- the universal cord is a cord that connects the endoscope 12 to the light source device 14 and the processor device 16.
- a multimode fiber can be used. As an example, it is possible to use a thin fiber cable having a core diameter of 105 ⁇ m, a cladding diameter of 125 ⁇ m, and a diameter of ⁇ 0.3 to 0.5 mm including a protective layer to be an outer shell.
- An illumination optical system 30 a and an imaging optical system 30 b are provided at the distal end 12 d of the endoscope 12.
- the illumination optical system 30 a has an illumination lens 45, and illumination light is emitted toward the subject through the illumination lens 45.
- the imaging optical system 30 b includes an objective lens 46, a zoom lens 47, and an image sensor 48.
- the image sensor 48 is a reflected light of illumination light returning from the subject via the objective lens 46 and the zoom lens 47 (in addition to the reflected light, the scattered light, the fluorescence emitted from the subject, or the drug administered to the subject)
- the subject is imaged using fluorescence and the like.
- the zoom lens 47 is moved by operating the zoom operation unit 13 a, and the image sensor 48 is used to magnify or reduce the subject to be imaged.
- the image sensor 48 is, for example, a color sensor having a primary color filter, and has B pixels (blue pixels) having blue color filters, G pixels (green pixels) having green color filters, and R having red color filters. There are three types of pixels (red pixels). Blue color filters transmit mainly violet to blue light. The green color filter is mainly green light. The red color filter transmits mainly red light. As described above, when an object is imaged using the primary color image sensor 48, at most, a B image (blue image) obtained from B pixels, a G image (green image) obtained from G pixels, and an R obtained from R pixels Three types of images (red image) can be obtained simultaneously.
- a charge coupled device (CCD) sensor or a complementary metal oxide semiconductor (CMOS) sensor can be used.
- CMOS complementary metal oxide semiconductor
- the complementary color sensor includes, for example, a cyan pixel provided with a cyan color filter, a magenta pixel provided with a magenta color filter, a yellow pixel provided with a yellow color filter, and a green pixel provided with a green color filter.
- the image obtained from the pixels of each color when using a complementary color sensor can be converted into a B image, a G image, and an R image by performing complementary-primary color conversion.
- a monochrome sensor without a color filter can be used as the image sensor 48. In this case, an image of each color can be obtained by sequentially imaging the subject using illumination light of each color such as BGR.
- the processor device 16 includes a central control unit 52, an image acquisition unit 54, an image processing unit 61, and a display control unit 66.
- the central control unit 52 performs overall control of the endoscope system 10 such as synchronous control of the irradiation timing of the illumination light and the imaging timing.
- the central control unit 52 controls the input various settings as the light source control unit 22, the image sensor 48, or the image processing unit 61.
- the data is input to each part of the endoscope system 10.
- the image acquisition unit 54 acquires, from the image sensor 48, an image obtained by imaging a subject.
- the image acquired by the image acquisition unit 54 is an image acquired by a medical device such as the endoscope 12 and thus is referred to as a medical image.
- the image acquisition unit 54 includes a DSP (Digital Signal Processor) 56, a noise reduction unit 58, and a conversion unit 59, and uses these to perform various processes on the acquired medical image as needed.
- the DSP 56 performs various processing such as defect correction processing, offset processing, gain correction processing, linear matrix processing, gamma conversion processing, demosaicing processing, and YC conversion processing, as necessary, on the acquired medical image.
- the defect correction process is a process of correcting the pixel value of the pixel corresponding to the defective pixel of the image sensor 48.
- the offset process is a process of reducing the dark current component from the image subjected to the defect correction process and setting an accurate zero level.
- the gain correction process is a process of adjusting the signal level of each image by multiplying the image subjected to the offset process by the gain.
- the linear matrix processing is processing for improving the color reproducibility of the image subjected to the offset processing, and the gamma conversion processing is processing for adjusting the brightness and saturation of the image after the linear matrix processing.
- demosaicing processing is processing for interpolating the pixel value of a missing pixel, and is applied to an image after gamma conversion processing.
- the missing pixels are pixels having no pixel value due to the arrangement of the color filters (because pixels of other colors are arranged in the image sensor 48).
- the demosaicing process interpolates the B image to generate pixel values of pixels located at G and R pixel positions of the image sensor 48.
- the YC conversion process is a process of converting the image after the demosaicing process into a luminance channel Y, a color difference channel Cb, and a color difference channel Cr.
- the noise reduction unit 58 performs noise reduction processing on the luminance channel Y, the color difference channel Cb, and the color difference channel Cr using, for example, a moving average method or a median filter method.
- the conversion unit 59 reconverts the luminance channel Y, the color difference channel Cb, and the color difference channel Cr after the noise reduction processing into an image of each color of BGR.
- the image processing unit 61 performs various types of image processing on the medical image acquired by the image acquisition unit 54. Further, the image processing unit 61 extracts an attention area from the medical image, and calculates diagnosis information for supporting diagnosis of the observation target from the extracted attention area. The extraction of the region of interest and the calculation of the diagnostic information will be described later.
- the display control unit 66 converts the medical image or the diagnostic information sent from the image processing unit 61 into a format suitable for display on the monitor 18 and outputs the converted format to the monitor 18. As a result, at least the medical image and the diagnostic information are displayed on the monitor 18.
- the image processing unit 61 includes an attention area extraction unit 70, a diagnosis information determination unit 72, a diagnosis information specification unit 74, a similar image storage unit 76, a diagnosis information correction unit 78, and a specific attention. And a target tracking unit 79.
- the attention area extraction unit 70 extracts an attention area to be noted as a target of examination or diagnosis from the medical image.
- the attention area extraction unit 70 calculates a specific feature amount from the medical image. Then, an area in which the calculated specific feature quantity satisfies the specific condition is extracted as the area of interest.
- the attention area extracted by the attention area extraction unit 70 is not limited to a two-dimensional area such as the surface of the observation target. For example, in addition to the surface of the observation target, a three-dimensional region in the depth direction (infiltration) of the observation target may be extracted as a region of interest.
- a specific feature quantity there is “ln (G / B)” indicating the ratio of G image and B image as the feature quantity for extracting the area of the superficial blood vessel.
- blood vessel index values for blood vessels which will be described later
- duct duct index values for duct structures may be used.
- the specific feature amount for example, in addition to performing a convolutional neural network on a medical image, a feature amount obtained by color information of a medical image, a gradient of pixel values, or the like may be used.
- the gradient of the pixel value is, for example, the shape of the subject (such as the global unevenness of the mucous membrane or the local depression or bulge), the color (color such as inflammation, hemorrhage, redness, or whitening due to atrophy)
- the attention area extracted by the attention area extraction unit 70 includes, for example, a lesion area represented by cancer, a benign tumor area, and an inflammation area (including so-called inflammation, a part having change such as bleeding or atrophy)
- a lesion area represented by cancer
- a benign tumor area and an inflammation area (including so-called inflammation, a part having change such as bleeding or atrophy)
- the attention area extraction unit 70 extracts an area including at least one of a lesion area, a benign tumor area, an inflammation area, a marking area, and a biopsy performing area as an attention area.
- the attention area extraction unit 70 may perform a removal process of removing an excessively dark area and an excessively bright area which interfere with accurate calculation of the diagnostic information in the medical image.
- the lower limit value and the upper limit value are set for each of the B image, the G image, and the R image in the medical image. Then, an area below the lower limit value is extracted as an excessively dark area, and is removed from each image. Similarly, a region exceeding the upper limit value is extracted as a too bright region and removed from each image. A region of interest is extracted from a medical image from which regions that are too dark and regions that are too bright are removed. Note that the removal of an area that is too dark and an area that is too bright may not be performed depending on the state of the medical image.
- the diagnosis information determination unit 72 calculates various index values from the attention area extracted by the attention area extraction unit 70, and determines diagnosis information for supporting diagnosis of a lesion based on the calculated various index values.
- the various index values include blood vessel index values related to blood vessels such as blood vessel density and blood vessel travel patterns, and ductal index values related to duct structure. Examples of diagnostic information include the type and size of a lesion.
- the calculated diagnostic information is displayed on the monitor 18 by the display control unit 66 together with the medical image.
- the image in the attention area and the diagnostic information determined for the attention area are associated with each other and sequentially stored in the similar image storage unit 76.
- the attention area extraction unit 70 extracts the attention area a and the attention area b
- diagnostic information is determined for each attention area a, b.
- the monitor 18 displays "cancer” determined as the type of the lesion and "10 mm” determined as the size of the lesion.
- “adenoma” determined as the type of the lesion and “7 mm” determined as the size of the lesion are displayed on the monitor 18.
- the diagnostic information designation unit 74 designates the first diagnostic information that the user considers to be an incorrect determination or the user considers that the lesion is an obvious lesion and that display on the monitor 18 is unnecessary. .
- the display control unit 66 does not display the attention area determined as the first diagnostic information on the monitor 18. This makes it possible to suppress the presentation of erroneous diagnostic information to the user, and present appropriate diagnostic information to the user.
- the designation of the first diagnostic information is preferably performed by a position designation operation of designating the position of the first diagnostic information being displayed on the monitor 18.
- a position designation operation of designating the position of the first diagnostic information being displayed on the monitor 18.
- a user interface 19 that receives an instruction regarding specification of the first diagnostic information is used.
- position specification operation is performed with screen tap operation on the monitor 18.
- the gaze detection device of the user is connected to the endoscope system 10
- the position specification operation can be performed based on the user gaze information.
- the first diagnostic information may be directly designated by the user interface 19, or the first attention area determined to be the first diagnostic information may be designated.
- the pointer PT displayed on the monitor 18 is operated by the mouse MS, and the diagnostic information of the diagnostic information that is desired to specify the pointer PT as the first diagnostic information. Align to the position.
- the first diagnostic information is "cancer" in the region of interest a
- the pointer PT is placed on “cancer” and the mouse MS is clicked. Thereby, "cancer" is designated as the first diagnostic information.
- a switching operation for instructing the monitor 18 to switch and display the plurality of diagnostic information and displaying the first diagnostic information from among the diagnostic information in the switching display.
- the first diagnosis information may be designated by a confirmation operation of selecting and confirming the.
- a foot switch FS and a scope switch for diagnostic information specification 13b provided on the operation unit 12b of the endoscope 12 are used for the switching operation and the determination operation.
- diagnostic information (type: “cancer”, size) determined for one attention area (“attention area a”) of a plurality of attention areas and the attention area : "10 mm” is displayed.
- the determination switch DB of the foot switch FS is used as the determination operation.
- the diagnostic information (type: “cancer”, size: “10 mm”) is determined as the first diagnostic information by pressing once or pressing the diagnostic information specification scope switch 13 b twice in succession.
- the diagnostic information (type: “cancer”, size: “10 mm”) determined for the region of interest a is not used as the first diagnostic information
- other diagnostic information can be specified.
- pressing the switching switch SB of the foot switch FS once or pressing the diagnostic information designation switch 13 b once makes the attention area a as shown in FIG. 6B.
- diagnosis information (type: “adenoma”, size: “7 mm”) determined for the attention area b and the attention area b different from the above.
- the determination switch DB is set to 1 as the determination operation. Pressing the button once or pressing the diagnostic information specification scope switch 13b twice in succession.
- an image of the first attention area designated as the first diagnostic information In addition to designating the first diagnosis information from among the diagnosis information determined for the attention area in the diagnosis information designation unit 74, an image of the first attention area designated as the first diagnostic information If there is a similar image similar to the above, similar image diagnostic information which is diagnostic information determined for the similar image is also presented to the user, and the first diagnostic information is specified from the similar image diagnostic information. You may In this case, after designating the first diagnosis information from among the diagnosis information determined for the attention area, automatically or from the similar image storage unit 76 by the user operating the user interface 19. , A similar image similar to the image of the first attention area and similar image diagnostic information associated with the similar image are extracted. The extraction of the similar image is performed by pattern matching with the image of the first attention area or the like.
- the similar image 80 extracted from the similar image storage unit 76 and the similar image diagnostic information 82 associated with the similar image 80 are displayed in a list on the monitor 18.
- the monitor 18 also displays a pointer PT for selecting as the first diagnostic information from among the similar image diagnostic information.
- the user operates the mouse MS while referring to the similar image and the similar image diagnostic information listed on the monitor 18.
- the pointer PT is set to the similar image diagnostic information to be designated as the first diagnostic information, and the click is performed.
- the similar image diagnostic information indicated by the pointer PT is designated as the first diagnostic information.
- the display control unit 66 performs control not to display the attention area determined as the designated similar image diagnostic information on the monitor 18.
- the diagnostic information correction unit 78 designates the first diagnostic information that the user considers to be an erroneous decision out of a plurality of diagnostic information, in addition to or instead of the designation of the first diagnostic information, the first diagnostic information Perform correction processing to correct the second diagnostic information that the user thinks is correct.
- a correction screen is displayed on the monitor 18 automatically or by the user operating the user interface 19 after designating the first diagnosis information from among the diagnosis information determined for the attention area. .
- a correction candidate list is displayed for the information to be corrected among the diagnostic information.
- the correction candidate list is displayed for the type of lesion.
- the user finds the correct second diagnostic information in the correction candidate list, the user operates the mouse MS to set the pointer PT to the correct diagnostic information.
- the first diagnostic information is corrected to the correct second diagnostic information.
- the display control unit 66 performs control not to display the attention area determined as the first diagnostic information on the monitor 18, while displaying the attention area determined as the second diagnostic information on the monitor 18 Control to
- the specific attention target tracking unit 79 performs tracking processing for tracking the first attention target included in the first attention area, when the user designates the first diagnostic information considered to be an erroneous determination among the plurality of diagnostic information. . As described above, by tracking the first target of interest, even if the first target of interest disappears from the monitor 18 and is displayed again on the monitor 18, the first target of interest is prevented from displaying as the target area.
- the attention area a and the diagnosis information (type: “cancer”, size) “10 mm”) is not displayed on the monitor 18 (in FIG. 9A, the dotted line indicates that the display is not displayed on the monitor 18.
- FIG. 9C Since the attention area a is a first attention area, the first attention target 90 included in the attention area a is tracked by the specific attention target tracking unit 79.
- the medical image displayed on the monitor 18 is largely changed by the operation of the endoscope 12 and the movement of the observation target, and the first target 90 disappears from the monitor 18. Also in this case, the tracking process of the first target 90 continues. Then, as shown in FIG. 9C, when the first target 90 appears again on the monitor 18, even though the first tracking target is extracted as a target area by the target area extraction unit 70. , And not displayed on the monitor 18 as a region of interest. In addition, the diagnostic information determined for the attention area is also not displayed on the monitor 18.
- the image of the first target of interest is saved as a template, or the feature quantity is calculated and saved, and the saved templates or
- the position of the first attention target appearing again in the screen is the first attention target before disappearing from the screen It may be determined whether it is the same as the position.
- the endoscope 12 by determining the movement amount of the endoscope 12 using an inertial sensor such as a gyro sensor, a magnetic sensor, or an acceleration sensor, it is possible to estimate the position of the first target of interest appearing again on the screen. Based on this estimation, it may be determined whether the position of the first target of interest appearing again in the screen is the same as the position of the first target of interest before it disappears from the screen.
- an inertial sensor such as a gyro sensor, a magnetic sensor, or an acceleration sensor
- the endoscope 12 obtains a medical image by imaging an observation target.
- the image acquisition unit 54 of the processor device 16 acquires a medical image acquired by the endoscope 12.
- the attention area extraction unit 70 extracts the attention area from the medical image.
- the diagnostic information determination unit 72 determines diagnostic information for supporting diagnosis of a lesion.
- the attention area and the diagnostic information determined for the attention area are displayed on the monitor 18.
- the user refers to the region of interest and the diagnostic information displayed on the monitor 18, and in the diagnostic information, the user thinks that it is a misjudgment or the user considers that the lesion is obvious and does not need to be displayed on the monitor 18 1) Confirm whether diagnostic information exists. If the first diagnostic information does not exist, the user is instructed by the user interface 19 such as the mouse MS and the foot switch FS that all the diagnostic information being displayed is correct. On the other hand, when the user determines that the first diagnostic information exists, designation of the first diagnostic information is performed by the user interface 19 such as the mouse MS or the foot switch FS. After the specification of the first diagnostic information, the first attention area determined to be the first diagnostic information is not displayed on the monitor 18. The above process is repeated until the diagnosis using the region of interest is completed. The switching operation as to whether or not to make a diagnosis using the region of interest is performed by the user interface 19.
- the shape of the region of interest ROI is represented by a square (rectangle) in the drawing, but the shape may be other than a rectangle (rectangle) such as an ellipse or a circle. This is because, in the above embodiment, since the attention area is extracted based on the feature amount, the shape of the attention area changes according to the distribution state of the feature amount.
- the blood vessel index value calculated by the diagnostic information determination unit 72 for example, the blood vessel density, the blood vessel thickness, and the blood vessel index value, the number of blood vessels, the number of branches, the branch angle Distance between branches, number of crossings, change in thickness, interval, depth based on mucous membrane, height difference, inclination, contrast, color, change in color, meandering degree, blood concentration, oxygen saturation, ratio of artery , The proportion of veins, the concentration of dye administered, the travel pattern, and the blood flow.
- the blood vessel density is represented by the proportion of blood vessels contained in a specific area in the image.
- the thickness of the blood vessel (blood vessel diameter) is the distance between the boundary line of the blood vessel and the mucous membrane, for example, counting the number of pixels along the lateral direction of the blood vessel from the edge of the extracted blood vessel through the blood vessel Count by. Therefore, although the thickness of the blood vessel is the number of pixels, it can be converted to a unit of length such as " ⁇ m" if necessary when the imaging distance and zoom magnification etc. at the time of imaging a medical image are known. is there.
- the number of blood vessels is the number of blood vessels extracted in the entire medical image or in the region of interest.
- the number of blood vessels is calculated using, for example, the number of branch points of the extracted blood vessels (the number of branches), the number of intersections with other blood vessels (the number of intersections), or the like.
- the bifurcation angle of a blood vessel is an angle which two blood vessels make at a bifurcation point.
- the distance between bifurcation points is a linear distance between any bifurcation point and its neighboring bifurcation point, or a length along a blood vessel from any bifurcation point to its neighboring bifurcation point.
- the number of crossings of blood vessels is the number of crossing points where blood vessels having different submucosal depths cross on a medical image. More specifically, the number of crossings of blood vessels is the number of blood vessels at relatively shallow positions under the submucosa crossing blood vessels at deep positions.
- the change in the thickness of the blood vessel is blood vessel information related to the variation in the thickness of the blood vessel, and is also referred to as the aperture unequal degree.
- the change in thickness of the blood vessel is, for example, the rate of change in the diameter of the blood vessel (also referred to as the degree of dilation).
- the medical image acquired in the past examination With respect to the thickness of the extracted blood vessel, the temporal change in the thickness of the same blood vessel extracted from the medical image obtained in the subsequent new examination may be used as the change in the thickness of the blood vessel.
- the ratio of the small diameter portion or the ratio of the large diameter portion may be calculated.
- the thin diameter portion is a portion whose thickness is equal to or less than the threshold
- the large diameter portion is a portion whose thickness is thicker than the threshold.
- the complexity of change in blood vessel thickness (hereinafter referred to as “complexity of change in thickness”) is blood vessel information that indicates how complex the change is in the case of blood vessel thickness change.
- the blood vessel information is calculated by combining a plurality of blood vessel information representing a change in the thickness of the blood vessel (that is, the change rate of the blood vessel diameter, the ratio of the narrow diameter portion, or the ratio of the wide diameter portion).
- the complexity of the thickness change can be determined, for example, by the product of the change rate of the blood vessel diameter and the ratio of the small diameter portion.
- the length of the blood vessel is the number of pixels counted along the longitudinal direction of the extracted blood vessel.
- the blood vessel interval is the number of pixels of pixels representing the mucous membrane between the edges of the extracted blood vessel. When one blood vessel is extracted, the blood vessel interval has no value.
- the blood vessel depth is measured relative to the mucous membrane (more specifically, the surface of the mucous membrane).
- the depth of the blood vessel relative to the mucous membrane can be calculated, for example, based on the color of the blood vessel.
- blood vessels close to the surface of the mucous membrane are expressed with a magenta color
- blood vessels far from the surface of the mucous membrane and deep under the submucosa are expressed with a cyan color Therefore, based on the balance of the R, G, B color signals of the pixels extracted as blood vessels, the depth of the blood vessels with reference to the mucous membrane is calculated for each pixel.
- the height difference of the blood vessel is the size of the difference in the depth of the blood vessel.
- the height difference of one blood vessel to be noticed is obtained by the difference between the depth (maximum depth) of the deepest part of the blood vessel and the depth (minimum depth) of the shallowest part. When the depth is constant, the height difference is zero.
- the blood vessel may be divided into a plurality of sections, and the inclination of the blood vessel may be calculated in each section.
- the area of the blood vessel is a value proportional to the number of pixels of pixels extracted as blood vessels or the number of pixels of pixels extracted as blood vessels.
- the area of the blood vessel is calculated within the region of interest, outside the region of interest, or for the entire medical image.
- the contrast of the blood vessel is the relative contrast to the mucous membrane to be observed.
- the contrast of the blood vessel is calculated, for example, by “Y V / Y M ” or “(Y V ⁇ Y M ) / (Y V + Y M )” using the blood vessel brightness Y V and the mucous membrane brightness Y M Do.
- the color of a blood vessel is each value of RGB of the pixel showing a blood vessel.
- the change in blood vessel color is the difference or ratio between the maximum value and the minimum value of each of the RGB values of the pixel representing the blood vessel.
- the ratio of the maximum value to the minimum value of the pixel value of the B pixel representing the blood vessel, the ratio of the maximum value to the minimum value of the pixel value of the G pixel, or the ratio of the maximum value to the minimum value of the pixel value of the R pixel is Represents the change in color of
- the color change of the blood vessel and the color of the blood vessel may be calculated for each value such as cyan, magenta, yellow, and green by converting into a complementary color.
- the meandering degree of a blood vessel is blood vessel information that represents the width of a range in which the blood vessel travels in a meandering manner.
- the meandering degree of the blood vessel is, for example, the smallest rectangular area (number of pixels) including the blood vessel for which the meandering degree is calculated. Further, the ratio of the length of the blood vessel to the straight distance between the start point and the end point of the blood vessel may be the meander degree of the blood vessel.
- the blood concentration of a blood vessel is blood vessel information that is proportional to the amount of hemoglobin contained in the blood vessel. Since the ratio (G / R) of the pixel value of the G pixel to the pixel value of the R pixel representing the blood vessel is proportional to the amount of hemoglobin, the blood concentration is calculated for each pixel by calculating the value of G / R. Can.
- Blood vessel oxygen saturation is the amount of oxygenated hemoglobin relative to the total amount of hemoglobin (total amount of oxygenated hemoglobin and reduced hemoglobin).
- the oxygen saturation may be calculated using a medical image obtained by photographing an observation target with light of a specific wavelength band (for example, blue light with a wavelength of about 470 ⁇ 10 nm) having a large difference between the absorption coefficients of oxidized hemoglobin and reduced hemoglobin. it can.
- a specific wavelength band for example, blue light with a wavelength of about 470 ⁇ 10 nm
- the pixel value of the B pixel representing the blood vessel has a correlation with the oxygen saturation, so using a table etc.
- the oxygen saturation of each pixel to be represented can be calculated.
- the proportion of arteries is the ratio of the number of pixels of arteries to the number of pixels of all blood vessels.
- the ratio of veins is the ratio of the number of pixels of veins to the number of pixels of all blood vessels.
- Arteries and veins can be distinguished by oxygen saturation. For example, if a blood vessel having an oxygen saturation of 70% or more is an artery and a blood vessel having an oxygen saturation of less than 70% is a vein, the extracted blood vessel can be divided into an artery and a vein. Can be calculated.
- the concentration of the administered dye is the concentration of the dye dispersed to the observation subject or the concentration of the dye injected into the blood vessel by intravenous injection.
- the concentration of the administered dye is calculated, for example, by the ratio of the pixel value of the dye color to the pixel value of the pixel other than the dye color. For example, when a pigment colored in blue is administered, the ratio B / G of the B image to the G image, the ratio B / R of the B image to the R image, etc. are fixed (or temporarily attached) to the observation target Represents the concentration of dye.
- the travel pattern of the blood vessel is blood vessel information regarding the travel direction of the blood vessel.
- the traveling pattern of the blood vessel is, for example, an average angle (traveling direction) of the blood vessel with respect to a reference line set arbitrarily, dispersion of an angle formed by the blood vessel with respect to the reference line arbitrarily set (variation in traveling direction), and the like.
- Blood flow in blood vessels is the number of red blood cells per unit time.
- the Doppler shift frequency of each pixel representing a blood vessel of a medical image is calculated using a signal obtained by the ultrasound probe. You can determine the flow rate.
- the present invention is applied to an endoscope system for processing an endoscopic image which is one of medical images, but medical images other than endoscopic images are processed.
- the present invention can also be applied to medical image processing apparatuses that do.
- the present invention is also applicable to a diagnosis support apparatus for performing diagnosis support to a user using a medical image.
- the present invention can be applied to a medical service support apparatus for supporting medical services such as diagnostic reports using medical images.
- the medical image is preferably a normal light image obtained by irradiating light of a plurality of wavelength bands as light of a white band or light of a white band.
- the medical image is a special light image obtained by irradiating light of a specific wavelength band, and light of the specific wavelength band is preferably a band narrower than the white band.
- the specific wavelength band is preferably included in the blue or green band in the visible range.
- the specific wavelength band includes a wavelength band of 390 nm to 450 nm, or 530 nm to 550 nm, and light of a specific wavelength band has a peak wavelength within the wavelength band of 390 nm to 450 nm, or 530 nm to 550 nm. Is preferred.
- the specific wavelength band is preferably included in the red band in the visible range.
- the specific wavelength band includes a wavelength band of 585 nm to 615 nm, or 610 nm to 730 nm, and light of the specific wavelength band has a peak wavelength within the wavelength band of 585 nm to 615 nm, or 610 nm to 730 nm. It is preferable to have.
- the specific wavelength band includes wavelength bands having different absorption coefficients for oxyhemoglobin and reduced hemoglobin, and light of a specific wavelength band has peak wavelengths in wavelength bands having different absorption coefficients for oxyhemoglobin and reduced hemoglobin. Is preferred.
- the specific wavelength band includes wavelength bands of 400 ⁇ 10 nm, 440 ⁇ 10 nm, 470 ⁇ 10 nm, or 600 nm to 750 nm, and light of the specific wavelength band is 400 ⁇ 10 nm, 440 ⁇ 10 nm, 470 ⁇ 10 nm It is preferable to have a peak wavelength in a wavelength band of 600 nm or more and 750 nm or less.
- the medical image is an in-vivo image obtained by copying the inside of a living body, and the in-vivo image preferably has information of fluorescence emitted from a fluorescent substance in the living body.
- the fluorescence is preferably obtained by irradiating the living body with excitation light included in a wavelength standby of a peak wavelength of 390 or more and 470 nm or less.
- the medical image is an in-vivo image obtained by copying the inside of a living body, and the specific wavelength band is preferably a wavelength band of infrared light.
- the specific wavelength band includes a wavelength band of 790 nm to 820 nm, or 905 nm to 970 nm, and light of a specific wavelength band has a peak wavelength in a wavelength band of 790 nm to 820 nm, or 905 nm to 970 nm. Is preferred.
- the image acquisition unit acquires a special light image having a signal of a specific wavelength band based on a normal light image obtained by irradiating white band light or light of a plurality of wavelength bands as light of the white band. It is preferable to have a special light image acquisition unit, and the medical image is a special light image.
- the signal in the specific wavelength band is obtained by calculation based on RGB or CMY color information included in the normal light image.
- an arithmetic image generation unit that generates an arithmetic image by arithmetic operation be provided, and the medical image be an arithmetic image.
- V-LED Volt Light Emitting Diode
- B-LED Blue Light Emitting Diode
- G-LED Green Light Emitting Diode
- the V-LED 20a emits violet light V in a wavelength band of 380 nm to 420 nm.
- the B-LED 20b emits blue light B in a wavelength band of 420 nm to 500 nm.
- the wavelength cut filter 23 cuts off at least the wavelength side longer than 450 nm of the peak wavelength.
- the blue light Bx transmitted through the wavelength cut filter 23 is in the wavelength range of 420 to 460 nm.
- the reason why light in the wavelength range longer than 460 nm is cut is a factor that reduces the blood vessel contrast of the blood vessel to be observed. It is because there is.
- the wavelength cut filter 23 may reduce the light in the wavelength range longer than 460 nm instead of cutting the light in the wavelength range longer than 460 nm.
- the G-LED 20c emits green light G having a wavelength band ranging from 480 nm to 600 nm.
- the R-LED 20d emits red light R in a wavelength band of 600 nm to 650 nm.
- the light source device 14 When light in a white band (white light) is emitted, all the V-LED 20a, B-LED 20b, G-LED 20c, and R-LED 20d are turned on. As a result, as shown in FIG. 12, the light source device 14 emits white light including violet light V, blue light Bx, green light G, and red light R. White light is almost white because it has a certain intensity or more from the blue band to the red band.
- specific light having a peak wavelength in the wavelength band of 440 ⁇ 10 nm is emitted as light of a specific wavelength band (specific light), for example, as shown in FIG. .
- Green light G and red light R are emitted for specific light which is larger than the amount of light emission.
- the illumination light may be emitted using a laser light source and a phosphor.
- the light source unit 20 is a blue laser light source (denoted as "445 LD", which represents “Laser Diode”) 104 which emits blue laser light having a peak wavelength of 445 ⁇ 10 nm.
- a blue-violet laser light source (denoted as "405 LD”) 106 which emits blue-violet laser light having a peak wavelength of 405 ⁇ 10 nm.
- the illumination optical system 30a is provided with a phosphor 110 to which blue laser light or blue-violet laser light from the light guide 24 is incident.
- the phosphor 110 is excited by blue laser light to emit fluorescence.
- part of the blue laser light transmits without exciting the phosphor 110.
- the blue-violet laser light transmits without exciting the phosphor 110.
- the light emitted from the phosphor 110 illuminates the body to be observed through the illumination lens 32.
- the blue laser light source 104 is turned on, and mainly the blue laser light is incident on the phosphor 110, so that blue laser light and blue laser light as shown in FIG. White light is generated by combining the fluorescence emitted from the phosphor 110.
- specific light having a peak wavelength in the wavelength band of 440 ⁇ 10 nm as light of a specific wavelength band (specific light)
- the blue laser light source 104 and the blue-violet laser light source 106 are turned on to Both the purple laser light and the blue laser light are incident on the phosphor 110.
- the specific light is generated by combining the fluorescence to be excited and emitted from the phosphor 110 by the blue-violet laser light, the blue laser light, and the blue laser light.
- the half width of the blue laser light or the blue-violet laser light is preferably about ⁇ 10 nm.
- a broad area type InGaN-based laser diode can be used, and an InGaNAs-based laser diode or a GaNAs-based laser diode can also be used.
- a light emitter such as a light emitting diode may be used as the light source.
- the phosphor 110 absorbs a part of blue laser light and emits plural colors of green to yellow (for example, a YAG phosphor or a phosphor such as BAM (BaMgAl 10 O 17 )). It is preferable to use what is comprised including.
- a YAG phosphor or a phosphor such as BAM (BaMgAl 10 O 17 ) for example, a YAG phosphor or a phosphor such as BAM (BaMgAl 10 O 17 )
- BAM BaMgAl 10 O 17
- the illumination light may be emitted using a broadband light source such as a xenon lamp and a rotary filter.
- a broadband light source such as a xenon lamp and a rotary filter.
- the light source unit 20 is provided with the wide band light source 202, the rotation filter 204, and the filter switching unit 206.
- a diaphragm 203 is provided between the broadband light source 202 and the rotary filter 204.
- the diaphragm control unit 205 adjusts the area of the opening of the diaphragm 203.
- the aperture control unit 205 controls the aperture 203 based on the light control signal from the processor device 16.
- the broadband light source 202 is a xenon lamp, a white LED, or the like, and emits broadband light ranging in wavelength from blue to red.
- the rotary filter 204 includes a normal mode filter 210 provided on the inner side closest to the rotation axis, and a specific light filter 212 provided on the outer side of the white light filter 210 (see FIG. 18).
- the filter switching unit 206 moves the rotary filter 204 in the radial direction. Specifically, when the white light is emitted, the filter switching unit 206 inserts the white light filter 210 into the optical path of the broadband light. When the light (specific light) in a specific wavelength band is emitted, the filter switching unit 206 inserts the filter 212 for specific light into the optical path of the broadband light.
- the white light filter 210 is provided with a B filter 210a, a G filter 210b, and an R filter 210c along the circumferential direction.
- the B filter 210a transmits wide band blue light B having a wavelength range of 400 to 500 nm out of the wide band light.
- the G filter 210 b transmits green light G of the broadband light.
- the R filter 210c transmits the red light R of the broadband light. Therefore, in the case of emitting white light, blue light B, green light G, and red light R are sequentially emitted as white light by rotating the rotary filter 204.
- the filter for specific light 212 is provided with a Bn filter 212a and a G filter 212b along the circumferential direction.
- the Bn filter 212a transmits blue narrow band light Bn of 400 to 450 nm out of wide band light.
- the G filter 212 b transmits green light G out of the wide band light. Therefore, when the specific light is emitted, the blue narrow band light Bn and the green light G are sequentially irradiated toward the observation target as the specific light by rotating the rotary filter 204.
- each time the observation target is illuminated with blue light B, green light G, red light R, monochrome The image sensor captures an image of the observation target. An image including a component of white light is generated by the B image, the G image, and the R image obtained by imaging the observation target.
- the observation object is imaged by a monochrome image sensor, and the Bn image and G image obtained by this imaging.
- the attention area extraction unit 70 the diagnosis information determination unit 72, the diagnosis information specification unit 74, the similar image storage unit 76, the diagnosis information correction unit 78, or the specific attention target tracking unit 79 included in the image processing unit 61.
- the hardware-like structure of a processing unit (processing unit) that executes various processes is various processors as described below.
- CPU Central Processing Unit
- FPGA Field Programmable Gate Array
- PLD programmable logic device
- One processing unit may be configured of one of these various processors, or configured of a combination of two or more processors of the same type or different types (for example, a plurality of FPGAs or a combination of a CPU and an FPGA) It may be done.
- a plurality of processing units may be configured by one processor.
- one processor is configured by a combination of one or more CPUs and software as represented by computers such as clients and servers; There is a form in which this processor functions as a plurality of processing units.
- SoC system on chip
- IC integrated circuit
- circuitry in the form in which circuit elements such as semiconductor elements are combined.
- Endoscope System 12 Endoscope 12a Insertion Part 12b Operation Part 12c Curved Part 12d Tip Part 12e Angle Knob 12f Forceps Entrance 13a Zoom Operation Part 13b Scope Switch for Diagnostic Information Specification 14 Light Source Device 16 Processor Device 18 Monitor 19 User Interface 20 Light source unit 22 Light source control unit 30a Illumination optical system 30b Imaging optical system 41 Light guide 45 Illumination lens 46 Objective lens 47 Zoom lens 48 Image sensor 52 Central control unit 54 Image acquisition unit 56 DSP (Digital Signal Processor) 58 noise reduction unit 59 conversion unit 61 image processing unit 66 display control unit 70 attention area extraction unit 72 diagnosis information determination unit 74 diagnosis information specification unit 76 similar image storage unit 78 diagnosis information correction unit 79 specific attention target tracking unit 80 similar image 82 Similar image diagnostic information 90 first target
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Veterinary Medicine (AREA)
- Pathology (AREA)
- Public Health (AREA)
- Biophysics (AREA)
- Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Optics & Photonics (AREA)
- Endoscopes (AREA)
Abstract
ユーザーに対して、誤った診断情報を提示することを抑制し、且つ、ユーザーに合わせて適切な診断情報を提示することができる医療画像処理システム、内視鏡システム、診断支援装置、及び医療業務支援装置を提供する。注目領域抽出部は、医療画像から注目対象を含む注目領域を抽出する。診断情報判定部は、注目領域毎に、注目対象に関する診断情報を判定する。モニタは、注目領域と注目領域に対して判定された診断情報を表示する。診断情報指定部は、表示部において表示中の診断情報のうち第1診断情報を指定する。表示制御部は、第1診断情報であると判定される第1注目領域についてはモニタに表示しない制御を行う。
Description
本発明は、医療画像から注目領域を抽出する医療画像処理システム、内視鏡システム、診断支援装置、及び医療業務支援装置に関する。
現在の医療分野においては、光源装置、内視鏡、及びプロセッサ装置を備える内視鏡システムなどのように、医療画像を用いる医療画像処理システムが普及している。また、近年においては、医療画像から病変部の可能性のある注目領域を抽出し、抽出した注目領域に対して画像解析を行うことによって、病態に関する診断情報を取得することが行われている。例えば、特許文献1に示す内視鏡システムにおいては、画素値に基づく特徴空間において、正常な粘膜の領域と、内視鏡によって撮像された観察対象の画素値が分布する特定領域との距離によって、観察対象の状態が病変か正常かの判定を行っている。
実際の診断においては、撮影角度、観察対象との距離、観察対象のスケール(例えば、大きさなど)、明るさ、ボケ、ブレ、水かぶりなどの撮影条件や患者間の違いなどによって、画像解析によって抽出した注目領域に対して、誤った診断情報が算出される場合がある。このような場合には、ユーザビリティーが低下したり、さらには重大な誤診断につながるおそれがある。
また、ユーザーによっては、検査内容、患者ごとに注目領域として表示して欲しい病変は異なる場合がある。例えば、熟練者が検査を行う場合は、明らかな病変は注目領域として自動抽出しなくとも、病変であると判定することができる。このような場合に、注目領域を自動抽出して表示することは、かえってユーザビリティーが低下することになる。
本発明は、ユーザーに対して、誤った診断情報を提示することを抑制し、且つ、ユーザーに合わせて適切な診断情報を提示することができる医療画像処理システム、内視鏡システム、診断支援装置、及び医療業務支援装置を提供することを目的とする。
本発明の医療画像処理システムは、観察対象を撮像して得られる医療画像を取得する画像取得部と、医療画像から注目対象を含む注目領域を抽出する注目領域抽出部と、注目領域毎に、注目対象に関する診断情報を判定する診断情報判定部と、注目領域と注目領域に対して判定された診断情報を表示する表示部と、表示部において表示中の診断情報のうち第1診断情報を指定する診断情報指定部と、診断情報判定部において第1診断情報であると判定される第1注目領域については表示部に表示しない制御を行う表示制御部と、を備える。
第1診断情報の指定は、第1診断情報の位置を指定する位置指定操作により行われることが好ましい。診断情報は複数あり、第1診断情報の指定は、表示部に対して複数の診断情報をそれぞれ切り替えて表示する切替表示を指示するための切替操作と、切替表示中の診断情報の中から第1診断情報を選択して確定する確定操作により、行われることが好ましい。第1診断情報の指定に関する操作を行うためのユーザーインターフェースを有することが好ましい。
第1注目領域の画像に類似する類似画像及び類似画像に対して判定された診断情報である類似画像診断情報を記憶する類似画像記憶部を備え、表示部は、類似画像及び類似画像診断情報を表示し、診断情報指定部は、類似画像記憶部に記憶した類似画像診断情報の中から、第1診断情報を指定することが好ましい。表示部は、類似画像及び類似画像診断情報を一覧表示することが好ましい。
第1注目領域に対して判定された第1診断情報を、第1診断情報と異なる第2診断情報に修正する診断情報修正部を有することが好ましい。第1注目領域に含まれる第1注目対象を追跡する特定注目対象追跡部を備え、表示制御部は、追跡中の第1注目対象に対しては第1注目領域として表示部に表示しない制御を行うことが好ましい。
本発明の内視鏡システムは、観察対象を撮像する内視鏡と、観察対象を撮像して得られる医療画像を取得する画像取得部と、医療画像から注目対象を含む注目領域を抽出する注目領域抽出部と、注目領域毎に、注目対象に関する診断情報を判定する診断情報判定部と、注目領域と注目領域に対して判定された診断情報を表示する表示部と、表示部において表示中の診断情報のうち第1診断情報を指定する診断情報指定部と、診断情報判定部において第1診断情報であると判定される第1注目領域については表示部に表示しない制御を行う表示制御部と、を備える。
本発明の診断支援装置は、上記記載の本発明の医療画像処理システムを有する。本発明の医療業務支援装置は、上記記載の本発明の医療画像処理システムを有する医療業務支援装置。
本発明によれば、ユーザーに対して、誤った診断情報を提示することを抑制し、且つ、ユーザーに合わせて適切な診断情報を提示することができる。
図1に示すように、内視鏡システム10は、内視鏡12と、光源装置14と、プロセッサ装置16と、モニタ18と、ユーザーインターフェース19と、を備える。内視鏡12は、観察対象である被写体に照明光を照射し、照明光で照射された被写体を撮像する。光源装置14は、被写体に照射するための照明光を発生する。プロセッサ装置16は、内視鏡システム10のシステム制御及び画像処理等を行う。モニタ18は、プロセッサ装置16から出力された画像を表示する表示部である。ユーザーインターフェース19は、プロセッサ装置16等への設定入力等を行う入力デバイスであり、キーボードKB、マウスMS、フットスイッチFSなどから構成される。
なお、ユーザーインターフェース19は、キーボードKB、マウスMS、フットスイッチFSに限定されず、グラフィカルユーザーインターフェースや音声入力、タッチディスプレイなどであってもよい。また、本発明の医療画像処理システムには、プロセッサ装置16内に設けられた画像取得部54及び画像処理部61と、モニタ18と、ユーザーインターフェース19とを含んでいる。
内視鏡12は、被検体内に挿入する挿入部12aと、挿入部12aの基端部分に設けた操作部12bと、挿入部12aの先端側に設けた湾曲部12cと、先端部12dと、を有している。操作部12bのアングルノブ12eを操作することにより、湾曲部12cが湾曲する。湾曲部12cが湾曲することにより、先端部12dが所望の方向に向く。先端部12dには、被写体に向けて空気や水等を噴射する噴射口(図示しない)が設けられている。
また、操作部12bには、アングルノブ12eの他、ズーム操作部13aが設けられている。ズーム操作部13aを操作することによって、被写体を拡大または縮小して撮像することができる。また、挿入部12aから先端部12dにわたって、処置具などを挿通するための鉗子チャンネル(図示しない)が設けられている。処置具は、鉗子入口12fから鉗子チャンネル内に挿入される。
図2に示すように、光源装置14は、光源部20と、光源制御部22と、を備える。光源部20は、被写体を照明するための照明光を発光する。光源部20は、1又は複数の光源を備えている。光源制御部22は、光源部20の駆動を制御する。光源制御部22は、光源部20を構成する光源の点灯または消灯のタイミング、及び、点灯時の発光量等をそれぞれ独立に制御する。その結果、光源部20は、発光量や発光タイミングが異なる複数種類の照明光を発光することができる。
光源部20が発光した照明光は、ライトガイド41に入射する。ライトガイド41は、内視鏡12及びユニバーサルコード(図示しない)内に内蔵されており、照明光を内視鏡12の先端部12dまで伝搬する。ユニバーサルコードは、内視鏡12と光源装置14及びプロセッサ装置16とを接続するコードである。なお、ライトガイド41としては、マルチモードファイバを使用できる。一例として、コア径105μm、クラッド径125μm、外皮となる保護層を含めた径がφ0.3~0.5mmの細径なファイバケーブルを使用できる。
内視鏡12の先端部12dには、照明光学系30aと撮像光学系30bが設けられている。照明光学系30aは、照明レンズ45を有しており、この照明レンズ45を介して照明光が被写体に向けて出射する。撮像光学系30bは、対物レンズ46、ズームレンズ47、及びイメージセンサ48を有している。イメージセンサ48は、対物レンズ46及びズームレンズ47を介して、被写体から戻る照明光の反射光等(反射光の他、散乱光、被写体が発する蛍光、または、被写体に投与等した薬剤に起因した蛍光等を含む)を用いて被写体を撮像する。ズームレンズ47は、ズーム操作部13aの操作をすることで移動し、イメージセンサ48を用いて撮像する被写体を拡大または縮小する。
イメージセンサ48は、例えば原色系のカラーフィルタを有するカラーセンサであり、青色カラーフィルタを有するB画素(青色画素)、緑色カラーフィルタを有するG画素(緑色画素)、及び、赤色カラーフィルタを有するR画素(赤色画素)の3種類の画素を備える。青色カラーフィルタは、主として紫色から青色の光を透過する。緑色カラーフィルタは、主として緑色の光。赤色カラーフィルタは、主として赤色の光を透過する。上記のように原色系のイメージセンサ48を用いて被写体を撮像すると、最大で、B画素から得るB画像(青色画像)、G画素から得るG画像(緑色画像)、及び、R画素から得るR画像(赤色画像)の3種類の画像を同時に得ることができる。
なお、イメージセンサ48としては、CCD(Charge Coupled Device)センサや、CMOS(Complementary Metal Oxide Semiconductor)センサを利用可能である。また、本実施形態のイメージセンサ48は、原色系のカラーセンサであるが、補色系のカラーセンサを用いることもできる。補色系のカラーセンサは、例えば、シアンカラーフィルタが設けられたシアン画素、マゼンタカラーフィルタが設けられたマゼンタ画素、イエローカラーフィルタが設けられたイエロー画素、及び、グリーンカラーフィルタが設けられたグリーン画素を有する。補色系カラーセンサを用いる場合に上記各色の画素から得る画像は、補色-原色色変換をすれば、B画像、G画像、及びR画像に変換できる。また、カラーセンサの代わりに、カラーフィルタを設けていないモノクロセンサをイメージセンサ48として使用できる。この場合、BGR等各色の照明光を用いて被写体を順次撮像することにより、上記各色の画像を得ることができる。
プロセッサ装置16は、中央制御部52と、画像取得部54と、画像処理部61と、表示制御部66とを有する。中央制御部52は、照明光の照射タイミングと撮像のタイミングの同期制御等の内視鏡システム10の統括的な制御を行う。また、ユーザーインターフェース19等を用いて、各種設定の入力等をした場合には、中央制御部52は、入力された各種設定を、光源制御部22、イメージセンサ48、または画像処理部61等の内視鏡システム10の各部に入力する。
画像取得部54は、イメージセンサ48から、被写体を撮像した画像を取得する。この画像取得部54で取得する画像は、内視鏡12のような医療用装置により得られた画像であることから、医療画像と称する。画像取得部54は、DSP(Digital Signal Processor)56と、ノイズ低減部58と、変換部59と、を有し、これらを用いて、取得した医療画像に必要に応じて各種処理を施す。DSP56は、取得した医療画像に対し、必要に応じて欠陥補正処理、オフセット処理、ゲイン補正処理、リニアマトリクス処理、ガンマ変換処理、デモザイク処理、及びYC変換処理等の各種処理を施す。
欠陥補正処理は、イメージセンサ48の欠陥画素に対応する画素の画素値を補正する処理である。オフセット処理は、欠陥補正処理を施した画像から暗電流成分を低減し、正確な零レベルを設定する処理である。ゲイン補正処理は、オフセット処理をした画像にゲインを乗じることにより各画像の信号レベルを整える処理である。リニアマトリクス処理は、オフセット処理をした画像の色再現性を高める処理であり、ガンマ変換処理は、リニアマトリクス処理後の画像の明るさや彩度を整える処理である。
なお、イメージセンサ48がカラーセンサである場合には、デモザイク処理が行われる。デモザイク処理(等方化処理や同時化処理とも言う)は、欠落した画素の画素値を補間する処理であり、ガンマ変換処理後の画像に対して施す。欠落した画素とは、カラーフィルタの配列に起因して(イメージセンサ48において他の色の画素を配置しているため)、画素値がない画素である。例えば、B画像はB画素において被写体を撮像して得る画像なので、G画素やR画素に対応する位置の画素には画素値がない。デモザイク処理は、B画像を補間して、イメージセンサ48のG画素及びR画素の位置にある画素の画素値を生成する。YC変換処理は、デモザイク処理後の画像を、輝度チャンネルYと色差チャンネルCb及び色差チャンネルCrに変換する処理である。
ノイズ低減部58は、輝度チャンネルY、色差チャンネルCb及び色差チャンネルCrに対して、例えば、移動平均法またはメディアンフィルタ法等を用いてノイズ低減処理を施す。変換部59は、ノイズ低減処理後の輝度チャンネルY、色差チャンネルCb及び色差チャンネルCrを再びBGRの各色の画像に再変換する。
画像処理部61は、画像取得部54が取得した医療画像に対して各種の画像処理を施す。また、画像処理部61は、医療画像から注目領域の抽出を行い、抽出した注目領域から観察対象の診断を支援するための診断情報を算出する。注目領域の抽出及び診断情報の算出については後述する。表示制御部66は、画像処理部61から送られる医療画像又は診断情報を用い、モニタ18での表示に適した形式に変換してモニタ18に出力する。これにより、モニタ18には、医療画像と診断情報が少なくとも表示される。
図3に示すように、画像処理部61は、注目領域抽出部70と、診断情報判定部72と、診断情報指定部74と、類似画像記憶部76と、診断情報修正部78と、特定注目対象追跡部79と、を備えている。注目領域抽出部70は、医療画像から検査または診断の対象として注目すべき注目領域を抽出する。注目領域抽出部70では、医療画像から特定の特徴量を算出する。そして、算出した特定の特徴量が特定の条件を満たす領域を注目領域として抽出する。なお、注目領域抽出部70により抽出する注目領域は、観察対象の表面など2次元の領域に限られない。例えば、観察対象の表面に加えて、観察対象の深さ方向(浸潤)の3次元の領域を、注目領域として抽出するようにしてもよい。
ここで、特定の特徴量としては、表層血管の領域を抽出するための特徴量として、G画像とB画像との比率を示す「ln(G/B)」がある。そのほか、後述する血管に関する血管指標値や、腺管構造に関する腺管指標値であってもよい。また、特定の特徴量としては、例えば、医療画像に対してConvolutional Neural Networkを行うことの他、医療画像の色情報、画素値の勾配等で得られる特徴量を用いてもよい。なお、画素値の勾配等は、例えば、被写体の形状(粘膜の大局的な起伏または局所的な陥凹もしくは隆起等)、色(炎症、出血、発赤、または萎縮に起因した白化等の色)、組織の特徴(血管の太さ、深さ、密度、もしくはこれらの組み合わせ等)、または、構造の特徴(ピットパターン等)等によって、変化が表れる。
また、注目領域抽出部70で抽出される注目領域は、例えば、がんに代表される病変部、良性腫瘍部、炎症部(いわゆる炎症の他、出血または萎縮等の変化がある部分を含む)、加熱による焼灼跡もしくは着色剤、蛍光薬剤等による着色によってマーキングしたマーキング部、または、生体検査(いわゆる生検)を実施した生検実施部を含む領域である。すなわち、病変を含む領域、病変の可能性がある領域、生検等の何らかの処置をした領域、クリップやかん子などの処置具、または、暗部領域(ヒダ(襞)の裏、管腔奥のため観察光が届きにくい領域)など病変の可能性にかかわらず詳細な観察が必要である領域等が注目領域になり得る。内視鏡システム10においては、注目領域抽出部70は、病変部、良性腫瘍部、炎症部、マーキング部、または、生検実施部のうち少なくともいずれかを含む領域を注目領域として抽出する。
なお、注目領域抽出部70においては、医療画像のうち、診断情報の正確な算出の妨げとなる暗過ぎる領域と明る過ぎる領域とを除去する除去処理を行うようにしてもよい。この除去処理では、医療画像のうちB画像、G画像、R画像のそれぞれに対して、下限値と上限値を設定する。そして、下限値を下回る領域を暗すぎる領域として抽出し、各画像から除去する。同様にして、上限値を超える領域を明る過ぎる領域として抽出し、各画像から除去する。暗すぎる領域と明る過ぎる領域を除去した医療画像に対して、注目領域の抽出を行う。なお、暗すぎる領域と明る過ぎる領域の除去については、医療画像の状態によっては、行わなくてもよい。
診断情報判定部72は、注目領域抽出部70で抽出された注目領域から各種指標値を算出し、算出した各種指標値に基づいて、病変部の診断を支援するための診断情報を判定する。各種指標値としては、血管密度や血管走行パターンなどの血管に関する血管指標値や、腺管構造に関する腺管指標値などが含まれる。診断情報としては、例えば、病変部の種類やサイズが挙げられる。算出された診断情報は、表示制御部66によって、医療画像と合わせてモニタ18に表示される。なお、注目領域内の画像とこの注目領域に対して判定された診断情報とは関連付けられて、類似画像記憶部76に順次記憶される。
例えば、図4に示すように、注目領域抽出部70によって、注目領域aと注目領域bとが抽出された場合には、それぞれの注目領域a、b毎に診断情報が判定される。注目領域aの場合であれば、病変部の種類として判定された「cancer」と、病変部のサイズとして判定された「10mm」とをモニタ18に表示させる。また、注目領域bの場合であれば、病変部の種類として判定された「adenoma」と、病変部のサイズとして判定された「7mm」がモニタ18に表示される。
診断情報指定部74は、モニタ18に表示中の診断情報のうち、ユーザーが誤判定であると考える又はユーザーが明らかな病変で注目領域としてモニタ18に表示不要と考える第1診断情報を指定する。この診断情報指定部74での指定後は、表示制御部66は、第1診断情報であると判定された注目領域については、モニタ18に表示しないようにする。これにより、ユーザーに対して、誤った診断情報を提示することを抑制し、且つ、ユーザーに合わせて適切な診断情報を提示することができる。
第1診断情報の指定は、モニタ18に表示中の第1診断情報の位置を指定する位置指定操作によって行うことが好ましい。位置指定操作には、第1診断情報の指定に関する指示を受け付けるユーザーインターフェース19が用いられる。例えば、ユーザーインターフェース19のうち、マウスMSによって位置指定操作を行う他、モニタ18の画面タップ操作によって、位置指定操作を行う。また、ユーザーの視線検知デバイスが内視鏡システム10に接続されている場合には、ユーザー視線情報に基づいて、位置指定操作を行うことができる。なお、ユーザーインターフェース19によって、第1診断情報を直接指定する他、第1診断情報であると判定された第1注目領域を指定するようにしてもよい。
例えば、マウスMSによる位置指定操作の場合であれば、図5に示すように、モニタ18上に表示されたポインタPTをマウスMSにより操作し、ポインタPTを第1診断情報として指定したい診断情報の位置に合わせる。第1診断情報を注目領域aの「cancer」とする場合には、「cancer」にポインタPTを合わせて、マウスMSのクリックを行う。これにより、「cancer」が第1診断情報として指定される。
また、診断情報が複数ある場合には、モニタ18に対して複数の診断情報をそれぞれ切り替えて表示する切替表示を指示するための切替操作と、切替表示中の診断情報の中から第1診断情報を選択して確定する確定操作により、第1診断情報を指定するようにしてもよい。切替操作及び確定操作には、フットスイッチFSや、内視鏡12の操作部12bに設けられた診断情報指定用スコープスイッチ13b(図2参照)が用いられる。
例えば、図6(A)に示すように、複数の注目領域のうちの1つの注目領域(「注目領域a」)とその注目領域に対して判定された診断情報(種類:「cancer」、サイズ:「10mm」)が表示される。注目領域aに対して判定された診断情報(種類:「cancer」、サイズ:「10mm」)を、第1診断情報とする場合には、確定操作として、フットスイッチFSのうち確定用スイッチDBを1回押下、又は、診断情報指定用スコープスイッチ13bを連続して2回押下することにより、診断情報(種類:「cancer」、サイズ:「10mm」)が第1診断情報として確定する。
一方、注目領域aに対して判定された診断情報(種類:「cancer」、サイズ:「10mm」)を、第1診断情報としない場合には、他の診断情報を指定できるようにするために、切替操作を行って、他の診断情報への表示に切り替える。この場合、切替操作として、フットスイッチFSの切替用スイッチSBを1回押下、又は、診断情報指定用スコープスイッチ13bを1回押下することにより、図6(B)に示すように、注目領域aと異なる注目領域bとこの注目領域bに対して判定された診断情報(種類:「adenoma」、サイズ:「7mm」)の表示に切り替えられる。注目領域bに対して判定された診断情報(種類:「adenoma」、サイズ:「7mm」)を第1診断情報とする場合には、上記したように、確定操作として、確定用スイッチDBを1回押下、又は診断情報指定用スコープスイッチ13bを連続して2回押下する。
なお、診断情報指定部74においては、注目領域に対して判定された診断情報の中から、第1診断情報を指定することに加えて、第1診断情報と指定された第1注目領域の画像と類似する類似画像が有る場合には、類似画像に対して判定された診断情報である類似画像診断情報も合わせてユーザーに提示し、類似画像診断情報の中から第1診断情報を指定するようにしてもよい。この場合には、注目領域に対して判定された診断情報の中から第1診断情報を指定した後、自動的に、又は、ユーザーがユーザーインターフェース19を操作することにより、類似画像記憶部76から、第1注目領域の画像と類似する類似画像及びこの類似画像に関連付けられた類似画像診断情報を抽出する。なお、類似画像の抽出は、第1注目領域の画像とのパターンマッチング等により行われる。
図7に示すように、類似画像記憶部76から抽出した類似画像80とその類似画像80に関連付けられた類似画像診断情報82とは、モニタ18に一覧表示される。また、モニタ18には、類似画像診断情報の中から、第1診断情報として選択するためのポインタPTが表示されている。ユーザーは、モニタ18に一覧表示された類似画像及び類似画像診断情報を参照しながら、マウスMSを操作する。そして、第1診断情報として指定したい類似画像診断情報にポインタPTを合わせてクリックを行う。これにより、ポインタPTで示された類似画像診断情報が、第1診断情報として指定される。この後は、表示制御部66は、指定された類似画像診断情報と判定される注目領域についても、モニタ18に表示しない制御が行われる。
診断情報修正部78は、複数の診断情報の中からユーザーが誤判定と考える第1診断情報を指定した場合には、この第1診断情報の指定に加えて又は代えて、第1診断情報を、ユーザーが正しいと考える第2診断情報に修正する修正処理を行う。注目領域に対して判定された診断情報の中から第1診断情報を指定した後、自動的に、又は、ユーザーがユーザーインターフェース19を操作することにより、修正用画面がモニタ18上に表示される。
修正用画面においては、図8に示すように、診断情報のうち修正対象の情報に対して、修正候補一覧が表示される。ここでは、病変部の種類に対して、修正候補一覧が表示されている。ユーザーは、修正候補一覧の中から正しい第2診断情報を見つけたら、マウスMSを操作して、正しい診断情報にポインタPTを合わせる。この状態でマウスMSをクリックすることにより、第1診断情報が正しい第2診断情報に修正される。例えば、注目領域aに対する第1診断情報が「cancer」の場合には、修正候補一覧の中から、第2診断情報として「adenoma」をポインタPTで指定する。これにより、注目領域aは、「adenoma」に修正される。修正処理後は、表示制御部66は、第1診断情報と判定される注目領域についてはモニタ18に表示しない制御を行う一方で、第2診断情報と判定される注目領域についてはモニタ18に表示する制御を行う。
特定注目対象追跡部79は、複数の診断情報の中からユーザーが誤判定と考える第1診断情報を指定した場合には、第1注目領域に含まれる第1注目対象を追跡する追跡処理を行う。このように、第1注目対象を追跡することで、モニタ18上から消えて再びモニタ18に表示されたとしても、第1注目対象は注目領域としての表示を行わないようにする。
例えば、図9(A)に示すように、注目領域aに対して判定された診断情報が第1診断情報として指定された場合には、注目領域a及び診断情報(種類:「cancer」、サイズ:「10mm」)は、モニタ18に表示されない(図9(A)では、点線はモニタ18上で非表示であることを示している。図9(C)も同様。)。この注目領域aは第1注目領域であることから、注目領域aに含まれる第1注目対象90が、特定注目対象追跡部79によって追跡される。
そして、図9(B)に示すように、内視鏡12の操作や観察対象の動きによって、モニタ18に表示される医療画像が大きく変化して、モニタ18上から第1注目対象90が消えた場合にも、第1注目対象90の追跡処理は継続する。そして、図9(C)に示すように、第1注目対象90が再びモニタ18上に出現した場合には、第1追跡対象は、注目領域抽出部70にて注目領域として抽出されたとしても、モニタ18上では注目領域として表示しないようにする。加えて、注目領域に対して判定された診断情報についても、モニタ18上に表示しないようにする。
なお、追跡処理としては、オプティカルフローなどの公知の技術を用いることが好ましい。また、第1注目対象が画面外に消えて、再度画面内に出現する場合を想定し、第1注目対象の画像をテンプレートとして保存、又は特徴量を算出して保存し、それら保存したテンプレート又は特徴量と再度画面内に出現した第1注目対象の画像又は特徴量との比較を行うことにより、再度画面内に出現した第1注目対象の位置が、画面から消える前の第1注目対象の位置と同じか否かの判定を行うようにしてもよい。そのほか、ジャイロセンサ、磁気センサ、又は加速度センサなどの慣性センサを用いて、内視鏡12の移動量を求めることにより、再度画面に出現した第1注目対象の位置を推定することができる。この推定に基づいて、再度画面内に出現した第1注目対象の位置が、画面から消える前の第1注目対象の位置と同じか否かの判定を行うようにしてもよい。
次に、注目領域を用いる診断の一連の流れについて、図10に示すフローチャートに沿って説明を行う。内視鏡12は、観察対象を撮像することにより、医療画像を得る。プロセッサ装置16の画像取得部54は、内視鏡12によって得られた医療画像を取得する。注目領域抽出部70では、医療画像から注目領域を抽出する。抽出された注目領域に対しては、診断情報判定部72によって、病変部の診断を支援するための診断情報を判定する。注目領域とこの注目領域に対して判定された診断情報は、モニタ18に表示される。
ユーザーは、モニタ18に表示中の注目領域及び診断情報を参照し、診断情報の中に、ユーザーが誤判定であると考える又はユーザーが明らかな病変で注目領域としてモニタ18に表示不要と考える第1診断情報が存在するか否かの確認を行う。第1診断情報が存在しない場合には、表示中の診断情報が全て正しい旨の指示を、マウスMSやフットスイッチFSなどのユーザーインターフェース19により行う。一方、ユーザーが、第1診断情報が存在すると判断した場合には、第1診断情報の指定をマウスMSやフットスイッチFSなどのユーザーインターフェース19により行う。この第1診断情報の指定後は、第1診断情報と判定される第1注目領域については、モニタ18に表示されない。以上の処理は、注目領域を用いる診断が終了するまで繰り返し行われる。なお、注目領域を用いる診断を行うか否かの切替操作は、ユーザーインターフェース19によって行われる。
なお、上記実施形態において、図中では注目領域ROIの形状を四角(矩形)で表しているが、形状は、楕円や円などの四角(矩形)以外もあり得る。これは、上記実施形態では、特徴量に基づいて注目領域を抽出しているため、特徴量の分布状況に応じて、注目領域の形状が変わるからである。
なお、第1~第5実施形態において、診断情報判定部72で算出する血管指標値としては、例えば、血管密度、血管太さ、血管の指標値としては、血管の本数、分岐数、分岐角度、分岐点間距離、交差数、太さの変化、間隔、粘膜を基準とした深さ、高低差、傾き、コントラスト、色、色の変化、蛇行度、血液濃度、酸素飽和度、動脈の割合、静脈の割合、投与した色素の濃度、走行パターン、及び血流量などがある。
血管密度は、画像において特定領域に含まれる血管が占める割合によって表される。血管の太さ(血管径)とは、血管と粘膜の境界線間の距離であり、例えば、抽出した血管のエッジから血管の中を通って血管の短手方向に沿って画素数を計数することにより計数する。したがって、血管の太さは画素数であるが、医療画像を撮影した際の撮影距離やズーム倍率等が既知の場合には、必要に応じて「μm」等の長さの単位に換算可能である。
血管の本数とは、医療画像全体または注目領域内で抽出した血管の数である。血管の本数は、例えば、抽出した血管の分岐点の個数(分岐数)や他の血管との交差点の個数(交差数)等を用いて算出する。血管の分岐角度は、2本の血管が分岐点においてなす角度である。分岐点間距離は、任意の分岐点とその隣の分岐点の直線距離、または、任意の分岐点とその隣の分岐点までの血管に沿った長さである。
血管の交差数とは、粘膜下の深さが異なる血管が医療画像上で交差する交差点の個数である。より具体的には、血管の交差数とは、相対的に粘膜下の浅い位置にある血管が、深い位置にある血管を横切る数である。
血管の太さの変化とは、血管の太さのばらつきに関する血管情報であり、口径不同度ともいう。血管の太さの変化は、例えば、血管径の変化率(拡張度ともいう)である。血管径の変化率は、血管の最も細い部分の太さ(最小径)と血管の最も太い部分の太さ(最大径)を用いて、「血管径の変化率(%)=最小径/最大径×100」で求める。
なお、過去の検査で観察対象を撮影して得た医療画像と、その後の新たな検査で同じ観察対象を撮影して得た医療画像と、を用いる場合、過去の検査で得た医療画像から抽出した血管の太さに対して、その後の新たな検査で得た医療画像から抽出した同じ血管の太さの時間的な変化を血管の太さの変化としてもよい。
また、血管の太さの変化として、細径部の割合、または太径部の割合を算出しても良い。細径部とは太さが閾値以下の部分であり、太径部とは太さが閾値よりも太い部分である。細径部の割合は、「細径部の割合(%)=細径部の長さ/血管の長さ×100」で求める。同様に、太径部の割合は、「太径部の割合(%)=太径部の長さ/血管の長さ×100」で求める。
血管の太さの変化の複雑度(以下、「太さ変化の複雑度」という)は、血管の太さ変化している場合に、その変化がどの程度複雑であるかを表す血管情報であり、血管の太さの変化を表す血管情報(すなわち血管径の変化率、細径部の割合、または太径部の割合)を複数組み合わせて算出する血管情報である。太さ変化の複雑度は、例えば、血管径の変化率と細径部の割合の積で求めることができる。
血管の長さとは、抽出した血管の長手方向に沿って計数した画素数である。
血管の間隔とは、抽出した血管のエッジ間にある粘膜を表す画素の画素数である。抽出した血管が1本の場合、血管の間隔は値を持たない。
血管の深さは、粘膜(より具体的には粘膜の表面)を基準として測る。この粘膜を基準とした血管の深さは、例えば、血管の色に基づいて算出することができる。特定の色割り当て処理を行う場合、粘膜の表面に近い位置にある血管はマゼンタ系の色で表され、粘膜の表面から遠く、粘膜下の深い位置にある血管はシアン系の色で表されるので、血管として抽出した画素のR,G,B各色の信号のバランスに基づいて、粘膜を基準とした血管の深さを画素毎に算出する。
血管の高低差とは、血管の深さの差の大きさである。例えば、注目する1本の血管の高低差は、この血管の最も深い箇所の深さ(最大深さ)と、最も浅い箇所の深さ(最小深さ)の差で求める。深さが一定の場合、高低差は零である。
血管の傾きとは、血管の深さの変化率であり、血管の長さと血管の深さを用いて算出する。すなわち、血管の傾きは、「血管の傾き=血管の深さ/血管の長さ」で求める。なお、血管を複数の区間に区切り、各区間で血管の傾きを算出してもよい。
血管の面積は、血管として抽出した画素の画素数、または、血管として抽出した画素の画素数に比例する値である。血管の面積は、注目領域内、注目領域外、または、医療画像全体について算出する。
血管のコントラストとは、観察対象の粘膜に対する相対的なコントラストである。血管のコントラストは、血管の輝度YVと、粘膜の輝度YMと、を用いて、例えば「YV/YM」または「(YV-YM)/(YV+YM)」で算出する。
血管の色とは、血管を表す画素のRGBの各値である。そして、血管の色の変化とは、血管を表す画素のRGB各値の各々の最大値と最小値の差または比である。例えば、血管を表すB画素の画素値の最大値と最小値の比、G画素の画素値の最大値と最小値の比、またはR画素の画素値の最大値と最小値の比は、血管の色の変化を表す。もちろん、補色に変換して、シアン、マゼンタ、イエロー、グリーン等の各値について血管の色及び血管の色の変化を算出しても良い。
血管の蛇行度とは、血管が蛇行して走行する範囲の広さを表す血管情報である。血管の蛇行度は、例えば、蛇行度を算出する血管を含む最小の長方形の面積(画素数)である。また、血管の始点と終点の直線距離に対する血管の長さの比を血管の蛇行度としても良い。
血管の血液濃度とは、血管が含むヘモグロビンの量に比例する血管情報である。血管を表すR画素の画素値に対するG画素の画素値の比(G/R)はヘモグロビンの量に比例するので、G/Rの値を算出することで、画素ごとに血液濃度を算出することができる。
血管の酸素飽和度とは、ヘモグロビンの総量(酸化ヘモグロビン及び還元ヘモグロビンの総量)に対する酸化ヘモグロビンの量である。酸素飽和度は、酸化ヘモグロビンと還元ヘモグロビンの吸光係数に違いが大きい特定の波長帯域の光(例えば、波長470±10nm程度の青色光)で観察対象を撮影した医療画像を用いて算出することができる。波長470±10nm程度の青色光を用いる場合、血管を表すB画素の画素値は酸素飽和度と相関があるので、B画素の画素値を酸素飽和度に対応付けるテーブル等を用いることで、血管を表す各画素の酸素飽和度を算出することができる。
動脈の割合とは、全血管の画素数に対する動脈の画素数の割合である。同様に、静脈の割合とは、全血管の画素数に対する静脈の画素数の割合である。動脈と静脈は、酸素飽和度によって区別することができる。例えば、酸素飽和度が70%以上の血管を動脈とし、酸素飽和度が70%未満の血管を静脈とすれば、抽出した血管を動脈と静脈に分けられるので、上記動脈の割合及び静脈の割合を算出するするこができる。
投与した色素の濃度とは、観察対象に対して散布した色素、または静脈注射により血管に注入した色素の濃度である。投与した色素の濃度は、例えば、色素色以外の画素の画素値に対する色素色の画素値の割合で算出する。例えば、青色に着色する色素を投与した場合は、B画像とG画像の比率B/Gや、B画像とR画像の比率B/R等が、観察対象に定着(あるいは一時的に付着)した色素の濃度を表す。
血管の走行パターンとは、血管の走行方向に関する血管情報である。血管の走行パターンは、例えば、任意に設定する基準線に対する血管の平均角度(走行方向)や、任意に設定する基準線に対して血管がなす角度の分散(走行方向のばらつき)等である。
血管の血流量(血流速度ともいう)は、単位時間あたりに赤血球が通り抜ける数である。超音波プローブを内視鏡12の鉗子チャンネル等を介して併用する場合等に、医療画像の血管を表す各画素のドップラーシフト周波数を、超音波プローブで得る信号を用いて算出する、血管の血流量を求めるができる。
なお、上記実施形態では、医療画像の一つである内視鏡画像の処理を行う内視鏡システムに対して、本発明の適用を行っているが、内視鏡画像以外の医療画像を処理する医療画像処理装置に対しても本発明の適用は可能である。また、医療画像を用いてユーザーに診断支援を行うための診断支援装置に対しても本発明の適用は可能である。また、医療画像を用いて、診断レポートなどの医療業務を支援するための医療業務支援装置に対しても本発明の適用は可能である。
なお、医療画像は、白色帯域の光、又は白色帯域の光として複数の波長帯域の光を照射して得られた通常光画像であることが好ましい。
医療画像は、特定の波長帯域の光を照射して得た特殊光画像であり、特定の波長帯域の光は白色帯域よりも狭い帯域であることが好ましい。特定の波長帯域は可視域の青色もしくは緑色帯域に含まれることが好ましい。特定の波長帯域は390nm以上450nm以下、または530nm以上550nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、390nm以上450nm以下、または530nm以上550nm以下の波長帯域内にピーク波長を有することが好ましい。
特定の波長帯域は可視域の赤色帯域に含まれることが好ましい。特定の波長帯域は、585nm以上615nm以下、または610nm以上730nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、585nm以上615nm以下、または610nm以上730nm以下の波長帯域内にピーク波長を有することが好ましい。
特定の波長帯域は、酸化ヘモグロビンと還元ヘモグロビンとで吸収係数の異なる波長帯域を含み、かつ、特定の波長帯域の光は、酸化ヘモグロビンと還元ヘモグロビンとで吸収係数の異なる波長帯域にピーク波長を有することが好ましい。特定の波長帯域は、400±10nm、440±10nm、470±10nm、又は600nm以上750nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、400±10nm、440±10nm、470±10nm、又は600nm以上750nm以下の波長帯域にピーク波長を有することが好ましい。
医療画像は生体内を写した生体内画像であり、生体内画像は、生体内の蛍光物質が発する蛍光の情報を有することが好ましい。蛍光は、ピーク波長が390以上470nm以下の波長待機に含まれる励起光を生体内に照射して得られることが好ましい。
医療画像は生体内を写した生体内画像であり、特定の波長帯域は赤外光の波長帯域であることが好ましい。特定の波長帯域は、790nm以上820nm以下、又は905nm以上970nm以下の波長帯域を含み、かつ、特定の波長帯域の光は、790nm以上820nm以下、又は905nm以上970nm以下の波長帯域にピーク波長を有することが好ましい。
画像取得部は、白色帯域の光、又は白色帯域の光として複数の波長帯域の光を照射して得られた通常光画像に基づいて、特定の波長帯域の信号を有する特殊光画像を取得する特殊光画像取得部を有し、医療画像は特殊光画像であることが好ましい。
特定の波長帯域の信号は、通常光画像に含まれるRGBあるいはCMYの色情報に基づく演算により得られることが好ましい。
白色帯域の光、又は白色帯域の光として複数の波長帯域の光を照射して得られた通常光画像と、特定の波長帯域の光を照射して得られる特殊光画像との少なくとも一方に基づく演算によって、演算画像を生成する演算画像生成部を有し、医療画像は演算画像であることが好ましい。
なお、上記実施形態では、図11に示すように、光源部20として、V-LED(Violet Light Emitting Diode)20a、B-LED(Blue Light Emitting Diode)20b、G-LED(Green Light Emitting Diode)20c、及びR-LED(Red Light Emitting Diode)20dの4色のLEDと、波長カットフィルタ23とを用いて、照明光の発光を行うことが好ましい。
V-LED20aは、波長帯域380nm~420nmの紫色光Vを発する。B-LED20bは、波長帯域420nm~500nmの青色光Bを発する。B-LED23bから出射した青色光Bのうち少なくともピーク波長の450nmよりも長波長側は、波長カットフィルタ23によりカットされる。これにより、波長カットフィルタ23を透過した後の青色光Bxは、420~460nmの波長範囲になる。このように、460nmよりも長波長側の波長域の光をカットしているのは、この460nmよりも長波長側の波長域の光は、観察対象である血管の血管コントラストを低下させる要因であるためである。なお、波長カットフィルタ23は、460nmよりも長波長側の波長域の光をカットする代わりに、460nmよりも長波長側の波長域の光を減光させてもよい。G-LED20cは、波長帯域が480nm~600nmに及ぶ緑色光Gを発する。R-LED20dは、波長帯域が600nm~650nmに及び赤色光Rを発する。
白色帯域の光(白色光)を発光する場合、V-LED20a、B-LED20b、G-LED20c、及びR-LED20dを全て点灯させる。これにより、図12に示すように、光源装置14から、紫色光V、青色光Bx、緑色光G、及び赤色光Rを含む白色光が発せられる。白色光は、青色帯域から赤色帯域まで一定以上の強度を有しているため、ほぼ白色となっている。特定の波長帯域の光(特定光)として、440±10nmの波長帯域にピーク波長を有する特定光を発光する場合、例えば、図13に示すように、青色光Bxの発光量が、紫色光V、緑色光G、及び赤色光Rのいずれの発光量よりも大きくなる特定光が発せられる。
また、上記実施形態では、レーザ光源と蛍光体を用いて、照明光の発光を行うようにしてもよい。この場合には、図14に示すように、光源部20には、ピーク波長445±10nmの青色レーザ光を発する青色レーザ光源(「445LD」と表記。LDは「Laser Diode」を表す)104と、ピーク波長405±10nmの青紫色レーザ光を発する青紫色レーザ光源(「405LD」と表記)106とが設けられている。
照明光学系30aには、照明レンズ32の他に、ライトガイド24からの青色レーザ光又は青紫色レーザ光が入射する蛍光体110が設けられている。蛍光体110は、青色レーザ光によって励起され、蛍光を発する。また、青色レーザ光の一部は、蛍光体110を励起させることなく透過する。青紫色レーザ光は、蛍光体110を励起させることなく透過する。蛍光体110を出射した光は、照明レンズ32を介して、観察対象の体内を照明する。
ここで、白色光を発光する場合には、青色レーザ光源104が点灯して、主として青色レーザ光が蛍光体110に入射するため、図15に示すような、青色レーザ光、及び青色レーザ光により蛍光体110から励起発光する蛍光を合波した白色光が発せられる。一方、特定の波長帯域の光(特定光)として、440±10nmの波長帯域にピーク波長を有する特定光を発光する場合には、青色レーザ光源104及び青紫色レーザ光源106が点灯して、青紫色レーザ光と青色レーザ光の両方を蛍光体110に入射させる。これにより、図16に示すような、青紫色レーザ光、青色レーザ光、及び青色レーザ光により蛍光体110から励起発光する蛍光を合波した特定光が発せられる。
なお、青色レーザ光又は青紫色レーザ光の半値幅は±10nm程度にすることが好ましい。また、青色レーザ光源104及び青紫色レーザ光源106は、ブロードエリア型のInGaN系レーザダイオードが利用でき、また、InGaNAs系レーザダイオードやGaNAs系レーザダイオードを用いることもできる。また、上記光源として、発光ダイオードなどの発光体を用いた構成としてもよい。
なお、蛍光体110は、青色レーザ光の一部を吸収して、緑色~黄色に励起発光する複数種の蛍光体(例えばYAG系蛍光体、或いはBAM(BaMgAl10O17)などの蛍光体)を含んで構成されるものを使用することが好ましい。本構成例のように、半導体発光素子を蛍光体110の励起光源として用いれば、高い発光効率で高強度の白色光が得られ、白色光の強度を容易に調整できる上に、白色光の色温度、色度の変化を小さく抑えることができる。
また、上記実施形態では、キセノンランプ等の広帯域光源と回転フィルタを用いて、照明光の発光を行うようにしてもよい。この場合には、図17に示すように、光源部20には、広帯域光源202と、回転フィルタ204と、フィルタ切替部206とが設けられている。また、広帯域光源202と回転フィルタ204との間には絞り203が設けられており、この絞り203は絞り制御部205によって開口部の面積が調整される。絞り制御部205は、プロセッサ装置16からの調光信号に基づいて絞り203の制御を行う。
広帯域光源202はキセノンランプや白色LED等であり、波長域が青色から赤色に及ぶ広帯域光を発する。回転フィルタ204は、回転軸に一番近い内側に設けた通常モード用フィルタ210と、この白色光用フィルタ210の外側に設けた特定光用フィルタ212とを備えている(図18参照)。
フィルタ切替部206は、回転フィルタ204を径方向に移動する。具体的には、フィルタ切替部206は、白色光を発光する場合に、白色光用フィルタ210を広帯域光の光路に挿入する。フィルタ切替部206は、特定の波長帯域の光(特定光)を発光する場合に、特定光用フィルタ212を広帯域光の光路に挿入する。
図17に示すように、白色光用フィルタ210には、周方向に沿って、Bフィルタ210aと、Gフィルタ210bと、Rフィルタ210cとが設けられている。Bフィルタ210aは、広帯域光のうち400~500nmの波長範囲を持つ広帯域の青色光Bを透過する。Gフィルタ210bは、広帯域光のうち緑色光Gを透過する。Rフィルタ210cは、広帯域光のうち赤色光Rを透過する。したがって、白色光を発光する場合には、回転フィルタ204が回転することで、白色光として、青色光B、緑色光G、赤色光Rが順次照射される。
特定光用フィルタ212には、周方向に沿って、Bnフィルタ212aと、Gフィルタ212bとが設けられている。Bnフィルタ212aは、広帯域光のうち400~450nmの青色狭帯域光Bnを透過する。Gフィルタ212bは、広帯域光のうち緑色光Gを透過する。したがって、特定光を発光する場合には、回転フィルタ204が回転することで、特定光として、青色狭帯域光Bn、緑色光Gが、観察対象に向けて、順次照射される。
キセノンランプ等の広帯域光源と回転フィルタを用いて、照明光の発光を行う場合には、白色光の照明時には、青色光B、緑色光G、赤色光Rで観察対象を照明する毎にモノクロのイメージセンサで観察対象を撮像する。この観察対象の撮像により得られるB画像、G画像、R画像によって、白色光の成分を備える画像を生成する。また、特定光の照明時には、青色狭帯域光Bn、緑色光Gで観察対象を照明する毎にモノクロのイメージセンサで観察対象を撮像し、この撮像により得られるBn画像、G画像によって、特定光の成分を備える画像を生成する。
上記実施形態において、画像処理部61に含まれる注目領域抽出部70、診断情報判定部72、診断情報指定部74、類似画像記憶部76、診断情報修正部78、又は特定注目対象追跡部79といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウエア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA (Field Programmable Gate Array) などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、各種の処理を実行するために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
1つの処理部は、これら各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合せ(例えば、複数のFPGAや、CPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウエアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた形態の電気回路(circuitry)である。
10 内視鏡システム
12 内視鏡
12a 挿入部
12b 操作部
12c 湾曲部
12d 先端部
12e アングルノブ
12f 鉗子入口
13a ズーム操作部
13b 診断情報指定用スコープスイッチ
14 光源装置
16 プロセッサ装置
18 モニタ
19 ユーザーインターフェース
20 光源部
22 光源制御部
30a 照明光学系
30b 撮像光学系
41 ライトガイド
45 照明レンズ
46 対物レンズ
47 ズームレンズ
48 イメージセンサ
52 中央制御部
54 画像取得部
56 DSP(Digital Signal Processor)
58 ノイズ低減部
59 変換部
61 画像処理部
66 表示制御部
70 注目領域抽出部
72 診断情報判定部
74 診断情報指定部
76 類似画像記憶部
78 診断情報修正部
79 特定注目対象追跡部
80 類似画像
82 類似画像診断情報
90 第1注目対象
12 内視鏡
12a 挿入部
12b 操作部
12c 湾曲部
12d 先端部
12e アングルノブ
12f 鉗子入口
13a ズーム操作部
13b 診断情報指定用スコープスイッチ
14 光源装置
16 プロセッサ装置
18 モニタ
19 ユーザーインターフェース
20 光源部
22 光源制御部
30a 照明光学系
30b 撮像光学系
41 ライトガイド
45 照明レンズ
46 対物レンズ
47 ズームレンズ
48 イメージセンサ
52 中央制御部
54 画像取得部
56 DSP(Digital Signal Processor)
58 ノイズ低減部
59 変換部
61 画像処理部
66 表示制御部
70 注目領域抽出部
72 診断情報判定部
74 診断情報指定部
76 類似画像記憶部
78 診断情報修正部
79 特定注目対象追跡部
80 類似画像
82 類似画像診断情報
90 第1注目対象
Claims (11)
- 観察対象を撮像して得られる医療画像を取得する画像取得部と、
前記医療画像から注目対象を含む注目領域を抽出する注目領域抽出部と、
前記注目領域毎に、前記注目対象に関する診断情報を判定する診断情報判定部と、
前記注目領域と前記注目領域に対して判定された診断情報を表示する表示部と、
前記表示部において表示中の診断情報のうち第1診断情報を指定する診断情報指定部と、
前記診断情報判定部において前記第1診断情報であると判定される第1注目領域については前記表示部に表示しない制御を行う表示制御部と、を備える医療画像処理システム。 - 前記第1診断情報の指定は、前記第1診断情報の位置を指定する位置指定操作により行われる請求項1記載の医療画像処理システム。
- 前記診断情報は複数あり、
前記第1診断情報の指定は、前記表示部に対して複数の前記診断情報をそれぞれ切り替えて表示する切替表示を指示するための切替操作と、切替表示中の診断情報の中から前記第1診断情報を選択して確定する確定操作により、行われる請求項1記載の医療画像処理システム。 - 前記第1診断情報の指定に関する操作を行うためのユーザーインターフェースを有する請求項1ないし3いずれか1項記載の医療画像処理システム。
- 前記第1注目領域の画像に類似する類似画像及び前記類似画像に対して判定された診断情報である類似画像診断情報を記憶する類似画像記憶部を備え、
前記表示部は、前記類似画像及び前記類似画像診断情報を表示し、
前記診断情報指定部は、前記類似画像記憶部に記憶した前記類似画像診断情報の中から、前記第1診断情報を指定する請求項1ないし4いずれか1項記載の医療画像処理システム。 - 前記表示部は、前記類似画像及び前記類似画像診断情報を一覧表示する請求項5記載の医療画像処理システム。
- 前記第1注目領域に対して判定された前記第1診断情報を、前記第1診断情報と異なる第2診断情報に修正する診断情報修正部を有する請求項1ないし6いずれか1項記載の医療画像処理システム。
- 前記第1注目領域に含まれる第1注目対象を追跡する特定注目対象追跡部を備え、
前記表示制御部は、追跡中の第1注目対象に対しては前記第1注目領域として前記表示部に表示しない制御を行う請求項1ないし7いずれか1項記載の医療画像処理システム。 - 観察対象を撮像する内視鏡と、
前記観察対象を撮像して得られる医療画像を取得する画像取得部と、
前記医療画像から注目対象を含む注目領域を抽出する注目領域抽出部と、
前記注目領域毎に、前記注目対象に関する診断情報を判定する診断情報判定部と、
前記注目領域と前記注目領域に対して判定された診断情報を表示する表示部と、
前記表示部において表示中の診断情報のうち第1診断情報を指定する診断情報指定部と、
前記診断情報判定部において前記第1診断情報であると判定される第1注目領域については前記表示部に表示しない制御を行う表示制御部と、を備える内視鏡システム。 - 請求項1ないし8いずれか1項記載の医療画像処理システムを有する診断支援装置。
- 請求項1ないし8いずれか1項記載の医療画像処理システムを有する医療業務支援装置。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2019544482A JP6796725B2 (ja) | 2017-09-26 | 2018-09-03 | 医療画像処理システム、内視鏡システム、診断支援装置、及び医療業務支援装置 |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017184278 | 2017-09-26 | ||
| JP2017-184278 | 2017-09-26 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2019065111A1 true WO2019065111A1 (ja) | 2019-04-04 |
Family
ID=65901240
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2018/032663 Ceased WO2019065111A1 (ja) | 2017-09-26 | 2018-09-03 | 医療画像処理システム、内視鏡システム、診断支援装置、及び医療業務支援装置 |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JP6796725B2 (ja) |
| WO (1) | WO2019065111A1 (ja) |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPWO2021172288A1 (ja) * | 2020-02-26 | 2021-09-02 | ||
| WO2021205777A1 (ja) * | 2020-04-08 | 2021-10-14 | 富士フイルム株式会社 | プロセッサ装置及びその作動方法 |
| JPWO2022224859A1 (ja) * | 2021-04-23 | 2022-10-27 | ||
| WO2023058388A1 (ja) * | 2021-10-04 | 2023-04-13 | 富士フイルム株式会社 | 情報処理装置、情報処理方法、内視鏡システム及びレポート作成支援装置 |
| JP2023160260A (ja) * | 2022-04-22 | 2023-11-02 | 株式会社Aiメディカルサービス | 内視鏡画像診断支援システム |
| WO2024034253A1 (ja) * | 2022-08-12 | 2024-02-15 | 富士フイルム株式会社 | 内視鏡システム及びその作動方法 |
| WO2024166731A1 (ja) * | 2023-02-07 | 2024-08-15 | 富士フイルム株式会社 | 画像処理装置、内視鏡、画像処理方法、及びプログラム |
Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004159739A (ja) * | 2002-11-11 | 2004-06-10 | Ge Medical Systems Global Technology Co Llc | 画像処理方法および装置 |
| JP2005328977A (ja) * | 2004-05-19 | 2005-12-02 | Hitachi Medical Corp | 画像診断支援装置及び方法 |
| JP2008036028A (ja) * | 2006-08-03 | 2008-02-21 | Olympus Medical Systems Corp | 画像表示装置 |
| JP2010213760A (ja) * | 2009-03-13 | 2010-09-30 | Toshiba Corp | 画像処理装置および画像処理プログラム |
| JP2011255006A (ja) * | 2010-06-09 | 2011-12-22 | Olympus Corp | 画像処理装置、内視鏡装置、プログラム及び画像処理方法 |
| JP2013153883A (ja) * | 2012-01-27 | 2013-08-15 | Canon Inc | 画像処理装置、撮影システム及び画像処理方法 |
| WO2016199273A1 (ja) * | 2015-06-11 | 2016-12-15 | オリンパス株式会社 | 内視鏡装置及び内視鏡装置の作動方法 |
| JP2016214312A (ja) * | 2015-05-14 | 2016-12-22 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
-
2018
- 2018-09-03 WO PCT/JP2018/032663 patent/WO2019065111A1/ja not_active Ceased
- 2018-09-03 JP JP2019544482A patent/JP6796725B2/ja active Active
Patent Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2004159739A (ja) * | 2002-11-11 | 2004-06-10 | Ge Medical Systems Global Technology Co Llc | 画像処理方法および装置 |
| JP2005328977A (ja) * | 2004-05-19 | 2005-12-02 | Hitachi Medical Corp | 画像診断支援装置及び方法 |
| JP2008036028A (ja) * | 2006-08-03 | 2008-02-21 | Olympus Medical Systems Corp | 画像表示装置 |
| JP2010213760A (ja) * | 2009-03-13 | 2010-09-30 | Toshiba Corp | 画像処理装置および画像処理プログラム |
| JP2011255006A (ja) * | 2010-06-09 | 2011-12-22 | Olympus Corp | 画像処理装置、内視鏡装置、プログラム及び画像処理方法 |
| JP2013153883A (ja) * | 2012-01-27 | 2013-08-15 | Canon Inc | 画像処理装置、撮影システム及び画像処理方法 |
| JP2016214312A (ja) * | 2015-05-14 | 2016-12-22 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
| WO2016199273A1 (ja) * | 2015-06-11 | 2016-12-15 | オリンパス株式会社 | 内視鏡装置及び内視鏡装置の作動方法 |
Cited By (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPWO2021172288A1 (ja) * | 2020-02-26 | 2021-09-02 | ||
| WO2021172288A1 (ja) * | 2020-02-26 | 2021-09-02 | 富士フイルム富山化学株式会社 | 薬剤識別装置 |
| JP7282978B2 (ja) | 2020-02-26 | 2023-05-29 | 富士フイルム富山化学株式会社 | 薬剤識別装置 |
| WO2021205777A1 (ja) * | 2020-04-08 | 2021-10-14 | 富士フイルム株式会社 | プロセッサ装置及びその作動方法 |
| JPWO2021205777A1 (ja) * | 2020-04-08 | 2021-10-14 | ||
| CN115397303A (zh) * | 2020-04-08 | 2022-11-25 | 富士胶片株式会社 | 处理器装置及其工作方法 |
| JP7447243B2 (ja) | 2020-04-08 | 2024-03-11 | 富士フイルム株式会社 | プロセッサ装置及びその作動方法 |
| JPWO2022224859A1 (ja) * | 2021-04-23 | 2022-10-27 | ||
| WO2023058388A1 (ja) * | 2021-10-04 | 2023-04-13 | 富士フイルム株式会社 | 情報処理装置、情報処理方法、内視鏡システム及びレポート作成支援装置 |
| JP2023160260A (ja) * | 2022-04-22 | 2023-11-02 | 株式会社Aiメディカルサービス | 内視鏡画像診断支援システム |
| WO2024034253A1 (ja) * | 2022-08-12 | 2024-02-15 | 富士フイルム株式会社 | 内視鏡システム及びその作動方法 |
| WO2024166731A1 (ja) * | 2023-02-07 | 2024-08-15 | 富士フイルム株式会社 | 画像処理装置、内視鏡、画像処理方法、及びプログラム |
Also Published As
| Publication number | Publication date |
|---|---|
| JPWO2019065111A1 (ja) | 2020-10-22 |
| JP6796725B2 (ja) | 2020-12-09 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US10959606B2 (en) | Endoscope system and generating emphasized image based on color information | |
| JP6785941B2 (ja) | 内視鏡システム及びその作動方法 | |
| JP6796725B2 (ja) | 医療画像処理システム、内視鏡システム、診断支援装置、及び医療業務支援装置 | |
| US11426054B2 (en) | Medical image processing system, endoscope system, diagnosis support apparatus, and medical service support apparatus | |
| US10891737B2 (en) | Medical image processing device, endoscope system, diagnosis support device, and medical service support device | |
| US10231658B2 (en) | Endoscope system, processor device for endoscope system, operation method for endoscope system, and operation method for processor device | |
| JP6538634B2 (ja) | プロセッサ装置及び内視鏡システム並びにプロセッサ装置の作動方法 | |
| JP6924837B2 (ja) | 医療画像処理システム、内視鏡システム、診断支援装置、並びに医療業務支援装置 | |
| JP6763025B2 (ja) | プロセッサ装置及びプロセッサ装置の作動方法 | |
| JPWO2017057414A1 (ja) | 画像処理装置、内視鏡システム、及び画像処理方法 | |
| US20180206738A1 (en) | Endoscope system and method of operating endoscope system | |
| US20190223690A1 (en) | Processor device, endoscope system, and method of operating processor device | |
| JP6850358B2 (ja) | 医療画像処理システム、内視鏡システム、診断支援装置、及び医療業務支援装置 | |
| WO2018159082A1 (ja) | 内視鏡システム、プロセッサ装置、及び、内視鏡システムの作動方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 18862913 Country of ref document: EP Kind code of ref document: A1 |
|
| ENP | Entry into the national phase |
Ref document number: 2019544482 Country of ref document: JP Kind code of ref document: A |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 18862913 Country of ref document: EP Kind code of ref document: A1 |