[go: up one dir, main page]

WO2005011501A1 - 医用画像診断支援装置及び方法 - Google Patents

医用画像診断支援装置及び方法 Download PDF

Info

Publication number
WO2005011501A1
WO2005011501A1 PCT/JP2004/010835 JP2004010835W WO2005011501A1 WO 2005011501 A1 WO2005011501 A1 WO 2005011501A1 JP 2004010835 W JP2004010835 W JP 2004010835W WO 2005011501 A1 WO2005011501 A1 WO 2005011501A1
Authority
WO
WIPO (PCT)
Prior art keywords
organ
lesion
cross
image
calculating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2004/010835
Other languages
English (en)
French (fr)
Inventor
Takashi Shirahata
Yoshihiro Goto
Toru Nakagawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Healthcare Manufacturing Ltd
Original Assignee
Hitachi Medical Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Medical Corp filed Critical Hitachi Medical Corp
Priority to US10/566,666 priority Critical patent/US7894646B2/en
Priority to JP2005512511A priority patent/JP4416736B2/ja
Publication of WO2005011501A1 publication Critical patent/WO2005011501A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data

Definitions

  • the present invention relates to a medical image diagnostic apparatus (including an MRI apparatus, an X-ray CT apparatus, and an ultrasonic diagnostic apparatus) that supports image diagnosis using medical images obtained from a medical apparatus. More particularly, the present invention relates to a medical image diagnosis support apparatus that supports diagnosis of an organ part having a different shape depending on the condition of a subject.
  • the virtual endoscope disclosed in Patent Document 1 provides an image equivalent to an endoscope using data of an X-ray CT image, and thus the endoscope is applied to a tubular organ site of a patient. Since the need for intubation is eliminated, the problem of the burden on the patient is eliminated.
  • Patent Document 1 JP-A-2002-238887
  • a medical image diagnosis support apparatus of the present invention includes an organ part setting unit that sets an organ part of a medical image of a subject obtained by the medical image apparatus, and an organ part setting unit that sets the organ part.
  • Deformation degree calculating means for calculating the degree of deformation of the organ part obtained
  • reference value storage means for storing an index of the degree of deformation of the organ part as a reference value
  • a reference value stored by the reference value storage means Comparing with the degree of deformation calculated by the degree of deformation calculating means.
  • a lesion discriminating means for discriminating the presence of a lesion at the organ site having the comparison result, and notifying the examiner of at least one of visual and auditory senses of the existence of the lesion at the organ site determined by the lesion discriminating device. Notification means.
  • the efficiency of diagnosis can be improved.
  • the reference value storage unit stores a plurality of templates according to the degree of deformation of the organ part.
  • the comparison target with a plurality of templates becomes clear, and it becomes easy for the examiner to grasp the progress of the lesion.
  • the deformation degree calculating means includes a cross-sectional image calculating means for calculating a cross-sectional image orthogonal to a body axis direction of the organ part, and the cross-sectional image calculating means.
  • the calculated cross-sectional image power is provided with an extraction means for extracting the lumen and the outside of the organ part, and the degree of deformation of the lumen and the outside of the organ part extracted by the extraction means is calculated.
  • a prominent lesion such as a tumor or stenosis appearing in the lumen of the organ site can be detected.
  • the notifying unit notifies the examiner's vision by displaying the presence of the lesion determined by the determining unit in color.
  • the visual notification of the examiner displays a cross-sectional image of the organ part set by the organ part setting means, and a lesion candidate determined by the lesion determining means on the cross-sectional image. Highlight the part.
  • the notifying means notifies the examiner's hearing by outputting the state determined by the determining means by sound or voice.
  • the examiner can auditorily identify the state by sound or voice, and thus can easily determine a lesion.
  • a cross-section extracting means for extracting a cross-section of a feature quantity of a luminal organ in a tomographic image obtained by the medical image apparatus and a cross-section thereof, Means for calculating physical quantities including the radius, circularity, and center of gravity of the luminal organ in the cross section of the luminal organ extracted by the above, and a region of interest calculation for calculating a region of interest based on the physical quantity calculated by the physical quantity calculating means Means for generating a three-dimensional image of a luminal organ from a tomographic image including a luminal organ cross-section extracted by the cross-section extracting means in the region of interest calculated by the region of interest calculation means And image display means for displaying the three-dimensional image created by the three-dimensional image creation means.
  • the organ region is appropriately extracted based on the set threshold value, and a more accurate three-dimensional image can be formed from the extracted organ region.
  • the image processing apparatus further comprises a skeleton calculating means for calculating a skeleton of the luminal organ based on a center of gravity of a cross section of the luminal organ calculated by the physical quantity calculating means,
  • the display means displays the skeleton calculated by the skeleton calculation means and the three-dimensional image created by the three-dimensional image creation means.
  • the medical image diagnosis support method of the present invention includes an organ part setting step of setting an organ part of a medical image of a subject obtained by a medical imaging device, and an organ part setting step.
  • a lesion determining step of comparing the degree of deformation calculated in the degree of deformation calculating step and determining the presence of a lesion in the organ part with the result of the comparison; and the presence of a lesion in the organ part determined in the lesion determining step. Notifying the examiner of at least one sense of sight and hearing.
  • FIG. 1 is a block diagram showing an example of a medical image display device common to each embodiment of the present invention.
  • FIG. 4 is an explanatory view of step S32 in FIG. 3.
  • FIG. 5 is an explanatory view of step S33 in FIG. 3.
  • FIG. 6 is an explanatory view of step S34 in FIG. 3.
  • FIG. 7 is an explanatory view of step S35 in FIG. 3.
  • FIG. 8 is an explanatory diagram of step S36 in FIG. 3.
  • FIG. 10 is an explanatory diagram of step S92 in FIG. 9.
  • FIG. 11 is an explanatory view of step S93 in FIG. 9.
  • FIG. 12 is an explanatory diagram of step S93 different from FIG. 11;
  • FIG. 13 is an explanatory diagram of step S95 in FIG. 9.
  • FIG. 14 is a view for explaining the principle of extracting a lesion.
  • FIG. 15 is a block diagram showing a detailed example of the controller in FIG. 1 for explaining the third and fourth embodiments.
  • FIG. 17 is a flowchart illustrating step S165 in FIG. 16.
  • FIG. 18 is a principle diagram illustrating step S165 in FIG. 16.
  • FIG. 19 is a flowchart illustrating step S166 in FIG. 16.
  • FIG. 20 is a principle diagram illustrating step S166 in FIG. 16.
  • FIG. 22 is a diagram for explaining an example of a determination process of a lesion process.
  • FIG. 23 is a view for explaining an example of the circularity processing in FIG. 22.
  • FIG. 24 is a diagram showing an example of image display.
  • FIG. 25 is a diagram showing a display modification of the image 241 in FIG. 24.
  • FIG. 26 is a flowchart illustrating an operation example of the fifth embodiment.
  • FIG. 27 is a view showing a display example of the fifth embodiment.
  • FIG. 28 is a schematic diagram illustrating the operation of the sixth embodiment.
  • FIG. 29 is a flowchart illustrating an operation example of the sixth embodiment.
  • FIG. 30 is a diagram showing an example of a medical image display method according to the seventh embodiment.
  • FIG. 31 is a flowchart illustrating the operation of the first embodiment of the present invention.
  • FIG. 32 is an explanatory view of step 312 in FIG. 31.
  • FIG. 33 is an explanatory view of step 313 in FIG. 31.
  • FIG. 34 is an explanatory view of step 313 in FIG. 31.
  • FIG. 35 is an explanatory view of step 322 in FIG. 31.
  • FIG. 36 is a display example of an extraction result according to the seventh embodiment of the present invention.
  • FIG. 37 is a view showing various ROI shapes.
  • FIG. 38 is a view for explaining a method of setting a variable ROI setting threshold.
  • FIG. 39 is a diagram showing the order in which bronchial branches and branch points are extracted according to the seventh embodiment of the present invention.
  • FIG. 40 is a diagram showing the order in which bronchial branches and branch points are extracted according to the eighth embodiment of the present invention.
  • FIG. 42 is an explanatory view of an eleventh embodiment of the present invention.
  • FIG. 43 is an explanatory view of an eleventh embodiment of the present invention.
  • FIG. 1 is a block diagram showing an example of a medical image display device common to each embodiment of the present invention.
  • the medical image display apparatus includes a CPU 11, a display memory 12, a CRT 13, a main memory 14, a speed 15, a magnetic disk 16 electrically connected to the CPU 11 via a data transfer bus 1C, respectively.
  • Controller 17, mouse 18, keyboard 19, local area network It has a work (LAN) 1A and a modality IB electrically connected to the LAN 1A.
  • the CPU 11 controls the display memory 12, the CRT 13, the main memory 14, the speakers 15, the magnetic disk 16, the controller 17, the mouse 18, and the keyboard 19, which are components electrically connected to the data transfer bus 1C,
  • the display memory 12 that controls data transmission to the LAN 1A and data reception from the LAN 1A temporarily stores image data to be displayed and output on the CRT 13.
  • the CRT 13 is a display device that reads out image data stored in the display memory 12 and displays the image data.
  • various displays such as a plasma and a liquid crystal, which exemplify a CRT, are also included in the display device.
  • the main memory 14 stores data to be processed by the CPU 11, and stores programs to be executed by the CPU 11.
  • the loudspeaker 15 has a storage unit (not shown) for storing audio data for audio output, and is capable of reading audio data stored in the storage unit to generate audio.
  • the magnetic disk 16 stores data to be processed by the CPU 11 and stores a program to be executed by the CPU 11, similarly to the main memory 14, and is an external storage device having a larger storage capacity than the main memory 14.
  • media such as CDs, MDs, and DVDs and RAM disks may be replaced or shared as external storage devices!
  • the controller 17 has a function of measuring the shape of the organ site and determining the presence of a lesion from the measured shape of the organ site, which will be described later in detail with reference to FIG.
  • the mouse 18 is used to designate an arbitrary area of the image displayed on the examiner's screen CRT12, or to select and input a button displayed on the screen of the CRT11.
  • the keyboard 19 has the same functions as the mouse 18 and mainly inputs character information such as a patient ID.
  • the LAN 1A is network equipment installed in a hospital, for example.
  • This network facility may be a wide area network through a dedicated line or the Internet.
  • Modality 1B is a medical image diagnostic device such as an X-ray device, X-ray CT device, MRI device, and ultrasound device.
  • an X-ray CT apparatus is exemplified.
  • Data transfer bus 1C is a standardized PCI (Peripheral Component
  • USB Universal Serial
  • FIG. 2 is a block diagram showing a detailed example of the controller of FIG. 1 for explaining the first and second embodiments.
  • the tubular organ site is the bronchus.
  • the controller 17 is electrically connected to the bronchus bifurcation detecting unit 20 electrically connected to the mouse 18, the keyboard 19, and the main memory 14, and to the bronchus bifurcation detecting unit 20 and the main memory 14.
  • the branch section image creating section 21 is connected to the branch section section
  • the branch section image storage section 22 is electrically connected to the branch section image creating section 21, and is electrically connected to the branch section image storage section 22. It has a distance measurement unit 23, a distance information storage unit 24 electrically connected to the distance measurement unit 23, and a normal Z abnormality determination unit 25 electrically connected to the distance information storage unit 24.
  • the bronchial bifurcation detecting unit 20 is stored in a modality 18 input medical image or a bronchial extracted image obtained by extracting a bronchial region from a medical image, or an external storage device such as the main memory 14 or the magnetic disk 16. Using the medical image and the extracted image, the bifurcation of the bronchi is detected. The detection may be performed manually by an operator using an input device such as a mouse 18 or the like, and the branch coordinates, which are stored in the main memory 14 or an external storage device and determined in advance, may be used. You can use it.
  • the bifurcation cross-section image creating unit 21 has a medical image stored in the main memory 14 or the like! /, Is a bronchial region extraction image force, and creates a cross-sectional image of a bronchial bifurcation.
  • the bifurcation cross-section image storage unit 22 stores the bronchial bifurcation cross-section image created by the bifurcation cross-section image creation unit 21.
  • the distance value measurement unit 23 measures the distance between the bronchi after branching using the bronch bifurcation cross-sectional image stored in the bifurcation cross-sectional image storage unit.
  • the distance information storage unit 24 stores distance information between the bronchi after branching measured by the distance value measurement unit 23.
  • the normal Z abnormality judging unit 25 judges whether the shape of the bifurcation is normal or abnormal based on the distance information between the two bronchus stored in the distance information storage unit 24 by referring to a reference value (template). And displays on the CRT13 whether it is normal or abnormal based on the judgment result of the branching part shape.
  • the template refers to a normal template created from distance information based on normal cases without lesions, a mild template created from distance information based on cases with mild lesions, and moderate lesions.
  • a plurality of templates are stored as a reference, such as a mediopathy template created based on the distance information based on the case to be created, and a severe template created from distance information based on the case where a severe lesion is observed. Then, the force that is close to the template is the judgment result.
  • the force in the middle is obtained by interpolating the data of the normal, mild, moderate, and severe templates. For example, if there is mild or moderate disease, it will be classified as mild or moderate.
  • FIG. 3 is a flowchart for explaining an operation example of the first embodiment
  • FIGS. 4 to 8 are explanatory diagrams of steps S31 to S36 in FIG. 3, respectively.
  • the examiner operates the mouse 18 and the like, and inputs the medical image data read from the main memory 14 to the controller 17.
  • the operator operates the mouse 18 and the like, and inputs information on the bronchial bifurcation at the main memory 14 to the controller 17.
  • the branch part information is the coordinates of the branch part and the direction vector of the branch part.
  • the direction vector of the bifurcation is a vector indicating the running direction of the bronchus immediately before bifurcation, as indicated by arrow 41 in FIG.
  • the controller 17 Based on the input medical image data and bronchial bifurcation information, the controller 17 creates several cross-sectional images orthogonal to the direction vector of the bifurcation, such as the cross-sectional image group 42 in FIG.
  • the controller 17 calculates the distance between the bronchial regions in the created cross-sectional image.
  • the distance may be the minimum distance between the borders of the bronchial region! The distance between them may be 55.
  • the controller 17 creates a graph with respect to the cross-sectional image position of the interbronchial distance as shown in FIG. 6 using the interbronchial distance data.
  • the controller 17 determines whether the shape of the bronchial bifurcation is normal or abnormal based on the created graph. If it is normal, it will have a sharp shape like curves 60 and 61 in Fig. 6. On the other hand, if there is a lesion such as a tumor, the shape is spread as shown by a curve 62. As shown in Fig. 7, a reference curve 70 (normal template) is set. If the curve 71 of the created graph is wider than the reference curve 70, it is determined to be a lesion candidate, and if the curve 71 is inside the reference curve. If it is normal.
  • the area ratio r between the area of the area surrounded by the curve 71 indicating the obtained interbronchial distance and the area 72 protruding outside the area 70 is calculated. Also, a threshold T for determining the normal Z abnormality of the area ratio r is set. If the calculated area ratio r exceeds the threshold T, the shape is determined to be abnormal, and if the obtained area ratio r does not exceed the threshold T, the shape is determined to be normal.
  • the reference curve and the threshold T are statistically calculated quantities obtained from a large number of clinical data.
  • the threshold value T may be arbitrarily set with the input device of the mouse 18 or the keyboard 19.
  • the controller 17 When it is determined that the bifurcation is deformed due to the lesion, the controller 17 highlights the bifurcation of the bronchus 81 with a circle 82 on the cross-sectional image of interest 80 as shown in FIG. Call attention. Further, in the mode of highlighting, instead of the circle 82, only the branch portion may be colored and displayed.
  • a branch portion having a lesion candidate may be displayed in a different color in advance.
  • a sound or sound may be output to notify the examiner when the viewpoint of the virtual endoscope passes near the bifurcation.
  • both coloring and sounding may be performed.
  • FIG. 10 is an explanatory diagram of step S92 in FIG. 9
  • FIGS. 11 and 12 are explanatory diagrams of step S93 in FIG. 9, and
  • FIG. It is an explanatory view of step S95.
  • the operator operates the mouse 18 or the like, and inputs the medical image data from which the main memory 14 is also read to the controller 17.
  • the operator operates the mouse 18 and the like, and inputs the information of the main memory 14 and the bronchial bifurcation to the controller 17.
  • the branch part information is the coordinates of the branch part and the direction vector of the branch part.
  • the controller 17 creates a cross-sectional image 101 including a direction vector 100 of the bifurcation as shown in FIG. 10 based on the input medical image data and bronchus bifurcation information.
  • the controller 17 calculates a distance 112 from the reference point 111 to each point of the bronchial bifurcation in the created cross-sectional image 110.
  • the distance calculated here may be the distance 122 measured perpendicular to the reference line 121 as shown in FIG.
  • the controller 17 uses the interbronchial distance data to calculate a curve plotting the distance from the reference for each point of the bronchial bifurcation as shown in FIG.
  • the controller 17 determines whether the shape of the bronchial bifurcation is normal or a lesion candidate based on the created curve.
  • a reference curve 130 is set as shown in FIG. 13, and if the curve 131 of the created graph extends outside the reference curve 130, it is determined to be a lesion candidate, and if the curve 131 is inside the reference curve, it is determined to be normal.
  • the area ratio r between the area of the area surrounded by the curve 131 indicating the obtained distance and the area 132 protruding outside the area 130 is calculated.
  • a threshold value T for determining a normal Z lesion candidate having the area ratio r is set.
  • the reference curve and the threshold are quantities calculated statistically.
  • the threshold value T may be arbitrarily set by the input device of the mouse 18 or the keyboard 19.
  • the controller 17 highlights the bronchial bifurcation with a circle on the cross-sectional image of interest to call the doctor's attention. Also, the mode of the highlighting may be such that only the branch portion is colored instead of the circle.
  • a branch portion having an abnormality may be displayed in a different color in advance.
  • a sound or a sound may be output to notify the examiner when the viewpoint of the virtual endoscope passes near the bifurcation.
  • both coloring and sound output may be performed.
  • a lesion candidate formed in a bronchial bifurcation can be found.
  • FIG. 15 is a block diagram showing a detailed example of the controller of FIG. 1 for explaining the third and fourth embodiments.
  • the controller 17 includes a luminal organ extracting unit 150 electrically connected to the mouse 18, the keyboard 19 and the main memory 14, and a mouse 18, the keyboard 19 and the luminal organ extracting unit 150.
  • the attention area setting section 151 electrically connected, the luminal organ cross-section image creation section 152 electrically connected to the attention area setting section 151, and electrically connected to the luminal organ cross-section image creation section 152 It has a lesion candidate detection unit 153 and a lesion candidate detection result storage unit 154 electrically connected to the lesion candidate detection unit 153.
  • the luminal organ extracting unit 150 extracts the luminal organ of interest from the medical image input through the main memory 14 or the like with the modality 1B.
  • the attention area setting unit 151 sets a range in which the lesion candidate detection processing is performed on the luminal organ extraction result. This setting process may be performed arbitrarily by the examiner operating the mouse 18 or the like while looking at the CRT 13, or the entire extracted region may be set as the region of interest.
  • the luminal organ cross-sectional image creating unit 152 creates a cross-sectional image orthogonal to the longitudinal direction blood vessel or intestinal tract of the luminal organ at each point in the extracted luminal region.
  • the lesion candidate detection unit 153 performs a lesion candidate detection process on the luminal organ cross-sectional image created by the luminal organ cross-sectional image creation unit 152.
  • the lesion candidate detection processing will be described later with reference to FIGS.
  • the lesion candidate detection result storage unit 154 stores the coordinates of the lesion candidate detected by the above-described lesion candidate detection processing, and displays the coordinates on the CRT 13.
  • FIG. 16 is a flowchart for explaining an operation example of the third embodiment
  • FIGS. 17 and 18 are flowcharts and a principle diagram for explaining step S165 in FIG. 16, respectively
  • FIGS. 19 and 20 are for explaining step S166 in FIG. It is a flowchart and principle diagram which perform.
  • the operator operates the mouse 18 or the like, and inputs the medical image data from which the main memory 14 is also read to the controller 17.
  • the controller 17 extracts the input medical image data, the trachea and the bronchial region.
  • the data obtained by extracting the tracheal Z bronchial region is stored in the main memory 14 or the like in advance, the extraction process may be omitted and the stored data may be input to the controller 17.
  • the operator operates the mouse 18 or the like, and sets a range in which the lesion candidate detection processing is performed in the extracted trachea Z bronchial region.
  • the set range indicates a part or the whole of the extracted trachea Z bronchial region.
  • the controller 17 causes the luminal organ cross-sectional image generation unit 152 to generate a cross-sectional image orthogonal to the traveling direction of the trachea Z bronchus within the set attention range.
  • the controller 17 converts the cross-sectional image created by the lumen organ cross-sectional image Two-valued dangling is performed on the region.
  • a pixel value of 1 is assigned to a pixel in the tracheal Z bronchial lumen region, and a pixel value of 0 is assigned to other pixels.
  • the outline of the trachea Z bronchial region is an ellipse close to a circle if it is normal, and there is a protruding portion inside if there is a prominent lesion such as a tumor or stenosis Can be determined.
  • the controller 17 performs a lesion candidate detection process (I) on the trachea Z bronchi cross-sectional image that has been subjected to the binarization process.
  • the operator sets points at regular intervals on the periphery of the tracheal Z bronchial region.
  • the controller 17 connects two points among the points set on the periphery of the trachea Z bronchial region with a line segment. Here, two adjacent points must be connected with a line segment! / ,.
  • the controller 17 calculates the sum (sum) of the pixel values of each pixel on the line segment. (Step S173)
  • step S170 all of the trachea Z With respect to the combination of the above two points, it is determined whether or not the force for which the determination processing of the sum of the pixel values on the line segment has been completed. If not completed, the process returns to step S171, and if completed, the area surrounded by the coordinates stored in step S174 is detected as a lesion candidate area.
  • the controller 17 After the completion of the lesion candidate detection process (I), the controller 17 performs a lesion candidate detection process (II).
  • the operator sets points at regular intervals on the periphery of the tracheal Z bronchial region.
  • the controller 17 calculates a normal vector perpendicular to the tangent to the tracheal Z bronchial margin at each point set at the predetermined interval.
  • the direction of the normal vector is directed to the internal force of the trachea Z bronchus.
  • the operator sets a reference direction vector in the trachea Z bronchus section.
  • the reference direction vector is determined in any direction in the trachea Z bronchial cross section.
  • the controller 17 calculates an angle between the reference direction vector and each of the normal vectors.
  • the angle calculation is, for example, as shown in FIG. 20, the angle between the reference direction vector 201 arbitrarily determined with respect to the bronchial section 200 and the normal vector 202 of interest with the force of the reference direction vector 201 being counterclockwise. 203.
  • the angle may be calculated clockwise as a matter of course, but all normal vectors are unified to either counterclockwise or clockwise. (Step S 194)
  • the controller 17 calculates a change in the angle of the measured reference direction vector force between adjacent normal vectors.
  • the two normal vectors of interest both protrude into the normal part, that is, into the trachea Z bronchus. If you look at the normal vector in a counterclockwise direction, The magnitude relationship of the measured angles is (angle 206) ⁇ (angle 207), and the angle change shows an increasing tendency.
  • the magnitude relationship of the measured angles is (angle 20A)> (angle 20B) as shown by the normal vectors 208 and 209, and the angle change shows a decreasing tendency. It is possible to detect a lesion candidate from the difference in the angle change.
  • the process proceeds to step S196, and when the angle change indicates an increasing trend, the process proceeds to step S197.
  • the controller 17 stores the coordinates of a portion where the angle change shows a decreasing tendency as a lesion candidate. If the measurement of the angle change has not been completed for all the adjacent normal vectors, the controller 17 returns to step S194. If the measurement has been completed, the controller 17 replaces the area surrounded by the coordinates stored in step S195 with the lesion candidate area. Detected as
  • the controller 17 calculates the logical product of the result obtained by the lesion candidate detection process (I) and the result obtained by the lesion candidate detection process (II). By this calculation, only the region detected as a lesion candidate in both the lesion candidate detection process (I) and the lesion candidate detection process (II) remains, and the remaining region is detected as a lesion candidate region.
  • the controller 17 highlights the detected lesion candidate area and displays it on the CRT 13.
  • the candidate lesion area of the tracheal Z bronchi cross-sectional image may be displayed with a circle.
  • an arrow or the like instead of the circle.
  • only the lesion candidate area may be colored and displayed.
  • the controller 17 determines whether or not the pre-lesion candidate detection processing has been completed for all the points in the attention area set in step S162. If not, the process returns to step S163.
  • a trachea Z can be formed inside a luminal organ such as a bronchi, a bronchus, a blood vessel, or an intestine from a medical image such as a CT or an MR without performing observation using an endoscope or a virtual endoscope. Lesions can be detected.
  • FIG. 21 is a flowchart illustrating the operation of the fourth embodiment.
  • Step S160 Step S166 and Step S210—Step S216 up to this point are common, so the description of those common parts will be omitted, and only the differences will be described.
  • the controller 17 calculates the logical sum of the detection result of the lesion candidate detection process (I) and the detection result of the lesion candidate detection process ( ⁇ ). By this OR operation, all the lesion candidates detected by the lesion candidate detection process (I) and the lesion candidate detection process ( ⁇ ) are obtained as detection results. (Step S218)
  • the controller 17 emphasizes and displays the lesion candidate region on the CRT 13 by the detected lesion candidate detection process (I) and the lesion candidate detection process ( ⁇ ).
  • a lesion candidate area portion of the cross-sectional image of the trachea Z bronchus may be circled.
  • marking may be performed using arrows or the like.
  • only the lesion candidate area may be displayed in color.
  • the controller 17 after detecting a prominent lesion in a luminal organ, the controller 17 then determines the type of the lesion, such as polyp or stenosis, for the detected lesion candidate. May be performed. The process of determining the type of lesion will be described with reference to FIGS.
  • the controller 17 calculates an outline of a lesion site with respect to a luminal organ cross-sectional image 220 having a lesion such as a polyp or a stenosis.
  • the outline of the lesion site may be, for example, a line segment 223 connecting the lesion region end points 221 and 222.
  • the lesion area is 224.
  • the contour line 22B and the lesion region 22C of the lesion site may be obtained by performing interpolation processing such as spline interpolation using points 225, 226, 227, 228, 229, and 22A on the luminal organ contour near the lesion region.
  • FIG. 22 the method of performing spline interpolation using six points has been described.
  • the number of points to be used may be set arbitrarily.
  • the lesion area 224 or 22C is extracted.
  • the controller 17 calculates how close the extracted lesion area is to a circle using an amount called circularity.
  • the circularity C is given by, for example, Expression (1) using the area S of the lesion area and the length R of the outer circumference.
  • the circularity C is 1 in a perfect circle, and the value becomes smaller as the shape becomes more complicated. Therefore, a threshold T is set, and if C> T, it is determined that the lesion is a nearly circular lesion such as polyp, and if C ⁇ T, it is determined that the lesion is a lesion such as stenosis.
  • the circularity described above may use the following amount in addition to the circularity.
  • the controller 17 calculates the major axis 232 (length LL) for the lesion area 231 in FIG.
  • the longest line segment orthogonal to the long axis 232 and connecting the edges of the lesion area 231 is defined as the short axis 233 (length Ls).
  • the controller 17 obtains the ratio LLZ Ls of the calculated length of the major axis and the minor axis, and if the ratio with respect to the threshold T is the ratio LLZ Ls T, a lesion close to a circular shape such as a polyp is determined, and the ratio LLZ Ls> If T, it is determined to be a lesion such as stenosis.
  • the controller 17 may perform an emphasis process according to the type of the lesion on the determined lesion site and display the same on the CRT 13. For example, the controller 17 gives a red circle for a polyp, and gives a blue circle for a stenosis, and displays it on the CRT 13. The controller 17 may, of course, indicate the lesion site with a color-coded arrow instead of the circle, or may directly color the lesion region and display it on the CRT 13.
  • the logical product of the results of the lesion candidate detection processing (I) and the lesion candidate detection processing (II) is calculated. As a result, oversight of lesion candidates can be reduced.
  • the logical sum of the results of the lesion candidate detection processing (I) and the lesion candidate detection processing ( ⁇ ) is calculated. This makes it possible to detect lesion candidates with high accuracy.
  • the lesion candidate detection process (I) and the lesion candidate detection process (II) may be used in combination by a logical product, a logical sum, or the like as shown in the third embodiment and the fourth embodiment. , And, of course, each may be used alone. The user may use different methods according to the purpose, such as whether the user wants to increase the accuracy of lesion candidate detection or reduce oversight.
  • Lesion candidate The operator can freely select the logical product or logical sum of the detection process (I) and the lesion candidate detection process (II), or either one of them, using the display options 240 in Fig. 24. .
  • the controller 17 displays the result images 241 to 244 according to the lesion candidate detection processing method selected by the operator.
  • the resulting image 241 is a three-dimensional image of the trachea Z bronchus that has been extracted in a rough manner.
  • regions detected as lesion candidates by the above-described lesion candidate detection processing are displayed as colored lines 245-247.
  • the three-dimensional image 241 can be rotated and displayed at any angle.
  • the operator operates the mouse 18 or the like to select one of the lesion candidates 245-247 displayed on the three-dimensional image 241.
  • the display images 242 and 243 display a virtual endoscopic image and a cross-sectional image of the selected lesion candidate site.
  • the cross-sectional image 243 has been subjected to the image enhancement processing 248 described in step S168 of the third embodiment and step S218 of the fourth embodiment.
  • the display / non-display of the image enhancement processing 248 can be switched.
  • the operator can enlarge and display the vicinity of the candidate lesion in the cross-sectional image 243.
  • the enlarged image may be displayed as it is at the position of the cross-sectional image 243, or may be displayed in the image display area 244.
  • the currently displayed virtual endoscope image 242 (referred to as a forward virtual endoscope image) and the reverse of the viewpoint rotated by 180 degrees are displayed. It is possible to display the virtual endoscope image in the direction.
  • the reverse virtual endoscope image may be displayed at the position of the forward virtual endoscope image 242, or may be displayed in the image display area 244.
  • the lesion candidate detection result is displayed in order by operating the scroll bar 24C. You may do so.
  • the numerical value displayed in the numerical display area at the top of the scroll bar indicates the number of the currently displayed lesion candidate. Even if the number corresponding to the numerical value displayed in the numerical value display area is displayed in advance at the lesion candidate position on the 3D image 241 However, the lesion candidate position 245 corresponding to the numerical value currently displayed in the numerical display area may be represented by a different color line from the other lesion candidates 246 and 247.
  • the operator operates the scroll bar 24D and the scroll bar 24E by operating the mouse 18 and the like, and can set the window level and the window width of the sectional image 243.
  • the set window level and window width values are displayed in the numerical display area above each scroll bar.
  • a section 245, a section 246, and a section 247 may be displayed as shown in FIG.
  • a trachea Z can be formed inside a luminal organ such as a bronchus, a blood vessel, or an intestine from a medical image such as a CT or MR without performing observation using an endoscope or a virtual endoscope. Lesions can be detected. This has the effect of reducing the burden on the physician and, at the same time, reducing oversight of the lesion.
  • the examiner When using a virtual endoscope to check the position and size of a lesion with respect to a lesion candidate detected by any of the first to fourth embodiments, the examiner is notified of the presence or absence of the lesion. Is also good.
  • the controller 17 colors the lesion area on the displayed virtual endoscope image.
  • the examiner turns the viewpoint toward the lesion immediately before and after the viewpoint passes through the lesion portion, and changes the viewpoint direction after passing through the lesion. Undo.
  • FIG. 26 is a flowchart showing the operation of the present embodiment. Each step will be described below.
  • a lesion area is detected by using any one of the lesion detection methods described in the first to fourth embodiments, and information on their positions is stored.
  • the viewpoint is advanced while creating a virtual endoscopic image by virtual endoscopy using the stored position information.
  • the operator initializes the viewpoint position of the virtual endoscope.
  • the initialization is the setting of the start position when performing observation with a virtual endoscope.
  • the start position is set, for example, by the operator using an input device such as a mouse 18 and clicking one point in a luminal organ to be observed on a tomographic image such as a CT or MR.
  • the CPU 11 creates a virtual endoscope image.
  • the CPU 11 determines whether or not there is a lesion area in the created virtual endoscope image, using the information on the lesion that has been roughly detected by the above-described lesion detection method. If a lesion area exists, the process proceeds to step S263. If not, the process proceeds to step S268.
  • step S261 the CPU 11 colors the lesion area on the virtual endoscopic image created in step S261. For example, coloring is performed as shown in a region 270 in FIG.
  • the CPU 11 measures a distance L between the viewpoint position and the lesion position.
  • the CPU 11 preliminarily sets the measured distance value L and compares it with the threshold value T. If L ⁇ T, that is, if the viewpoint is at a position close to the lesion, the process proceeds to step S265. If L> T, that is, if the viewpoint is at a position far from the lesion, the process proceeds to step S268.
  • the CPU 11 changes the direction of the viewpoint to the direction in which the lesion exists.
  • the CPU 11 creates a virtual endoscope image in the changed viewpoint direction.
  • the CPU 11 displays the created virtual endoscope image on the CRT 13 using the display memory 12.
  • Step S269) The operator updates the viewpoint of the virtual endoscope. For example, the viewpoint of the virtual endoscope moves forward when the left button of the mouse is kept pressed, and the viewpoint moves backward when the right button is kept pressed. Move the mouse to change the direction of the viewpoint. This makes it possible to update the viewpoint.
  • step S261 After updating the viewpoint, the CPU 11 returns to step S261 again, creates a virtual endoscopic image for notification of the presence of a lesion, and displays the created virtual endoscopic image on the CRT 13.
  • the processing for coloring the lesion area and moving the viewpoint toward the lesion when passing through the lesion has been described. If the threshold T is shortened, the time required for the viewpoint to move toward the lesion is shortened, and the operator can detect the lesion without overlooking from a quick change in the viewpoint direction.
  • the entire screen may be flashed for a moment, or the viewpoint update time may be purposely slowed down or discontinuously updated when passing through the lesion area.
  • the operator may be notified of the presence of a lesion using a change in the virtual endoscope display image.
  • the distance between the viewpoint and the lesion instead of using the distance between the viewpoint and the lesion to determine whether or not to give a visual notification, if the lesion occupies n% of the field of view of the virtual endoscope, change the viewpoint direction and change the screen.
  • Visual notification such as flashing, delay of viewpoint update time, discontinuity of viewpoint update, etc. may be performed.
  • the presence or absence of the lesion is determined by the operator according to the following method. You may notify me ⁇ .
  • reference numerals 280 to 285 denote observations of the interior of the luminal organ while updating the viewpoint position by virtual endoscopy.
  • the viewpoint position is updated in order from 280 to 285.
  • 286 indicates a lesion formed in a luminal organ.
  • the virtual endoscopic images 280 to 282 gradually approach the lesion, pass through the disease between 282 and 283, and gradually gradually move away from 283 to 285.
  • a sound is generated when the viewpoint position of the virtual endoscopic image approaches the lesion.
  • the volume gradually increases as the lesion approaches, and gradually decreases as the lesion power increases. Also, when passing through the lesion, the sound frequency is converted, and the operator is notified that the vehicle has passed the lesion by the Doppler effect.
  • a lesion area is detected by using any one of the lesion detection methods described in the first to fourth embodiments, and their positional information is stored.
  • the viewpoint is advanced while creating a virtual endoscopic image by virtual endoscopy using the stored position information.
  • the operator initializes the viewpoint position of the virtual endoscope.
  • the initialization is the setting of the start position when performing observation with a virtual endoscope.
  • the start position is set, for example, by the operator using an input device such as a mouse 18 and clicking one point in a luminal organ to be observed on a tomographic image such as a CT or MR.
  • the CPU 11 creates a virtual endoscope image and displays it on the CRT 13 using the display memory 12.
  • the CPU 11 acquires the current viewpoint coordinates ( ⁇ , ⁇ , ⁇ ) and stores them in the main memory 14.
  • the CPU 11 acquires the distance value Li between the viewpoint position and the lesion position and stores it in the main memory 14. (Step S294)
  • the CPU 11 roughly sets the distance value Li obtained above and compares it with the threshold value T. If Li ⁇ T, that is, if the distance between the viewpoint and the lesion is short, the process proceeds to step S295. If the distance between the viewpoint and the disease is far, the process proceeds to step S29B.
  • the CPU 11 compares the distance value Li obtained above with the distance Li-1 between the immediately preceding viewpoint and the lesion. If Li ⁇ Li ⁇ 1, that is, if the viewpoint is close to the lesion, the process proceeds to step S296. On the other hand, if Li> Li'l, that is, if the viewpoint is far from the lesion force, the process proceeds to step S298.
  • the CPU 11 sets a pitch. If the viewpoint is close to the lesion, set the treble. This is because the examiner moves the viewpoint by giving a low tone when the viewpoint moves away from the lesion and switching between high and low sounds when the viewpoint passes through the lesion and using the Doppler effect to generate sound. The point of view is to inform the user that he is passing near the lesion.
  • the CPU 11 sets the volume. If the viewpoint is close to the lesion, increase the volume. This is to notify the examiner that the viewpoint is approaching the lesion due to the increase in volume.
  • the CPU 11 sets the pitch to low. This indicates that the viewpoint is in a state of increasing the distance and the distance due to the Doppler effect.
  • the CPU 11 sets the volume.
  • the volume of the viewpoint is reduced because the lesion power is increasing.
  • the CPU 11 generates the sound of the pitch and volume set in steps S296 and S297 or steps S298 and S299 through the speaker 15.
  • the operator updates the viewpoint of the virtual endoscope. For example, the viewpoint of the virtual endoscope moves forward when the left button of the mouse is kept pressed, and the viewpoint moves backward when the right button is kept pressed. Move the mouse to change the direction of the viewpoint. This makes it possible to update the viewpoint.
  • the process returns to step S291 to display a virtual endoscopic image and generate a sound for notifying the presence of a lesion.
  • the method of audibly notifying the lesion area has been described.
  • This Each of these notification methods may be used alone or may be used in combination.
  • By using a variety of notification methods even if the examiner's attention is reduced due to fatigue, etc., lesions formed inside luminal organs such as the trachea, bronchi, blood vessels, and intestinal tract are overlooked. It is possible to alleviate the problem.
  • the part to be observed may be stored, and when approaching the area during virtual endoscopic observation, the operator may be notified by a visual or auditory method as described in the fifth and sixth embodiments. .
  • a visual or auditory method as described in the fifth and sixth embodiments.
  • the observed! / ⁇ site may be stored by clicking the mouse 18 on a tomographic image such as CT or MR.
  • a 3D image of an organ or tissue to be observed is created from a tomographic image such as a CT or MR, and the position is acquired by clicking the mouse 18 on the created 3D image, and is stored. Good.
  • FIG. 30 shows a display example of the present invention. This is a user interface common to the seventh to eleventh embodiments described below.
  • the medical image diagnosis support device includes a CPU 11 that performs region extraction calculation, a magnetic disk 16 that receives and stores medical tomographic images captured by the medical image device 1B via a network such as LAN1A 16, and a region extraction.
  • Main memory 14 for storing medical tomographic image data and the progress of the calculation during calculation, mouse 18 and keyboard 19 connected to controller 17 for the operator to input parameters necessary for region extraction, and region extraction result table
  • a display memory 12 and a display device (CRT) 13 are used for display.
  • FIG. 32 shows a processing flow of the seventh embodiment.
  • the entire bronchus is extracted by extracting cross sections orthogonal to the direction of travel of the bronchi and collecting them.
  • the operator operates an input device such as the mouse 18 and the keyboard 19 to set the user interface.
  • an input device such as the mouse 18 and the keyboard 19 to set the user interface.
  • a medical tomographic image captured by the modality IB is input to the main memory 14 via the LAN 1A or from the magnetic disk 16.
  • the operator operates an input device such as a mouse 18 or a keyboard 19 to move a slice number setting scroll bar 201, a window level setting scroll bar 202, and a window width setting scroll bar 203 so that a desired slice is displayed in the image display area 204. Display the image.
  • a numerical value may be directly input to the slice number display area 205, the window level display area 206, and the window width display area 207 in addition to the setting of the display slice.
  • the operator operates input devices such as the mouse 18 and the keyboard 19 to set the values of the parameters used for bronchial extraction.
  • the parameters used for bronchial extraction include, for example, a threshold value used for two-valued shading, an ROI setting threshold value, an area threshold value, a circularity threshold value, and an area ratio used for determining whether a region is correctly extracted. These include thresholds, constriction thresholds, and edge ratio thresholds. Details of each parameter used for bronchial extraction will be described later.
  • each parameter value may be displayed on the user interface. The display of each parameter value on the user interface can be omitted.
  • the operator operates an input device such as the mouse 18 or the keyboard 19 to select a starting point of region extraction on an arbitrary image among the inputted medical cross-sectional images.
  • the start point of region extraction is a point on the bronchus to be extracted on the input medical tomographic image, and is set, for example, as a point 216 on the image display region in FIG. This is the starting point for the normal area expansion used in the next step.
  • the CPU 11 sets an area on the selected medical tomographic image based on the set start point. Expansion is performed to extract a bronchial cross section on the tomographic image.
  • the bronchus section extracted here is called the parent area. Assume that a pixel value of 1 is assigned to the parent area and a pixel value of 0 is assigned to the other areas.
  • the CPU 11 calculates physical quantities such as the area value Sp, the circularity Cp, the center of gravity coordinate Gp, and the radius rp (or the length of the long axis of the rectangle surrounding the parent area) when the area is approximated by a circle with respect to the parent area.
  • the circularity C is, for example, an amount given by Expression (2), and is an index indicating how close the target area is to the shape of a circle.
  • S is the area value of the region of interest
  • L is the length of the outer periphery of the region of interest.
  • the CPU 11 determines whether or not each of the obtained physical quantities such as the area value and the circularity of the parent area is appropriate for each bronchial section.
  • the cross-sectional image orthogonal to the direction of travel of the bronchi is considered to be close to a circle and elliptical. Therefore, when the circularity is measured, it becomes a value close to 1. Therefore, the determination as to whether or not it is appropriate as a bronchial cross section is made by comparing each of the set thresholds with each of the obtained physical quantities and determining whether each of the physical quantities satisfies the conditions set by the thresholds. If any one of the physical quantities in the parent area does not satisfy the condition, the process proceeds to step 306. If all the physical quantities satisfy the condition, the process proceeds to step 307.
  • the CPU 11 determines or updates the direction vector for extracting the next lumen organ cross section.
  • the point moved by the unit length in the direction of the updated direction of the center of gravity Gp force of the parent area is set as the temporary center 0 of the area to be extracted next.
  • the CPU 11 determines a radius R of a region of interest (hereinafter referred to as ROI) when performing region extraction.
  • the radius R is a constant multiple of the calculated radius of the parent region (or the length of the long axis of the rectangle surrounding the parent region) r.
  • the ROI changes the radius within a certain range until it finds the right one.
  • the appropriate ROI will be explained later.
  • the defined range is, for example, a range represented by ar ⁇ R ⁇ br using the parent region radius r.
  • the CPU 11 sets an ROI having a radius R that is orthogonal to the direction vector about the set temporary center 0, and creates an image in the ROI using the input medical tomographic image. Note that the CPU 11 performs an interpolation operation using a linear interpolation method or the like between the slices of the input medical tomographic image in order to assign a pixel value to each pixel in the ROI.
  • the CPU 11 binarizes the obtained in-ROI image using the set threshold value of the binary value.
  • the CPU 11 assigns a pixel value of 1 to a bronchial region candidate satisfying the threshold condition, and assigns a pixel value of 0 to other regions.
  • the CPU 11 leaves only the area connected to the parent area among the areas in the obtained binary image, and assigns a pixel value of 0 to the other areas.
  • the CPU 11 determines whether the set ROI is appropriate. As shown in FIG. 32, consider a case where a bronchial candidate region 401 is obtained by binarizing an ROI 400 and a case where a bronchial candidate region 402 is obtained.
  • the length of the outer circumference of the ROI 400 and the ROI 401 is LROI
  • the length of the outer circumference of the ROI that is not in contact with the bronchial candidate areas 402 and 403 obtained by binary diction is L402 and L403, respectively.
  • the circumference of the ROI, LROI is in contact with the bronchial candidate area on the outer circumference of the ROI
  • the ratio RL of the part lengths L402, L403 is the ROI setting threshold TROI, which is one of the set area extraction parameters.
  • the CPU 11 determines the area Sc and the circularity Cc of the bronchial candidate area (hereinafter referred to as a child area candidate) obtained by dichotomy in the ROI determined to be appropriate, the area ratio with the parent area RS, the degree of deformation (constriction Degree) Calculate W, edge ratio E and barycenter coordinate Gc.
  • the CPU 11 compares the calculated physical quantities such as the area Sc of the child area candidate, the circularity Cc, the area ratio Rs with the parent area, the degree of constriction W, and the edge ratio E with the set area extraction parameters, and the bronchial area. Is determined as appropriate.
  • the area extraction parameters used here are area threshold TS, circularity threshold TC, area ratio threshold TR1 (lower), TR2 (upper), constriction threshold TW, and edge ratio threshold TE.
  • the area threshold value TS is used to exclude a region of an inappropriate size as a bronchial region cross section when it is found.
  • the area ratio thresholds TR1 and TR2 are parameters for ensuring continuity with the parent area.
  • the constriction threshold is used to repel, for example, when a part of the lung field region is extracted as a child region candidate as a child region candidate, as in a region 503 in FIG.
  • the edge ratio is the same as the degree of constriction. If all of these physical quantities satisfy the threshold condition, the candidate child region is adopted as the bronchial region cross section.
  • the adopted child area candidate is called a child area.
  • a pixel value of 0 is assigned to the child area candidate not adopted.
  • all physical quantities may be used to determine whether or not the child area candidate has an appropriate force as a bronchial area cross section, or a part of the physical quantities may be used.
  • the CPU 11 determines that it is appropriate as the bronchial region by the child region candidate determination process in step 314. Count the number of determined child areas.
  • the CPU 11 determines whether or not the obtained number of child areas is 0. If the number of child areas is not 0, the CPU 11 proceeds to step 317, and if the number of child areas is 0, proceeds to step 321.
  • the CPU 11 determines whether or not the obtained child region number power S1 is two or more. If the number of child regions is two or more, the process proceeds to step 318. If the number of child regions is one, the process proceeds to step 320.
  • the CPU 11 determines that the child region is a bronchial bifurcation when the number of child regions is ⁇ or more, and at this time the barycentric coordinates Gp, area Sp, circularity Cp, coordinates of each pixel in the parent region, and direction of the parent region.
  • the variables such as the vector and the radius R of the ROI are stored in the branch information storage array on the main memory 14.
  • the CPU 11 increases the total number of bronchial branches Nt by (the number of child regions ⁇ 1).
  • the total number of bronchial branches Nt is the total number of bronchial branches found by branching in the extraction process, and is used to terminate the entire bronchial extraction process when the extraction process is completed for all branches.
  • the CPU 11 stores the coordinates of each pixel in the extracted child area in the extracted area coordinate storage array.
  • the CPU 11 determines whether ROIs have been created for all ROI radii and the child area candidate extraction processing has been performed, and the extraction processing has been completed for all ROI radii. If so, the process proceeds to step 322, where ROIs are created for all the ROI radii. If not, the process returns to step 308 to update the ROI radii and perform extraction processing.
  • the CPU 11 determines whether or not the extraction processing has been performed for all the angle direction vectors. If the extraction processing has been completed for all the angle direction vectors, the process proceeds to step 323. At this point, the extraction process is terminated, and if not, the process returns to step 307 to update the direction vector.
  • a vector 705 defined by angles 703 and 704 is obtained from a center of gravity 701 of a parent region 700 to a vector 702 orthogonal to the parent region.
  • the resulting vector 705 is all directional vectors.
  • the angles 703 and 704 may be taken from 0 ° to 360 ° in increments of 10 °.
  • angle 703 may be taken in 5 ° steps and angle 704 may be taken in 10 ° steps.
  • angle 703 may range from 0 ° to 90 ° and the angle 704 may range from 0 ° to 360 °.
  • the CPU 11 increases the value of the extracted branch number Nf by one.
  • the number of extracted branches refers to the number of branches that have already been extracted from the branches of the bronchi.
  • the CPU 11 sets the barycentric coordinates Gc, area Sc, and circularity Cc of the child area extracted in step 314 as new parent area barycentric coordinates Gp, area Sp, and circularity Cp, and returns to step 307 to repeat the extraction process.
  • the child region is extracted. If not, the parent region information is obtained from the branch information storage array, and the branch process different from the branch that has been subjected to the extraction process is started. I do.
  • the CPU 11 creates a three-dimensional image of the bronchus extracted based on the information stored in the extraction region information storage array, and displays it on a display using a display memory.
  • the extracted bronchi 3D image is displayed in the image display area 800 on the user interface as shown in FIG. 36, for example.
  • a circular ROI was used.
  • ROIs other than circular may be used.
  • a straight line 902 is drawn outward from the center of gravity 901 of the parent area 900.
  • a point 905 is drawn on a straight line at a fixed distance 904 from a point 903 where the straight line intersects the outer periphery of the parent area. It is obtained by rotating the straight line 902 by 360 ° with the center of gravity of the parent region 901 as a fulcrum.
  • the line 906 connecting the point clouds may be used as the outer circumference of the ROI!
  • the distance 904 is set to an arbitrary size in step 321.
  • a rectangular area 908 surrounding the parent area 907 is obtained, and its long side length 909 and short side length are obtained.
  • a rectangular area 913 having a long side of length 911 and a short side of length 912 obtained by respectively multiplying the length 909 of the long side 909 and the length 910 of the short side of the rectangular area 908 by ⁇ may be used as the ROI.
  • An ellipse 916 with 914 and a short axis 915 may be obtained, and this may be used as the ROI.
  • the ROI setting threshold TROI used for determining whether the ROI is appropriate is fixed to a constant value, but the ROI setting threshold may be made variable.
  • a direction vector 702 orthogonal to the parent region from the center of gravity 701 of the parent region 700 in FIG. 35 is used as a reference direction vector, and an ROI is created while changing an angle 703 from the reference direction vector 702. I do.
  • the ROI setting threshold may be changed for each angle 703. The variable ROI setting threshold will be described with reference to FIG.
  • the operator gives the lower limit value TROI1 and the upper limit value TROI2 of the ROI setting threshold. These values may be set by the operator directly on the user interface, or of course, the values set internally may be retained.
  • FIG. 39 shows the order of extracting bronchial branches according to the seventh embodiment.
  • the bronchi have a tree structure as shown in Fig. 39, and extraction is performed from the top to the bottom of the tree structure.
  • branch information is stored upon reaching the branch, and the extraction is further advanced toward the bottom.
  • the branch on the left side is preferentially extracted at the branch part.
  • the branch being extracted reaches the bottom, it returns to the earliest stored branch of the stored branch information, and proceeds to the branch on the opposite side from the one previously extracted. In other words, even if it reaches the bifurcation, the extraction is not stopped there, and the extraction of one branch is completed up to the bottom and proceeds to the next branch.
  • Fig. 39 the order in which the force up to the bifurcation point is extracted is shown as a numerical value.
  • the order in which each branch point is extracted is represented by a circled number.
  • the ROI setting threshold value TROI ( ⁇ ) of the direction vector 1003 inclined at an angle of ⁇ from the reference direction vector with the angle 1001 as ⁇ max may be given by equation (3).
  • TROI ( ⁇ ) TR0I1 + (TROI2-TROI1) X sin ⁇ / sin ⁇ max (3)
  • the angle 1001 may be set to (max, and the ROI setting threshold value TROI (0) of the direction vector 1003 may be given as in equation (4).
  • TROI ( ⁇ ) TROIl + (TROI2-TROI1) X ⁇ / ⁇ max (4)
  • the ROI setting threshold may be determined in proportion to the parent region area value Sp.
  • the operator gives the lower limit value TROI1 and the upper limit value TROI2 of the ROI setting threshold. These values may be set by the operator directly on the user interface, or of course, the values set internally may be retained.
  • the ROI setting threshold is TTROI2.
  • the ROI setting threshold value TROI (Sp) may be given as in equation (5).
  • TROI (Sp) TROIl + (TROI2-TROI1) X (Sp—SI) / (S2—SI) (5)
  • SI and S2 may be given by the operator or set inside You may keep it.
  • the ROI setting threshold value TROI given by the above formulas (4) and (5) can be calculated at high speed using the above formula (4) or (5), and the calculation speed can be increased by performing a lookup table. It is possible to do a dagger. Further, the ROI setting threshold value TROI obtained empirically without using the above equations (4) and (5) may be made into a reference table.
  • the eighth embodiment differs from the seventh embodiment in the order in which the bronchial branches are extracted.
  • the symmetry between the left and right sides during extraction is taken into account.
  • the order of extracting the branches of the bronchi in the eighth embodiment will be described.
  • the eighth embodiment once the branch is reached! /, The extraction in that direction is stopped and the branch information is stored. Return to the previous branch point and extract branches in different directions. Each time a branch point is reached, extraction is performed by returning to the branch point in the next higher hierarchy, so that symmetry can be extracted during extraction.
  • the order in which each branch is extracted in the eighth embodiment is represented by numerical values in FIG.
  • the order in which each branch point is extracted is indicated by a circled number.
  • each bronchial branch can be extracted with good symmetry for each hierarchy.
  • the extraction result is displayed after the extraction processing of all areas is completed.
  • the extraction process may be displayed three-dimensionally during extraction.
  • the extraction end button When the operator presses the extraction end button while observing the extraction progress, the extraction may be ended at that point.
  • the extraction time can be shortened by terminating the extraction halfway.
  • each peripheral branch is used as a bronchus, and the extraction process is continued until an appropriate region does not exist.
  • the area termination condition threshold value TSfin is set and the child region area being extracted becomes Scfin and TSfin, the branch extraction processing is terminated, and the process returns to the branch point and extraction is still performed. You can do it.
  • the settings of TSfin may be defined internally at first glance, or the operator may directly input a numerical value into the area termination condition threshold display area on the user interface.
  • the bronchial core from the bronchial region extracted in the seventh and eighth embodiments.
  • the extraction was performed while obtaining the cross sections 1301-1131 perpendicular to the bronchial running direction.
  • the barycentric coordinates 1312-1322 of each cross section were obtained.
  • the line 1323 connecting the acquired barycentric coordinates 1312—1322 can be regarded as the core line.
  • a straight line may be connected between adjacent barycenters. Alternatively, they may be connected by interpolation such as spline interpolation.
  • the CPU 11 extracts a blood vessel with an X-ray image 1400 of the head taken. After extracting the initial parent area as in the first embodiment, the next area is extracted using the parent area information.
  • An image 1401 is an enlarged image of an area 1402 in the image 1400, and extracts a blood vessel 1403.
  • the CPU 11 extracts the next region using the blood vessel portion on the line segment 1404 as a parent region.
  • the concentration distribution on line segment 1404 is given as shown at 1405.
  • the CPU 11 obtains a circle having a radius 1407 from the midpoint 1406 of the line segment 1404.
  • the CPU 11 obtains a density distribution 1409 at a tangent 1408 at an arbitrary point on the circumference.
  • the CPU 11 obtains the tangent lines 1410 and 1411 at each point on the circumference and obtains the corresponding density distributions 1412 and 1413.
  • the CPU 11 finds a correlation between the density distribution 1405 of the parent area and each of the density distributions 1409, 1412, and 1413 on the tangent, and adopts the one having the largest correlation with the density distribution 1405 of the parent area as the child area. .
  • a region on the tangent line 1410 having the density distribution 1412 is adopted as a child region. It is possible to extract part or all of the head blood vessels by repeatedly applying the above processing with the adopted child area as the parent area.
  • the already extracted region may be extracted again.
  • the extraction direction is 1500 and there is a parent area on tangent 1501
  • the density distributions on tangents 1501 and 1502 are like 1503 and 1504, respectively. Since the correlation between these concentration distributions is high, an area on the tangent 1502 which should have been extracted as a child area can be adopted. Therefore, the direction in which the tangent is drawn on the circumference is limited to, for example, an area that is equal to or more than the right and left ⁇ ° of the line connecting the center of the parent area and the center of the area extracted immediately before the parent area.
  • the bronchi are described as an example, and in the eleventh embodiment, blood vessels are described as an example.
  • the present invention is applicable to all luminal organs such as the bronchi, blood vessels, and intestinal tract.
  • the modalities that captured the images were X-ray CT, MRI, and ultrasound. It is not limited to such devices. For example, when the density value changes gradually over the entire image, such as an image taken by an MRI tomography apparatus, the threshold value and the force that needs to be changed accordingly must be applied to the present invention. It is possible.
  • the luminal organ can be extracted by one extraction process without performing a thin line shading process after extraction to determine the center line again. Both the organ and luminal organ core lines can be extracted, and the direction vector at each point on the core line can be obtained.
  • the present invention is capable of selectively diagnosing only a portion of an organ part whose shape has changed due to a disease, and notifying the operator of the change in the shape of the diagnosed part by visual sense such as image display, sound or voice, etc. As a result, the throughput of diagnosis can be improved.
  • an organ region is appropriately extracted based on the set threshold value, and a more accurate three-dimensional image can be formed from the extracted organ region.

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Human Computer Interaction (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Processing (AREA)

Abstract

 本発明の医用画像診断支援装置は、医用画像装置によって得られた被検者の医用画像から臓器部位を設定する臓器部位設定手段と、この臓器部位設定手段によって設定された臓器部位の変形度を算出する変形度算出手段と、前記臓器部位の変形度の指標を基準値として記憶する基準値記憶手段と、この基準値記憶手段によって記憶された基準値と前記変形度算出手段によって算出された変形度とを比較し、その比較結果からの前記臓器部位の病変の存在を判別する病変判別手段と、この病変判別手段によって判別された前記臓器部位の病変の存在を検者の視覚、聴覚の少なくとも一つの感覚に通知する通知手段とを備える。  これにより、臓器部位が疾患により変形した箇所だけを選択的に診断し、その診断部位の形状変化を画像表示などの検者の視覚や音声などの検者の聴覚で通知できるようになるから、診断の効率を向上できる。

Description

明 細 書
医用画像診断支援装置及び方法
技術分野
[0001] 本発明は、医用画像診断装置 (MRI装置、 X線 CT装置、超音波診断装置を含む) カゝら得られた医用画像を用いた画像診断を支援する医用画像診断支援装置に係り 、特に被検者の症状によって異なる形状となる臓器部位の診断支援を行う医用画像 診断支援装置に関する。
背景技術
[0002] 被検者の腫瘍検査は、特に気管および気管支内又は腸管などの管状臓器部位に おいて、その管状臓器部位へ内視鏡を挿管し、その挿管された内視鏡の映像により 大半が行われていた。
しかし、上記検査は、患者の管状臓器部位へ内視鏡を挿管することから患者に苦 痛を与えるなど、患者に対し負担をかけていた。
そこで、特許文献 1に開示されている仮想内視鏡は、 X線 CT画像のデータを用いて 内視鏡に相当する画像を提供するものであるから、患者の管状臓器部位へ内視鏡を 挿管することが不要となるため、上記患者の負担の問題は解消される。
[0003] し力しながら、特許文献 1に開示された仮想内視鏡では、表示される視野が狭ぐそ の狭 ヽ視野で気管支などの管状臓器部位全体を診断するために時間を要するから 、患者当たりの検査時間が多くかかるため、診断効率を向上したいとの要求に対し応 えることにつ 、て言及して ヽな ヽ。
特許文献 1:特開 2002-238887号公報
発明の開示
[0004] 本発明の医用画像診断支援装置は、医用画像装置によって得られた被検者の医 用画像カゝら臓器部位を設定する臓器部位設定手段と、この臓器部位設定手段によ つて設定された臓器部位の変形度を算出する変形度算出手段と、前記臓器部位の 変形度の指標を基準値として記憶する基準値記憶手段と、この基準値記憶手段によ つて記憶された基準値と前記変形度算出手段によって算出された変形度とを比較し 、その比較結果力 の前記臓器部位の病変の存在を判別する病変判別手段と、この 病変判別手段によって判別された前記臓器部位の病変の存在を検者の視覚、聴覚 の少なくとも一つの感覚に通知する通知手段と、を備える。
これにより、臓器部位が疾患により変形した箇所だけを選択的に診断し、その診断 部位の形状変化を画像表示などの検者の視覚や音声などの検者の聴覚で通知でき るようになる力 、診断の効率を向上できる。
[0005] また、本発明の望ま 、一実施形態によれば、前記基準値記憶手段は、前記臓器 部位の変形度応じた複数のテンプレートを記憶する。
これにより、複数のテンプレートとの比較対象が明確となり、病変の進行度が検者に とって把握しやすくなる。
[0006] また、本発明の望ましい一実施形態によれば、前記変形度算出手段は、前記臓器 部位の体軸方向に直交する断面像を算出する断面像算出手段と、この断面像算出 手段によって算出された断面像力 前記臓器部位の内腔と外部を抽出する抽出手 段とを備え、前記抽出手段によって抽出された前記臓器部位の内腔と外部の変形度 を算出する。
これにより、前記臓器部位の内腔に出現する腫瘍や狭窄などの隆起性病変を検出 でさるよう〖こなる。
[0007] また、本発明の望ましい一実施形態によれば、前記通知手段は、前記判別手段に より判別された病変の存在が色によって表示されることで検者の視覚に通知する。具 体例を挙げれば、前記検者の視覚への通知は、前記臓器部位設定手段によって設 定された臓器部位の断面像を表示し、その断面像上に前記病変判別手段によって 判別された病変候補部分を強調表示する。
これにより、検者にとって前記病変の存在が色等で視覚的に識別できるようになる ために、病変部の判定が容易にできる。
[0008] また、本発明の望ましい一実施形態によれば、前記通知手段は、前記判別手段に より判別された状態が音や声によって出力されることで検者の聴覚に通知する。 これにより、検者にとって前記状態が音や声で聴覚的に識別できるようになるため に、病変部の判定が容易にできる。 [0009] また、本発明の望ましい一実施形態によれば、前記医用画像装置によって得られ た断層画像内の管腔臓器の特徴量カゝらその断面を抽出する断面抽出手段と、この 抽出手段によって抽出された管腔臓器断面でその管腔臓器の半径や円形度、重心 を含む物理量を演算する物理量演算手段と、この物理量演算手段によって演算され た物理量に基づき関心領域を算出する関心領域算出手段と、この関心領域算出手 段によって算出された関心領域内で前記断面抽出手段によって抽出された管腔臓 器断面を含む断層画像から管腔臓器の 3次元画像を作成する 3次元画像作成手段と 、この 3次元画像作成手段によって作成された 3次元画像を表示する画像表示手段と 、をさらに備える。
これにより、設定された閾値により臓器領域が適切に抽出され、その抽出された臓 器領域より正確な 3次元画像を構成することができるようになる。
[0010] さらにまた、本発明の望ましい一実施形態によれば前記物理量演算手段によって 演算された管腔臓器断面の重心に基づき前記管腔臓器の芯線を演算する芯線演算 手段をさらに備え、前記画像表示手段は、前記芯線演算手段によって演算された芯 線と前記 3次元画像作成手段によって作成された 3次元画像と共に表示する。
これにより、芯線に基づきマルチ'プランナー 'リコンストラクション (MPR)による画像 を見る際に、 MPR像のための軸設定を容易にすることができるようになる。
[0011] また、本発明の医用画像診断支援方法は、医用画像装置によって得られた被検者 の医用画像カゝら臓器部位を設定する臓器部位設定工程と、この臓器部位設定工程 によって設定された臓器部位の変形度を算出する変形度算出工程と、前記臓器部 位の変形度の指標を基準値として記憶する基準値記憶工程と、この基準値記憶ェ 程によって記憶された基準値と前記変形度算出工程によって算出された変形度とを 比較し、その比較結果力 の前記臓器部位の病変の存在を判別する病変判別工程 と、この病変判別工程によって判別された前記臓器部位の病変の存在を検者の視覚 、聴覚の少なくとも一つの感覚に通知する通知工程と、を備える。
これにより、臓器部位が疾患により変形した箇所だけを選択的に診断し、その診断 部位の形状変化を画像表示などの検者の視覚や音声などの検者の聴覚で通知でき るようになる力 、診断の効率を向上できる。 図面の簡単な説明
[図 1]本発明の各実施形態に共通する医用画像表示装置の一例を示すブロック図。 圆 2]第 1及び第 2の実施形態を説明するための図 1のコントローラの詳細例を示すブ ロック図。
圆 3]第 1の実施形態の動作例を説明するフローチャート。
[図 4]図 3のステップ S32の説明図。
[図 5]図 3のステップ S33の説明図。
[図 6]図 3のステップ S34の説明図。
[図 7]図 3のステップ S35の説明図。
[図 8]図 3のステップ S36の説明図。
圆 9]第 2の実施形態の動作例を説明するフローチャート。
[図 10]図 9のステップ S92の説明図。
[図 11]図 9のステップ S93の説明図。
[図 12]図 11と異なるステップ S93の説明図。
[図 13]図 9のステップ S95の説明図。
[図 14]病変部の抽出の原理を説明する図。
圆 15]第 3及び第 4の実施形態を説明するための図 1のコントローラの詳細例を示す ブロック図。
圆 16]第 3の実施形態の動作例を説明するフローチャート。
[図 17]図 16のステップ S165を説明するフローチャート。
[図 18]図 16のステップ S165を説明する原理図。
[図 19]図 16のステップ S166を説明するフローチャート。
[図 20]図 16のステップ S166を説明する原理図。
圆 21]第 4の実施形態の動作を説明するフローチャート。
圆 22]病変処理の判別処理の例を説明する図。
[図 23]図 22の円形度処理の例を説明する図。
[図 24]画像表示例を示す図。
[図 25]図 24の画像 241の表示変形例を示す図。 [図 26]第 5の実施形態の動作例を説明するフローチャート。
[図 27]第 5の実施形態の表示例を示す図。
[図 28]第 6の実施形態の動作を説明する模式図。
[図 29]第 6の実施形態の動作例を説明するフローチャート。
[図 30]第 7の実施形態の医用画像表示法の一例を示す図。
[図 31]本発明の第 1の実施形態の動作を説明するフローチャート。
[図 32]図 31のステップ 312の説明図。
[図 33]図 31のステップ 313の説明図。
[図 34]図 31のステップ 313の説明図。
[図 35]図 31のステップ 322の説明図。
[図 36]本発明の第 7の実施形態の抽出結果の表示例。
[図 37]様々な ROI形状を示す図。
[図 38]可変 ROI設定閾値の設定方法を説明する図。
[図 39]本発明の第 7の実施形態により抽出される気管支枝と分岐点の抽出順番を表 す図。
[図 40]本発明の第 8の実施形態により抽出される気管支枝と分岐点の抽出順番を表 す図。
圆 41]本発明による気管支芯線抽出の説明図。
[図 42]本発明の第 11の実施形態の説明図。
[図 43]本発明の第 11の実施形態の説明図。
発明を実施するための最良の形態
以下、本発明に係る X線画像診断支援装置の好ま ヽ実施の形態につ!ヽて図を用 いて詳しく説明する。
図 1は本発明の各実施形態に共通する医用画像表示装置の一例を示すブロック図 である。
医用画像表示装置は、図 1に示されるように、 CPU11と、 CPU11とデータ転送バス 1Cを介してそれぞれ電気的に接続される表示メモリ 12、 CRT13、主メモリ 14、スピー 力 15、磁気ディスク 16、コントローラ 17、マウス 18、キーボード 19、ローカルエリアネット ワーク(LAN) 1A、及び LAN1Aと電気的に接続されるモダリティ IBとを有する。
CPU11は、データ転送バス 1Cに電気的に接続される構成要素である表示メモリ 12、 CRT13、主メモリ 14、スピーカ 15、磁気ディスク 16、コントローラ 17、マウス 18、キーボ ード 19を統括制御し、 LAN1Aへのデータ送信、 LAN1Aからのデータ受信を制御する 表示メモリ 12は、 CRT13に表示出力する画像データを一時記憶する。
CRT13は、表示メモリ 12に記憶された画像データを読み出して表示する表示装置 である。この表示装置は CRTを例示している力 プラズマや液晶などの各種ディスプ レイもここで 、う表示装置に含まれるものとする。
[0014] 主メモリ 14は、 CPU11で処理するデータを格納したり、 CPU11で実行するプログラム を記憶したりする。
スピーカ 15は、図示しないが音声出力するための音声データを記憶する記憶部を 有しており、その記憶部に記憶された音声データを読み出して音声を発生することが できるようになつている。
磁気ディスク 16は、主メモリ 14と同様に CPU11で処理するデータを格納したり、 CPU11で実行するプログラムを記憶したりするもので、主メモリ 14より記憶容量が大き い外部記憶装置である。外部記憶装置には、磁気ディスクの他に CD、 MD、 DVDなど の媒体や RAMディスクなどを置換したり、共用したりしてもよ!、。
[0015] コントローラ 17は、臓器部位の形状を測定し、その測定された臓器部位の形状から 病変の存在を判別する機能を果たしており、詳細は図 2を用いて後で説明する。 マウス 18は、検者カCRT12に表示された画像の任意の領域を指定したり、 CRT11の 画面上に表示されたボタンを選択入力したりする。
キーボード 19は、マウス 18と同様な機能を持つ他、主に患者 IDなどの文字情報を 入力する。
[0016] LAN1Aは、例えば病院内に設置されたネットワーク設備である。このネットワーク設 備は専用線やインターネットを通じたワイドエリアネットワークであってもよい。
モダリティ 1Bは、 X線装置、 X線 CT装置、 MRI装置、超音波装置などの医用画像診 断装置である。ここでは、 X線 CT装置を例示する。 データ転送バス 1Cは、標準化された PCI (Peripheral Component
Interconnect)バスのなどの他、 USB (Universal Serial
Bus)、 IEEE1394などの規格に準拠するデータ転送バスを採用してもよい。
[0017] 次に、コントローラ 17の構成例について図 2を用いて説明する。
図 2は第 1及び第 2の実施形態を説明するための図 1のコントローラの詳細例を示す ブロック図である。ここでは管状臓器部位を気管支とする。
コントローラ 17は、図 2〖こ示すよう〖こ、マウス 18、キーボード 19及び主メモリ 14と電気 的に接続される気管支分岐部検出部 20と、気管支分岐部検出部 20及び主メモリ 14と 電気的に接続される分岐部断面像作成部 21と、分岐部断面像作成部 21と電気的に 接続される分岐部断面像記憶部 22と、分岐部断面像記憶部 22と電気的に接続され る距離測定部 23と、距離測定部 23と電気的に接続される距離情報記憶部 24と、距離 情報記憶部 24と電気的に接続される正常 Z異常判定部 25とを有する。
[0018] 気管支分岐部検出部 20はモダリティ 18力 入力される医用画像あるいは医用画像 から気管支領域を抽出した気管支抽出画像、あるいは主メモリ 14又は磁気ディスク 16 のような外部記憶装置に格納されている医用画像および抽出画像を用いて、気管支 の分岐部を検出する。その検出は操作者がマウス 18等の入力装置を用いて手動で 行ってもょ 、し、主メモリ 14や外部記憶装置に記憶されて 、るあら力じめ求めてぉ ヽ た分岐部座標を用いてもょ ヽ。
分岐部断面像作成部 21は、主メモリ 14等に記憶されて ヽる医用画像ある!/、は気管 支領域抽出画像力 気管支分岐部の断面像を作成する。
分岐部断面像記憶部 22は、分岐部断面像作成部 21によって作成された気管支分 岐部断面像を記憶する。
[0019] 距離値測定部 23は、分岐部断面像記憶部に記憶される気管支分岐部断面像を用 V、て分岐後の気管支間の距離を測定する。
距離情報記憶部 24は、距離値測定部 23によって測定された分岐後の気管支間の 距離情報を記憶する。
正常 Z異常判定部 25は、距離情報記憶部 24に記憶された 2気管支間の距離情報 を元に分岐部の形状が正常か異常かについて基準値 (テンプレート)を参照して判 定し、 CRT13に分岐部形状の判定結果を元に正常か異常かを表示する。ここでいう テンプレートとは、病変のな 、正常な症例に基づく距離情報力 作成した正常テンプ レート、軽度の病変が認められる症例に基づく距離情報から作成した軽症テンプレ ート、中度の病変が認められる症例に基づく距離情報力 作成した中症テンプレート 、重度の病変が認められる症例に基づく距離情報から作成した重症テンプレートなど 、複数のテンプレートが基準として記憶されている。そして、そのテンプレートに近い ものが判定結果となる力 その間のものは、各正常、軽症、中症、重症のテンプレート のデータを補間して求める。例えば、軽症、中症の間にあれば、軽中症に判別される ことになる。
[0020] 次に、各実施形態での動作についてそれぞれ図面を用いて説明する。
(第 1の実施形態)
図 3は第 1の実施形態の動作例を説明するフローチャート、図 4一図 8はそれぞれ図 3のステップ S31— S36の説明図である。
[0021] (ステップ S30)
検者 (操作者)は、マウス 18等を操作し、コントローラ 17に主メモリ 14から読み出した 医用画像データを入力する。
(ステップ S31)
操作者は、マウス 18等を操作し、コントローラ 17に主メモリ 14等力 気管支分岐部情 報を入力する。ここで分岐部情報とは、分岐部の座標、分岐部の方向ベクトルのこと である。分岐部の方向ベクトルとは図 4の矢印 41のように分岐直前の気管支の走向方 向を示すベクトルである。
(ステップ S32)
コントローラ 17は、入力された医用画像データと気管支分岐部情報をもとに、図 4の 断面像群 42のように分岐部の方向ベクトルに直交する数枚の断面像を作成する。
[0022] (ステップ S33)
コントローラ 17は、作成された断面像における気管支領域間の距離を算出する。こ こで距離は気管支領域辺縁間の最小距離でもよ!/、し、ある!/、は図 5のように気管支領 域 50,51の重心 52,53を結ぶ線分 54上での気管支間距離 55でもよい。 (ステップ S34)
コントローラ 17は、気管支間距離データを用いて図 6に示すように気管支間距離の 断面像位置に対するグラフを作成する。
(ステップ S35)
コントローラ 17は、作成したグラフを基に気管支分岐部の形状が正常か異常かを判 定する。正常であれば図 6の曲線 60や曲線 61のように鋭い形状になる。一方腫瘍な どの病変が存在すれば曲線 62のように広がった形状になる。図 7のように基準曲線 70 (正常テンプレート)を設定し、作成したグラフの曲線 71が基準曲線 70よりも外側に広 力 Sつていれば病変候補と判断し、基準曲線よりも内側であれば正常と判断する。実際 には求めた気管支間距離を示す曲線 71で囲まれる領域の面積と領域 70の外側には み出した領域 72の面積比 rを算出する。また、この面積比 rの正常 Z異常を判定する ための閾値 Tを設定しておく。算出された面積比 rが閾値 Tを超える場合には形状が 異常であると判断し、得られた面積比 rが閾値 Tを超えない場合には形状が正常であ ると判断する。ここで基準曲線と閾値 Tは、多数の臨床データによって得られた統計 的に算出される量である。閾値 Tはマウス 18やキーボード 19の入力装置で任意に設 定可能としてもよい。
[0023] (ステップ S36)
コントローラ 17は、分岐部が病変により変形したと判断された場合には図 8に示すよ うに注目断面像 80上で、気管支 81の分岐部分を丸印 82で囲んで強調表示し、検者 の注意を促す。また、強調表示の態様は、丸印 82の代わりに分岐部のみを色づけし て表示してもよい。
また、たとえば仮想内視鏡を用いて気管支内腔を観察するときに、あらかじめ病変 候補のある分岐部を異なる色で表示してもよい。色を変えるかわりに、仮想内視鏡の 視点が分岐部付近を通過するときに音や音声を出して検者に知らせるようにしてもよ い。もちろん色づけと音出しの両方を行ってもよい。
[0024] 上記実施形態によれば、気管支分岐部にできた病変候補を発見することができる。
これにより医師 (検者)の負担を軽減できる。
[0025] (第 2の実施形態) 図 9は第 2の実施形態の動作例を説明するフローチャート、図 10は図 9のステップ S92の説明図、図 11, 12はいずれも図 9のステップ S93の説明図、図 13は図 9のステップ S95の説明図である。
[0026] (ステップ S90)
操作者はマウス 18等を操作し、コントローラ 17に主メモリ 14等力も読み出した医用画 像データを入力する。
(ステップ S91)
操作者はマウス 18等を操作し、コントローラ 17に主メモリ 14等力 気管支分岐部情 報を入力する。ここで分岐部情報とは、分岐部の座標、分岐部の方向ベクトルのこと である。
(ステップ S92)
コントローラ 17は、入力された医用画像データと気管支分岐部情報を基に、図 10の ように分岐部の方向ベクトル 100を含む断面像 101を作成する。
[0027] (ステップ S93)
コントローラ 17は、図 11に示すように、作成された断面像 110において基準点 111か ら気管支分岐部各点までの距離 112を算出する。ここで算出する距離は図 12のように 基準線 121に垂直に測った距離 122でもよ 、。
(ステップ S94)
コントローラ 17は気管支間距離データを用いて気管支分岐部各点に対して基準か らの距離をプロットした曲線を図 13のように算出する。
(ステップ S95)
コントローラ 17は、作成した曲線を基に気管支分岐部の形状が正常か病変候補か を判定する。図 13のように基準曲線 130を設定し、作成したグラフの曲線 131が基準 曲線 130よりも外側に広がっていれば病変候補と判断し、基準曲線よりも内側であれ ば正常と判断する。実際には求めた距離を示す曲線 131で囲まれる領域の面積と領 域 130の外側にはみ出した領域 132の面積比 rを算出する。また、この面積比 rの正常 Z病変候補を判定するための閾値 Tを設定しておく。算出された面積比 rが閾値 Tを 超える場合には形状が異常であると判断し、得られた面積比 rが閾値 Tを超えない場 合には形状が正常であると判断する。ここで基準曲線と閾値は統計的に算出される 量である。閾値 Tはマウス 18やキーボード 19の入力装置で任意に設定可能としてもよ い。
[0028] (ステップ S96)
コントローラ 17は、分岐部が病変候補と判断された場合には注目断面像上で、気管 支分岐部分を丸印で囲んで強調表示し、医師の注意を促す。また、強調表示の態様 は、丸印の代わりに分岐部のみを色づけして表示してもよ 、。
また、例えば仮想内視鏡を用いて気管支内腔を観察するときに、あらかじめ異常の ある分岐部を異なる色で表示してもよい。色を変えるかわりに、仮想内視鏡の視点が 分岐部付近を通過するときに音や音声を出して検者に知らせるようにしてもよい。も ちろん色づけと音出しの両方を行ってもよい。
[0029] 上記実施形態によれば、気管支分岐部にできた病変候補を発見することができる。
これにより医師や患者の負担を軽減できると共に、あら力じめ分岐部の異常を調べて おくことで内視鏡検査をした際の見落としをなくすことができる。
[0030] (第 3の実施形態)
図 15は第 3及び 4の実施形態を説明するための図 1のコントローラの詳細例を示す ブロック図である。
コントローラ 17は、図 15に示すように、マウス 18、キーボード 19および主メモリ 14と電 気的に接続される管腔臓器抽出部 150と、マウス 18、キーボード 19および管腔臓器抽 出部 150と電気的に接続される注目領域設定部 151と、注目領域設定部 151と電気的 に接続される管腔臓器断面像作成部 152と、管腔臓器断面像作成部 152と電気的に 接続される病変候補検出部 153と、病変候補検出部 153と電気的に接続される病変 候補検出結果記憶部 154とを有する。
[0031] 管腔臓器抽出部 150は、モダリティ 1B力も主メモリ 14等を介して入力される医用画像 から注目管腔臓器を抽出する。
注目領域設定部 151は、管腔臓器抽出結果に対して病変候補検出処理を行う範囲 を設定する。この設定処理は検者が CRT13を見ながらマウス 18等を操作して任意に 行ってもよいし、また、抽出した全領域を注目領域としてもよい。 管腔臓器断面像作成部 152は、抽出した管腔領域内の各点において、前記管腔臓 器の長手方向血管や腸管では走行方向に当たる)と直交する断面像を作成する。
[0032] 病変候補検出部 153は、管腔臓器断面像作成部 152により作成された管腔臓器断 面像に対して、病変候補検出処理を行う。病変候補検出処理については図 17、図 19 で後述する。病変候補検出結果記憶部 154は前記病変候補検出処理によって検出 した病変候補の座標を記憶し、 CRT13に表示する。
[0033] 次に、第 3の実施形態での動作についてそれぞれ図面を用いて説明する。
気管 Z気管支を例に第 3の実施形態での動作について図 16を用いて説明する。 図 16は第 3の実施形態の動作例を説明するフローチャート、図 17、図 18はそれぞれ 図 16のステップ S165を説明するフローチャートおよび原理図、図 19、図 20はそれぞれ 図 16のステップ S166を説明するフローチャートおよび原理図である。
[0034] (ステップ S 160)
操作者はマウス 18等を操作し、コントローラ 17に主メモリ 14等力も読み出した医用画 像データを入力する。
(ステップ S161)
コントローラ 17は入力された医用画像データ力 気管および気管支領域を抽出す る。ここで、主メモリ 14等にあらかじめ気管 Z気管支領域を抽出したデータが格納さ れている場合、前記抽出処理を省略し格納されているデータをコントローラ 17へ入力 してちよい。
(ステップ S 162)
操作者はマウス 18等を操作し、抽出された気管 Z気管支領域のうち病変候補検出 処理を行う範囲を設定する。ここで、設定する範囲とは抽出した気管 Z気管支領域 の一部または全部を指す。
[0035] (ステップ S 163)
コントローラ 17は前記設定した注目範囲内で気管 Z気管支の走行方向に直交する 断面像を管腔臓器断面像作成部 152に作成させる。
(ステップ S 164)
コントローラ 17は管腔臓器断面像作成部 152に作成された断面像を気管 Z気管支 領域についてニ値ィ匕する。この二値ィ匕処理では、例えば気管 Z気管支内腔領域の 画素に画素値 1を、それ以外の画素に画素値 0を割り当てる。作成した気管 Z気管支 領域二値画像では、気管 Z気管支領域の輪郭は正常であれば円に近い楕円形をし ており、腫瘍や狭窄などの隆起性病変があれば内側に突起した部分が生じると判定 可能となる。
(ステップ S 165)
コントローラ 17は二値ィ匕処理された気管 Z気管支断面像について病変候補検出処 理 (I)を行う。
[0036] ここで病変候補検出処理 (I)について図 17、図 18を用いて説明する。
(ステップ S 170)
操作者は気管 Z気管支領域辺縁上に一定間隔の点を設定する。
(ステップ S171)
コントローラ 17は、前記気管 Z気管支領域辺縁上に設定された点のうち 2点を線分 で結ぶ。ここで隣り合う 2点にっ 、ては線分で結ばな!/、。
(ステップ S 172)
コントローラ 17は、線分上にある各画素の画素値の和(sum)を算出する。 (ステップ S 173)
コントローラ 17は、前記画素値の和が sum=0となるかどうかの判定処理を行う。 sum=0ならばステップ S174へ進み、 sumく 0又は sum>0ならばステップ S171へ戻る。 ここで、腫瘍や狭窄などの隆起性病変が存在する場合を考えると、図 18の気管支領 域 180において任意の 2点を結ぶ線分のうち気管支内腔を通る線分 181では線分上 の画素値の和が sum< 0又は sum>0となり、隆起性病変部位上の 2点を結ぶ線分 62 では線分上の画素値の和は sum=0となる。
[0037] (ステップ S174)
コントローラ 17は、前記線分上の画素値の和力 Ss醒 =0となる線分両端の 2点を隆起 性病変部位辺縁上の点と見なして座標を記憶する。
(ステップ S 175)
コントローラ 17は、ステップ S 170にお 、て設定した気管 Z気管支領域辺縁上すベて の 2点の組み合わせにつ 、て、前記線分上画素値の和の判別処理が終了した力どう か判定する。まだ終了していなければステップ S171へ戻り、終了したらステップ S174 にて記憶された座標に囲まれる領域を病変候補領域として検出する。
以上で病変候補検出処理 (I)が終了する。
[0038] (ステップ S 166)
病変候補検出処理 (I)が終了したら次に、コントローラ 17は病変候補検出処理 (II) を行う。
ここで病変候補検出処理 (II)について図 19、図 20を用いて説明する。
(ステップ S 190)
操作者は、気管 Z気管支領域辺縁上に一定間隔の点を設定する。
(ステップ S191)
コントローラ 17は、前記一定間隔に設定された各点で気管 Z気管支辺縁の接線に 垂直な法線ベクトルを算出する。ここで法線ベクトルの方向は気管 Z気管支の内部 力 外部へ向くようにする。
(ステップ S 192)
操作者は、気管 Z気管支断面内で基準方向ベクトルを設定する。ここで基準方向 ベクトルは気管 Z気管支断面内の任意の方向に定めてょ 、。
[0039] (ステップ S 193)
コントローラ 17は、基準方向ベクトルと前記各法線ベクトルのなす角度を算出する。 ここで角度算出はたとえば、図 20に示すように、気管支断面 200に対して任意に定め られた基準方向ベクトル 201と注目する法線ベクトル 202の間で基準方向ベクトル 201 力も反時計回りとした角度 203とする。角度の算出はもちろん時計回りとしてもよいが、 すべての法線ベクトルについて反時計回りか時計回りのどちらか一方に統一する。 (ステップ S 194)
コントローラ 17は、隣り合う法線ベクトル間で前記測定した基準方向ベクトル力 の 角度の変化を算出する。ここで、注目する 2つの法線ベクトルがいずれも正常部位、 すなわち気管 Z気管支内部に突起して 、な 、部位辺縁上の法線ベクトルであれば 法線ベクトル 204,法線ベクトル 205のように法線ベクトルを反時計回りに見た場合、前 記測定した角度の大小関係は(角度 206) < (角度 207)となり角度変化は増加傾向を 示す。一方、隆起性病変部位であれば法線ベクトル 208,209のように前記測定した角 度の大小関係は (角度 20A) > (角度 20B)となり角度変化は減少傾向を示す。前記角 度変化の違いから病変候補の検出が可能である。角度変化が減少傾向を示す場合 はステップ S196へ進み、増加傾向を示す場合はステップ S197へ進む。
(ステップ S 195)
コントローラ 17は、角度変化が減少傾向を示す部分を病変候補として座標を記憶 する。コントローラ 17は、すべての隣り合う法線ベクトルについて、前記角度変化の測 定が終了していなければステップ S194へ戻り、終了していればステップ S195において 記憶された座標に囲まれる領域を病変候補領域として検出する。
[0040] (ステップ S 167)
コントローラ 17は病変候補検出処理 (I)により得られた結果と病変候補検出処理 (II )により得られた結果との論理積を演算する。この演算により病変候補検出処理 (I)お よび病変候補検出処理 (II)の両方で病変候補として検出された領域のみが残り、こ の残った領域を病変候補領域として検出する。
(ステップ S 168)
コントローラ 17は前記検出された病変候補領域を強調して CRT13に表示する。表示 の仕方はたとえば、気管 Z気管支断面像の病変候補領域部を丸印で囲んでもょ 、。 もちろん丸印以外にも矢印などを使って印付けしてもよい。また、病変候補領域のみ を色づけして表示しても良 、。
(ステップ S 169)
コントローラ 17はステップ S162において設定した注目領域のうちすベての点につい て前期病変候補検出処理が終了したかどうかの判定をする。まだ終了していなけれ ばステップ S 163へ戻る。
[0041] 上記実施形態によれば、内視鏡や仮想内視鏡による観察を行わなくても CTや MR などの医用画像から気管 Z気管支や血管、腸などの管腔臓器内部にできる隆起性 病変を検出することができる。
[0042] (第 4の実施形態) 気管 Z気管支を例に第 4の実施形態での動作を説明する。図 21は第 4の実施形態 の動作を説明するフローチャートである。
第 4の実施形態では第 3の実施形態と同様に気管 Z気管支の走行方向に直交する 断面像を作成し、病変候補検出処理 (I)及び病変候補検出処理 (Π)の検出結果とを 出すまでのステップ S160—ステップ S166とステップ S210—ステップ S216とは共通する のでそれら共通部分の説明は省略し、相違部分のみを説明する。
[0043] (ステップ S217)
コントローラ 17は、病変候補検出処理 (I)の検出結果と病変候補検出処理 (Π)の検 出結果との論理和を演算する。この論理和演算により病変候補検出処理 (I)および 病変候補検出処理 (Π)により検出されたすベての病変候補を検出結果として得る。 (ステップ S218)
コントローラ 17は、検出された病変候補検出処理 (I)および病変候補検出処理 (Π) により病変候補領域を強調して CRT13に表示する。表示方法はたとえば、気管 Z気 管支断面像の病変候補領域部を丸印で囲んでもよい。もちろん丸印以外にも矢印な どを使って印付けしてもよい。また、病変候補領域のみを色づけして表示しても良い
[0044] 第 3、第 4の実施形態によって、コントローラ 17は、管腔臓器内の隆起性病変の検出 を行ったら、その後、前記検出した病変候補について例えばポリープか狭窄かの病 変種類の判別を行っても良い。病変種類の判別処理について図 22,図 23を用いて説 明する。
はじめに、コントローラ 17は、ポリープや狭窄などの病変を有する管腔臓器断面像 220に対して、病変部位の輪郭を算出する。病変部位の輪郭は例えば病変領域端点 221および 222を結んだ線分 223としてもよい。この場合病変領域は 224になる。あるい は、病変領域付近の管腔臓器輪郭上の点 225,226,227,228,229,22Aを用いてスプラ イン補間などの補間処理を施すことにより、病変部位の輪郭線 22Bおよび病変領域 22Cを求めてもよい。図 22では 6点を使ってスプライン補間する方法を説明した力 利 用する点の数はもちろん任意に設定してよい。以上により病変領域 224あるいは 22C が抽出される。 [0045] 次に、コントローラ 17は、抽出した病変領域がどのくらい円に近いかを円形度と呼ば れる量を用いて図 23のように、演算する。円形度 Cは例えば、病変領域の面積 Sと外 周の長さ Rを用いて(1)式で与えられる。
C =4 SZR2 (1)
ここで、円形度 Cは真円で 1になり、形状が複雑になるにつれはりも小さな値となる 。従って閾値 Tを設定して C >Tならばポリープなどの円形に近い病変、 C < Tならば 狭窄などの病変であると判別する。
[0046] 上記説明した円形度は、上記円形度以外に次のような量を利用しても良い。コント ローラ 17は、図 23の病変領域 231について長軸 232 (長さ LL)を算出する。ここでは、 長軸 232に直交し、病変領域 231の辺縁を結ぶ線分のうち最も長いものを短軸 233 (長 さ Ls)とする。コントローラ 17は、前記算出した長軸と短軸との長さの比 LLZ Lsを求め 、閾値 Tに対して比が比 LLZ Lsく Tならばポリープなどの円形に近い病変とし、比 LLZ Ls >Tならば狭窄などの病変であると判別する。
コントローラ 17は、判別された病変部位について、病変の種類に応じた強調処理を 施して CRT13に表示してもよい。コントローラ 17は、例えばポリープならば赤色の丸印 を施し、狭窄ならば青色の丸印を施して CRT13に表示する。コントローラ 17は、丸印 の変わりにもちろん色分けされた矢印で病変部位を指し示してもよいし、また、病変 領域を直接色づけして CRT13に表示してもよい。
[0047] 次に第 3、第 4の実施形態に共通の病変候補検出処理結果を CRT13に表示する方 法にっ 、て図 24を用いて説明する。
第 3の実施形態では病変候補検出処理 (I)および病変候補検出処理 (II)の結果の 論理積を演算する。これによつて、病変候補の見落としが減少できる。
一方、第 4の実施形態では病変候補検出処理 (I)および病変候補検出処理 (Π)の 結果の論理和を演算する。これによつて高精度の病変候補の検出が可能となる。
[0048] 病変候補検出処理 (I)や病変候補検出処理 (II)は第 3の実施形態および第 4の実 施形態で示したように論理積や論理和などにより組み合わせて使用しても良 、し、ま た、もちろんそれぞれ単独で使用しても良い。利用者が病変候補検出の精度を上げ たいのか、見落としを減らしたいのかなど目的に応じて使い分けてもよい。病変候補 検出処理 (I)と病変候補検出処理 (II)の論理積または論理和、あるいはどちらか一方 を単独で使用するかは、図 24の 240の表示選択肢を用いて操作者が自由に選択でき る。コントローラ 17は操作者によって選択された病変候補検出処理法に応じて結果 画像 241— 244として表示する。
結果画像 241はあら力じめ抽出しておいた気管 Z気管支の 3次元画像である。 3次 元画像上には前記病変候補検出処理によって病変候補として検出された部位が色 付きの線 245— 247で表示される。 3次元画像 241はもちろん任意の角度に回転して表 示することが可能である。
[0049] 操作者はマウス 18等を操作して 3次元画像 241上に表示されて ヽる病変候補 245— 247のうちの一つを選択する。表示画像 242,243には前記選択された病変候補部位 の仮想内視鏡画像および断面像が表示される。断面像 243には第 3の実施形態のス テツプ S168および第 4の実施形態のステップ S218で説明した画像強調処理 248が施 されている。
操作者がマウス 18等を操作しボタン 249を押すことで、画像強調処理 248の表示/ 非表示の切り替えが可能である。
操作者はマウス 18等を操作してボタン 24Aを押すことにより断面像 243中の病変候 補周辺を拡大表示することが可能である。拡大された画像はそのまま断面像 243の位 置に表示してもよ 、し、ある 、は画像表示領域 244に表示しても良 、。
[0050] 操作者はマウス 18等を操作しボタン 24Bを押すことにより現在表示されている仮想 内視鏡画像 242 (順方向仮想内視鏡画像と呼ぶ)と視点の方向が 180度回転した逆 方向の仮想内視鏡画像を表示することが可能である。逆方向の仮想内視鏡画像は 順方向仮想内視鏡画像 242の位置に表示しても良 ヽし、画像表示領域 244に表示し ても良い。
操作者がマウス 18等を操作して、 3次元画像 121上に直接病変候補検出位置を指 定する方法の代わりに、スクロールバー 24Cを操作することで病変候補検出結果が順 番に表示されるようにしてもよい。スクロールバーの上部にある数値表示領域に表示 される数値は現在表示されて!ヽる病変候補の番号を示す。 3次元画像 241上の病変 候補位置にあらかじめ数値表示領域に表示される数値に対応する番号を表示しても ょ ヽし、数値表示領域に現在表示されて ヽる数値に対応する病変候補位置 245を他 の病変候補 246や 247と異なる色線で表しても良 、。
操作者はマウス 18等を操作することでスクロールバー 24Dおよびスクロールバー 24E を操作し、断面像 243のウィンドウレベルやウィンドウ幅を設定することができる。設定 されるウィンドウレベルやウィンドウ幅の値は各スクロールバーの上部の数値表示領 域に表示される。
[0051] 3次元画像 241上に表示される病変候補位置を示す色線 245— 247の代わりに図 25 のように断面 245、断面 246、断面 247を表示しても良い。
また、上記一連の病変候補検出処理および病変種類判別処理、病変候補領域表 示はもちろん、血管や腸管など気管 Z気管支以外の管腔臓器について行っても良 い。
[0052] 上記実施形態によれば、内視鏡や仮想内視鏡による観察を行わなくても CTや MR などの医用画像から気管 Z気管支や血管、腸などの管腔臓器内部にできる隆起性 病変を検出することができる。これにより医師の負担を軽減するという効果を奏すると 同時に病変の見落としを減らすことが可能である。
[0053] (第 5の実施形態)
第 1一 4の実施形態のいずれかにより検出した病変候補について、仮想内視鏡を用 V、て病変の位置と大きさなどを確認する場合には、検者に病変の有無を通知しても よい。
コントローラ 17は、表示している仮想内視鏡像上で病変領域に着色する。また、検 者は、視点を更新しながら仮想内視鏡像を観察する時に、視点が病変部分を通過す る直前、直後で視点の方向を病変の方へ向け、病変を通過したら視点方向をまた元 に戻す。
[0054] 第 5の実施形態について図面を用いて説明する。図 26は本実施形態の動作を示す フローチャートである。各ステップについて以下に説明する。はじめに第 1一 4の実施 形態に示す病変検出法のいずれかを用いて病変領域を検出し、それらの位置情報 を記憶する。記憶された位置情報を用いて仮想内視法により仮想内視鏡像を作成し ながら視点を進めていく。 [0055] (ステップ S260)
操作者は仮想内視鏡の視点位置の初期化を行う。ここで初期化とは仮想内視鏡に よる観察を行う時の開始位置の設定である。開始位置の設定は、例えば、操作者が マウス 18などの入力装置を用いて、 CTや MRなどの断層画像上で観察対象となる管 腔臓器内の 1点をクリックすることにより行う。
(ステップ S261)
CPU11は仮想内視鏡像を作成する。
(ステップ S262)
CPU11は上記病変検出法によりあら力じめ検出した病変の情報を用いて、作成し た仮想内視鏡像内に病変領域があるかどうかを判別する。病変領域が存在する場合 にはステップ S263へ進み、存在しな!、場合にはステップ S268へ進む。
[0056] (ステップ S263)
CPU11はステップ S261にお 、て作成した仮想内視鏡像上の病変領域に着色する。 例えば、図 27の領域 270のように着色する。
(ステップ S264)
CPU11は視点位置と病変位置との距離 Lを測定する。
(ステップ S265)
CPU11は前記測定した距離値 Lとあら力じめ設定してぉ 、た閾値 Tを比較する。 L <Tの場合、即ち視点が病変に接近した位置にある場合、ステップ S265へ進み、 L> Tの場合、即ち視点が病変力 遠い位置にある場合にはステップ S268へ進む。
[0057] (ステップ S266)
CPU11は視点の方向を病変のある方向へ変更する。
(ステップ S267)
CPU11は前記変更した視点方向の仮想内視鏡像を作成する。
(ステップ S268)
CPU11は前記作成した仮想内視鏡像を、表示メモリ 12を用いて CRT13に表示する
[0058] (ステップ S269) 操作者は仮想内視鏡の視点を更新する。例えば、マウスの左ボタンを押しつづける と仮想内視鏡の視点が前進し、右ボタンを押しつづけると視点が後退するようにする 。マウスを動かすと視点の方向が変わるようにする。これにより視点の更新が可能とな る。
CPU11は視点を更新したら再びステップ S261に戻って病変存在通知のための仮想 内視鏡画像の作成と、その作成された仮想内視鏡画像を CRT13に表示する。
[0059] ここでは、病変領域への着色と病変通過時に視点を病変の方へむける処理につい て説明した。閾値 Tを短くすれば視点が病変の方向へ向く時間は短くなり、操作者が 視点方向の素早い変化から、見落としなく病変を検出することができる。
視点の方向を変えるかわりに、画面全体を一瞬光らせるようにしてもよいし、病変領 域を通過する際に、視点の更新時間をわざと遅くしたり、あるいは不連続に視点を更 新したりして、仮想内視鏡表示画像の変化を用いて、病変の存在を操作者に通知す るようにしてもよい。また、視点と病変との距離を用いて視覚的通知を行うかどうかの 判断をするかわりに、病変が仮想内視鏡の視野の n%を占めるようになったら、視点方 向の変更、画面の発光、視点更新時間の遅延、視点更新の不連続化などの視覚的 通知を行うようにしてもょ 、。
[0060] (第 6の実施形態)
第 1一 4の実施形態のいずれかにより検出した病変候補について、仮想内視鏡を用 いて病変の位置と大きさなどを確認する場合には、以下に示す方法により操作者に 病変の有無を通知してもよ ヽ。
第 6の実施形態について図を用いて説明する。図 28の 280— 285はそれぞれ仮想内 視法により、管腔臓器内部を、視点位置を更新しながら観察している様子である。 280から 285へと順番に視点位置が更新される。 286は管腔臓器内にできる病変を示 している。仮想内視鏡像 280から 282までは徐々に病変に近づき、 282と 283の間で病 変を通り越し、 283— 285へと徐々に病変力も遠ざかる。仮想内視鏡像の視点位置が 病変に近くなつたら音を発生する。病変に近づくにつれ音量を徐々に大きくし、病変 力も遠ざかるにつれ音量を徐々に小さくする。また病変を通り過ぎる時に音の周波数 を変換し、ドプラ一効果により病変を通り過ぎたことを操作者に通知する。 [0061] 図 29は本実施形態の動作を示すフローチャートである。各ステップについて以下に 説明する。はじめに第 1一 4の実施形態に示す病変検出法のいずれかを用いて病変 領域を検出し、それらの位置情報を記憶する。記憶された位置情報を用いて仮想内 視法により仮想内視鏡像を作成しながら視点を進めていく。
(ステップ S290)
操作者は仮想内視鏡の視点位置の初期化を行う。ここで初期化とは仮想内視鏡に よる観察を行う時の開始位置の設定である。開始位置の設定は、例えば、操作者が マウス 18などの入力装置を用いて、 CTや MRなどの断層画像上で観察対象となる管 腔臓器内の 1点をクリックすることにより行う。
(ステップ S291)
CPU11は仮想内視鏡像を作成し、表示メモリ 12を用いて CRT13に表示する。
(ステップ S292)
CPU11は現在の視点座標 (Χί,Υί,Ζί)を取得し、主メモリ 14に記憶する。
[0062] (ステップ S293)
CPU11は視点位置と病変位置との距離値 Liを取得し、主メモリ 14に記憶する。 (ステップ S294)
CPU11は上記求めた距離値 Liとあら力じめ設定してぉ 、た閾値 Tを比較する。 Liく Tの場合、即ち視点と病変との距離が近い場合にはステップ S295へ進む。視点と病 変との距離が遠 、場合にはステップ S29Bへ進む。
(ステップ S295)
CPU11は上記求めた距離値 Liと、 1つ前の視点と病変との距離 Li-1を比較する。 Li < Li-1の場合、即ち視点が病変に近づいている場合にはステップ S296へ進む。一 方、 Li>Li' lの場合、即ち視点が病変力 遠ざかつている場合にはステップ S298へ 進む。
[0063] (ステップ S296)
CPU11は音程を設定する。視点が病変に近づいている場合は高音に設定する。こ れは、視点が病変力も遠ざ力る場合に低音を与え、視点が病変を通り過ぎるときに高 音と低音を切り替えてドプラ一効果を用いて音を発生させることで、検者が移動させ て 、る視点は病変付近を通って 、ることを知らせるためである。
(ステップ S297)
CPU11は音量を設定する。視点が病変に近づいている場合は音量を上げる。これ は音量が上がったことで、視点が病変に近づいていることを検者に通知するためであ る。
(ステップ S298)
CPU11は音程を低音に設定する。ドプラ一効果により視点が病変力 遠ざ力つてい る状態であることを表す。
[0064] (ステップ S299)
CPU11は音量を設定する。視点が病変力も遠ざ力つているため、音量を下げる。 (ステップ S29A)
CPU11は上記ステップ S296,S297またはステップ S298,S299により設定した音程、音 量の音を、スピーカ 15を通じて発生させる。
(ステップ S29B)
操作者は仮想内視鏡の視点を更新する。例えば、マウスの左ボタンを押しつづける と仮想内視鏡の視点が前進し、右ボタンを押しつづけると視点が後退するようにする 。マウスを動かすと視点の方向が変わるようにする。これにより視点の更新が可能とな る。視点を更新したら再びステップ S291に戻って仮想内視鏡画像の表示と病変の存 在通知のための音発生を行う。
[0065] 病変部が複数存在する場合には、各病変についてそれぞれ特定のトーン、リズム、 メロディの音を与え、同時に複数の病変に近づいている場合には、複数種類の音を 同時に発生させることにより、操作者に病変が複数存在することを通知する。
以上、ドプラ一効果と音量の変化によって、病変の存在とその位置を検者に聴覚的 に通知することで、病変の見落としを削減することが可能となる。
[0066] 第 5の実施形態では気管や気管支、血管、腸管などの管腔臓器内部にできる隆起 性病変について、自動で検出した病変領域を、仮想内視鏡法を用いて観察する場 合に、検者に病変領域の位置を視覚的に通知する方法について説明した。
一方、第 6の実施形態では病変領域を聴覚的に通知する方法について説明した。こ れらの通知法はそれぞれ単独で用いてもよいし、もちろん併用してもよい。様々な通 知法を併用することにより、検者の疲労などに伴い注意力が低下している場合にお いても、気管や気管支、血管、腸管などの管腔臓器内部にできる病変について見落 としの軽減が可能となる。
[0067] 第 5、第 6の実施形態に示すように、検出した病変領域に対して、仮想内視鏡観察 時に視覚的、聴覚的に病変の有無を操作者に通知するかわりに、あらかじめ、観察 したい部位を記憶させておき、仮想内視鏡観察時にその領域に近づいたら、第 5、第 6の実施形態に示すような視覚的、聴覚的方法により、操作者に知らせるようにしても よい。これにより、仮想内視鏡上で注目する部位へ素早く移動することが可能となる。 観察した!/ヽ部位の記憶は、例えば CTや MRなどの断層画像上でマウス 18をクリックし て行ってもよい。あるいは、 CTや MRなどの断層画像から観察対象となる臓器や組織 の 3次元画像を作成し、作成した 3次元画像上でマウス 18をクリックすることで位置を 取得し、記憶するようにしてもよい。
[0068] (第 7の実施形態)
本発明の表示例を図 30に示す。これは以下で説明する第 7—第 11の実施形態に共 通するユーザインターフェイスである。
医用画像診断支援装置は図 1に示すように、領域抽出演算を行う CPU11、医用画 像装置 1Bにより撮影された医用断層画像を LAN1Aなどのネットワークを介して受け 取り記憶する磁気ディスク 16、領域抽出演算時に医用断層画像データや演算の途 中経過を記憶する主メモリ 14、操作者が領域抽出に必要なパラメータなどを入力する ためのコントローラ 17につながれたマウス 18やキーボード 19、そして領域抽出結果表 示に用いる表示メモリ 12と表示装置 (CRT) 13からなる。
本発明の第 7の実施形態を、図 32— 38を用いて説明する。図 32は第 7の実施形態 の処理の流れを示す。
本実施形態では気管支の走行方向に直交する断面を抽出していきそれらを集める ことで気管支全体を抽出する。
(ステップ 300)
操作者はマウス 18やキーボード 19などの入力装置を操作して、ユーザインターフエ イス上の画像入力ボタン 200を押し、モダリティ IBにより撮影された医用断層画像を、 LAN1Aを介して主メモリ 14に入力したり、磁気ディスク 16から入力したりする。
[0069] (ステップ 301)
操作者はマウス 18やキーボード 19などの入力装置を操作して、スライス番号設定ス クロールバー 201、ウィンドウレベル設定スクロールバー 202、ウィンドウ幅設定スクロー ルバ一 203を動かし、画像表示領域 204に所望のスライス画像を表示させる。ここで表 示スライスの設定はもちろん、スライス番号表示領域 205、ウィンドウレベル表示領域 206、ウィンドウ幅表示領域 207に直接数値を入力しても良い。その後、操作者はマウ ス 18やキーボード 19などの入力装置を操作して気管支抽出に用いる各パラメータの 値を設定する。ここで、気管支抽出に用いる各パラメータとは例えば、後で説明する ニ値ィ匕に用いる閾値や、 ROI設定閾値、領域が正しく抽出されたかを判定する時に 用いる面積閾値、円形度閾値、面積比閾値、くびれ度閾値、エッジ比閾値などのこと である。気管支抽出に用いる各パラメータの詳細は後で説明する。パラメータの設定 は前記説明したように操作者が二値化閾値表示領域 208、 209、 ROI設定閾値表示領 域 210、面積閾値表示領域 211、円形度閾値表示領域 212、面積比閾値表示領域 213、くびれ度閾値表示領域 214、エッジ比閾値表示領域 215に直接数値を入力して も良いし、もちろん経験的に求められた値をあら力じめ設定しておきその値を用 V、て も良い。あら力じめ設定した値を用いる場合には、ユーザインターフェイス上に各パラ メータ値を表示してもよい。また、ユーザインターフェイス上に各パラメータ値の表示 は省略できる。
[0070] (ステップ 302)
操作者はマウス 18やキーボード 19などの入力装置を操作して前記入力した医用断 層画像のうち任意の画像上に領域抽出の開始点を選択する。ここで領域抽出の開 始点は前記入力した医用断層画像上の抽出したい気管支上の点であり、例えば図 30の画像表示領域上の点 216のように設定する。次のステップで用いる通常の領域 拡張を行うための開始点である。
[0071] (ステップ 303)
CPU11は前記設定した開始点を元に前記選択した任意の医用断層画像上で領域 拡張を行い、前記断層画像上の気管支断面を抽出する。ここで抽出された気管支断 面は親領域と呼ぶ。親領域には画素値 1がその他の領域には画素値 0が割り当てら れるとする。
[0072] (ステップ 304)
CPU11は前記親領域について面積値 Sp、円形度 Cp、重心座標 Gp、領域を円近似 したときの半径 rp (あるいは親領域を囲む矩形の長軸の長さ)などの物理量を演算す る。ここで円形度 Cとは例えば (2)式で与えられる量であり、注目領域がどのくらい円 に近 、形状をして 、るかを示す指標となる。
C =4 SZ (L X L) (2)
ここで、 Sは注目領域の面積値であり Lは注目領域の外周の長さである。
[0073] (ステップ 305)
CPU11は前記求めた親領域の面積値や円形度などの各物理量についてそれぞれ の気管支断面として適切かどうかを判断する。気管支の走行方向に直交する断面像 は円に近 、楕円形をして 、ると考えられる。従って円形度を測定すると 1に近 、値と なる。そこで気管支断面として適切かどうかの判断は、前記設定した各閾値と前記求 めた各物理量との比較を行い、各物理量が閾値により設定された条件を満たすかど うかにより行う。親領域の各物理量のうちどれか一つでも条件を満足しないものがあ ればステップ 306へ進み、すべての物理量が条件を満たす場合にはステップ 307へ進 む。
[0074] (ステップ 306)
親領域が不適切と判断された場合にはエラーメッセージを出力して管腔臓器抽出 処理を終了する。
[0075] (ステップ 307)
CPU11は次の管腔臓器断面を抽出するための方向ベクトルを決定または更新する 。親領域重心 Gp力も更新された方向べ外ルの方向へ単位長さだけ移動した点を、 次に抽出する領域の仮中心 0とする。
[0076] (ステップ 308)
CPU11は領域抽出を行うときの関心領域 (以下 ROIと呼ぶ)の半径 Rを決定する。こ こで、半径 Rは前記算出した親領域の半径 (あるいは親領域を囲む矩形の長軸の長 さ) rの定数倍である。後で説明するように ROIは適切なものが見つ力るまで決められ た範囲内で半径を変更させる。適切な ROIについては後で説明する。決められた範 囲内とは例えば、親領域半径 rを用いて ar< R<brで表される範囲である。ここで a, b はあら力じめ設定しておいた比率である。具体的には例えば a=0.6, b = 1.4と設定す る。 Rを 0.6rから 1.4rまで適切な ROIが見つ力るまで例えば、 0.2r刻みで増加させる。
[0077] (ステップ 309)
CPU11は前記設定した仮中心 0を中心とし方向ベクトルに直交する半径 Rの ROIを 設定し、前記入力医用断層画像を用いて ROI内の画像を作成する。なお、 CPU11は ROI内の各画素に画素値を割り当てるために入力医用断層画像の断層間を、線形 補間法などを用いて補間演算する。
[0078] (ステップ 310)
CPU11は前記求めた ROI内画像に対して前記設定したニ値ィ匕の閾値を用 V、て二 値化する。ここで、 CPU11は閾値条件を満たす気管支領域候補に画素値 1を、その 他の領域には画素値 0を割り当てる。
[0079] (ステップ 311)
CPU11は前記求めた二値画像内の各領域のうち親領域とつながりのある領域のみ を残し、他の領域には画素値 0を割り当てる。
[0080] (ステップ 312)
CPU11は前記設定した ROIが適切かどうかを判断する。図 32に示すように ROI400に ついて二値化により気管支候補領域 401が得られた場合と気管支候補領域 402が得 られた場合について考える。 ROI400および ROI401の外周の長さを LROIとし、 ROIの 外周のうちニ値ィ匕により得られた気管支候補領域 402、 403と接していない部分の長 さをそれぞれ L402、 L403とする。 ROIの周囲長 LROIと、 ROIの外周のうち気管支候補 領域と接して 、な 、部分の長さ L402、 L403の比 RLが前記設定した領域抽出パラメ一 タの一つである ROI設定閾値 TROIと比較して RL>TROIの場合には設定した ROIが 適切であると判断してステップ 313へ進み、 RL<TROIの場合には設定した ROIが不 適切であると判断してステップ 308へ戻る。例えば TROI = 0.7とすると ROI400は適切 であると判断され、 ROI401は不適切であると判断される。
[0081] (ステップ 313)
CPU11は適切と判断された ROI中でニ値ィ匕により得られた気管支候補領域 (以下、 子領域候補と呼ぶ)の面積 Scや円形度 Cc、親領域との面積比 RS、変形度 (くびれ度 )W、エッジ比 E、重心座標 Gcを算出する。ここでくびれ度とは図 35に示すように ROI500中の子領域候補 501のうちくびれている部分 502の面積を Swとした時に子領 域候補の面積 Scを用いて W=SwZScで表される量である。領域 503のようにくびれて いる部分が存在しない場合にはくびれ度は W=0となる。ただし、領域 504のように ROIの外周と接する部分がない場合にはくびれ度を W= lとする。また、エッジ比とは 図 34に示すように ROI600の外周と子領域候補 601が接する部分の長さ LEとし、 ROI600の外周の長さ LROIを用いて E=LEZLROIで表される量である。
[0082] (ステップ 314)
CPU11は前記算出した子領域候補の面積 Sc、円形度 Cc、親領域との面積比 Rs、く びれ度 W、エッジ比 Eなどの物理量とそれぞれ前記設定した領域抽出パラメータとを 比較して気管支領域として適切カゝどうかを判別する。ここで使用する領域抽出パラメ ータは面積閾値 TS、円形度閾値 TC、面積比閾値 TR1 (下側)、 TR2 (上側)、くびれ度 閾値 TW、エッジ比閾値 TEである。面積閾値 TSは気管支領域断面として適切でない 大きさの領域が見つ力つた場合にこれを除外するために用いる。面積比閾値 TR1、 TR2は親領域との連続性を保障するパラメータである。くびれ度閾値は図 33の領域 503のように、例えば、子領域候補として肺野領域の一部などを子領域候補として抽 出した場合にこれをはじくために用いる。エッジ比についてもくびれ度と同様である。 これらすベての物理量が閾値による条件を満足している場合にその子領域候補を気 管支領域断面として採用する。採用された子領域候補を子領域と呼ぶ。採用されな かった子領域候補には画素値 0を割り当てる。ここで、子領域候補が気管支領域断 面として適切力どうかの判別には前記すベての物理量を用いてもよいし、また前記物 理量のうちの一部を用いてもよ 、。
[0083] (ステップ 315)
CPU11はステップ 314の子領域候補判別処理により気管支領域として適切であると 判断された子領域の数を数える。
[0084] (ステップ 316)
CPU11は前記求めた子領域数が 0かどうか判別し、子領域力^でな 、場合はステツ プ 317へ進み、子領域数が 0の場合はステップ 321へ進む。
[0085] (ステップ 317)
CPU11は前記求めた子領域数力 S1個力 2個以上かを判別し、子領域数が 2個以上 の場合はステップ 318へ進み、子領域数が 1個の場合はステップ 320へ進む。
[0086] (ステップ 318)
CPU11は子領域数力 ¾個以上あった場合に気管支分岐部であると判断し、この時 の親領域の重心座標 Gp、面積 Sp、円形度 Cp、親領域内の各画素の座標、方向べク トル、 ROIの半径 Rなどの各変数を主メモリ 14上の分岐情報格納配列に記憶する。
[0087] (ステップ 319)
CPU11は (子領域の数 · 1)だけ気管支枝総数 Ntを増やす。気管支枝総数 Ntとは抽 出の過程で分岐により見つけられた気管支枝の総数であり、すべての枝について抽 出処理が終了したら全気管支抽出処理を終了するためのものである。
[0088] (ステップ 320)
CPU11は抽出された子領域内の各画素の座標を抽出領域座標格納配列に格納す る。
[0089] (ステップ 321)
子領域が抽出されなかった場合に、 CPU11は、すべての ROI半径について ROIを 作成し子領域候補の抽出処理を行つたかを判断し、すべての ROI半径にっ ヽて抽出 処理を終了していればステップ 322へ進み、まだすベての ROI半径について ROIを作 成して 、なければステップ 308へ戻って ROI半径を更新し、抽出処理を行う。
[0090] (ステップ 322)
CPU11はすべての角度の方向ベクトルについて抽出処理を行つたかを判断し、す ベての角度の方向ベクトルについて抽出処理が終了している場合にはステップ 323 へ進み、まだすベての方向ベクトルにつ 、て抽出処理を終了して ヽな 、場合にはス テツプ 307へ戻って方向ベクトルを更新する。ここですベての方向ベクトルの意味に ついて説明する。図 35に示すように、親領域 700の重心 701から親領域に直交するべ タトル 702に対して、角度 703および 704によって定義されるベクトル 705を求める。角 度 703, 704がとり得るすべての組み合わせにつ!/、て得られるベクトル 705がすべての 方向ベクトルである。実際には例えば、角度 703, 704をそれぞれ 0° から 360° まで 10 ° 刻みでとってもよい。あるいは 10° 刻みではなく 5° 刻みにしてもよい。あるいは角 度 703は 5° 刻みでとり、角度 704は 10° 刻みでとってもよい。あるいは角度 703は 0° から 90° までとり、角度 704は 0° から 360° までとるようにしてもよい。
[0091] (ステップ 323)
CPU11は抽出済み枝数 Nfの値を 1増やす。抽出済み枝数とは気管支の各枝のうち すでに抽出処理が終了した枝の数を指す。
[0092] (ステップ 324)
CPU11は抽出済み枝数 Nfと枝総数 Ntを比較する。 Nfく Ntの場合にはステップ 325 へ進み、 Nf=Ntの場合にはステップ 326へ進む。
[0093] (ステップ 325)
CPU11はステップ 314で抽出した子領域の重心座標 Gc、面積 Sc、円形度 Ccを新た な親領域重心座標 Gp、面積 Sp、円形度 Cpとし、ステップ 307へ戻って抽出処理を繰り 返す。ステップ 314にお 、て子領域が抽出されて 、な 、場合は分岐情報格納配列か ら親領域情報を取得し、今まで抽出処理を行ってきた枝とは別の枝の抽出処理を開 始する。
[0094] (ステップ 326)
CPU11は抽出領域情報記憶配列に格納された情報を元に抽出した気管支の 3次 元画像を作成し、表示メモリを用いて表示器に表示する。抽出気管支 3次元画像は 例えば図 36に示すようにユーザインターフェイス上の画像表示領域 800に表示される
[0095] 以上で発明の実施形態の 1つを説明した。ここでは円形の ROIを用いた。しかし、円 形以外の ROIを用いてもよい。図 37に示すように例えば、親領域 900の重心 901から 外側へ直線 902を引く。直線が親領域外周と交わる点 903から一定の距離 904離れた 直線上に点 905をとる。親領域重心 901を支点として直線 902を 360° 回転して得られ る点群を結んだ線 906を ROIの外周としてもよ!/、。ここで距離 904はステップ 321によつ て任意の大きさに設定される。
[0096] あるいは、親領域 907を囲む矩形領域 908を求め、その長辺の長さ 909、短辺の長さ
910を求める。矩形領域 908の長辺の長さ 909、短辺の長さ 910をそれぞれ α倍して得 られる長さ 911の長辺と長さ 912の短辺をもつ矩形領域 913を ROIとしてもよい。あるい は矩形領域 908の長辺の長さ 909、短辺の長さ 910をそれぞれ α倍した長さの長軸
914、短軸 915をもつ楕円 916を求め、これを ROIとしてもよい。
[0097] ここでは ROIが適切かどうかの判定に用いる ROI設定閾値 TROIを一定値に固定し た場合を例に説明したが、 ROI設定閾値を可変にすることも可能である。以下では
ROI設定閾値可変の場合にっ 、て説明する。
[0098] ステップ 322の処理で行うように図 35の親領域 700の重心 701から親領域に直交する 方向ベクトル 702を基準方向ベクトルとし、基準方向ベクトル 702からの角度 703を変化 させながら ROIを作成する。例えばこの時に、角度 703ごとに ROI設定閾値を変えても ょ 、。可変 ROI設定閾値にっ 、て図 38を用いて説明する。
[0099] 操作者は ROI設定閾値の下限値 TROI1と上限値 TROI2を与える。これらの値は操 作者がユーザインターフェイス上で直接設定できるようにしもよ ヽし、もちろんあらかじ め内部で設定した値を保持してぉ 、てもよ 、。
例えば図 38に示すように基準方向ベクトル 1000からの角度を 0° から角度 1001まで 変化させる場合に、基準方向ベクトルには ROI設定閾値として TROI1を与え、角度 1001傾いた方向ベクトル 1002には TROI2を与える。図 39に第 7の実施形態による気 管支各枝の抽出順番を示す。
[0100] 気管支が図 39に示すような木構造であると仮定し、木構造の最上部から最下部へ 向けて抽出を行うとする。第 7の実施形態では分岐部に到達したら分岐情報を記憶し さらに最下部へ向力つて抽出を進める。分岐部において左側の枝を優先的に抽出 するとする。抽出中の枝が最下部へ到達したら、記憶されている分岐情報のうち最も 早く記憶された分岐部へ戻り、先ほど抽出したのとは反対側の枝へと抽出を進める。 つまり、分岐部へ到達してもそこで抽出をとめることはなく 1つの枝について最下部ま で抽出を終了して力 次の枝へと進む。 [0101] 図 39に分岐点力 分岐点までの間がどのような順番で抽出されるかを数値で表す。 また、各分岐点がどのような順番で抽出される力を丸囲み数字で表す。
[0102] 角度 1001を Θ maxとして基準方向ベクトルから角度 Θ傾いた方向ベクトル 1003の ROI設定閾値 TROI ( Θ )を (3)式で与えてもょ 、。
TROI ( Θ ) =TR0I1 + (TROI2-TROI1) X sin Θ /sin Θ max (3)
あるいは角度 1001を Θ maxとして、方向ベクトル 1003の ROI設定閾値 TROI ( 0 )を(4) 式のように与えてもよい。
TROI ( Θ ) =TROIl + (TROI2-TROI1) X θ / Θ max (4)
[0103] また基準方向からの角度 Θが θ > θ 1となる方向ベクトルにはすべて ROI設定閾値 TROI2を与え 0く Θぐ θ 1の範囲で(3)式あるいは(4)式により ROI設定閾値を決定し てもよい。このとき 0 max = 0 1とする。
ROI設定閾値は、親領域面積値 Spに比例して決定してもよ 、。
操作者は ROI設定閾値の下限値 TROI1と上限値 TROI2を与える。これらの値は操 作者がユーザインターフェイス上で直接設定できるようにしもよ ヽし、もちろんあらかじ め内部で設定した値を保持してぉ 、てもよ 、。
[0104] 例えば、親領域面積値が Spく S1となる時 ROI設定閾値を TTROI2とする。親領域面 積値が SI < Spく S2となる時には ROI設定閾値 TROI (Sp)を (5)式のように与えてもよ い。
TROI (Sp) =TROIl + (TROI2-TROI1) X (Sp— SI) / (S2— SI) (5) ここで SI, S2は操作者が与えてもよいし、あら力じめ内部で設定しておいてもよい。 上記式 (4)や式 (5)で与えられる ROI設定閾値 TROIは、上記式 (4)あるいは式 (5) を用いてあら力じめ計算し参照テーブルィ匕しておくことにより演算の高速ィ匕が可能で ある。また、上記式 (4) ,式 (5)を用いずに経験的に求めた ROI設定閾値 TROIを参照 テーブル化してもよい。
[0105] (第 8の実施形態)
次に第 8の実施形態を、図 39,図 40を用いて説明する。
第 8の実施形態は気管支各枝の抽出順番が第 7の実施形態と異なり、第 7の実施形 態では抽出途中での左右の対称性にっ 、て配慮されて 、な!、。 [0106] 次に第 8の実施形態について気管支の各枝の抽出順番を説明する。第 8の実施形 態では分岐部に到達したら!/、つたんその方向の抽出を止め、分岐情報を記憶する。 1つ前の分岐点に戻って異なる方向の枝を抽出する。分岐点に到達するごとに 1つ上 の階層の分岐点に戻って抽出を行うため、抽出途中で対称性のよ!ヽ抽出が可能で ある。第 8の実施形態において各枝の抽出される順番を図 40に数値で表す。また、各 分岐点が抽出される順番を丸囲み数字で表す。
[0107] この第 8の実施形態によれば、各気管支枝が階層ごとに対称性よく抽出できる。
第 7,第 8の実施形態では抽出結果を全領域の抽出処理が終了したあとに表示して いた。しかし、抽出途中に常に抽出経過を 3次元表示してもよい。
抽出経過を見ながら操作者が抽出終了ボタンを押すとその時点で抽出が終了する ようにしてもよい。末梢の気管支まで抽出する必要がない場合には途中で抽出を終 了することにより、抽出時間の短縮が可能である。
[0108] (第 9の実施形態)
第 7,第 8の実施形態では各末梢の枝を気管支として適切な領域が存在しなくなる まで抽出処理を続ける。しかし、面積終了条件閾値 TSfinを設定し抽出中の子領域面 積が Scく TSfinとなったらその枝の抽出処理を終了し、分岐点に戻ってまだ抽出が行 われて ヽな 、枝の抽出を行うようにしてもょ 、。 TSfinの設定はあら力じめ内部で定義 してお 、てもよ 、し、操作者がユーザインターフェイス上の面積終了条件閾値表示領 域に直接数値を入力してもよい。
[0109] (第 10の実施形態)
第 7および第 8の実施形態で抽出した気管支領域から気管支の芯線を抽出すること も可能である。図 41に示すように、第 7,第 8の実施形態では気管支領域 1300を求め る時に、気管支走行方向に直交する断面 1301— 1311を求めながら抽出を行った。各 断面を抽出した際に同時に、各断面の重心座標 1312— 1322を取得している。取得し た重心座標 1312— 1322をつないだ線 1323を芯線とみなすことができる。重心座標 1312— 1322を結ぶ時には、隣り合う重心間を直線で結んでもよい。あるいは、スプラ イン補間などの補間により結んでもよい。
[0110] (第 11の実施形態) 第 7—第 10の実施形態では X線 CT断層装置で得られたボリュームデータを対象に した抽出について説明した。しかし、本発明は、レントゲン画像などの 2次元画像中の 管腔臓器抽出にも適用可能である。
本発明を 2次元画像への適用例を、図 42,図 43を用いて説明する。
[0111] CPU11は、頭部を撮影したレントゲン画像 1400力も血管を抽出する。第 1の実施形 態と同様に初期親領域を抽出したあと、親領域情報を用いて次の領域を抽出する。 画像 1401は画像 1400中の領域 1402を拡大したものであり、血管 1403の抽出を行う。 CPU11は、線分 1404上の血管部分を親領域として次の領域を抽出する。線分 1404 上の濃度分布は 1405に示されるように与えられる。
[0112] つまり、 CPU11は、線分 1404の中点 1406から半径 1407の円を求める。 CPU11は、円 周上の任意の点における接線 1408において濃度分布 1409を求める。 CPU11は、同 様に円周上の各点において接線 1410, 1411を求めそれに対応する濃度分布 1412, 1413を求める。
[0113] CPU11は、親領域の濃度分布 1405と接線上の各濃度分布 1409, 1412, 1413の相 関を求め、親領域の濃度分布 1405との相関が最も大きいものを子領域として採用す る。この場合、濃度分布 1412をもつ接線 1410上の領域が子領域として採用される。 採用した子領域を親領域として上記の処理を繰り返し適用することにより頭部血管 の一部または全部を抽出することが可能である。
[0114] ここで、円周上のすべての点で接線を求めると図 43に示すように、すでに抽出して いる領域を再び抽出してしまうこともある。抽出方向が 1500とし接線 1501上に親領域 があるとすると、接線 1501および 1502上の濃度分布はそれぞれ 1503, 1504のようにな る。これらの濃度分布の相関は高いため、子領域としてすでに抽出されているはずの 接線 1502上の領域が採用され得る。従って、円周上で接線を引く方向を例えば、親 領域中心と親領域より一つ前に抽出した領域中心を結ぶ線の左右 θ ° 以上の領域 に限定される。
[0115] 第 7— 10の実施形態では気管支を例に説明し、第 11の実施形態では血管を例に説 明したが本発明は気管支,血管,腸管などあらゆる管腔臓器において適用可能であ る。また、画像を撮影したモダリティも X線 CT断層装置、 MRI断層装置、超音波装置 など装置に限定されない。例えば、 MRI断層装置で撮影した画像のように画像全体 にわたつて濃度値が緩やかに変化する場合、しき 、値もそれに適応させて変化させ る必要がある力 このような場合でも本発明は適用可能である。
[0116] 上記各実施形態によれば通常の領域拡張法によって抽出しきれなかった部位を含 めて管腔臓器の抽出が可能になる。また、抽出中に管腔臓器の走行方向に垂直な 断面における重心位置を求めるため、抽出後に細線ィ匕の処理などを行って芯線を求 めなおさなくても、 1回の抽出処理で管腔臓器および管腔臓器芯線の両方が抽出で き、さらに芯線上各点における方向ベクトルが求められる。
[0117] 以上のように、本発明について複数の実施の形態を説明したが、上記開示した実 施の形態に限定されることなぐ請求の範囲に記載される技術思想を実現する技術 内容は全て本発明〖こ包含されるものである。
産業上の利用性
[0118] 本発明は、臓器部位が疾患により形状変化した箇所だけを選択的に診断し、その 診断部位の形状変化を操作者へ画像表示などの視覚、音や声などの聴覚で通知で きるようになり、診断のスループットが向上できる。
[0119] また、本発明は、設定された閾値により臓器領域が適切に抽出され、その抽出され た臓器領域より正確な 3次元画像を構成することができる。

Claims

請求の範囲
[1] 医用画像装置によって得られた被検者の医用画像カゝら臓器部位を設定する臓器 部位設定手段と、
この臓器部位設定手段によって設定された臓器部位の変形度を算出する変形度 算出手段と、
前記臓器部位の変形度の指標を基準値として記憶する基準値記憶手段と、 この基準値記憶手段によって記憶された基準値と前記変形度算出手段によって算 出された変形度とを比較し、その比較結果力 の前記臓器部位の病変の存在を判別 する病変判別手段と、
この病変判別手段によって判別された前記臓器部位の病変の存在を検者の視覚、 聴覚の少なくとも一つの感覚に通知する通知手段と、
を備えたことを特徴とする医用画像診断支援装置。
[2] 請求項 1に記載の医用画像診断支援装置において、前記変形度算出手段は、前 記算出された臓器部位の分岐部分を検出する手段と、この検出手段によって検出さ れた分岐部によって分岐された臓器部位の複数の断面像を作成する手段と、それぞ れ作成された複数の断面像間の対向する辺縁部分の最短距離を算出する距離算出 手段とを備え、前記病変判別手段は前記距離算出手段によって算出された複数の 断面像間の対向する辺縁部分の最短距離に基づき前記臓器部位の病変の存在を 判別することを含む。
[3] 請求項 1に記載の医用画像診断支援装置において、前記基準値記憶手段は、前 記臓器部位の変形度に応じた複数のテンプレートを記憶することを含む。
[4] 請求項 1に記載の医用画像診断支援装置において、前記変形度算出手段は、前 記臓器部位の体軸方向に直交する断面像を算出する断面像算出手段と、この断面 像算出手段によって算出された断面像力 前記臓器部位の内腔と外部を抽出する 抽出手段とを備え、前記抽出手段によって抽出された前記臓器部位の内腔と外部の 変形度を算出することを含む。
[5] 請求項 1に記載の医用画像診断支援装置において、前記変形度算出手段は、前 記臓器部位設定手段によって設定された臓器部位のうちの管腔臓器を抽出する手 段と、この抽出手段によって抽出された管腔臓器に注目領域を設定する注目領域設 定手段と、この注目領域設定手段によって設定された注目領域に基づき前記抽出手 段によって抽出された管腔臓器の断面像を作成する手段とを備え、前記病変判別手 段は前記作成手段によって作成された管腔臓器の断面像の変形度に基づき前記臓 器部位の病変の存在を判別することを含む。
[6] 請求項 1に記載の医用画像診断支援装置において、前記通知手段は、前記判別 手段により判別された病変の存在が色や表示画像の動きによって表示されることで 検者の視覚に通知することを含む。
[7] 請求項 6に記載の医用画像診断支援装置において、前記検者の視覚への通知は 、前記臓器部位設定手段によって設定された臓器部位の断面像を表示し、その断面 像上に前記病変判別手段によって判別された病変候補部分を強調表示することを 含む。
[8] 請求項 1に記載の医用画像診断支援装置において、前記通知手段は、前記判別 手段により判別された病変の存在が音や声、及び音や声の変化によって出力される ことで検者の聴覚に通知することを含む。
[9] 請求項 1に記載の医用画像診断支援装置において、前記医用画像装置によって 得られた断層画像内の管腔臓器の特徴量カゝらその断面を抽出する断面抽出手段と 、この抽出手段によって抽出された管腔臓器断面でその管腔臓器の半径や円形度、 重心を含む物理量を演算する物理量演算手段と、この物理量演算手段によって演 算された物理量に基づき関心領域を算出する関心領域算出手段と、この関心領域 算出手段によって算出された関心領域内で前記断面抽出手段によって抽出された 管腔臓器断面を含む断層画像から管腔臓器の 3次元画像を作成する 3次元画像作 成手段と、この 3次元画像作成手段によって作成された 3次元画像を表示する画像表 示手段とをさらに備えたことを含む。
[10] 請求項 9に記載の医用画像診断支援装置において、前記物理量演算手段によつ て演算された管腔臓器断面の重心に基づき前記管腔臓器の芯線を演算する芯線演 算手段をさらに備え、前記画像表示手段は、前記芯線演算手段によって演算された 芯線と前記 3次元画像作成手段によって作成された 3次元画像と共に表示することを 含む。
[11] 医用画像装置によって得られた被検者の医用画像カゝら臓器部位を設定する臓器 部位設定工程と、
この臓器部位設定工程によって設定された臓器部位の変形度を算出する変形度 算出工程と、
前記臓器部位の変形度の指標を基準値として記憶する基準値記憶工程と、 この基準値記憶工程によって記憶された基準値と前記変形度算出工程によって算 出された変形度とを比較し、その比較結果力 の前記臓器部位の病変の存在を判別 する病変判別工程と、
この病変判別工程によって判別された前記臓器部位の病変の存在を検者の視覚、 聴覚の少なくとも一つの感覚に通知する通知工程と、
を備えたことを特徴とする医用画像診断支援方法。
[12] 請求項 11に記載の医用画像診断支援方法において、前記変形度算出工程は、前 記算出された臓器部位の分岐部分を検出する工程と、この検出工程によって検出さ れた分岐部によって分岐された臓器部位の複数の断面像を作成する工程と、それぞ れ作成された複数の断面像間の対向する辺縁部分の最短距離を算出する距離算出 工程とを備え、前記病変判別工程は前記距離算出工程によって算出された複数の 断面像間の対向する辺縁部分の最短距離に基づき前記臓器部位の病変の存在を 判別することを含む。
[13] 請求項 11に記載の医用画像診断支援方法において、前記基準値記憶工程は、前 記臓器部位の変形度に応じた複数のテンプレートを記憶することを含む。
[14] 請求項 11に記載の医用画像診断支援方法において、前記変形度算出工程は、前 記臓器部位の体軸方向に直交する断面像を算出する断面像算出工程と、この断面 像算出工程によって算出された断面像力 前記臓器部位の内腔と外部を抽出する 抽出工程とを備え、前記抽出工程によって抽出された前記臓器部位の内腔と外部の 変形度を算出することを含む。
[15] 請求項 11に記載の医用画像診断支援方法において、前記変形度算出工程は、前 記臓器部位設定工程によって設定された臓器部位のうちの管腔臓器を抽出するェ 程と、この抽出工程によって抽出された管腔臓器に注目領域を設定する注目領域設 定工程と、この注目領域設定工程によって設定された注目領域に基づき前記抽出ェ 程によって抽出された管腔臓器の断面像を作成する工程とを備え、前記病変判別ェ 程は前記作成工程によって作成された管腔臓器の断面像の変形度に基づき前記臓 器部位の病変の存在を判別することを含む。
[16] 請求項 11に記載の医用画像診断支援方法において、前記通知工程は、前記判別 工程により判別された病変の存在が色や表示画像の動きによって表示されることで 検者の視覚に通知することを含む。
[17] 請求項 16に記載の医用画像診断支援方法において、前記検者の視覚への通知は 、前記臓器部位設定工程によって設定された臓器部位の断面像を表示し、その断面 像上に前記病変判別工程によって判別された病変候補部分を強調表示することを 含む。
[18] 請求項 11に記載の医用画像診断支援方法において、前記通知工程は、前記判別 工程により判別された病変の存在が音や声、及び音や声の変化によって出力される ことで検者の聴覚に通知することを含む。
[19] 請求項 11に記載の医用画像診断支援方法において、前記医用画像装置によって 得られた断層画像内の管腔臓器の特徴量カゝらその断面を抽出する断面抽出工程と 、この抽出工程によって抽出された管腔臓器断面でその管腔臓器の半径や円形度、 重心を含む物理量を演算する物理量演算工程と、この物理量演算工程によって演 算された物理量に基づき関心領域を算出する関心領域算出工程と、この関心領域 算出工程によって算出された関心領域内で前記断面抽出工程によって抽出された 管腔臓器断面を含む断層画像から管腔臓器の- 3次元画像を作成する 3次元画像作 成工程と、この 3次元画像作成工程によって作成された 3次元画像を表示する画像表 示工程とをさらに備えたことを含む。
[20] 請求項 19に記載の医用画像診断支援方法において、前記物理量演算工程によつ て演算された管腔臓器断面の重心に基づき前記管腔臓器の芯線を演算する芯線演 算工程をさらに備え、前記画像表示工程は、前記芯線演算工程によって演算された 芯線と前記 3次元画像作成工程によって作成された 3次元画像と共に表示することを
SC80T0/l700Zdf/X3d
PCT/JP2004/010835 2003-08-01 2004-07-29 医用画像診断支援装置及び方法 Ceased WO2005011501A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US10/566,666 US7894646B2 (en) 2003-08-01 2004-07-29 Medical image diagnosis support device and method for calculating degree of deformation from normal shapes of organ regions
JP2005512511A JP4416736B2 (ja) 2003-08-01 2004-07-29 医用画像診断支援装置及びプログラム

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2003-284919 2003-08-01
JP2003284919 2003-08-01
JP2003-313424 2003-09-05
JP2003313424 2003-09-05
JP2004117734 2004-04-13
JP2004-117734 2004-04-13

Publications (1)

Publication Number Publication Date
WO2005011501A1 true WO2005011501A1 (ja) 2005-02-10

Family

ID=34119572

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/010835 Ceased WO2005011501A1 (ja) 2003-08-01 2004-07-29 医用画像診断支援装置及び方法

Country Status (3)

Country Link
US (1) US7894646B2 (ja)
JP (1) JP4416736B2 (ja)
WO (1) WO2005011501A1 (ja)

Cited By (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005224460A (ja) * 2004-02-16 2005-08-25 Hitachi Medical Corp 医用画像診断装置
JP2006314790A (ja) * 2005-05-13 2006-11-24 Tomtec Imaging Syst Gmbh 2次元断面画像を再構築するための方法及び装置
JP2007020731A (ja) * 2005-07-13 2007-02-01 Matsushita Electric Ind Co Ltd 超音波診断装置
JP2007044121A (ja) * 2005-08-08 2007-02-22 Hitachi Medical Corp 医用画像表示方法及び装置
JP2007117108A (ja) * 2005-10-24 2007-05-17 Med Solution Kk 器官の状態変化を評価する装置およびプログラム
JP2007282945A (ja) * 2006-04-19 2007-11-01 Toshiba Corp 画像処理装置
WO2007122896A1 (ja) 2006-03-29 2007-11-01 Hitachi Medical Corporation 医用画像表示システム及び医用画像表示プログラム
JP2008000270A (ja) * 2006-06-21 2008-01-10 Aze Ltd 生体組織の識別画像作成方法、装置およびプログラム
JP2008036284A (ja) * 2006-08-09 2008-02-21 Toshiba Corp 医用画像合成方法及びその装置
WO2008152938A1 (ja) * 2007-06-11 2008-12-18 Hitachi Medical Corporation 医用画像表示装置、医用画像表示方法及び医用画像表示プログラム
JP2009153677A (ja) * 2007-12-26 2009-07-16 Konica Minolta Medical & Graphic Inc 動態画像処理システム
JP2009165615A (ja) * 2008-01-16 2009-07-30 Fujifilm Corp 腫瘍領域サイズ測定方法および装置ならびにプログラム
JP2009183508A (ja) * 2008-02-07 2009-08-20 Hitachi Medical Corp 画像診断支援装置
JP2009195585A (ja) * 2008-02-25 2009-09-03 Toshiba Corp 超音波診断装置、及び超音波診断装置の制御プログラム
JP2010504794A (ja) * 2006-09-29 2010-02-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 突起検出方法、システム及びコンピュータプログラム
JP2010075549A (ja) * 2008-09-26 2010-04-08 Toshiba Corp 画像処理装置
JP2010082374A (ja) * 2008-10-02 2010-04-15 Toshiba Corp 画像表示装置及び画像表示方法
JP2010158452A (ja) * 2009-01-09 2010-07-22 Fujifilm Corp 画像処理装置および方法並びにプログラム
JP2010167188A (ja) * 2009-01-26 2010-08-05 Toshiba Corp 医用画像診断装置、画像データ出力装置及び画像データ出力用制御プログラム
US7853304B2 (en) 2005-05-13 2010-12-14 Tomtec Imaging Systems Gmbh Method and device for reconstructing two-dimensional sectional images
JP2011135937A (ja) * 2009-12-25 2011-07-14 Toshiba Corp 医用画像処理装置、医用画像処理プログラム及び医用画像診断装置
JP2011139767A (ja) * 2010-01-06 2011-07-21 Toshiba Corp 医用画像の表示装置及び表示方法
JP2011139821A (ja) * 2010-01-08 2011-07-21 Toshiba Corp 医用画像診断装置
JP2011530363A (ja) * 2008-08-11 2011-12-22 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 細長い要素の変形の識別
JP2012040207A (ja) * 2010-08-19 2012-03-01 Toshiba Corp 超音波診断装置、超音波診断装置の制御プログラム、及び画像処理装置
JP2012509133A (ja) * 2009-09-10 2012-04-19 インフィニット ヘルスケア カンパニー リミテッド 仮想内視鏡装置とその駆動方法及び検診装置
JP2012110549A (ja) * 2010-11-26 2012-06-14 Fujifilm Corp 医用画像処理装置および方法、並びにプログラム
JP2013517914A (ja) * 2010-01-28 2013-05-20 ラドロジックス, インコーポレイテッド 医療画像を分析、優先順位付与、視覚化、および報告するための方法およびシステム
WO2015037510A1 (ja) * 2013-09-10 2015-03-19 日立アロカメディカル株式会社 超音波診断装置
JP2017170172A (ja) * 2010-10-19 2017-09-28 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 医用画像システム
JP2018042627A (ja) * 2016-09-12 2018-03-22 キヤノンメディカルシステムズ株式会社 医用画像診断装置及び医用画像処理装置
JP2018183589A (ja) * 2017-04-25 2018-11-22 バイオセンス・ウエブスター・(イスラエル)・リミテッドBiosense Webster (Israel), Ltd. 狭い通路における侵襲的手順の内視鏡画像
JP2019005034A (ja) * 2017-06-22 2019-01-17 株式会社根本杏林堂 医用画像処理装置、医用画像処理システムおよび医用画像処理方法
JP2020096773A (ja) * 2018-12-19 2020-06-25 富士フイルム株式会社 医用画像処理装置、方法およびプログラム
JP2020146200A (ja) * 2019-03-13 2020-09-17 キヤノン株式会社 画像処理装置、画像閲覧装置および画像処理システム
JPWO2019078102A1 (ja) * 2017-10-20 2020-10-22 富士フイルム株式会社 医療画像処理装置
JPWO2021029292A1 (ja) * 2019-08-13 2021-02-18
JP2022046808A (ja) * 2017-06-22 2022-03-23 株式会社根本杏林堂 医用画像処理装置、医用画像処理システムおよび医用画像処理方法
US11475568B2 (en) 2018-05-16 2022-10-18 Panasonic Holdings Corporation Method for controlling display of abnormality in chest x-ray image, storage medium, abnormality display control apparatus, and server apparatus
JP2024072310A (ja) * 2022-11-16 2024-05-28 コニカミノルタ株式会社 プログラム、表示装置、表示システム及び表示方法

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7616801B2 (en) 2002-11-27 2009-11-10 Hologic, Inc. Image handling and display in x-ray mammography and tomosynthesis
WO2006058160A2 (en) 2004-11-26 2006-06-01 Hologic, Inc. Integrated multi-mode mammography/tomosynthesis x-ray system and method
US8565372B2 (en) 2003-11-26 2013-10-22 Hologic, Inc System and method for low dose tomosynthesis
US7123684B2 (en) 2002-11-27 2006-10-17 Hologic, Inc. Full field mammography with tissue exposure control, tomosynthesis, and dynamic field of view processing
US10638994B2 (en) 2002-11-27 2020-05-05 Hologic, Inc. X-ray mammography with tomosynthesis
US7577282B2 (en) 2002-11-27 2009-08-18 Hologic, Inc. Image handling and display in X-ray mammography and tomosynthesis
JP3932303B2 (ja) * 2005-05-13 2007-06-20 独立行政法人放射線医学総合研究所 臓器動態の定量化方法、装置、臓器位置の予測方法、装置、放射線照射方法、装置及び臓器異常検出装置
JP4388104B2 (ja) * 2007-06-29 2009-12-24 ザイオソフト株式会社 画像処理方法、画像処理プログラム及び画像処理装置
JP4541434B2 (ja) * 2008-07-14 2010-09-08 ザイオソフト株式会社 画像処理装置及び画像処理プログラム
US20100063842A1 (en) * 2008-09-08 2010-03-11 General Electric Company System and methods for indicating an image location in an image stack
WO2010055817A1 (ja) * 2008-11-13 2010-05-20 株式会社 日立メディコ 画像処理装置及び画像処理方法
CN102576471B (zh) * 2008-12-18 2015-09-23 皇家飞利浦电子股份有限公司 生成医学图像的视图
GB2475722B (en) * 2009-11-30 2011-11-02 Mirada Medical Measurement system for medical images
US9378331B2 (en) 2010-11-19 2016-06-28 D.R. Systems, Inc. Annotation and assessment of images
JP5971682B2 (ja) * 2011-03-02 2016-08-17 東芝メディカルシステムズ株式会社 磁気共鳴イメージング装置
JP6039903B2 (ja) * 2012-01-27 2016-12-07 キヤノン株式会社 画像処理装置、及びその作動方法
JP6426144B2 (ja) * 2013-03-19 2018-11-21 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 医療システムに対する聴覚に関する機能強化
US10127662B1 (en) 2014-08-11 2018-11-13 D.R. Systems, Inc. Systems and user interfaces for automated generation of matching 2D series of medical images and efficient annotation of matching 2D medical images
US11076820B2 (en) 2016-04-22 2021-08-03 Hologic, Inc. Tomosynthesis with shifting focal spot x-ray system using an addressable array
JP6955303B2 (ja) * 2017-04-12 2021-10-27 富士フイルム株式会社 医用画像処理装置および方法並びにプログラム
CN110868907B (zh) * 2017-04-28 2022-05-17 奥林巴斯株式会社 内窥镜诊断辅助系统、存储介质和内窥镜诊断辅助方法
US10552978B2 (en) * 2017-06-27 2020-02-04 International Business Machines Corporation Dynamic image and image marker tracking
JP6738305B2 (ja) * 2017-06-30 2020-08-12 富士フイルム株式会社 学習データ生成支援装置および学習データ生成支援装置の作動方法並びに学習データ生成支援プログラム
EP3668404B1 (en) 2017-08-16 2022-07-06 Hologic, Inc. Techniques for breast imaging patient motion artifact compensation
EP3449835B1 (en) 2017-08-22 2023-01-11 Hologic, Inc. Computed tomography system and method for imaging multiple anatomical targets
US11090017B2 (en) 2018-09-13 2021-08-17 Hologic, Inc. Generating synthesized projection images for 3D breast tomosynthesis or multi-mode x-ray breast imaging
DE112019004880T5 (de) * 2018-09-27 2021-07-01 Hoya Corporation Elektronisches endoskopsystem
EP3832689A3 (en) 2019-12-05 2021-08-11 Hologic, Inc. Systems and methods for improved x-ray tube life
US11471118B2 (en) 2020-03-27 2022-10-18 Hologic, Inc. System and method for tracking x-ray tube focal spot position
US11786191B2 (en) 2021-05-17 2023-10-17 Hologic, Inc. Contrast-enhanced tomosynthesis with a copper filter
CN116580071A (zh) * 2022-01-29 2023-08-11 佳能医疗系统株式会社 医用图像配准方法、医用图像处理装置、存储介质及程序产品
US12414217B2 (en) 2022-02-07 2025-09-09 Hologic, Inc. Systems and methods for adaptively controlling filament current in an X-ray tube

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08336524A (ja) * 1995-06-13 1996-12-24 Shimadzu Corp X線画像処理装置
JP2002207992A (ja) * 2001-01-12 2002-07-26 Hitachi Ltd 画像処理方法及び画像処理装置
JP2003070781A (ja) * 2001-09-04 2003-03-11 Hitachi Medical Corp 医用画像診断支援装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5603318A (en) * 1992-04-21 1997-02-18 University Of Utah Research Foundation Apparatus and method for photogrammetric surgical localization
JP3679512B2 (ja) * 1996-07-05 2005-08-03 キヤノン株式会社 画像抽出装置および方法
JP2984652B2 (ja) * 1997-08-22 1999-11-29 富士通株式会社 領域抽出装置及び領域抽出方法並びにコンピュータで実現可能なプログラムが記憶された記録媒体
US6301498B1 (en) * 1998-04-17 2001-10-09 Cornell Research Foundation, Inc. Method of determining carotid artery stenosis using X-ray imagery
US6901156B2 (en) * 2000-02-04 2005-05-31 Arch Development Corporation Method, system and computer readable medium for an intelligent search workstation for computer assisted interpretation of medical images
US6643533B2 (en) * 2000-11-28 2003-11-04 Ge Medical Systems Global Technology Company, Llc Method and apparatus for displaying images of tubular structures
JP2004041694A (ja) * 2002-05-13 2004-02-12 Fuji Photo Film Co Ltd 画像生成装置およびプログラム、画像選択装置、画像出力装置、画像提供サービスシステム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08336524A (ja) * 1995-06-13 1996-12-24 Shimadzu Corp X線画像処理装置
JP2002207992A (ja) * 2001-01-12 2002-07-26 Hitachi Ltd 画像処理方法及び画像処理装置
JP2003070781A (ja) * 2001-09-04 2003-03-11 Hitachi Medical Corp 医用画像診断支援装置

Cited By (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005224460A (ja) * 2004-02-16 2005-08-25 Hitachi Medical Corp 医用画像診断装置
JP2006314790A (ja) * 2005-05-13 2006-11-24 Tomtec Imaging Syst Gmbh 2次元断面画像を再構築するための方法及び装置
US7853304B2 (en) 2005-05-13 2010-12-14 Tomtec Imaging Systems Gmbh Method and device for reconstructing two-dimensional sectional images
JP2007020731A (ja) * 2005-07-13 2007-02-01 Matsushita Electric Ind Co Ltd 超音波診断装置
JP2007044121A (ja) * 2005-08-08 2007-02-22 Hitachi Medical Corp 医用画像表示方法及び装置
JP2007117108A (ja) * 2005-10-24 2007-05-17 Med Solution Kk 器官の状態変化を評価する装置およびプログラム
JPWO2007122896A1 (ja) * 2006-03-29 2009-09-03 株式会社日立メディコ 医用画像表示システム及び医用画像表示プログラム
WO2007122896A1 (ja) 2006-03-29 2007-11-01 Hitachi Medical Corporation 医用画像表示システム及び医用画像表示プログラム
US8107701B2 (en) 2006-03-29 2012-01-31 Hitachi Medical Corporation Medical image display system and medical image display program
JP2007282945A (ja) * 2006-04-19 2007-11-01 Toshiba Corp 画像処理装置
JP2008000270A (ja) * 2006-06-21 2008-01-10 Aze Ltd 生体組織の識別画像作成方法、装置およびプログラム
JP2008036284A (ja) * 2006-08-09 2008-02-21 Toshiba Corp 医用画像合成方法及びその装置
JP2010504794A (ja) * 2006-09-29 2010-02-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 突起検出方法、システム及びコンピュータプログラム
WO2008152938A1 (ja) * 2007-06-11 2008-12-18 Hitachi Medical Corporation 医用画像表示装置、医用画像表示方法及び医用画像表示プログラム
JP2009153677A (ja) * 2007-12-26 2009-07-16 Konica Minolta Medical & Graphic Inc 動態画像処理システム
JP2009165615A (ja) * 2008-01-16 2009-07-30 Fujifilm Corp 腫瘍領域サイズ測定方法および装置ならびにプログラム
JP2009183508A (ja) * 2008-02-07 2009-08-20 Hitachi Medical Corp 画像診断支援装置
JP2009195585A (ja) * 2008-02-25 2009-09-03 Toshiba Corp 超音波診断装置、及び超音波診断装置の制御プログラム
JP2011530363A (ja) * 2008-08-11 2011-12-22 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 細長い要素の変形の識別
JP2010075549A (ja) * 2008-09-26 2010-04-08 Toshiba Corp 画像処理装置
JP2010082374A (ja) * 2008-10-02 2010-04-15 Toshiba Corp 画像表示装置及び画像表示方法
US9214139B2 (en) 2008-10-02 2015-12-15 Kabushiki Kaisha Toshiba Image display apparatus and image display method
JP2010158452A (ja) * 2009-01-09 2010-07-22 Fujifilm Corp 画像処理装置および方法並びにプログラム
JP2010167188A (ja) * 2009-01-26 2010-08-05 Toshiba Corp 医用画像診断装置、画像データ出力装置及び画像データ出力用制御プログラム
JP2012509133A (ja) * 2009-09-10 2012-04-19 インフィニット ヘルスケア カンパニー リミテッド 仮想内視鏡装置とその駆動方法及び検診装置
JP2011135937A (ja) * 2009-12-25 2011-07-14 Toshiba Corp 医用画像処理装置、医用画像処理プログラム及び医用画像診断装置
JP2011139767A (ja) * 2010-01-06 2011-07-21 Toshiba Corp 医用画像の表示装置及び表示方法
JP2011139821A (ja) * 2010-01-08 2011-07-21 Toshiba Corp 医用画像診断装置
JP2013517914A (ja) * 2010-01-28 2013-05-20 ラドロジックス, インコーポレイテッド 医療画像を分析、優先順位付与、視覚化、および報告するための方法およびシステム
JP2018163680A (ja) * 2010-01-28 2018-10-18 ラドロジックス, インコーポレイテッド 医療画像を分析、優先順位付与、視覚化、および報告するための方法およびシステム
JP2012040207A (ja) * 2010-08-19 2012-03-01 Toshiba Corp 超音波診断装置、超音波診断装置の制御プログラム、及び画像処理装置
JP2017170172A (ja) * 2010-10-19 2017-09-28 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 医用画像システム
JP2012110549A (ja) * 2010-11-26 2012-06-14 Fujifilm Corp 医用画像処理装置および方法、並びにプログラム
US9024941B2 (en) 2010-11-26 2015-05-05 Fujifilm Corporation Sequentially displaying virtual endoscopic images by setting an observation path to compensate for a curved region of the tubular structure
JP2015053957A (ja) * 2013-09-10 2015-03-23 日立アロカメディカル株式会社 超音波診断装置
WO2015037510A1 (ja) * 2013-09-10 2015-03-19 日立アロカメディカル株式会社 超音波診断装置
JP2018042627A (ja) * 2016-09-12 2018-03-22 キヤノンメディカルシステムズ株式会社 医用画像診断装置及び医用画像処理装置
JP2018183589A (ja) * 2017-04-25 2018-11-22 バイオセンス・ウエブスター・(イスラエル)・リミテッドBiosense Webster (Israel), Ltd. 狭い通路における侵襲的手順の内視鏡画像
JP7505081B2 (ja) 2017-04-25 2024-06-24 バイオセンス・ウエブスター・(イスラエル)・リミテッド 狭い通路における侵襲的手順の内視鏡画像
JP2023080220A (ja) * 2017-04-25 2023-06-08 バイオセンス・ウエブスター・(イスラエル)・リミテッド 狭い通路における侵襲的手順の内視鏡画像
JP2019005034A (ja) * 2017-06-22 2019-01-17 株式会社根本杏林堂 医用画像処理装置、医用画像処理システムおよび医用画像処理方法
JP2023110069A (ja) * 2017-06-22 2023-08-08 株式会社根本杏林堂 医用画像処理装置、医用画像処理システムおよび医用画像処理方法
JP2022046808A (ja) * 2017-06-22 2022-03-23 株式会社根本杏林堂 医用画像処理装置、医用画像処理システムおよび医用画像処理方法
JP7298949B2 (ja) 2017-06-22 2023-06-27 株式会社根本杏林堂 医用画像処理装置、医用画像処理システムおよび医用画像処理方法
JP7017220B2 (ja) 2017-06-22 2022-02-08 株式会社根本杏林堂 医用画像処理装置、医用画像処理システムおよび医用画像処理方法
JPWO2019078102A1 (ja) * 2017-10-20 2020-10-22 富士フイルム株式会社 医療画像処理装置
JP7059297B2 (ja) 2017-10-20 2022-04-25 富士フイルム株式会社 医療画像処理装置
US11379977B2 (en) 2017-10-20 2022-07-05 Fujifilm Corporation Medical image processing device
US11475568B2 (en) 2018-05-16 2022-10-18 Panasonic Holdings Corporation Method for controlling display of abnormality in chest x-ray image, storage medium, abnormality display control apparatus, and server apparatus
JP2020096773A (ja) * 2018-12-19 2020-06-25 富士フイルム株式会社 医用画像処理装置、方法およびプログラム
JP7317528B2 (ja) 2019-03-13 2023-07-31 キヤノン株式会社 画像処理装置、画像処理システムおよび制御方法
JP2020146200A (ja) * 2019-03-13 2020-09-17 キヤノン株式会社 画像処理装置、画像閲覧装置および画像処理システム
WO2021029292A1 (ja) * 2019-08-13 2021-02-18 富士フイルム株式会社 画像診断支援装置、内視鏡システム、画像診断支援方法、及び画像診断支援プログラム
JP7290729B2 (ja) 2019-08-13 2023-06-13 富士フイルム株式会社 画像診断支援装置、内視鏡システム、画像診断支援装置の作動方法、及び画像診断支援プログラム
JPWO2021029292A1 (ja) * 2019-08-13 2021-02-18
JP2024072310A (ja) * 2022-11-16 2024-05-28 コニカミノルタ株式会社 プログラム、表示装置、表示システム及び表示方法

Also Published As

Publication number Publication date
JPWO2005011501A1 (ja) 2007-09-27
US7894646B2 (en) 2011-02-22
US20060280347A1 (en) 2006-12-14
JP4416736B2 (ja) 2010-02-17

Similar Documents

Publication Publication Date Title
JP4416736B2 (ja) 医用画像診断支援装置及びプログラム
US6944330B2 (en) Interactive computer-aided diagnosis method and system for assisting diagnosis of lung nodules in digital volumetric medical images
CN101036165B (zh) 用于树模型显像以检测肺栓塞的系统和方法
JP5031968B2 (ja) デジタル腸サブトラクションおよびポリープ検出システムならびに関連技術
CN102007515B (zh) 用于对肺动脉进行分割的方法和系统
EP2244633A2 (en) Medical image reporting system and method
JP2008510499A (ja) 解剖学的可視化/測定システム
JP2008521461A (ja) 知識構造のマッピングを使用した管状器官を測定する方法
US12051156B2 (en) System and method for linking a segmentation graph to volumetric data
US20140257114A1 (en) Image processing apparatus, image processing method, and computer-readable recording device
JP2008520317A (ja) 医療画像データ内の腫瘍境界を自動的に検出及び区分するシステム及び方法
JP2006246941A (ja) 画像処理装置及び管走行トラッキング方法
CN113470060A (zh) 基于ct影像的冠状动脉多角度曲面重建可视化方法
JP2007061622A (ja) 気道内腔の直径、気道壁の厚さおよび気管支動脈比を使用して多断面コンピュータ断層撮影(msct)イメージデータの自動的な気道評価を行うためのシステムおよび方法
JP4169967B2 (ja) 画像診断支援装置
JP2010075549A (ja) 画像処理装置
Gibbs et al. 3D path planning and extension for endoscopic guidance
US12462389B2 (en) Image processing method, image processing program, and image processing device for partitioning a 3D object at narrow parts of shape
JP4336083B2 (ja) 画像診断支援装置、画像診断支援方法
US20110285695A1 (en) Pictorial Representation in Virtual Endoscopy
WO2022176873A1 (ja) 医療画像処理装置、医療画像処理方法およびプログラム
JP4738236B2 (ja) 画像表示装置
JP5001248B2 (ja) 画像診断支援装置
Kiraly 3D image analysis and visualization of tubular structures
JP7783007B2 (ja) 医用画像処理装置、医用画像処理方法及び医用画像処理プログラム

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2005512511

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2006280347

Country of ref document: US

Ref document number: 10566666

Country of ref document: US

122 Ep: pct application non-entry in european phase
WWP Wipo information: published in national office

Ref document number: 10566666

Country of ref document: US