[go: up one dir, main page]

WO2011021254A1 - 医用画像処理装置及びその方法 - Google Patents

医用画像処理装置及びその方法 Download PDF

Info

Publication number
WO2011021254A1
WO2011021254A1 PCT/JP2009/004029 JP2009004029W WO2011021254A1 WO 2011021254 A1 WO2011021254 A1 WO 2011021254A1 JP 2009004029 W JP2009004029 W JP 2009004029W WO 2011021254 A1 WO2011021254 A1 WO 2011021254A1
Authority
WO
WIPO (PCT)
Prior art keywords
cross
sectional
basic
auxiliary
section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2009/004029
Other languages
English (en)
French (fr)
Inventor
新田修平
武口智行
西浦正英
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to PCT/JP2009/004029 priority Critical patent/WO2011021254A1/ja
Priority to JP2011527494A priority patent/JP5323194B2/ja
Priority to US13/389,334 priority patent/US9098927B2/en
Publication of WO2011021254A1 publication Critical patent/WO2011021254A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5223Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/523Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for generating planar views from image data in a user selectable plane not corresponding to the acquisition plane
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/008Cut plane or projection plane definition
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/028Multiple view windows (top-side-front-sagittal-orthogonal)

Definitions

  • the present invention relates to a medical image processing technique for displaying a desired cross section from three-dimensional medical image data.
  • Patent Document 1 a plurality of desired cross-sectional positions are set from three-dimensional medical image data captured by X-ray CT, MRI, or the like. And when the patent document 1 diagnoses for every site
  • Patent Document 1 since only the rough position in the three-dimensional space of the desired cross section and the cross section image is referred to, there is a problem that the spatial position of the cross section cannot be sufficiently confirmed. there were.
  • an object of the present invention is to provide a medical image processing apparatus and method for easily confirming the spatial position of a desired cross section.
  • the present invention includes a basic position calculation unit that calculates a basic cross-sectional position indicating a spatial position of a basic cross section in a three-dimensional image space from three-dimensional medical image data including a target portion, and a cross section that intersects the basic cross section.
  • An auxiliary position calculation unit that calculates at least one auxiliary cross-sectional position indicating a spatial position of a certain auxiliary cross-section, and generates a basic cross-sectional image using the medical image data and the basic cross-sectional position, and the medical image data and the A generating unit that generates an auxiliary cross-sectional image using the auxiliary cross-sectional position, a relationship calculating unit that calculates positional relationship information indicating a relative positional relationship between the basic cross-sectional position and the auxiliary cross-sectional position, and the basic cross-sectional image, or
  • a medical image processing apparatus comprising: a combining unit that combines the positional relationship information with the auxiliary cross-sectional image; and a display unit that displays the combined image.
  • the spatial position of the basic cross section can be easily confirmed.
  • FIG. 1 is a block diagram of a medical image processing apparatus according to an embodiment.
  • (A) (b) is explanatory drawing of anatomical positioning of a four-chamber cross-sectional image.
  • (A) is an explanatory view of an Axial section, a sagittal section, and a coronal section of the three-dimensional image space 20, and (b) to (d) are diagrams of an axial section image, a sagittal section image, and a coronal section image.
  • the flowchart of a medical image processing apparatus (A) is explanatory drawing of the basic cross-section position of the three-dimensional image space 20, (b) is a figure of a basic cross-sectional image.
  • (A)-(c) is explanatory drawing of the auxiliary cross-section position of the three-dimensional image space 20
  • (d)-(f) is a figure of an auxiliary cross-sectional image.
  • (A)-(c) is a figure of an auxiliary cross-sectional image
  • (d) is a figure of a basic cross-sectional image.
  • (A) is an explanatory view of a basic cross section of the three-dimensional image space 20
  • (b) to (g) are diagrams of auxiliary cross sectional images
  • (i) is a diagram of basic cross sectional images.
  • This embodiment is useful for medical image diagnostic apparatuses such as X-ray CT, MRI, and ultrasound, and is particularly suitable when a cross-sectional image at a desired spatial position is required for a site to be diagnosed.
  • the organ to be diagnosed is a heart
  • a “four-chamber cross-sectional image” is given as a specific example as a basic cross section.
  • the “basic cross section” is a cross section set so as to include a desired site used by a doctor for diagnosis.
  • the basic cross section is not limited to the four-chamber cross-sectional image, and may be, for example, a “two-chamber cross-sectional image” or a “left ventricular short-axis image”.
  • FIG. 1 is a block diagram showing the configuration of the medical image processing apparatus 1.
  • the medical image processing apparatus 1 includes a basic position calculation unit 2, an auxiliary position calculation unit 3, a generation unit 4, a relationship calculation unit 5, a synthesis unit 6, an input unit 7, a correction unit 8, and a display unit 9. have.
  • Medical image data which is three-dimensional volume data obtained from a medical image photographing apparatus such as X-ray CT, MRI, or ultrasound, is input to the basic position calculation unit 2 and the generation unit 4.
  • the basic position calculation unit 2 calculates a basic cross-sectional position indicating a spatial position of the basic cross-section from the medical image data.
  • the auxiliary position calculation unit 3 calculates an auxiliary cross section position indicating a spatial position of the auxiliary cross section that intersects the basic cross section from the basic cross section position.
  • the generating unit 4 generates a basic cross-sectional image using the basic cross-sectional position and medical image data, and generates an auxiliary cross-sectional image using the auxiliary cross-sectional position and medical image data.
  • the relationship calculation unit 5 calculates relative positional relationship information between the basic sectional position and the auxiliary sectional position.
  • the synthesizing unit 6 synthesizes the relative positional relationship information of each cross section calculated by the relationship calculating unit 5 with the basic cross-sectional image and the auxiliary cross-sectional image, and displays them on the display unit 9.
  • the display unit 9 is a display such as a liquid crystal display device or a CRT.
  • the input unit 7 is a means for inputting correction information relating to positional relationship information of the basic cross-sectional image and the auxiliary cross-sectional image.
  • the input unit 7 is realized by a user interface such as a mouse, a keyboard, a trackball, or a touch pad.
  • the correction unit 8 corrects the basic sectional position and the auxiliary sectional position based on the correction information received by the input unit 7.
  • FIG. 2A shows an anatomical positioning 10 of the four-chamber cross-sectional image
  • FIG. 2B shows an example of the four-chamber cross-sectional image 11.
  • FIG. 2B the four-chamber cross-sectional image includes all four chambers of the heart (left ventricle 11a, left atrium 11b, right ventricle 11c, and right atrium 11d).
  • the four-chamber cross-sectional image is known as a cross-section including the mitral valve A and the apex C, which are characteristic parts of the heart.
  • B is a site called “center of left ventricle” and is located at the midpoint between mitral valve A and apex C.
  • a vector from the left ventricular center B to the apex C is called a major axis Y.
  • a vector orthogonal to the long axis Y on the four-chamber cross-sectional image is referred to as a short axis X.
  • the three-dimensional image space 20 possessed by the medical image data in the three-dimensional image coordinate system is represented by three coordinate axes x, y, and z.
  • the x-axis is a vector from the left to the right of the body
  • the y-axis is the front to the back of the body
  • the z-axis is the body axis direction toward the foot.
  • the cross-sectional images 21a, 21b, and 21c in the three-dimensional image space 20 are images obtained by cutting medical image data along planes 20a, 20b, and 20c parallel to the coordinate axes. .
  • the cross sections 20a, 20b, and 20c are referred to as “Axial cross section”, “Sagital cross section”, and “Coronal cross section”, respectively. It is called “Coronal cross-sectional image”.
  • FIG. 4 is a flowchart showing the operation of the medical image processing apparatus.
  • step S 1 the medical image photographing apparatus outputs medical image data that is three-dimensional volume data to the basic position calculation unit 2.
  • the medical image data may be input directly from various medical image capturing apparatuses, or image data stored in an image server or the like may be input.
  • step S2 the basic position calculation unit 2 calculates the basic cross-sectional position from the medical image data. Then, the generation unit 4 generates a basic cross-sectional image from the basic cross-sectional position and medical image data.
  • “Calculation of the basic cross-section position” is to set a basic cross-section in the three-dimensional image space 20 of the three-dimensional volume data. On the image in the basic cross-section (hereinafter referred to as “basic cross-sectional image”), It is set so as to include a desired site used for diagnosis.
  • the “basic cross-sectional position” means a spatial position of the basic cross section in the three-dimensional image space 20, and is represented by a position parameter for uniquely obtaining a basic cross-sectional image from the three-dimensional volume data. For example, as this positional parameter, the central coordinate point o of the basic cross section on the three-dimensional image space 20 determined by the equation (1) and two orthogonal vectors u on the basic cross section determined by the equation (2), v.
  • the basic cross-sectional image can be uniquely determined. However, in this embodiment, it is expressed by two orthogonal vectors u and v for convenience of explanation. That is, the calculation of the basic cross-sectional position is to obtain the position parameters o, u, v.
  • the basic cross-sectional position may be calculated manually, for example, as shown in Patent Document 1, or automatically calculated using the method disclosed in Japanese Patent Laid-Open No. 2002-140689. Also good.
  • the generating unit 4 When the basic cross-sectional position is calculated, the generating unit 4 generates a basic cross-sectional image from the basic cross-sectional position and medical image data.
  • FIG. 5A is a perspective view showing how the basic slice 20d is arranged in the three-dimensional image space 20, and FIG. 5B shows an example of the generated basic slice image 21d.
  • the basic cross-sectional position is, for example, the center coordinate point o 20d of the basic cross-section 20d in the three-dimensional image space 20, and two vectors u 20d and v that are parallel and orthogonal to the basic cross-section 20d. 20d .
  • the center coordinate point o 20d in FIG. 5A corresponds to the image center point o 21d in FIG. 5B
  • the vector u 20d in FIG. 5A corresponds to the basic cross-sectional image 21d in FIG. 5B.
  • the vector v 20d in FIG. 5A corresponds to the vertical vector j 21d of the basic cross-sectional image 21d in FIG. 5B.
  • “u 20d ” indicates “20 d ⁇ u” because the subscript becomes small.
  • Other vectors are also shown in the figure.
  • step S3 the auxiliary position calculation unit 3 calculates the auxiliary cross section position based on the basic cross section position.
  • the generation unit 4 generates an auxiliary cross-sectional image from the calculated auxiliary cross-sectional position and medical image data.
  • the “auxiliary cross section” is a cross section that is obtained in an auxiliary manner so that the user can easily confirm the basic cross section position, and is a cross section that intersects the basic cross section.
  • the auxiliary cross section an Axial cross section or a Sagittal cross section that intersects the basic cross section and includes a desired portion used for diagnosis is used.
  • the basic cross-section position can be confirmed more effectively by using the cross-section calculated relatively from the basic cross-section position as the auxiliary cross-section.
  • Center point o 20d of the base section 20d is set as in equation (3).
  • the first auxiliary cross section 20 e is a plane parallel to the z axis and the long axis Y of the three-dimensional image space 20.
  • Two orthogonal vectors u 20e and v 20e can be expressed as shown in Equation (5).
  • the second auxiliary cross section 20f is a plane parallel to the normal vector of the first auxiliary cross section 20e and the major axis Y.
  • Two orthogonal vectors u 20f and v 20f can be expressed as shown in Equation (6).
  • the third auxiliary cross section 20g is a plane including the normal vector of the first auxiliary cross section 20e and the normal vector of the second auxiliary cross section 20f.
  • Two orthogonal vectors u 20g and v 20g can be expressed as shown in Equation (7).
  • the central coordinate point of the basic cross section 20d is used as shown in Expression (8).
  • auxiliary cross sections 20e, 20f, and 20g can be relatively calculated from the basic cross section 20d.
  • the generation unit 4 generates auxiliary cross-sectional images 21e, 21f, and 21g from each auxiliary cross-sectional position as shown in FIGS. 6 (d) to 6 (f).
  • the basic cross-sectional image 21d of the basic cross-section 20d is a four-chamber cross-sectional image
  • the auxiliary cross-sectional images 21e, 21f, and 21g generated from the auxiliary cross-sections 20e, 20f, and 20g are “two-chamber cross-sectional image” and “horizontal cross-sectional image”, respectively.
  • the auxiliary cross section is not limited to these, and may be obtained based on the body axis of the human being to be diagnosed.
  • step S4 the relationship calculation unit 5 calculates relative positional relationship information between the basic cross section 20d and the auxiliary cross sections 20e, 20f, and 20g.
  • the “positional information” is, for example, a line segment where the basic cross section and the auxiliary cross section intersect, or a spatial coordinate point of a characteristic part commonly included in the basic cross sectional image and the auxiliary cross sectional image.
  • the basic cross section 20d and the second and third auxiliary cross sectional images 21e and 21f are planes that intersect each other including the major axis Y. Therefore, line segments v 21d , v 21e , and v 21f indicating the major axis Y (that is, the vertical direction on the basic cross-sectional image 21d) are calculated.
  • the relationship calculation unit 5 performs the processing shown in FIGS.
  • the relationship calculating unit 5 has a third auxiliary cross section 20g that is a plane orthogonal to the long axis Y, and therefore, as indicated by a coordinate point p 21g and a line segment v 21g , The direction of the minor axis X on the third auxiliary sectional image 21g is calculated.
  • step S5 the synthesizing unit 6 synthesizes the generated basic cross-sectional image 21d, auxiliary cross-sectional images 21e, 21f, and 21g with the line segments and coordinate points that are positional relationship information, and displays them on the display unit 9.
  • the synthesizing unit 9 includes the positional relation information in the axial sectional image 20a, the sagittal sectional image 21b, the coronal sectional image 21c, the basic sectional image 21d, and the auxiliary sectional images 21e, 21f, and 21g shown in FIGS. Or the positional relationship information of each cross section in the three-dimensional image space 20 is displayed on the display unit 9.
  • step S6 when the user operates the input unit 7 to correct the positional relationship information, and the correction unit 8 accepts the correction of the positional relationship information, the process proceeds to step S7 (in the case of “yes” in FIG. 4). If the user has not made corrections, the process ends (in the case of “no” in FIG. 4).
  • step S7 the correcting unit 8 corrects the basic cross-sectional position and the auxiliary cross-sectional position based on the correction information of the received positional relationship information. Then, returning to step S4, the relationship calculating unit 5 calculates again the relative positional relationship information between the basic cross section 20d and the auxiliary cross sections 20e, 20f, and 20g.
  • the synthesizing unit 6 performs the basic cross section 20d in the three-dimensional image space 20 shown in FIG.
  • the positional relationship information calculated by the relationship calculating unit 5 is added to the Sagittal sectional image 21c, the auxiliary sectional images 21e, 21f and 21g shown in FIGS. 8E to 8G, and the basic sectional image 21d shown in FIG. These are combined and displayed on the display unit 9.
  • the user looks at the display unit 9, since there is a medical knowledge that the long axis Y passes through the center of the left ventricle, the left side of the long axis Y is corrected upward from the first auxiliary sectional image 21e.
  • the third auxiliary sectional image 21g is an example of a left ventricular short axis image, and there is medical knowledge that the short axis X passes through the center of the left ventricle l 21g and passes through the left corner of the right ventricle r 21g. The direction to be corrected can be easily confirmed from the third auxiliary sectional image 21g.
  • the user corrects the positional relationship information via the mouse of the input unit 7 which is a user interface.
  • the user operates the input unit 7 to point a line segment or coordinate point, which is positional relationship information between the basic cross section and the auxiliary cross section, with the pointer 30, and the line segment or coordinate point is crossed in the vertical and horizontal directions on the screen.
  • the correction unit 8 receives the moved information as correction information. That is, the “correction information” is a two-dimensional vector composed of the moving direction and moving length of line segments and coordinate points that are positional relationship information for each cross-sectional image.
  • the correction unit 8 converts the movement direction and the movement length on the two-dimensional cross-sectional image into a correction vector in the three-dimensional image space 20 using the correction information of the two-dimensional vector of each cross-sectional image. Then, the basic cross-sectional position is corrected based on the converted three-dimensional correction vector.
  • the correcting unit 8 corrects the position parameters o, u, v of the basic cross-sectional position to position parameters o ′, u ′, v ′ shown in the following equation (9).
  • the correcting unit 8 calculates the position parameters of the auxiliary cross-sectional position by calculating the equations (5) to (9) using the position parameters o ′, u ′, v ′ of the corrected basic cross-sectional position. Correct it.
  • the generation unit 4 generates a basic cross-sectional image corrected from the corrected basic cross-sectional position and a supplementary cross-sectional image corrected from the corrected auxiliary cross-sectional position.
  • the relationship calculation unit 5 recalculates and corrects the positional relationship information between the basic cross section and the auxiliary cross section based on the corrected position parameter of the basic cross section position and the position parameter of the auxiliary cross section position.
  • the synthesizing unit 6 synthesizes the corrected basic cross-sectional image 21d and auxiliary cross-sectional images 21e, 21f, and 21g with the line segments and coordinate points that are positional relationship information corrected by the correction information, and displays them on the display unit 9. .
  • the user can diagnose with the basic cross-sectional image 20d and the auxiliary cross-sectional images 21e, 21f, and 21g corrected by the input unit 7.
  • the spatial position of the basic cross section necessary for diagnosis can be easily confirmed by displaying the relative positional relationship information of each cross section on the basic cross sectional image and the auxiliary cross sectional image. .
  • the basic cross-sectional position can be easily corrected by correcting the positional relationship information from the basic cross-sectional image and the auxiliary cross-sectional image.
  • the position parameter representing the position of the cross section is represented by the center point of the cross section on the three-dimensional image space 20 and the two orthogonal vectors u and v on the cross section, but this is not limited thereto. It is good if it can uniquely determine the spatial position of the cross section.
  • the start point of the cross section on the three-dimensional image space 20 and two orthogonal vectors u and v on the cross section from the start point may be used.
  • you may express by three vectors on a cross section. Further, it may be expressed by coordinate points of four vertices of a rectangle indicating a cross section in the three-dimensional image space 20.
  • the heart is the diagnosis target part, but a part other than the heart may be the target. Moreover, it is good also considering a several site
  • the display unit 9 also displays an image showing how the basic cross section 20d is arranged in the three-dimensional image space 20 as shown in FIG. It is not always necessary to display this image. If the basic cross-sectional image 21d and other auxiliary cross-sectional images 21 shown in FIGS. 8B to 8I are displayed, the spatial position of the basic cross-section necessary for diagnosis can be easily determined. Can be confirmed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

【課題】所望の断面の空間的な位置を簡単に確認できる医用画像処理装置を提供する。 【解決手段】医用画像処理装置1は、医用画像データから基本断面位置を算出する基本位置算出部2と、補助断面位置を算出する補助位置算出部3と、前記医用画像データと前記基本断面位置を用いて基本断面像を生成し、前記医用画像データと前記補助断面位置を用いて補助断面像を生成する生成部4と、前記基本断面位置と前記補助断面位置の相対的な位置関係を示す位置関係情報を算出する関係算出部5と、前記基本断面像、又は、前記補助断面像に、前記位置関係情報をそれぞれ合成する合成部6と、前記合成した画像を表示する表示部9とを有する。

Description

医用画像処理装置及びその方法
 本発明は、3次元の医用画像データから、所望の断面を表示する医用画像処理技術に関する。
 特許文献1は、X線CTやMRI等が撮影した3次元の医用画像データから複数の所望の断面位置を設定する。そして、特許文献1は、この医用画像データから、部位毎に診断する際には、診断する部位について所望の断面を設定する。
特許第4018303号公報
 しかし、特許文献1では、前記所望の断面とその断面像の3次元空間中における大まかな位置のみを参照しているため、前記断面の空間的な位置の確認が十分に行えないという問題点があった。
 そこで本発明は、上記問題点を解決するためになされたものであり、所望の断面の空間的な位置を簡単に確認できる医用画像処理装置及びその方法の提供を目的とする。
 本発明は、対象部位を含む3次元の医用画像データから、3次元画像空間における基本断面の空間的な位置を示す基本断面位置を算出する基本位置算出部と、前記基本断面と交差する断面である補助断面の空間的な位置を示す補助断面位置を少なくとも一つ算出する補助位置算出部と、前記医用画像データと前記基本断面位置を用いて基本断面像を生成し、前記医用画像データと前記補助断面位置を用いて補助断面像を生成する生成部と、前記基本断面位置と前記補助断面位置の相対的な位置関係を示す位置関係情報を算出する関係算出部と、前記基本断面像、又は、前記補助断面像に、前記位置関係情報をそれぞれ合成する合成部と、前記合成した画像を表示する表示部と、を有することを特徴とする医用画像処理装置である。
 本発明によれば、基本断面の空間的な位置を簡単に確認できる。
実施例に係る医用画像処理装置のブロック図。 (a)(b)は四腔断面像の解剖学的な位置づけの説明図。 (a)は3次元画像空間20のAxial断面、Sagittal断面、Coronal断面の説明図、(b)~(d)はAxial断面像、Sagittal断面像、Coronal断面像の図。 医用画像処理装置のフローチャート。 (a)は3次元画像空間20の基本断面位置の説明図、(b)は基本断面像の図。 (a)~(c)は3次元画像空間20の補助断面位置の説明図、(d)~(f)は補助断面像の図。 (a)~(c)は補助断面像の図、(d)は基本断面像の図。 (a)は3次元画像空間20の基本断面の説明図、(b)~(g)は補助断面像の図、(i)は基本断面像の図。
1・・医用画像処理装置、2・・基本位置算出部、3・・補助位置算出部、4・・生成部、5・・関係算出部、6・・表示部、7・・入力部、8・・修正部、9・・表示部
 以下、本発明の一実施例である医用画像処理装置1について図1~図8を用いて説明する。
 本実施例は、X線CT、MRI、超音波等の医用画像診断装置に有用であり、特に、診断する部位について所望の空間位置での断面像が求められる場合に適している。
 本実施例では、診断対象の臓器を心臓とし、基本断面として「四腔断面像」を具体例として挙げる。「基本断面」とは、医師が診断に用いる所望の部位を含むように設定された断面である。なお、基本断面は四腔断面像に限定されず、例えば、「二腔断面像」や「左室短軸像」でも良い。
 医用画像処理装置1の構成について図1に基づいて説明する。図1は、医用画像処理装置1の構成を示すブロック図である。
 図1に示すように、医用画像処理装置1は、基本位置算出部2、補助位置算出部3、生成部4、関係算出部5、合成部6、入力部7、修正部8、表示部9を有している。
 X線CT、MRI、又は、超音波等の医用画像撮影装置から得られた3次元ボリュームデータである医用画像データが、基本位置算出部2、生成部4に入力される。
 基本位置算出部2は、医用画像データから基本断面の空間的な位置を示す基本断面位置を算出する。
 補助位置算出部3は、基本断面位置から、基本断面と交差する補助断面の空間的な位置を示す補助断面位置を算出する。
 生成部4は、基本断面位置と医用画像データを用いて基本断面像を生成し、また、補助断面位置と医用画像データを用いて補助断面像を生成する。
 関係算出部5は、基本断面位置と補助断面位置の相対的な位置関係情報を算出する。
 合成部6は、基本断面像と補助断面像とに、関係算出部5で算出された各断面の相対的な位置関係情報を合成し、表示部9に表示する。この表示部9は、液晶表示装置やCRTなどのディスプレイである。
 入力部7は、基本断面像、補助断面像の位置関係情報に関する修正情報を入力する手段である。例えば、この入力部7は、マウスやキーボード、トラックボール、タッチパッドなどのユーザインタフェースにより実現される。
 修正部8は、入力部7で受けた修正情報に基づいて、基本断面位置、補助断面位置を修正する。
 四腔断面像と心臓の特徴的な部位との関係について図2を用いて説明する。
 図2(a)は、四腔断面像の解剖学的な位置づけ10を示し、図2(b)は、四腔断面像11の例を示す。図2(b)に示すように、四腔断面像では、心臓の4つの腔(左心室11a、左心房11b、右心室11c、右心房11d)が全て含まれている。四腔断面像は、心臓の特徴部位である僧帽弁Aと心尖部C含む断面という知見がある。Bは「左室中心」と呼ばれる部位であり、僧帽弁Aと心尖部Cの中点に位置する。左室中心Bから心尖部Cへと向かうベクトルを長軸Yと呼ぶ。四腔断面像上で長軸Yと直交するベクトルを短軸Xと呼ぶ。
 次に、3次元の医用画像データの3次元画像座標系(3次元画像空間座標系)を図4を用いて説明する。
 図3(a)に示すように、3次元画像座標系における医用画像データが持つ3次元画像空間20は、3つの座標軸x、y、zで表現される。x軸が体の左から右、y軸が体の前から後ろ、z軸が体軸方向で足の方へ向かうベクトルとする。
 図3(b)~(d)に示すように、3次元画像空間20における各断面像21a、21b、21cは、医用画像データを座標軸に平行な面20a、20b、20cで切断した画像である。各断面20a、20b、20cは、それぞれ「Axial断面」、「Sagittal断面」、「Coronal断面」と呼び、各断面像21a、21b、21cは、それぞれ「Axial断面像」、「Sagittal断面像」、「Coronal断面像」と呼ぶ。
 医用画像処理装置1の動作について図4を用いて説明する。図4は、医用画像処理装置の動作を示すフローチャートである。
 ステップS1では、医用画像撮影装置が、3次元ボリュームデータである医用画像データを基本位置算出部2に出力する。なお、医用画像データは、各種の医用画像撮影装置から直接入力しても良いし、画像サーバ等に保存された画像データを入力しても良い。
 ステップS2では、基本位置算出部2は、医用画像データから基本断面位置を算出する。そして、生成部4は、この基本断面位置と医用画像データから基本断面像を生成する。
 「基本断面位置の算出」とは、3次元ボリュームデータの3次元画像空間20中に基本断面を設定することであり、その基本断面における画像(以下、「基本断面像」と呼ぶ)上に、診断に用いる所望の部位を含むように設定する。また、「基本断面位置」とは、3次元画像空間20において基本断面の空間的な位置を意味し、また、3次元ボリュームデータから基本断面像が一意に求まる位置パラメータで表される。例えば、この位置パラメータとしては、式(1)で決まる3次元画像空間20上での基本断面の中心座標点oと、式(2)で決まる基本断面上にある直交する2本のベクトルu,vである。
Figure JPOXMLDOC01-appb-M000001
Figure JPOXMLDOC01-appb-M000002
 なお、この2本のベクトルu,vは、平行でなければ基本断面像を一意に決めることができる。しかし、本実施例では説明の便宜上、直交する2本のベクトルu,vで表現する。すなわち、基本断面位置の算出とは、この位置パラメータo,u,vを求めることである。
 また、基本断面位置の算出は、例えば、特許文献1で示すように手動で算出しても良いし、また、特開2002-140689号公報で開示されている手法を用いて自動で算出しても良い。
 生成部4は、基本断面位置が算出されると、この基本断面位置と医用画像データから基本断面像を生成する。
 図5(a)は、3次元画像空間20中で基本断面20dがどのように配置されるかを斜視図で示し、図5(b)は、生成された基本断面像21dの例を示す。図5(a)に示すように、基本断面位置は、例えば、3次元画像空間20における基本断面20dの中心座標点o20dと、基本断面20dに平行で直交する2本のベクトルu20d、v20dで表される。また、図5(a)の中心座標点o20dが図5(b)の画像中心点o21dに対応し、図5(a)のベクトルu20dが図5(b)における基本断面像21dの水平方向のベクトルi21dに対応し、図5(a)のベクトルv20dが図5(b)における基本断面像21dの垂直方向のベクトルj21dに対応している。なお、図中では、「u20d」と記載すると添え字が小さくなるため、「20d-u」と表示する。他のベクトルも同様に図中に記載する。
 ステップS3では、補助位置算出部3は、基本断面位置に基づいて補助断面位置を算出する。生成部4は、算出された補助断面位置と医用画像データから補助断面像を生成する。
 「補助断面」とは、基本断面位置を、使用者が確認し易くするために補助的に求める断面であって、基本断面と交差する断面である。例えば、補助断面としては、基本断面と交差する断面であって、診断に用いる所望の部位を含むようなAxial断面やSagittal断面を使う。また、基本断面位置から相対的に算出される断面を補助断面とすることで、より効果的に基本断面位置を確認できる。
 基本断面20dから相対的に補助断面20e、20f、20gを算出する方法について図6を用いて説明する。
 基本断面20dの中心座標点o20dが式(3)のように設定される。
Figure JPOXMLDOC01-appb-M000003
 直交する2本のベクトルu20d、v20dが式(4)のように設定される。
Figure JPOXMLDOC01-appb-M000004
 このとき図6(a)に示すように、第1の補助断面20eは、3次元画像空間20のz軸と長軸Yに平行な面である。直交する2本のベクトルu20e、v20eは、式(5)のように表せる。
Figure JPOXMLDOC01-appb-M000005
 図6(b)に示すように、第2の補助断面20fは、第1の補助断面20eの法線ベクトルと長軸Yに平行な面である。直交する2本のベクトルu20f、v20fは、式(6)のように表せる。
Figure JPOXMLDOC01-appb-M000006
 なお、「×」は外積計算である。
 図6(c)に示すように、第3の補助断面20gは、第1の補助断面20eの法線ベクトルと、第2の補助断面20fの法線ベクトルを含む面である。直交する2本のベクトルu20g、v20gは、式(7)のように表せる。
Figure JPOXMLDOC01-appb-M000007
 各補助断面20e、20f、20gの中心座標点o20e、o20f、o20gは、例えば、式(8)に示すように、基本断面20dの中心座標点を用いる。
Figure JPOXMLDOC01-appb-M000008
 このように、各補助断面20e、20f、20gは、基本断面20dから相対的に算出できる。
 生成部4は、各補助断面位置から、図6(d)~(f)に示すように、補助断面像21e、21f、21gを生成する。基本断面20dの基本断面像21dが四腔断面像の場合、補助断面20e、20f、20gより生成される補助断面像21e、21f、21gは、それぞれ「二腔断面像」、「水平断面像」、「左室短軸像」と呼ばれる。但し、補助断面はこれらに限るものではなく、診断対象の人間の体軸を基準に求めても良い。
 このように、基本断面位置から相対的に算出することにより、心臓の特徴部位を含むような補助断面を設定しやすく、基本断面の確認が簡単な補助断面像を生成できる。
 ステップS4では、関係算出部5は、基本断面20dと補助断面20e、20f、20gの相対的な位置関係情報を算出する。
 ここで、「位置関係情報」とは、例えば、基本断面と補助断面とが交差する線分、基本断面像と補助断面像に共通に含まれる特徴部位の空間的な座標点である。
 位置関係情報の算出例を図7(a)~(d)を用いて説明する。
 関係算出部5は、図7(a)(b)(d)に示すように、基本断面20d、第2、3の補助断面像21e、21fは、長軸Yを含む互いに交差した面であるので、長軸Y(すなわち、基本断面像21d上の垂直方向)を示す線分v21d、v21e、v21fを算出する。また、基本位置算出部2が、僧帽弁A、左室中心B、心尖部Cの心臓に関する特徴部位の位置を算出しているときは、関係算出部5は、図7(a)(b)(d)の星印、四角印、三角印で表す座標点p21d、p21e、p21fで示すように、各断面上での各部位の位置を算出する。さらに、関係算出部5は、図7(c)に示すように、第3の補助断面20gは長軸Yと直交する面であるため、座標点p21g、線分v21gで示すように、第3の補助断面像21g上での短軸Xの方向を算出する。
 このように、複数の断面が持つ共通の線分や、部位の座標点を算出することで、基本断面との相対的な位置関係情報を得ることができる。
 ステップS5では、合成部6は、生成された基本断面像21d、補助断面像21e、21f、21gと、位置関係情報である線分や座標点を合成し、表示部9に表示する。
 例えば、合成部9は、図3、図5~図7で示すAxial断面像20a、Sagittal断面像21b、Coronal断面像21c、基本断面像21d、補助断面像21e、21f、21gに、位置関係情報を重ねたり、3次元画像空間20での各断面の位置関係情報を、表示部9に表示する。
 ステップS6では、使用者が入力部7を操作して位置関係情報を修正し、修正部8が位置関係情報の修正を受け付けた場合はステップS7に進み(図4中の「yes」の場合)、使用者が修正をしなかった場合は終了する(図4中の「no」の場合)。
 ステップS7では、修正部8は受け付けた位置関係情報の修正情報に基づいて、基本断面位置、補助断面位置を修正する。そして、ステップS4に戻り、関係算出部5が基本断面20dと補助断面20e、20f、20gの相対的な位置関係情報を再び算出する。
 修正について図8を用いて説明する。
 まず、合成部6は、図8(a)に示す3次元画像空間20での基本断面20d、図8(b)~(d)に示す医用画像データのAxial断面像21a、Coronal断面像21b、Sagittal断面像21c、図8(e)~(g)に示す補助断面像21e、21f、21g、図8(i)に示す基本断面像21dに、関係算出部5に算出された位置関係情報を合成し、表示部9に表示する。使用者は、表示部9を見ると、長軸Yは左室の中心を通るという医学的な知見があるため、第1の補助断面像21eからは長軸Yの左側を上方向に修正が必要なこと、第2の補助断面像21fからは長軸Yの左側を下方向に修正が必要なことが簡単に確認できる。また、第3の補助断面像21gは左室短軸像の例であり、短軸Xは左室l21gの中心を通り、右室r21gの左角を通るという医学的な知見があるため、第3の補助断面像21gからも簡単に修正すべき方向が確認できる。
 次に、使用者がユーザインタフェースである入力部7のマウスを介して位置関係情報の修正を行う。例えば、使用者は、入力部7を操作することにより、基本断面と補助断面の位置関係情報である線分や座標点をポインタ30で指し、線分や座標点を画面上の上下左右に断面像毎に移動させる。修正部8は、この移動した情報を修正情報として受け付ける。すなわち、「修正情報」とは、断面像毎の位置関係情報である線分や座標点の移動方向と移動長さからなる2次元ベクトルである。
 次に、修正部8は、各断面像の2次元ベクトルの修正情報をそれぞれ用いて、2次元の断面像上の移動方向と移動長さを、3次元画像空間20の修正ベクトルに変換する。そして、変換した3次元の修正ベクトルに基づいて、基本断面位置を修正する。修正部8は、基本断面位置の位置パラメータo、u、vを次の式(9)に示す位置パラメータo’、u’、v’に修正する。
Figure JPOXMLDOC01-appb-M000009
 また、修正部8は、修正された基本断面位置の位置パラメータo’、u’、v’を用いて、式(5)~式(9)を計算することにより、補助断面位置の位置パラメータを修正する。
 生成部4は、修正された基本断面位置から修正された基本断面像と、修正された補助断面位置から修正された補助断面像を生成する。
 関係算出部5は、修正された基本断面位置の位置パラメータと補助断面位置の位置パラメータによって基本断面と補助断面の位置関係情報を再計算して修正する。
 合成部6は、修正された基本断面像21d、補助断面像21e、21f、21gと、前記修正情報によって修正された位置関係情報である線分や座標点を合成し、表示部9に表示する。
 これにより、使用者は入力部7で修正した基本断面像20dや補助断面像21e、21f、21gで診断できる。
 本実施例によれば、基本断面像、補助断面像上に、各断面の相対的な位置関係情報を重ねて表示することで、診断に必要な基本断面の空間的な位置を簡単に確認できる。
 また、位置関係情報を、基本断面像、補助断面像上から修正することで、基本断面位置を簡単に修正できる。
 本発明は、上記実施例に限定されず、その主旨を逸脱しない範囲で種々変形して実施できる。
 例えば、上記実施例では、断面位置を表す位置パラメータとして、3次元画像空間20上での断面の中心点と、断面上にある直交する2本のベクトルu,vで表現したが、これに限るものではなく、断面の空間的な位置を一意に決められるものであれは良い。例えば、3次元画像空間20上での断面の始点と、この始点からの断面上にある直交する2本のベクトルu,vで表現してもよい。また、断面上の3本のベクトルで表現してもよい。また、3次元画像空間20における断面を示す長方形の4頂点の座標点で表現してもよい。
 また、上記実施例では、心臓を診断対象部位としたが、心臓以外の部位を対象にしても良い。また、複数の部位を同時に診断対象としても良い。
 また、上記実施例では、図8(a)に示すような3次元画像空間20中で基本断面20dがどのように配置されるかを斜視図で示した画像も表示部9に表示したが、この画像は必ずしも表示する必要はなく、図8(b)~(i)に示す基本断面像21dと他の補助断面像21を表示すれば、診断に必要な基本断面の空間的な位置を簡単に確認できる。

Claims (6)

  1.  対象部位を含む3次元の医用画像データから、3次元画像空間における基本断面の空間的な位置を示す基本断面位置を算出する基本位置算出部と、
     前記基本断面と交差する断面である補助断面の空間的な位置を示す補助断面位置を少なくとも一つ算出する補助位置算出部と、
     前記医用画像データと前記基本断面位置を用いて基本断面像を生成し、前記医用画像データと前記補助断面位置を用いて補助断面像を生成する生成部と、
     前記基本断面位置と前記補助断面位置の相対的な位置関係を示す位置関係情報を算出する関係算出部と、
     前記基本断面像、又は、前記補助断面像に、前記位置関係情報をそれぞれ合成する合成部と、
     前記合成した画像を表示する表示部と、
     を有することを特徴とする医用画像処理装置。
  2.  使用者が情報を入力するための入力部と、
    前記入力部から、前記位置関係情報の修正情報が入力された場合、前記基本断面位置と前記補助断面位置を修正する修正部を有し、
     前記関係算出部は、修正された前記基本断面位置と修正された前記補助断面位置の相対的な位置関係を示す位置関係情報を算出し、
     前記合成部は、修正された前記基本断面像と前記補助断面像に、入力された前記修正情報に基づく前記位置関係情報をそれぞれ合成する、
     ことを特徴とする請求項1に記載の医用画像処理装置。
  3.  前記補助断面位置は、前記基本断面位置に基づいて算出される、
     ことを特徴とする請求項2に記載の医用画像処理装置。
  4.  前記補助断面位置は、体軸、前記医用画像データに基づいて算出される、
     ことを特徴とする請求項2に記載の医用画像処理装置。
  5.  前記基本断面位置と前記補助断面位置は、前記3次元画像空間における一つの座標点と前記座標点からの2本のベクトル、前記3次元画像空間における3本のベクトル、又は、前記基本断面と前記補助断面の4頂点の座標点で表される、
     ことを特徴とする請求項1に記載の医用画像処理装置。
  6.  対象部位を含む3次元の医用画像データから、3次元画像空間における基本断面の空間的な位置を示す基本断面位置を算出する基本位置算出ステップと、
     前記基本断面と交差する断面である補助断面の空間的な位置を示す補助断面位置を少なくとも一つ算出する補助位置算出ステップと、
     前記医用画像データと前記基本断面位置を用いて基本断面像を生成し、前記医用画像データと前記補助断面位置を用いて補助断面像を生成する生成ステップと、
     前記基本断面位置と前記補助断面位置の相対的な位置関係を示す位置関係情報を算出する関係算出ステップと、
     前記基本断面像、又は、前記補助断面像に、前記位置関係情報をそれぞれ合成する合成ステップと、
     前記合成した画像を表示する表示ステップと、
     を有することを特徴とする医用画像処理方法。
PCT/JP2009/004029 2009-08-21 2009-08-21 医用画像処理装置及びその方法 Ceased WO2011021254A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2009/004029 WO2011021254A1 (ja) 2009-08-21 2009-08-21 医用画像処理装置及びその方法
JP2011527494A JP5323194B2 (ja) 2009-08-21 2009-08-21 医用画像処理装置及びその方法
US13/389,334 US9098927B2 (en) 2009-08-21 2009-08-21 Image processing apparatus for diagnostic imaging and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/004029 WO2011021254A1 (ja) 2009-08-21 2009-08-21 医用画像処理装置及びその方法

Publications (1)

Publication Number Publication Date
WO2011021254A1 true WO2011021254A1 (ja) 2011-02-24

Family

ID=43606722

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/004029 Ceased WO2011021254A1 (ja) 2009-08-21 2009-08-21 医用画像処理装置及びその方法

Country Status (3)

Country Link
US (1) US9098927B2 (ja)
JP (1) JP5323194B2 (ja)
WO (1) WO2011021254A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9911392B2 (en) 2012-05-22 2018-03-06 Toshiba Medical Systems Corporation Medical image diagnosis apparatus and image display apparatus
US10481235B2 (en) 2016-07-21 2019-11-19 Canon Medical Systems Corporation Magnetic resonance imaging apparatus and image processing apparatus
US10905352B2 (en) 2014-11-28 2021-02-02 Canon Medical Systems Corporation Magnetic resonance imaging apparatus and medical image processing method

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9098927B2 (en) * 2009-08-21 2015-08-04 Kabushiki Kaisha Toshiba Image processing apparatus for diagnostic imaging and method thereof
JP5944645B2 (ja) 2010-11-02 2016-07-05 東芝メディカルシステムズ株式会社 磁気共鳴イメージング装置
JP6716197B2 (ja) * 2014-02-28 2020-07-01 キヤノンメディカルシステムズ株式会社 画像処理装置およびx線診断装置
JP6611426B2 (ja) 2014-11-20 2019-11-27 キヤノンメディカルシステムズ株式会社 磁気共鳴イメージング装置及び医用画像処理方法
US10856825B2 (en) * 2018-03-16 2020-12-08 Shimadzu Corporation Radiographic imaging apparatus

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01134580A (ja) * 1987-11-19 1989-05-26 Toshiba Corp 画像処理装置
JP2004283373A (ja) * 2003-03-20 2004-10-14 Toshiba Corp 管腔状構造体の解析処理装置
JP2005087237A (ja) * 2003-09-12 2005-04-07 Aloka Co Ltd 超音波画像処理装置

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5107838A (en) 1990-02-08 1992-04-28 Kabushiki Kaisha Toshiba Method of left ventricular volume evaluation using nuclear magnetic resonance imaging
US5469254A (en) * 1992-04-06 1995-11-21 Olympus Optical Co., Ltd. Method and apparatus for measuring three-dimensional position of a pipe from image of the pipe in an endoscopic observation system
JPH06337920A (ja) * 1993-05-28 1994-12-06 Toshiba Medical Eng Co Ltd 画像処理装置
US5971767A (en) * 1996-09-16 1999-10-26 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination
JP4018303B2 (ja) * 1999-12-07 2007-12-05 株式会社東芝 医療用画像処理装置
US7538764B2 (en) * 2001-01-05 2009-05-26 Interuniversitair Micro-Elektronica Centrum (Imec) System and method to obtain surface structures of multi-dimensional objects, and to represent those surface structures for animation, transmission and display
JP4060615B2 (ja) * 2002-03-05 2008-03-12 株式会社東芝 画像処理装置及び超音波診断装置
JP2003325514A (ja) * 2002-05-16 2003-11-18 Aloka Co Ltd 超音波診断装置
US8102392B2 (en) * 2003-06-27 2012-01-24 Kabushiki Kaisha Toshiba Image processing/displaying apparatus having free moving control unit and limited moving control unit and method of controlling the same
JP4113485B2 (ja) * 2003-09-24 2008-07-09 アロカ株式会社 超音波画像処理装置
JP4018679B2 (ja) * 2004-08-24 2007-12-05 ザイオソフト株式会社 レンダリング処理方法、レンダリング処理プログラム、レンダリング処理装置
WO2006085525A1 (ja) * 2005-02-09 2006-08-17 Hitachi Medical Corporation 画像診断支援システム、画像診断支援プログラム
US7496222B2 (en) * 2005-06-23 2009-02-24 General Electric Company Method to define the 3D oblique cross-section of anatomy at a specific angle and be able to easily modify multiple angles of display simultaneously
US7731495B2 (en) * 2005-12-20 2010-06-08 3M Innovative Properties Company User interface having cross section control tool for digital orthodontics
US7940974B2 (en) * 2006-11-21 2011-05-10 General Electric Company Method and system for adjusting 3D CT vessel segmentation
US8340374B2 (en) * 2007-01-11 2012-12-25 Kabushiki Kaisha Toshiba 3-dimensional diagnostic imaging system
US20080186378A1 (en) * 2007-02-06 2008-08-07 Feimo Shen Method and apparatus for guiding towards targets during motion
JP2008253292A (ja) * 2007-03-30 2008-10-23 Fujifilm Corp 症例画像検索装置及びシステム
JP5226244B2 (ja) * 2007-05-07 2013-07-03 オリンパスメディカルシステムズ株式会社 医用ガイドシステム
JP2009018115A (ja) * 2007-07-13 2009-01-29 Toshiba Corp 3次元超音波診断装置
JP5319157B2 (ja) * 2007-09-04 2013-10-16 株式会社東芝 超音波診断装置、超音波画像処理装置、及び超音波画像処理プログラム
CN101959452B (zh) * 2008-03-06 2013-08-28 美国医软科技公司 用于交互式肝叶分割的系统和方法
JP5376877B2 (ja) * 2008-09-17 2013-12-25 株式会社東芝 超音波診断装置および画像表示プログラム
US20100121189A1 (en) * 2008-11-12 2010-05-13 Sonosite, Inc. Systems and methods for image presentation for medical examination and interventional procedures
JP4810583B2 (ja) * 2009-03-26 2011-11-09 株式会社東芝 超音波診断装置、超音波診断方法及び超音波診断プログラム
US9098927B2 (en) * 2009-08-21 2015-08-04 Kabushiki Kaisha Toshiba Image processing apparatus for diagnostic imaging and method thereof
JP6035148B2 (ja) * 2009-12-08 2016-11-30 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. アブレーション治療計画及びデバイス
US9078621B2 (en) * 2012-11-09 2015-07-14 Baylor University Method and system of measuring anatomical features in subcutaneous images to assess risk of injury

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01134580A (ja) * 1987-11-19 1989-05-26 Toshiba Corp 画像処理装置
JP2004283373A (ja) * 2003-03-20 2004-10-14 Toshiba Corp 管腔状構造体の解析処理装置
JP2005087237A (ja) * 2003-09-12 2005-04-07 Aloka Co Ltd 超音波画像処理装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9911392B2 (en) 2012-05-22 2018-03-06 Toshiba Medical Systems Corporation Medical image diagnosis apparatus and image display apparatus
US10905352B2 (en) 2014-11-28 2021-02-02 Canon Medical Systems Corporation Magnetic resonance imaging apparatus and medical image processing method
US10481235B2 (en) 2016-07-21 2019-11-19 Canon Medical Systems Corporation Magnetic resonance imaging apparatus and image processing apparatus

Also Published As

Publication number Publication date
JPWO2011021254A1 (ja) 2013-01-17
US9098927B2 (en) 2015-08-04
JP5323194B2 (ja) 2013-10-23
US20120134566A1 (en) 2012-05-31

Similar Documents

Publication Publication Date Title
JP5323194B2 (ja) 医用画像処理装置及びその方法
JP5551957B2 (ja) 投影画像生成装置およびその作動方法、並びに投影画像生成プログラム
US9179893B2 (en) Image processing apparatus, image processing method, image processing system, and program
US20110262015A1 (en) Image processing apparatus, image processing method, and storage medium
CN106898027B (zh) 用于三维图像到二维图像的标测的方法和设备
CN106485691B (zh) 信息处理装置、信息处理系统和信息处理方法
JP6226621B2 (ja) 医用画像処理装置、医用画像処理方法、及び、医用画像処理システム
KR101504162B1 (ko) 의료 화상용 정보처리장치, 의료 화상용 촬영 시스템 및 의료 화상용 정보처리방법
JP2011125570A (ja) 画像処理装置、画像処理方法、及びプログラム
JP4122463B2 (ja) 医療用可視画像の生成方法
JP4960468B2 (ja) 磁気共鳴イメージング装置
CN1881254B (zh) 图像处理装置以及图像处理方法
JP6145870B2 (ja) 画像表示装置および方法、並びにプログラム
JP6429958B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2009247535A (ja) 医用画像処理システム
WO2009122724A1 (ja) 画像処理装置および方法並びにプログラム
JP7447595B2 (ja) 医用画像表示装置、医用画像表示方法、および、プログラム
JP6433190B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP5100041B2 (ja) 画像処理装置及び画像処理プログラム
JP6391544B2 (ja) 医用画像処理装置、医用画像処理方法、及びプログラム
JP2013048688A (ja) 画像処理装置、画像処理方法及びプログラム
EP4563111A1 (en) Systems and methods of dynamic reachability visualization for trajectory planning
JP6135901B2 (ja) 表示処理プログラム、表示処理方法及び表示処理装置
JP6357049B2 (ja) 画像処理装置、医用画像診断システム、画像処理方法およびプログラム
JP5751993B2 (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09848457

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2011527494

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 13389334

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09848457

Country of ref document: EP

Kind code of ref document: A1