[go: up one dir, main page]

WO2010143400A1 - 画像照合装置及びこれを用いた患者位置決め装置 - Google Patents

画像照合装置及びこれを用いた患者位置決め装置 Download PDF

Info

Publication number
WO2010143400A1
WO2010143400A1 PCT/JP2010/003772 JP2010003772W WO2010143400A1 WO 2010143400 A1 WO2010143400 A1 WO 2010143400A1 JP 2010003772 W JP2010003772 W JP 2010003772W WO 2010143400 A1 WO2010143400 A1 WO 2010143400A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
point cloud
data
cloud data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2010/003772
Other languages
English (en)
French (fr)
Inventor
平澤宏祐
坂本豪信
山腰諒一
北明靖雄
川戸慎二郎
奥田晴久
鹿毛裕史
鷲見和彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to US13/256,551 priority Critical patent/US8787647B2/en
Priority to CN2010800147881A priority patent/CN102365655A/zh
Priority to JP2011518294A priority patent/JP4821940B2/ja
Publication of WO2010143400A1 publication Critical patent/WO2010143400A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/04Positioning of patients; Tiltable beds or the like
    • A61B6/0487Motor-assisted positioning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Definitions

  • the present invention relates to an image collation apparatus using CT (Computed Tomography) image data and the like, and a patient positioning apparatus in radiation therapy using the image collation apparatus.
  • CT Computer Tomography
  • ICP Intelligent Closest Point
  • the error function is obtained by successive iteration calculation based on the least square evaluation using the sum of distances between corresponding points as an error function.
  • This is a method for estimating optimal position and orientation conversion parameters (translation amount and rotation amount) between three-dimensional point cloud data so as to minimize.
  • the image collation calculation result depends on the structure of the three-dimensional point cloud data to be processed, and also depends on the initial state at the start of the collation calculation.
  • the slice thickness (slice thickness) of CT image data for treatment planning and CT image data for positioning is small and close to the pixel spacing (pixel spacing)
  • the error function has many local solutions because the data density is high.
  • the solution does not converge to the correct value (optimal solution that minimizes the error function) but converges to an incorrect value (local solution corresponding to the minimum value of the error function).
  • Data arranged in a grid with white circles as vertices is used as point cloud data (first point cloud data) of CT image data for treatment planning as a reference, and arranged in a grid with black squares as vertices
  • the data is point cloud data (second point cloud data) of the CT image data for positioning at the time of treatment, which is a verification target.
  • second point cloud data point cloud data
  • the distance between the lattices of both point group data is equal.
  • the density of the first point cloud data and the second point cloud data is high, in the Nth iteration (FIG. 12B) of the ICP method, the (N-1) th iteration is performed.
  • the corresponding point that is closest to (FIG. 12A) increases in proportion, and the corresponding point that is closest may not change even in the (N + 1) th time (FIG. 12C).
  • the error function changes only slightly.
  • FIG. 13 schematically shows the distribution of the error function (E) on the vertical axis, taking the relative positional deviation ( ⁇ x) between the treatment plan data group and the positioning data group on the horizontal axis.
  • There has been a problem that there is a high possibility that the solution is judged to have converged at this minimum value and fall into a local solution (incorrect solution value, ⁇ x ⁇ x L ).
  • the present invention has been made in order to solve the above-mentioned problems, and in automatic positioning calculation using the ICP method, avoids falling into a local solution and reliably converges to an optimal solution, whereby an image matching apparatus with high matching accuracy is obtained. And it aims at obtaining the patient positioning device using the same.
  • An image collating apparatus and a patient positioning apparatus using the same include a CT image data reading unit that respectively reads first CT image data and second CT image data, first CT image data, and second CT image data.
  • a point cloud data generation unit that generates first point cloud data and second point cloud data in a three-dimensional space for the slice image group of CT image data, and the first point cloud data and the second point cloud
  • a point cloud data resolution conversion unit that thins out the point cloud data so as to widen the arrangement pitch of the point cloud data and an ICP calculation unit are provided.
  • the ICP calculation unit uses the ICP method to minimize the error function between the first point cloud data and the second point cloud data output from the point cloud data resolution conversion unit.
  • the conversion amount for the group data is obtained.
  • the point cloud data resolution conversion unit widens the arrangement pitch of the point cloud data for at least one of the first point cloud data and the second point cloud data.
  • the ICP calculation unit uses the ICP method so that the error function between the first point group data and the second point group data output from the point group data resolution conversion unit is minimized.
  • the pitch at which the minimum value appears is increased by the amount of the increased interstitial pitch. The distribution of the error function can be changed.
  • FIG. 1 is a diagram showing an overall apparatus configuration related to image collation, positioning, and radiation therapy using CT image data that is assumed to be applied to an image collation apparatus and a patient positioning apparatus according to Embodiment 1 of the present invention.
  • Reference numeral 1 denotes a CT simulator room for performing a treatment plan to be performed prior to radiation therapy.
  • the CT simulator room 1 includes a CT gantry 2 and a top board 3 of a CT imaging bed.
  • a patient 4 is laid on the top board 3.
  • CT image data for treatment planning is taken so as to include the affected part 5.
  • 6 is a treatment room for performing radiation therapy.
  • CT image data for positioning is imaged so as to include the affected part 11 at the time of treatment.
  • the positioning means that the positions of the patient 10 and the affected part 11 at the time of treatment are calculated from the CT image data for the treatment plan, and the body position correction amount is calculated so as to match the treatment plan.
  • Positioning is performed so that the beam irradiation center 12 is located.
  • the alignment is realized by moving the position of the top plate 9 by driving and controlling the rotary treatment table 8 while the patient 10 is placed on the top plate 9.
  • the rotational treatment table 8 is capable of 6-degree-of-freedom drive correction of translation and rotation, and by rotating the top plate 9 of the rotational treatment table 8 180 degrees, from the CT imaging position (shown by a solid line in FIG. 1).
  • the irradiation head 13 can be moved to a certain treatment position (indicated by a dotted line in FIG. 1).
  • the CT imaging position and the treatment position are shown in an opposing positional relationship of 180 degrees.
  • the present invention is not limited to this arrangement form, and the positional relationship between them forms another angle such as 90 degrees. It doesn't matter
  • the CT image data for treatment planning and the CT image data for positioning are transferred to the positioning computer 14.
  • the image collating device and the patient positioning device according to the present invention both relate to computer software existing in the positioning computer, and the image collating device calculates the body position correction amount (translation amount, rotation amount) and the patient positioning device. While including the image collating device, it further has a function of calculating parameters for controlling each drive shaft of the treatment table based on this posture correction amount.
  • the amount of displacement is calculated by comparing a digitally reconstructed radiography (DRR) image generated from CT image data for treatment planning with an X-ray fluoroscopic image taken in the treatment room at the time of treatment.
  • DDR digitally reconstructed radiography
  • the affected part which is a soft tissue, does not pass well, so positioning using bone is fundamental.
  • the CT gantry 7 is installed in the treatment room 6 and the CT image data immediately before treatment is aligned with the CT image data for treatment planning, so that the affected part is directly depicted. It is possible and has the feature that it can be aligned at the affected area.
  • FIG. 2 is a block diagram showing the relationship between the data processing units constituting the image matching device and the patient positioning device.
  • the image matching device 15a includes a CT image data reading unit 17, a point cloud data generating unit 18, A group data resolution converting unit 19, a point group data region dividing unit 20, a point group data noise removing unit 21, an ICP calculating unit 22, and an MPR processing unit 23, to which a treatment table control parameter calculating unit 24 is added.
  • This is a patient positioning device 16a.
  • the CT image data reading unit 17 reads CT image data for treatment planning (first CT image data) and CT image data for positioning (second CT image data).
  • the CT image data is a DICOM (Digital-Imaging-and-Communication-in-Medicine) format slice image group, but the format is not particularly limited to this.
  • point cloud data generation unit 18 point cloud data (first point cloud data) based on the treatment planning CT image data and the positioning CT image are obtained from the slice image group of the treatment planning CT image data and the positioning CT image data.
  • Point cloud data (second point cloud data) based on the data is generated.
  • the point group data here refers to a set of point data in a three-dimensional space.
  • the three-dimensional space is a reference point at the time of CT imaging in a slice image group 27 as shown in FIG. 3, for example.
  • a coordinate system 29 is set on the slice image including the corresponding CT origin 28, the X axis is the horizontal direction in the slice image plane, the Y axis is the direction perpendicular to the X axis in the slice image plane, and the Z axis is the slice image plane.
  • the right-handed coordinate system should be taken in the direction perpendicular to
  • the scale of the coordinate system can be determined from the pixel interval (pixel spacing) and the slice interval (slice pitch) which are tag information of the DICOM format file.
  • FIG. 4 shows a bone contour image created for one slice image in the slice image group (FIG. 4A) (FIG. 4B), and point cloud data is obtained from the data on the contour line of the bone contour image.
  • generated (FIG.4 (c)) is shown typically.
  • FIG. 5 schematically shows an example in which point cloud data is created from three bone contour images.
  • the arrangement pitch of the point cloud data is increased with respect to at least one of the first point cloud data for treatment planning and the second point cloud data for positioning.
  • the amount of data is adjusted by thinning out the point cloud data.
  • the resolution is 1/2, and when 2 points are thinned, the resolution is 1/2 and when 4 points are thinned, 3 points.
  • the same definition applies for resolutions smaller than 1/8.
  • the order of thinning the same slice image plane should be thinned in the order of appearance of the point cloud when raster scanning is performed, and when crossing slices, the direction may be determined from the top to the head and the like. However, the order is not meaningful, and processing of thinning out the entire point cloud data at random may be used. Further, the denominator for decimation does not have to be a power of 2.
  • the point cloud data region dividing unit 20 divides each of the first point cloud data and the second point cloud data generated by the point cloud data generation unit 18 and the point cloud data resolution conversion unit 19 into regions.
  • a mechanism that can be divided into two parts for each of the X axis, the Y axis, and the Z axis may be introduced using the position of the center of gravity of the point cloud data as a reference. For example, if only the X axis is divided, it is divided into two, and if all the axes (X, Y, Z) are divided into two, the total is divided into eight.
  • it is not necessary to actually divide the data and save it as a separate variable or file, and a mechanism for holding the area to which each point cloud data belongs as an attribute value of each point cloud data may be introduced.
  • the second point cloud data for positioning is transferred to the region R1 to R4 (FIG. 6A), and the first point cloud data for treatment planning is transferred to the region R1 ′ to R4 ′ (FIG. 6).
  • B) an example in which each was divided into four was shown. Both the first point cloud data and the second point cloud data must be divided in the same way, but the divided area of the first point cloud data includes the divided area of the second point cloud data. In consideration of the occurrence of positional deviation between the two point cloud data, a margin area must be set, and the divided area of the first point cloud data must be larger than the divided area of the second point cloud data.
  • the first point cloud data for treatment planning is to be checked against the second point cloud data for positioning
  • the first point cloud data is provided with a margin area in the divided area of the second point cloud data.
  • the divided area of the second point cloud data needs to include the divided area of the first point cloud data.
  • the physical positions of the top boards 3 and 9 are known in advance, and the clothes of the top boards 3 and 9 and the patients 4 and 10 are distributed in different CT values from the bones. Since it is possible to determine that the data is a part other than the above, it is possible to easily remove them by using coordinate information and CT values.
  • the first point group for treatment planning generated through the point group data generation unit 18, the point group data resolution conversion unit 19, the point group data region division unit 20, and the point group data noise removal unit 21 Using the data and the second point cloud data for positioning, and what kind of conversion is performed on the position and orientation of the second point cloud data, it is possible to make the first point cloud data closest.
  • a conversion amount (posture correction amount) for the second point group data is obtained by calculation so as to minimize an error function between the two.
  • the distance between two points is used as an index representing the correspondence between two points in the three-dimensional space.
  • the distance between the two points x 1 and x 2 in the three-dimensional space is expressed as d (x 1 , x 2 ).
  • the distance between an arbitrary point p and the point group G is expressed by Equation 1. As shown, it is defined as the distance between the point p closest to the point p among the points belonging to the point group G (see FIG. 7).
  • step 1 the distance between each point x ref (i) of the first point cloud data Gref and the second point cloud data Gtest is obtained, and the point x test (j) at that time is obtained as a point x ref (i ) To the corresponding point x ′ test (i), the correspondence between the first point cloud data Gref and the second point cloud data Gtest is obtained.
  • step 2 the conversion amount (rotation amount R, translation amount t) from the second point group data Gtest to the first point group data Gref is obtained.
  • the rotation amount R represents a 3 ⁇ 3 matrix
  • the translation amount t represents a 3 ⁇ 1 matrix.
  • a vector difference from the point x ref (i) to which it belongs is obtained, and the sum of squares is set as an error e 2 (R, t) (Equation 3).
  • the amount of rotation R * and the amount of translation t * when e 2 (R, t) is minimized are used as the conversion amount at that time (Equation 4).
  • step 3 each point belonging to the second point group data Gtest is converted by the conversion amount obtained in step 1 and step 2.
  • k is an index for repeated calculation in the ICP method.
  • Steps 1 to 3 are repeatedly calculated. If the amount of change in error in step 2 due to repeated calculation is less than or equal to a predetermined threshold value, the calculation ends. Then, a combination (rotation amount Rs * , translation amount ts * ) of the conversion amounts (rotation amount R * , translation amount t * ) obtained in the repetitive calculation is the first from the second point group data Gtest.
  • each point of the second point group data (for positioning) is associated with the closest point of the first point group data (for treatment plan), and the distance between the positioning data group and the treatment plan data group is
  • the conversion amount (rotation amount R * , translation amount t * ) that minimizes the error function e 2 (R, t) defined by the sum can be obtained by successive iteration calculation.
  • MPR Multi PlanarconstructReconstruction / Reformat
  • processing is a method of creating a volume data by stacking multiple slice images of CT image data and creating an image of an arbitrary cross section based on this. Also called (Oblique), or Double Oblique. Therefore, by using this processing, for example, image data such as a sagittal section and a coronal section, such as image data that is not actually captured, an axial section that is actually captured.
  • image data can be generated by performing interpolation processing and reconstructing the image data.
  • TLI Trilinear Interpolation
  • non-linear interpolation algorithms such as Tricubic Interpolation that extends TLI can be applied as the interpolation algorithm.
  • the amount of rotation (A, B, C) around each coordinate axis is determined, one oblique section is determined, and image data at the oblique section can be calculated.
  • Treatment plan CT image data (first CT image data) and positioning CT image data (second CT image data) have the same oblique section generation parameters (X, Y, Z, A, B, C).
  • X, Y, Z, A, B, C oblique section generation parameters
  • the initial CT image data (second CT image data) is rotated and translated by ( ⁇ X, ⁇ Y, ⁇ Z, ⁇ A, ⁇ B, ⁇ C).
  • first CT image data an image close to the treatment plan CT image data
  • the initial cross section for confirming the image may be an axial cross section, sagittal cross section, three orthogonal cross sections of a coronal cross section, an axial cross section, an arrow cross section, or the like. It may be a sagittal section, a section inclined from a coronal section, or a combination thereof.
  • the treatment plan image and the positioning image may be displayed as a difference or superimposed to confirm the difference.
  • the sign of the result of the ICP calculation unit 22 is inverted, and the treatment for the treatment plan is performed with the oblique section generation parameters (X + ⁇ X, Y + ⁇ Y, Z + ⁇ Z, A + ⁇ A, B + ⁇ B, C + ⁇ C).
  • the CT image data for treatment planning (first CT image data) is converted into CT image data for positioning (second CT image data) to generate an approximated image. You can also.
  • the output values of the ICP calculation unit 22 are obtained for each treatment table.
  • the treatment table is controlled by converting the parameters to control the axis.
  • the body position correction amount can be calculated so as to match the treatment plan, and the affected part 11 at the time of treatment can be positioned so as to be at the beam irradiation center 12 of the radiation treatment.
  • the point cloud data resolution conversion unit 19 performs the point cloud data for at least one of the first point cloud data and the second point cloud data.
  • the point cloud data is thinned out so as to widen the arrangement pitch, and the ICP calculation unit 22 minimizes the error function between the first point cloud data and the second point cloud data output from the point cloud data resolution conversion unit 19.
  • a minimum value appears as the interstitial pitch is widened as shown in the curve (E2) after the point cloud data resolution conversion in FIG.
  • the distribution of the error function can be changed so that the pitch to be spread is widened.
  • the image matching device 15a and the patient positioning device 16a divide the first point cloud data into a plurality of regions and divide the second point cloud data into a plurality of regions corresponding to the regions.
  • an ICP calculation unit 22 performs calculation only between each region of the first point cloud data and each region of the second point cloud data corresponding thereto. Rather than calculating the combination of all corresponding points for a region, it is possible to reduce the amount when calculating the closest corresponding point, and the processing speed can be increased.
  • the amount of calculation if each data is divided into 1 / N regions by the first point group data for treatment planning and the second point group data for positioning, the total amount of calculation is approximately 1 / N. It can be reduced to about N (exactly, since there is a margin area, it is actually a value slightly larger than 1 / N).
  • the image collation device 15a and the patient positioning device 16a provide noise data of a portion other than the image collation target region for at least one of the first point cloud data and the second point cloud data.
  • a point cloud data noise removing unit 21 to be removed is provided, and the ICP calculation unit 22 performs a calculation using the first point cloud data and the second point cloud data from which the noise data has been removed.
  • the erroneous correspondence between the first point cloud data for planning and the second point cloud data for positioning is reduced, and there is an effect that the iterative calculation in the ICP calculation unit 22 leads to the optimal solution without falling into a local solution. .
  • the point cloud data generation unit 18 extracts a bone region, performs edge extraction processing on the binarized image, performs thinning processing to obtain a bone contour image, and uses this image to generate an image.
  • extraction may be performed by binarizing the affected area or organ with a designated CT value. Since the subsequent data processing is the same as that for the bone region, details are omitted.
  • the treatment table control parameter calculation unit 24 converts each axis of the treatment table into parameters for controlling the treatment table based on the total of 6 degrees of freedom of [Delta] C].
  • FIG. The image matching device 15b and the patient positioning device 16b according to the present embodiment are obtained by adding a template setting unit 25 and a template matching unit 26 to the one shown in the first embodiment, and the configuration thereof is shown in FIG. Shown in This enables collation (local matching) using a template corresponding to the affected area (cancer target) after performing bone matching (global matching), which is more precise than collation using only global matching. Verification and positioning are possible. Especially in soft tissues other than the head and neck such as the lung, liver, and prostate, there are no bones in the vicinity, so it may be assumed that the accuracy required in radiotherapy cannot be achieved by positioning with bone alone. It is effective to perform template matching using the vicinity of the target as a template.
  • the template setting unit 25 registers a template image. Using the calculation results ( ⁇ X, ⁇ Y, ⁇ Z, ⁇ A, ⁇ B, ⁇ C) in the ICP calculation unit 22, the oblique section generation parameter (X MPR cross-section groups generated using - ⁇ X, Y- ⁇ Y, Z- ⁇ Z, A- ⁇ A, B- ⁇ B, C- ⁇ C) are used. At this stage, it is preferable to select, as a template, a feature region having a large change in luminance gradation in the MPR cross-section group obtained by converting the positioning CT image.
  • the template matching unit 26 performs template matching within the search range of the slice image group of the treatment planning CT image (first CT image), finds a place with the highest correlation value, and puts the feature region at this place. As a further correction value of the conversion amount for the second point group data obtained by the ICP calculation unit 22, a conversion amount correction value for the second point group data is obtained so as to translate.
  • template matching in the present embodiment, it is conceivable to use a normalized cross-correlation method, which is a method robust to uniform luminance fluctuations, as a method for obtaining the correlation value.
  • a probabilistic similarity measure such as a mutual information amount can also be used as a correlation value.
  • a robust and high-speed method such as a partial template method (see * 1) or a hierarchical search method (see * 2) can also be used.
  • * 1 Haruhisa Okuda, Manabu Hashimoto, Kazuhiko Sumi
  • Kazunori Sasaki “Robust Image Matching Based on Partial Template Combination Optimization”, Denki Theory C, Vol. 124, No.
  • a plurality of templates are set for a plurality of positioning CT images (MPR cross section groups), and a plurality of template images are used. It is also possible to apply multi-layer multiple template matching for positioning. Specifically, three feature regions each of three consecutive slice images of the MPR cross section group are registered as template images. The number “3” is an example, and any number may be used as long as the number is two or more. When a template is set for one of the three consecutive images, it is convenient to automatically set the template for the preceding and succeeding slices.
  • Each template image for positioning is collated with respect to all slice image groups of the CT image for treatment planning (first CT image), and the sum of collation scores (correlation values) for the three templates is set as a new evaluation score. .
  • the positional relationship before and after the slice when a multi-layered multiple template is set is constrained.
  • the slice interval of the CT image group for positioning when a multi-layer template is set is N
  • the slice interval of the CT image group for treatment planning is M.
  • P1 + C2 + N3 or the like obtained by summing up the result of the previous slice of the pre-positioning score (P1), the result of the score in the positioning template (C2), and the result of the next slice of the post-positioning template score (P3) A new evaluation score at.
  • the template matching unit 26 compares the slice image group of the CT image data (first CT image data) with a plurality of template images, and has the highest new evaluation score (the sum of correlation values for each template image). And a conversion amount correction value for the second point cloud data is obtained so that a plurality of feature regions are translated in this place.
  • the setting of N templates in multi-layer multiple template matching is not limited to the axial (axial) cross section, but is set to a sagittal cross section and a coronal cross section using MPR. It is also possible to set a template with a combination of three orthogonal cross sections. In this way, a more stable result can be expected as compared with the case of combining from only one direction.
  • the treatment table control parameter calculation unit 24 confirms the MPR cross section based on the result of the ICP calculation unit 22 and the cross section after the detailed translation correction by template matching, and then outputs the output values of the ICP calculation unit 22 (total of three translation axes and three rotation axes). By converting the output value obtained by performing the detailed translation correction by the conversion amount correction value obtained by the template matching unit 26 to the result of 6 degrees of freedom) into a parameter for controlling each axis of the treatment table, and transmitting it. Positioning can be performed so that the affected part 11 comes to the beam irradiation center 12 of radiotherapy.
  • the image collation device 15b and the patient positioning device 16b include the point cloud data resolution conversion unit 19, the point cloud data region division unit 20, and the point cloud data noise removal unit 21, so The same operations and effects as those shown in the first embodiment are obtained.
  • an MPR processing unit 23 that generates an MPR cross-section group that can be compared with the first CT image data from the second CT image data using the oblique cross-section generation parameter based on the conversion amount obtained by the ICP calculation unit 22;
  • the template setting unit 25 for registering the feature region selected from the MPR cross section group as a template image, and the slice image group of the first CT image data and the template image are collated to obtain the highest correlation value
  • a template matching unit 26 for obtaining a conversion amount correction value for the second point cloud data so as to translate the feature region to this location.
  • the template setting unit 25 registers a plurality of feature regions respectively present in a plurality of consecutive MPR cross sections selected from the MPR cross section group as a plurality of template images, and the template matching unit 26 performs the first CT By comparing the slice image group of the image data with the plurality of template images, a place where the sum of the correlation values for each template image is the highest is obtained, and the feature regions of the plurality of places are translated to this place.
  • template matching equivalent to the case of using three-dimensional volume data as a template can be realized by a plurality of combinations of two-dimensional template matching. Therefore, the same accuracy can be realized without taking more time than the three-dimensional template matching.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Heart & Thoracic Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Biophysics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)

Abstract

 本発明は、課題ICP法を用いた自動位置決め計算において、局所解に陥るのを避け確実に最適解に収束させることにより、照合精度の高い画像照合装置およびこれを用いた患者位置決め装置を得ることを課題とする。 本発明の画像照合装置は、第1と第2のCT画像データを各々読み込むCT画像データ読み込み部17と、第1と第2のCT画像データのスライス画像群に対して二値化処理、エッジ抽出処理を行い、3次元空間における第1と第2の点群データを生成する点群データ生成部18と、点群データの配列ピッチを広げるように点群データを間引く点群データ解像度変換部19と、点群データ解像度変換部から出力された第1の点群データと第2の点群データとの誤差関数が最小となるように、ICP法を用いて第2の点群データに対する変換量を求めるICP計算部22とを有する。

Description

画像照合装置及びこれを用いた患者位置決め装置
 この発明は、CT(Computed Tomography)画像データ等を利用した画像照合装置およびこの画像照合装置を用いた放射線治療等における患者位置決め装置に関するものである。
 3次元点群データを用いた従来の画像照合方法としてICP(Iterative Closest Point)法がある。ICP法は画像照合の対象となる2つの3次元点群データ(G1、G2)において、対応点間の距離の総和を誤差関数として、最小二乗評価に基づく逐次的繰り返し計算により、前記誤差関数を最小化させるように3次元点群データ間の最適な位置姿勢変換パラメータ(並進量、及び回転量)を推定する手法である。
 このICP法においては全ての対応点の組み合わせを計算するため、照合データ同士の陽な対応情報を必要としない。つまり、3次元点群データG1のある点と3次元点群データG2のある点が同一の点であるという情報を必要としない。従って、人間が解剖学的な特徴点などを教示することなく画像照合が可能である。ICP法を用いた画像照合についてはいろいろな分野で応用されているが(例えば、特許文献1)、放射線治療においては、放射線治療計画を行う際に取得した治療計画用3次元CT画像データを基準として、このデータと治療時に取得した骨構造に関する位置決め用3次元CT画像データとの画像照合を行い、また両データの画像が一致するような位置姿勢変換パラメータを求めることにより、治療時の患者を位置決めすることが可能となる。
特開平9-277184(2-3頁)
 このようなICP法を用いた画像照合方法においては、画像照合計算結果が処理対象となる3次元点群データの構造に依存し、また照合計算開始時の初期状態へ依存する性質がある。特に治療計画用CT画像データ、位置決め用CT画像データのスライス厚(slice thickness)が小さく画素間隔(pixel spacing)に近い場合には、データ密度が高いことから誤差関数が局所解を多く持つような形状となり、正解値(誤差関数を最小にする最適解)に解が収束せず、不正解値(誤差関数の極小値に相当する局所解)に収束してしまうケースが多くなる。
 放射線治療における画像照合について、図12を用いて上記現象を具体的に説明する。白抜きの丸を頂点として格子状に配列されたデータを、基準となる治療計画用CT画像データの点群データ(第1の点群データ)とし、黒四角を頂点として格子状に配列されたデータを、照合対象である治療時の位置決め用CT画像データの点群データ(第2の点群データ)とする。また、この例では簡単のために、両点群データの格子間距離は等しいとする。
 図のように第1の点群データと第2の点群データの密度が高い状態にあると、ICP法における逐次繰り返し計算のN回目(図12(b))では、(N-1)回目(図12(a))と最近傍となる対応点が同一となる割合が多くなり、(N+1)回目(図12(c))でも最近傍となる対応点が変化しない場合があり、この場合には誤差関数の変化もわずかなものに留まってしまう。
 上記の状態を横軸に治療計画データ群と位置決めデータ群との相対的な位置ずれ(Δx)をとり、縦軸に誤差関数(E)の分布を模式的に示したのが図13である。誤差関数は両データ群の位置ずれがない場合(Δx=0)が最小となり、この状態から両データ群が1格子分(d1)ずれるごとに極小値が現れるような分布を有する(曲線E1を参照)。上記のように両点群データの密度が高い状態にある場合には、最適解(Δx=0)から1格子分ずれている場合においても誤差関数E1が極小値を有するため、ICP法においてはこの極小値において解が収束したと判断されて局所解(不正解値、Δx=Δx)に陥る可能性が高いという問題があった。
 本発明は上記課題を解決するためになされたものであり、ICP法を用いた自動位置決め計算において、局所解に陥るのを避け確実に最適解に収束させることにより、照合精度の高い画像照合装置およびこれを用いた患者位置決め装置を得ることを目的とする。
 この発明に係る画像照合装置及びこれを用いた患者位置決め装置は、第1のCT画像データと第2のCT画像データを各々読み込むCT画像データ読み込み部と、第1のCT画像データと第2のCT画像データのスライス画像群に対して、3次元空間における第1の点群データと第2の点群データを生成する点群データ生成部と、第1の点群データと第2の点群データの少なくとも一方について、点群データの配列ピッチを広げるように点群データを間引く点群データ解像度変換部と、ICP計算部とを備えている。
 また、ICP計算部は、点群データ解像度変換部から出力された第1の点群データと第2の点群データとの誤差関数が最小となるように、ICP法を用いて第2の点群データに対する変換量を求めることを特徴とする。
 この発明に係る画像照合装置及びこれを用いた患者位置決め装置によると、点群データ解像度変換部は第1の点群データと第2の点群データの少なくとも一方について点群データの配列ピッチを広げるように点群データを間引き、ICP計算部は点群データ解像度変換部から出力された第1の点群データと第2の点群データとの誤差関数が最小となるようにICP法を用いて第2の点群データに対する変換量を求めるため、図13の点群データ解像度変換後の曲線(E2)に示すように、格子間ピッチを広げた分だけ極小値が出現するピッチが広がるように誤差関数の分布を変更することができる。
 従って、点群データ解像度変更前の誤差関数(E1)では極小値(Δx=Δx)にあった場合でも、点群データ解像度変更後(E2)においては極小値ではないようにすることができるため、解が収束したと誤判断されることなくICP計算部において更に解の探索が行われることになり、確実に最適解(Δx=0)に収束させることが可能となる。
本発明の実施の形態1による画像照合装置および患者位置決め装置に関する全体機器構成を示す図である。 本発明の実施の形態1による画像照合装置および患者位置決め装置を構成する各データ処理部の関係を示す図である。 本発明の実施の形態1による画像照合装置において、座標系の定義を模式的に示す図である。 本発明の実施の形態1による画像照合装置において、CT画像データのスライス画像から点群データの生成を行う様子を説明する図である。 本発明の実施の形態1による画像照合装置において、骨輪郭画像について点群データを作成した例を示す図である。 本発明の実施の形態1による画像照合装置において、点群データの領域分割の様子を示す図である。 本発明の実施の形態1による画像照合装置において、任意の点と点群との距離の定義を示す模式図である。 本発明の実施の形態2による画像照合装置および患者位置決め装置を構成する各データ処理部の関係を示す図である。 本発明の実施の形態2による画像照合装置を用いて多層複数テンプレートを設定した時の評価スコア算出方法を説明する図である。 本発明の実施の形態2による画像照合装置を用いて多層複数テンプレートを設定した時の評価スコア算出方法を説明する図である。 本発明の実施の形態2による画像照合装置を用いて多層複数テンプレートを設定した時の評価スコア算出方法を説明する図である。 ICP法を用いた画像照合の計算において局所解に陥る現象を説明する図である。 点群データ解像度変換処理前後における誤差関数の分布の相違を説明する図である。
実施の形態1.
 図1は本発明の実施の形態1による画像照合装置および患者位置決め装置の適用が想定されるCT画像データを用いた画像照合、位置決め、放射線治療に関する全体機器構成を示す図である。1は放射線治療に先立って行われる治療計画を行うためのCTシミュレータ室であり、ここにはCTガントリー2、CT画像撮影用ベッドの天板3があり、天板3の上に患者4を横たえて、患部5を含むように治療計画用のCT画像データが撮影される。
 一方、6は放射線治療を行うための治療室であり、ここにはCTガントリー7、回転治療台8と、回転治療台8の上部には天板9があり、天板9の上に患者10を横たえて、治療時の患部11を含むように位置決め用のCT画像データが撮影される。
 ここで、位置決めとは、治療時の患者10と患部11の位置を、治療計画用のCT画像データから割り出し、治療計画に合うように体位補正量を計算し、治療時の患部11が放射線治療のビーム照射中心12にくるように位置合わせを行うことである。位置合わせは患者10を天板9に載せたまま回転治療台8を駆動制御して天板9の位置を移動することで実現する。回転治療台8は並進・回転の6自由度の駆動補正が可能であるとともに、回転治療台8の天板9を180度回転することで、CT撮影ポジション(図1において実線にて示す)から照射ヘッド13のある治療ポジション(図1において点線にて示す)へ移動することもできる。尚、図1では、CT撮影ポジションと治療ポジションが180度の対向位置関係にあるものが示されているが、この配置形態に限られず、両者の位置関係が90度等その他の角度をなすものであってもかまわない。
 ここで、治療計画用のCT画像データと位置決め用のCT画像データとは位置決め計算機14に転送される。本発明における画像照合装置および患者位置決め装置はいずれもこの位置決め計算機内に存在するコンピュータソフトウェアに関するものであり、画像照合装置は前記体位補正量(並進量、回転量)を計算するとともに、患者位置決め装置は画像照合装置を包含しつつ、更にこの体位補正量に基づいて治療台の各駆動軸を制御するパラメータを算出する機能を有するものである。
 従来の放射線治療における位置決めでは、治療計画用CT画像データから生成したDRR(Digitally Reconstructed Radiography)画像と治療時治療室で撮影したX線透視画像とを照合することで位置ずれ量を計算していた。X線透視画像では軟部組織である患部は良くうつらないため骨を使った位置合わせが基本となる。本実施の形態で記述するCT位置決めは、治療室6にCTガントリー7を同室設置し、治療直前のCT画像データと治療計画用CT画像データとで位置合わせをするため、患部を直接的に描出可能で、患部での位置合わせができるという特徴を有する。
 次に、本実施の形態における画像照合装置および患者位置決め装置での前記体位補正量の計算手順について説明する。図2は画像照合装置及び患者位置決め装置を構成する各データ処理部間の関係を示す構成図であり、ここで画像照合装置15aは、CT画像データ読み込み部17、点群データ生成部18、点群データ解像度変換部19、点群データ領域分割部20、点群データノイズ除去部21、ICP計算部22、MPR処理部23から構成され、これに治療台制御パラメータ算出部24を加えたものが患者位置決め装置16aである。
 CT画像データ読み込み部17では、治療計画用のCT画像データ(第1のCT画像データ)と位置決め用のCT画像データ(第2のCT画像データ)とを読み込む。CT画像データはDICOM(Digital Imaging and Communication in Medicine)形式のスライス画像群であるが、フォーマットは特にこれに限定されるものではない。
 点群データ生成部18では、治療計画用CT画像データと位置決め用CT画像データのスライス画像群から、治療計画用CT画像データに基づく点群データ(第1の点群データ)と位置決め用CT画像データに基づく点群データ(第2の点群データ)とを生成する。ここでいう点群データとは3次元空間での点データの集合を指すものであり、3次元空間とは、例えば図3のように、スライス画像群27の内、CT撮影時の基準点に相当するCT原点28を含むスライス画像上において座標系29を設定し、X軸をスライス画像面内の水平方向、Y軸をスライス画像面内においてX軸に垂直な方向、Z軸をスライス画像面に垂直な方向に右手座標系でとればよい。座標系のスケールは、DICOM形式ファイルのタグ情報である、画素間隔(pixel spacing)やスライス間隔(slice pitch)から決定できる。
 具体的な点群データの生成処理について述べる。スライス画像群を閾値処理で二値化し骨領域を抽出する。続けて、二値化画像に対してエッジ抽出処理を行い、細線化処理を施して骨輪郭画像を得る。エッジ抽出処理や細線化処理にはcanny法などを用いることができるが、それに限定されるわけではなく、同等の機能を施すことが可能なその他の画像照合技術を適用しても良い。骨輪郭画像の輪郭線上のデータから点群データを生成する。点群データは(X、Y、Z)の三次元座標を持つ点の集合となる。図4はスライス画像群(図4(a))内の1枚のスライス画像に対して、骨輪郭画像を作成し(図4(b))、骨輪郭画像の輪郭線上のデータから点群データ(図4(c))を生成した例を模式的に示したものである。図5は3枚の骨輪郭画像から点群データを作成した例を模式的に示したものである。
 点群データ解像度変換部19では、治療計画用の第1の点群データか位置決め用の第2の点群データか少なくとも一方の点群データに対して、点群データの配列ピッチを広げるように点群データを間引いてデータ量の調整を行う。点群データ生成部18で点群データを生成した際の解像度を1/1と定義し、そこから2点に1点を間引いた場合を解像度1/2、4点に3点を間引いた場合を解像度1/4、8点に7点を間引いた場合を解像度1/8のように定義することができる。解像度1/8より小さい解像度の場合も同様の定義とする。間引きの順番としては、同一スライス画像面内はラスタースキャンした際の点群の出現順番で間引くものとし、スライスをまたぐ場合は、頭頂から頭尾などというように方向を決めれば良い。但し、順番に意味があるわけではなく、点群データ全体をランダムに間引くような処理でもかまわない。また、間引きの分母は2のべき乗である必要もない。
 点群データ領域分割部20では、点群データ生成部18、点群データ解像度変換部19で生成した第1の点群データと第2の点群データの各々を領域分割する。例えば、点群データの重心位置を基準として、X軸、Y軸、Z軸ごとに二分割できるような仕組みを導入すれば良い。例えば、X軸のみの分割であれば2分割したことになり、全ての軸(X、Y、Z)で二分割すれば合計8分割したことになる。ここでは、実際にデータを分割して別変数や別ファイルで保存する必要はなく、各点群データの所属する領域を各点群データの属性値として保持するような仕組みを導入すれば良い。
 図6には位置決め用の第2の点群データをR1~R4の領域へ(図6(a))、治療計画用の第1の点群データをR1’~R4’の領域へ(図6(b))、それぞれ4分割した例を示した。第1の点群データと第2の点群データの両方を同じように領域分割しなければならないが、第1の点群データの分割領域は第2の点群データの分割領域を包含しつつ、両点群データ間で位置ずれの生じることを考慮してマージン領域を設定し、第1の点群データの分割領域を第2の点群データの分割領域より大きくしなければならない。
 逆に、治療計画用の第1の点群データを位置決め用の第2の点群データに照合しに行く場合には、第2の点群データの分割領域にマージン領域を持たせて第1の点群データの分割領域より大きくすることにより、第2の点群データの分割領域が第1の点群データの分割領域を包含する必要がある。
 点群データノイズ除去部21では、点群データ生成部18、点群データ解像度変換部19で生成した第1の点群データと第2の点群データのうち、骨領域以外の天板3、9や患者4、10の着衣の一部などが写っている場合に、当該部分のデータを除去する。天板3、9の物理的な位置は事前にわかっていて、かつ、天板3、9や患者4、10の着衣は骨とはCT値が異なる値に分布しており、画像照合対象領域以外の部分のデータであることを判別できるため、座標情報やCT値を利用すればこれらを容易に除去することが可能となる。
 ICP計算部22では、点群データ生成部18、点群データ解像度変換部19、点群データ領域分割部20、点群データノイズ除去部21を経て生成される治療計画用の第1の点群データと位置決め用の第2の点群データを使用し、第2の点群データの位置姿勢に対してどのような変換を行えば第1の点群データと最も近接させることができるか、すなわち両者間の誤差関数を最小化するように第2の点群データに対する変換量(体位補正量)を計算により求める。
 具体的な処理ステップを以下に示す。3次元空間内の2点間の対応を表す指標として、2点間の距離を用いる。ここで、3次元空間内の2点x1、x2間の距離をd(x1、x2)と表記する。
 また、点群GにNR個の点データ(x(i): i=1、2、・・・、NR)が存在するとした場合、任意の点pと点群Gとの距離は数1に示すとおり、点群Gに属する点のうち点pに最も近接する点と点pとの距離と定義する(図7参照)。
Figure JPOXMLDOC01-appb-M000001
 今、第1の点群データ(治療計画用)内のNref個の点データ(xref(i): i=1、2、・・・、Nref)からなる点群をGrefとし、第2の点群データ(位置決め用)内のNtest個の点データ(xtest(j): j=1、2、・・・、Ntest)からなる点群をGtestとする。
 最初に、ステップ1として、第1の点群データGrefの各点xref(i)と第2の点群データGtestとの距離を求め、その時の点xtest(j)を点xref(i)への対応点x'test(i)とすることで、第1の点群データGrefと第2の点群データGtestとの対応関係が求まる。
Figure JPOXMLDOC01-appb-M000002
 次に、ステップ2として、第2の点群データGtestから第1の点群データGrefへの変換量(回転量R、並進量t)を求める。ここで、回転量Rは3x3行列、並進量tは3x1行列を表す。第2の点群データGtest内の各点x'test(i)を回転量R、並進量tで変換した点と、点x'test(i)に対応する、第1の点群データGrefに属する点xref(i)とのベクトル差分を求め、その自乗和を誤差e2(R、t)とする(数3)。e2(R、t)を最小とする時の回転量R*、並進量t*を、その時の変換量とする(数4)。
Figure JPOXMLDOC01-appb-M000003
Figure JPOXMLDOC01-appb-M000004
 次に、ステップ3として、ステップ1、ステップ2で求めた変換量により、第2の点群データGtestに属する各点を変換する。ここでkはICP法における繰り返し計算のインデックスとする。
Figure JPOXMLDOC01-appb-M000005
 ステップ1からステップ3を繰り返し計算する。繰り返し計算によるステップ2における誤差の変化量が予め決めた閾値以下になれば計算を終了する。そして、繰り返し計算の中で求めた変換量(回転量R*、並進量t*)について全てを合成したもの(回転量Rs*、並進量ts*)が第2の点群データGtestから第1の点群データGrefへの変換量となる。
 以上のように、第2の点群データ(位置決め用)の各点から第1の点群データ(治療計画用)の最も近い点へ対応付けし、位置決めデータ群と治療計画データ群の距離の総和で規定される誤差関数e2(R、t)を最小とする変換量(回転量R*、並進量t*)を逐次繰り返し計算によって求めることができる。
 次にMPR処理部23について説明する。MPR(Multi Planar Reconstruction / Reformat)処理とは、CT画像データの各スライス画像を何枚も積み重ねて一つのボリュームデータを作り、これを基にして任意の断面の画像を作成する方法であり、オブリーク(Oblique)、又はダブルオブリーク(Double Oblique)とも呼ばれる。従ってこの処理を用いることにより、例えば矢状(サジタル)断面、冠状(コロナル)断面などの画像データなど実際には撮影されていないデータであっても、実際に撮影された軸状(アキシャル)断面の画像データに対して補間処理を行い再構成することにより生成することが可能となる。
 補間アルゴリズムはTLI(Trilinear Interpolation)など線形補間アルゴリズムの他に、TLIを拡張したTricubic Interpolationなど、非線形補間アルゴリズムも適用することができる。軸状(アキシャル)断面、矢状(サジタル)断面、冠状(コロナル)断面などの初期断面を含むある点(X、Y、Z)と、その点を回転中心として初期断面を基準とした直交座標軸を定義した時の各座標軸周りの回転量(A、B、C)を決めると一つの斜断面が決まり、その斜断面での画像データを計算することができる。
 治療計画用CT画像データ(第1のCT画像データ)と位置決め用CT画像データ(第2のCT画像データ)とを、斜断面生成パラメータ(X、Y、Z、A、B、C)が同一のMPR断面で評価すると自動位置合わせの前では画像が一致せず、ずれていることになる。
 そこでICP計算部22の結果(回転量Rs*、並進量ts*)において、並進量ts*の各成分を(ΔX、ΔY、ΔZ)とし、回転量Rs*をX軸、Y軸、Z軸の各軸周りの回転量(ΔA、ΔB、ΔC)に置き換えると、位置決め用CT画像データから斜断面生成パラメータ(X-△X、Y-△Y、Z-△Z、A-△A、B-△B、C-△C)でMPR断面を生成することにより、位置決め用CT画像データを治療計画用CT画像データに変換して近づけた画像を生成することができる。あるいは、MPR断面については当初生成したものを用いて、位置決め用CT画像データ(第2のCT画像データ)を(ΔX、ΔY、ΔZ、ΔA、ΔB、ΔC)だけ回転、並進させたものを用いても、治療計画用CT画像データ(第1のCT画像データ)と近づけた画像が得られ照合可能である。
 これにより、位置決め用CT画像データと治療計画用CT画像データとの骨構造が合っているかを確認でき、位置決めの結果が妥当なものであるか否かを判断できるようになる。
 画像の確認するための初期断面としては、軸状(アキシャル)断面、矢状(サジタル)断面、冠状(コロナル)断面の直交三断面などであっても良いし、軸状(アキシャル)断面、矢状(サジタル)断面、冠状(コロナル)断面から傾いた断面でも良いし、それらの組み合わせであっても良い。また、治療計画画像と位置決め画像とを差分表示や重畳表示して、その差異を確認するようにすれば良い。
 逆に、ICP計算部22の結果の符合をプラスマイナス反転し、斜断面生成パラメータ(X+△X、Y+△Y、Z+△Z、A+△A、B+△B、C+△C)で治療計画用CT画像データからMPR断面を生成することにより、治療計画用CT画像データ(第1のCT画像データ)を位置決め用CT画像データ(第2のCT画像データ)に変換して近づけた画像を生成することもできる。
 治療台制御パラメータ算出部24では、ICP計算部22の出力値(並進3軸[ΔX、ΔY、ΔZ]、回転3軸[ΔA、ΔB、ΔC]の計6自由度)を、治療台の各軸を制御するパラメータに変換し治療台を制御する。これにより、治療計画に合うように体位補正量を計算し、治療時の患部11が放射線治療のビーム照射中心12にくるように位置合わせすることができる。
 以上のとおり本実施の形態に係る画像照合装置15a及び患者位置決め装置16aによると、点群データ解像度変換部19は第1の点群データと第2の点群データの少なくとも一方について点群データの配列ピッチを広げるように点群データを間引き、ICP計算部22は点群データ解像度変換部19から出力された第1の点群データと第2の点群データとの誤差関数が最小となるようにICP法を用いて第2の点群データに対する変換量を求めるため、図13の点群データ解像度変換後の曲線(E2)に示すように、格子間ピッチを広げた分だけ極小値が出現するピッチが広がるように誤差関数の分布を変更することができる。
 従って、点群データ解像度変更前の誤差関数(E1)では極小値(Δx=Δx)にあった場合でも、点群データ解像度変更後(E2)においては極小値ではないようにすることができるため、解が収束したと誤判断されることなくICP計算部22において更に解の探索が行われることになり、確実に最適解(Δx=0)に収束させることが可能となる。
 また、本実施の形態に係る画像照合装置15a及び患者位置決め装置16aは、第1の点群データを複数の領域に分割し、第2の点群データを前記領域に対応する複数の領域に分割する領域分割部20を備えており、ICP計算部22は第1の点群データの各領域とそれに対応する第2の点群データの各領域の間でのみ計算を行うため、分割前の全領域を対象として全ての対応点の組み合わせを計算するよりも最近傍となる対応点を計算する際の量を低減することが可能となり、処理を高速化できる。計算量としては、治療計画用の第1の点群データと、位置決め用の第2の点群データとで、各データを1/N個に領域分割したとすると、全体計算量はほぼ1/N程度にまで低減できる(正確にはマージン領域があるため、実際には1/Nよりも若干大きい値となる)。
 更に、本実施の形態に係る画像照合装置15a及び患者位置決め装置16aは、第1の点群データと第2の点群データの少なくとも一方に対して、画像照合対象領域以外の部分のノイズデータを除去する点群データノイズ除去部21を備えており、ICP計算部22は、前記ノイズデータが除去された第1の点群データと第2の点群データとを用いて計算を行うため、治療計画用の第1の点群データと位置決め用の第2の点群データとの誤対応を減らすこととなり、ICP計算部22における繰り返し計算において局所解に陥ることなく最適解に導くという効果を奏する。
 尚、以上では点群データ生成部18において、骨領域を抽出して二値化画像に対してエッジ抽出処理を行い、細線化処理を施して骨輪郭画像を得て、この画像を用いて画像照合を行う形態について説明してきたが、骨領域に替えて放射線治療を行う患部領域や臓器を対象に画像照合を行うことも可能である。この場合には患部領域又は臓器を指定したCT値で二値化して抽出を行えばよい。以降のデータ処理は骨領域を対象とするものと同様であるため、詳細は省略する。
 このように放射線治療を行う患部領域や臓器を対象として画像照合を行い、更にICP計算部22で得られた出力値(並進3軸[ΔX、ΔY、ΔZ]、回転3軸[ΔA、ΔB、ΔC]の計6自由度)に基づいて、治療台制御パラメータ算出部24で治療台の各軸を制御するパラメータに変換し治療台を制御することにより、上述と同じ効果が得られることに加えて、以下の実施の形態2で説明するテンプレートマッチングを不要とすることが可能となる利点がある。
実施の形態2.
 本実施の形態に係る画像照合装置15b及び患者位置決め装置16bは、実施の形態1に示したものに対して、テンプレート設定部25、テンプレートマッチング部26を追加したものであり、その構成を図8に示す。これにより、骨による照合(グローバルマッチング)を行った上で、患部(がん標的)に対応するテンプレートを用いた照合(ローカルマッチング)を行うことができ、グローバルマッチングのみによる照合よりも更に精密な照合、及び位置決めが可能となるものである。特に肺、肝臓、前立腺など頭頚部以外の軟部組織では近傍に骨が存在しないため、骨による位置決めのみでは放射線治療において要求される精度を満たしえない場合も想定され、この場合には患部(がん標的)近傍をテンプレートとしてテンプレートマッチングを行う手法が有効である。
 テンプレート設定部25では、テンプレート画像の登録を行う。ICP計算部22での計算結果(△X、△Y、△Z、△A、△B、△C)を用いて、位置決め用CT画像データ(第2のCT画像)から斜断面生成パラメータ(X-△X、Y-△Y、Z-△Z、A-△A、B-△B、C-△C)を用いて生成したMPR断面群を使うものとする。この段階では、位置決め用CT画像を変換したMPR断面群内の輝度階調の変化が大きい特徴領域をテンプレートとして選択すると良い。
 テンプレートマッチング部26では、治療計画用CT画像(第1のCT画像)のスライス画像群の探索範囲内でテンプレートマッチングを実行し、最も相関値が高くなる場所を求め、この場所に前記特徴領域を並進移動させるように、ICP計算部22で得られた第2の点群データに対する変換量の更なる補正値として、第2の点群データに対する変換量補正値を求める。
 本実施の形態におけるテンプレートマッチングでは、前記相関値を求める手法として一様な輝度変動などにロバストな手法である正規化相互相関法を用いることが考えられる。しかし、この手法に限定されるわけではなく、相互情報量など確率的な類似度尺度を相関値として利用することもできる。また、テンプレートマッチングには部分テンプレート法(※1参照)や階層サーチ法(※2参照)などのロバストかつ高速な手法を用いることもできる。
※1:奥田晴久、橋本学、鷲見和彦、佐々木和則:“部分テンプレート組み合わせ最適化に基づくロバスト画像照合”、電学論C、Vol. 124、No. 3、pp.629-636 (2004)
※2:Miwako Hirooka, Kazuhiko Sumi, Manabu Hashimoto and Haruhisa Okuda, ”Hierarchical distributed template matching”, SPIE Machine Vision Applications in Industrial Inspection V, pp.176-183, 1997.
 また、1枚のテンプレートマッチングを行うよりも更に高精度にマッチングを行うために、複数枚の位置決め用CT画像(MPR断面群)を対象に複数のテンプレートを設定して、複数枚のテンプレート画像で位置決めを行う多層複数テンプレートマッチングを適用することも可能である。具体的には、MPR断面群の連続する3枚のスライス画像の各々存在する3個の特徴領域をテンプレート画像として登録する。3個という数字は一例であり、その個数は2個以上であれば何個でも良い。連続する3枚の内、中央の1枚にテンプレートを設定すると、自動的に前後のスライスにもテンプレートが設定されるようにすると便利である。
 治療計画用CT画像(第1のCT画像)の全スライス画像群に対して、位置決め用の各テンプレート画像を照合し、3個のテンプレートについて照合スコア(相関値)の総和を新しい評価スコアとする。新しい評価スコアを算出する際は、多層複数テンプレートを設定した時のスライスの前後位置関係を拘束して行う。
 多層複数テンプレートを設定した時の、位置決め用CT画像群のスライス間隔をN、治療計画用CT画像群のスライス間隔をMとする。図9には治療計画用CT画像群と位置決め用CT画像群が同じスライス間隔(N=M)の場合を示す。位置決めテンプレート前スコアの一つ前のスライスの結果(P1)と位置決めテンプレート中スコアの結果(C2)と位置決め後テンプレートスコアの一つ後のスライスの結果(P3)とを合計したP1+C2+N3などが当該スライスでの新しい評価スコアとなる。
 同様に、スライス間隔がN=3Mの条件の時には、P1+C4+N7のような3個飛ばしでスコアを合計したものが新しい評価スコアとなる(図10参照)。また、スライス間隔がN=5Mの条件の時には、P1+C6+N11のように5個飛ばしでスコアを合計したものが新しい評価スコアとなる(図11参照)。以上図9から図11に示した多層複数テンプレートを用いた例においては、NはMより大きくて、NはMの倍数となっていることを前提としている。
 テンプレートマッチング部26は、CT用画像データ(第1のCT画像データ)のスライス画像群と複数のテンプレート画像との照合を行い、前記新しい評価スコア(テンプレート画像ごとの相関値の総和)が最も高くなる場所を求め、この場所に複数箇所の特徴領域を並進移動させるように第2の点群データに対する変換量補正値を求める。
 また、この際、N個のテンプレートマッチングの結果に対して、位置誤差の大きなものをロバスト推定手法であるLMedS(最小二乗メディアン)推定を用いて排除し、局所的な変動の影響を排除することもできる。これにより、パラメータ推定に矛盾なく適合するテンプレートの情報を効果的に利用することができる。また、多層複数テンプレートマッチングにおけるN個のテンプレートの設定は軸状(アキシャル)断面に限定されるわけではなく、MPRを利用して、矢状(サジタル)断面、冠状(コロナル)断面に設定することも可能であるし、直交三断面の組み合わせでテンプレートを設定しても良い。このようにすると、ある一方向からのみ合わせた場合と比較してより安定した結果を期待することができる。
 治療台制御パラメータ算出部24では、ICP計算部22の結果によるMPR断面、テンプレートマッチングによる詳細並進補正後の断面を確認した後に、ICP計算部22の出力値(並進3軸、回転3軸の計6自由度)の結果にテンプレートマッチング部26で得られた変換量補正値による詳細並進補正を行った出力値を、治療台の各軸を制御するパラメータに変換し送信することで、治療時の患部11が放射線治療のビーム照射中心12にくるように位置合わせすることができる。
 以上のとおり本実施の形態に係る画像照合装置15b及び患者位置決め装置16bは、点群データ解像度変換部19、点群データ領域分割部20、点群データノイズ除去部21を備えているために、実施の形態1に示したのと同様の作用、効果を奏する。
 また、ICP計算部22で求められた変換量に基づく斜断面生成パラメータを用いて、第1のCT画像データと対比可能なMPR断面群を第2のCT画像データから生成するMPR処理部23と、MPR断面群から選定された特徴領域をテンプレート画像として登録を行うテンプレート設定部25と、第1のCT画像データのスライス画像群と前記テンプレート画像との照合を行って最も相関値が高くなる場所を求め、この場所に前記特徴領域を並進移動させるように第2の点群データに対する変換量補正値を求めるテンプレートマッチング部26とを備えているため、骨構造で合わせた後に、患部位置で詳細に補正(位置合わせ)して精密に照合ができるという効果を奏する。
 更に、テンプレート設定部25は、MPR断面群から選定された連続する複数枚のMPR断面に各々存在する複数箇所の特徴領域を複数のテンプレート画像として登録し、テンプレートマッチング部26は、第1のCT画像データのスライス画像群と前記複数のテンプレート画像との照合を行ってテンプレート画像ごとの相関値の総和が最も高くなる場所を求め、この場所に前記複数箇所の特徴領域を並進移動させるように第2の点群データに対する変換量補正値を求めるため、3次元のボリュームデータをテンプレートとして用いた場合と等価なテンプレートマッチングを2次元テンプレートマッチングの複数組み合わせで実現できる。従って、3次元テンプレートマッチングよりは時間を掛けることなく、同等の精度を実現できるという効果を奏する。
 さらに、MPR処理部23により得られるMPR断面群において、いろいろな角度の任意断面からのテンプレートを組み合わせて照合を行うと、3次元ボリュームで照合を行うよりも高速に処理を行うことができ、かつ、精度も3次元並みに維持することを可能とするという効果がある。
 15a、15b 画像照合装置
 16a、16b 患者位置決め装置
 17  CT画像データ読み込み部
 18  点群データ生成部
 19  点群データ解像度変換部
 20  領域分割部
 21  点群データノイズ除去部
 22  ICP計算部
 23  MPR処理部
 24  治療台制御パラメータ算出部
 25  テンプレート設定部
 26  テンプレートマッチング部

Claims (7)

  1. 第1のCT画像データと第2のCT画像データを各々読み込むCT画像データ読み込み部と、
    前記第1のCT画像データと前記第2のCT画像データのスライス画像群に対して、3次元空間における第1の点群データと第2の点群データを生成する点群データ生成部と、
    前記第1の点群データと第2の点群データの少なくとも一方について、点群データの配列ピッチを広げるように点群データを間引く点群データ解像度変換部と、
    前記点群データ解像度変換部から出力された前記第1の点群データと前記第2の点群データとの誤差関数が最小となるように、ICP法を用いて前記第2の点群データに対する変換量を求めるICP計算部と、
    を備えた画像照合装置。
  2. 第1の点群データを複数の領域に分割し、第2の点群データを前記領域に対応する複数の領域に分割する領域分割部を備え、
    ICP計算部は、前記第1の点群データの前記各領域とそれに対応する前記第2の点群データの前記各領域の間でのみ計算を行うことを特徴とする
    請求項1に記載の画像照合装置。
  3. 第1の点群データと第2の点群データの少なくとも一方に対して、画像照合対象領域以外の部分のノイズデータを除去する点群データノイズ除去部を備え、
    ICP計算部は、前記ノイズデータが除去された前記第1の点群データと前記第2の点群データとを用いて計算を行うことを特徴とする
    請求項1又は2に記載の画像照合装置。
  4. ICP計算部で求められた変換量に基づく斜断面生成パラメータを用いて、第1のCT画像データと対比可能なMPR断面群を第2のCT画像データから生成するMPR処理部と、
    前記MPR断面群から選定された特徴領域をテンプレート画像として登録を行うテンプレート設定部と、
    第1のCT画像データのスライス画像群と前記テンプレート画像との照合を行って最も相関値が高くなる場所を求め、この場所に前記特徴領域を並進移動させるように第2の点群データに対する変換量補正値を求めるテンプレートマッチング部とを備えたことを特徴とする
    請求項1ないし3のいずれか1項に記載の画像照合装置。
  5. テンプレート設定部は、MPR断面群から選定された連続する複数枚のMPR断面に各々存在する複数箇所の特徴領域を複数のテンプレート画像として登録し、
    テンプレートマッチング部は、第1のCT画像データのスライス画像群と前記複数のテンプレート画像との照合を行ってテンプレート画像ごとの相関値の総和が最も高くなる場所を求め、この場所に前記複数箇所の特徴領域を並進移動させるように第2の点群データに対する変換量補正値を求めることを特徴とする
    請求項4に記載の画像照合装置。
  6. 請求項1ないし3のいずれか1項に記載の画像照合装置と、
    ICP計算部により求められた変換量に従って治療台の各駆動軸を制御するパラメータを算出する治療台制御パラメータ算出部と、
    を備えた患者位置決め装置。
  7. 請求項4又は5に記載の画像照合装置と、
    ICP計算部により求められた変換量と、及びテンプレートマッチング部により求められた変換量補正値に従って治療台の各駆動軸を制御するパラメータを算出する治療台制御パラメータ算出部と、
    を備えた患者位置決め装置。
PCT/JP2010/003772 2009-06-10 2010-06-07 画像照合装置及びこれを用いた患者位置決め装置 Ceased WO2010143400A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US13/256,551 US8787647B2 (en) 2009-06-10 2010-06-07 Image matching device and patient positioning device using the same
CN2010800147881A CN102365655A (zh) 2009-06-10 2010-06-07 图像核对装置以及使用了该图像核对装置的患者定位装置
JP2011518294A JP4821940B2 (ja) 2009-06-10 2010-06-07 画像照合装置及びこれを用いた患者位置決め装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009-139230 2009-06-10
JP2009139230 2009-06-10

Publications (1)

Publication Number Publication Date
WO2010143400A1 true WO2010143400A1 (ja) 2010-12-16

Family

ID=43308663

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/003772 Ceased WO2010143400A1 (ja) 2009-06-10 2010-06-07 画像照合装置及びこれを用いた患者位置決め装置

Country Status (4)

Country Link
US (1) US8787647B2 (ja)
JP (1) JP4821940B2 (ja)
CN (2) CN102365655A (ja)
WO (1) WO2010143400A1 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012121341A1 (ja) * 2011-03-09 2012-09-13 国立大学法人大阪大学 画像データ処理装置および経頭蓋磁気刺激装置
GB2501308A (en) * 2012-04-19 2013-10-23 Vision Rt Ltd Matching the position of an object to a target model using rigid transformations
JP2015000092A (ja) * 2013-06-13 2015-01-05 三菱電機株式会社 患者位置決めシステム、および患者位置決め方法。
CN105631850A (zh) * 2014-11-21 2016-06-01 奥多比公司 对齐多视图扫描
US9489734B2 (en) 2011-01-12 2016-11-08 Brainlab Ag Determination of a body part position during radiation therapy
JP2017164043A (ja) * 2016-03-14 2017-09-21 富士通株式会社 類似画像検索プログラム、類似画像検索方法、及び類似画像検索装置
EP2663364B1 (en) * 2011-01-12 2018-08-08 Brainlab AG Determination of a change of position of a bony structure in radiation therapy
JP2020035449A (ja) * 2013-12-03 2020-03-05 ビューレイ・テクノロジーズ・インコーポレイテッドViewRay Technologies, Inc. 位相相関を用いた非剛体変形の存在下での医用画像のシングル及びマルチのモダリティ位置合わせ
JP2020110650A (ja) * 2011-10-05 2020-07-27 ニューヴェイジヴ,インコーポレイテッド 画像処理方法及び画像処理装置
US11284811B2 (en) 2016-06-22 2022-03-29 Viewray Technologies, Inc. Magnetic resonance volumetric imaging
US11378629B2 (en) 2016-06-22 2022-07-05 Viewray Technologies, Inc. Magnetic resonance imaging
US11941179B2 (en) 2010-10-06 2024-03-26 Nuvasive, Inc. Imaging system and method for use in surgical and interventional medical procedures

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2854992C (en) * 2010-11-24 2021-05-04 Blackford Analysis Limited Process and apparatus for data registration
NL2009885C2 (en) * 2011-11-30 2014-12-09 Gen Electric System and method for automated landmarking.
CN103829966B (zh) * 2012-11-27 2018-12-07 Ge医疗系统环球技术有限公司 用于自动确定侦测图像中的定位线的方法和系统
CN103892862B (zh) 2012-12-28 2018-12-25 Ge医疗系统环球技术有限公司 用于侦查图像的自动扫描定位装置
US9849308B2 (en) * 2013-01-09 2017-12-26 Brainlab Ag CBCT and X-ray combined setup with X-ray verification of patient positioning
EP3164075B1 (en) * 2014-07-02 2021-03-24 Covidien LP Unified coordinate system for multiple ct scans of patient lungs
WO2016066444A1 (en) * 2014-10-30 2016-05-06 Koninklijke Philips N.V. Device and method for determining image quality of a radiogram image
CN105957071B (zh) * 2016-04-26 2019-04-12 浙江宇视科技有限公司 一种灯组定位方法及装置
KR20200075623A (ko) * 2018-12-18 2020-06-26 (주)제노레이 2차원 의료 영상 및 3차원 의료 영상의 정합을 이용한 치과 치료 계획 장치 및 방법
EP3923293A1 (en) * 2020-06-09 2021-12-15 Koninklijke Philips N.V. System and method for analysis of medical image data based on an interaction of quality metrics
US11906294B2 (en) * 2020-07-28 2024-02-20 Ricoh Company, Ltd. Alignment apparatus, alignment system, alignment method, and recording medium
CN113764074B (zh) * 2021-09-13 2024-01-02 杭州太美星程医药科技有限公司 图像处理方法和装置、计算机设备,以及存储介质
WO2025072538A1 (en) * 2023-09-29 2025-04-03 Tae Life Sciences, Llc Neutron capture therapy (nct) treatment planning and delivery

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001511570A (ja) * 1997-07-25 2001-08-14 アーチ・デベロップメント・コーポレーション 放射線写真におけるインターバル変化を検出する方法
JP2009515493A (ja) * 2005-11-09 2009-04-09 スリーエム イノベイティブ プロパティズ カンパニー カメラ動きの決定
CA2645385A1 (en) * 2007-12-05 2009-06-05 Biosense Webster, Inc. Anatomical modeling from a 3-d image and surface mapping

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09277184A (ja) 1996-04-15 1997-10-28 Ricoh Co Ltd 画像処理方法
US6795521B2 (en) 2001-08-17 2004-09-21 Deus Technologies Llc Computer-aided diagnosis system for thoracic computer tomography images
JP4493436B2 (ja) 2003-08-14 2010-06-30 富士フイルム株式会社 画像読影支援方法および装置ならびにプログラム
US8108024B2 (en) * 2004-12-15 2012-01-31 Koninklijke Philips Electronics N.V. Registration of multi-modality images
US7822254B2 (en) * 2006-04-21 2010-10-26 Siemens Medical Solutions Usa, Inc. Automatic positioning of matching multi-planar image reformatting (MPR) views of multiple 3D medical images
CN100507945C (zh) * 2006-12-29 2009-07-01 四川大学 Ct胶片扫描图像中断层图像的分割方法
JP4959440B2 (ja) 2007-06-22 2012-06-20 三菱電機株式会社 放射線治療装置及び治療部位の位置決め方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001511570A (ja) * 1997-07-25 2001-08-14 アーチ・デベロップメント・コーポレーション 放射線写真におけるインターバル変化を検出する方法
JP2009515493A (ja) * 2005-11-09 2009-04-09 スリーエム イノベイティブ プロパティズ カンパニー カメラ動きの決定
CA2645385A1 (en) * 2007-12-05 2009-06-05 Biosense Webster, Inc. Anatomical modeling from a 3-d image and surface mapping

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11941179B2 (en) 2010-10-06 2024-03-26 Nuvasive, Inc. Imaging system and method for use in surgical and interventional medical procedures
EP2663364B1 (en) * 2011-01-12 2018-08-08 Brainlab AG Determination of a change of position of a bony structure in radiation therapy
US9489734B2 (en) 2011-01-12 2016-11-08 Brainlab Ag Determination of a body part position during radiation therapy
US9508145B2 (en) 2011-01-12 2016-11-29 Brainlab Ag Determination of a change of position of a bony structure in radiation therapy
EP2663363B1 (en) * 2011-01-12 2017-04-19 Brainlab AG Determination of a body part position during radiation therapy
US9993655B2 (en) 2011-03-09 2018-06-12 Osaka University Image data processing device and transcranial magnetic stimulation apparatus
JPWO2012121341A1 (ja) * 2011-03-09 2014-07-17 国立大学法人大阪大学 画像データ処理装置および経頭蓋磁気刺激装置
WO2012121341A1 (ja) * 2011-03-09 2012-09-13 国立大学法人大阪大学 画像データ処理装置および経頭蓋磁気刺激装置
JP2020110650A (ja) * 2011-10-05 2020-07-27 ニューヴェイジヴ,インコーポレイテッド 画像処理方法及び画像処理装置
US9420254B2 (en) 2012-04-19 2016-08-16 Vision Rt Limited Patient monitor and method
GB2501308A (en) * 2012-04-19 2013-10-23 Vision Rt Ltd Matching the position of an object to a target model using rigid transformations
JP2015000092A (ja) * 2013-06-13 2015-01-05 三菱電機株式会社 患者位置決めシステム、および患者位置決め方法。
JP2020035449A (ja) * 2013-12-03 2020-03-05 ビューレイ・テクノロジーズ・インコーポレイテッドViewRay Technologies, Inc. 位相相関を用いた非剛体変形の存在下での医用画像のシングル及びマルチのモダリティ位置合わせ
US12062187B2 (en) 2013-12-03 2024-08-13 Viewray Systems, Inc. Single- and multi-modality alignment of medical images in the presence of non-rigid deformations using phase correlation
CN105631850A (zh) * 2014-11-21 2016-06-01 奥多比公司 对齐多视图扫描
CN105631850B (zh) * 2014-11-21 2020-08-04 奥多比公司 对齐多视图扫描
JP2017164043A (ja) * 2016-03-14 2017-09-21 富士通株式会社 類似画像検索プログラム、類似画像検索方法、及び類似画像検索装置
US11284811B2 (en) 2016-06-22 2022-03-29 Viewray Technologies, Inc. Magnetic resonance volumetric imaging
US11378629B2 (en) 2016-06-22 2022-07-05 Viewray Technologies, Inc. Magnetic resonance imaging
US11768257B2 (en) 2016-06-22 2023-09-26 Viewray Technologies, Inc. Magnetic resonance imaging
US11892523B2 (en) 2016-06-22 2024-02-06 Viewray Technologies, Inc. Magnetic resonance imaging
US12433502B2 (en) 2016-06-22 2025-10-07 Viewray Systems, Inc. Magnetic resonance volumetric imaging

Also Published As

Publication number Publication date
JP4821940B2 (ja) 2011-11-24
US20120114208A1 (en) 2012-05-10
CN104268849A (zh) 2015-01-07
US8787647B2 (en) 2014-07-22
JPWO2010143400A1 (ja) 2012-11-22
CN102365655A (zh) 2012-02-29

Similar Documents

Publication Publication Date Title
JP4821940B2 (ja) 画像照合装置及びこれを用いた患者位置決め装置
Almukhtar et al. Comparison of the accuracy of voxel based registration and surface based registration for 3D assessment of surgical change following orthognathic surgery
US8953856B2 (en) Method and system for registering a medical image
US7204640B2 (en) Apparatus and method for registering 2D radiographic images with images reconstructed from 3D scan data
Penney et al. A comparison of similarity measures for use in 2-D-3-D medical image registration
EP3800617B1 (en) A computer-implemented method for registering low dimensional images with a high dimensional image, a method for training an artificial neural network useful in finding landmarks in low dimensional images, a computer program and a system for registering low dimensional images with a high dimensional image
Kaur et al. Automatic cephalometric landmark detection using Zernike moments and template matching
EP2849630B1 (en) Virtual fiducial markers
JP7580987B2 (ja) 整形外科手術で使用するための3次元モデルの精度を判定するための方法
WO2008136966A2 (en) Registration of medical images using learned-based matching functions
Baka et al. Statistical shape model-based femur kinematics from biplane fluoroscopy
CN112509022A (zh) 一种术前三维影像与术中透视图像的无标定物配准方法
Schumann et al. An integrated system for 3D hip joint reconstruction from 2D X-rays: a preliminary validation study
US20240221190A1 (en) Methods and systems for registration
Chang et al. Registration of 2D C‐arm and 3D CT images for a C‐arm image‐assisted navigation system for spinal surgery
WO2023276810A1 (ja) 疾患ラベル作成装置、方法及びプログラム並びに学習装置及び疾患検出モデル
JP2007500029A (ja) アフィン変換を用いたモダリティ内医療体積画像の自動登録
US20180061090A1 (en) Method and device for the automatic generation of synthetic projections
CN112308764B (zh) 图像配准方法及装置
US20070076928A1 (en) System and method for anatomy based reconstruction
US9254106B2 (en) Method for completing a medical image data set
Puggelli et al. Accuracy assessment of CT-based 3D bone surface reconstruction
US7753848B2 (en) Determining speed-of-sound factors in ultrasound images of a body
Li et al. ToothSC-SAM: A Novel Network Model Based on Skip-Connections and SAM for Tooth Segmentation in CBCT Images
US20080260286A1 (en) Method for Registration and Navigation of Volumetric Scans Using Energy Profiles

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080014788.1

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10785932

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2011518294

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 13256551

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 10785932

Country of ref document: EP

Kind code of ref document: A1