[go: up one dir, main page]

WO2014115625A1 - X線ct装置及び画像再構成方法 - Google Patents

X線ct装置及び画像再構成方法 Download PDF

Info

Publication number
WO2014115625A1
WO2014115625A1 PCT/JP2014/050586 JP2014050586W WO2014115625A1 WO 2014115625 A1 WO2014115625 A1 WO 2014115625A1 JP 2014050586 W JP2014050586 W JP 2014050586W WO 2014115625 A1 WO2014115625 A1 WO 2014115625A1
Authority
WO
WIPO (PCT)
Prior art keywords
ray
projection data
reconstructed image
direction interpolation
interpolation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2014/050586
Other languages
English (en)
French (fr)
Inventor
小嶋 進一
恵介 山川
史人 渡辺
悠史 坪田
康隆 昆野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Healthcare Manufacturing Ltd
Original Assignee
Hitachi Medical Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Medical Corp filed Critical Hitachi Medical Corp
Priority to JP2014558538A priority Critical patent/JP5978516B2/ja
Priority to US14/655,589 priority patent/US9552659B2/en
Priority to CN201480005942.7A priority patent/CN104936526B/zh
Publication of WO2014115625A1 publication Critical patent/WO2014115625A1/ja
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/40Arrangements for generating radiation specially adapted for radiation diagnosis
    • A61B6/4021Arrangements for generating radiation specially adapted for radiation diagnosis involving movement of the focal spot
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5205Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/005Specific pre-processing for tomographic reconstruction, e.g. calibration, source positioning, rebinning, scatter correction, retrospective gating
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/006Inverse problem, transformation from projection-space into object-space, e.g. transform methods, back-projection, algebraic methods
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10148Varying focus
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Definitions

  • the present invention relates to an X-ray CT apparatus and an image reconstruction method, and more particularly to a technique for improving spatial resolution and improving subject measurement accuracy.
  • the need for improving the spatial resolution is increasing.
  • the detection element of the X-ray detector is miniaturized, that is, the size is reduced. In this case, the S / N of the detection signal is lowered.
  • Patent Document 1 discloses a technique called Flying Focal Spot (FFS) method.
  • FFS Flying Focal Spot
  • the X-ray focal point position is electromagnetically moved alternately between two positions while the scanner is rotationally moved, thereby causing a positional shift of the X-ray beam. This is a method for increasing the density of the.
  • projection data defined by the angular direction (also referred to as the view direction or ⁇ direction) of the rotational movement of the scanner and the channel direction of the X-ray detector is different for each view direction as the X-ray focal position is alternately moved.
  • this data loss is interpolated with actually measured data (also called actual data) located on both sides thereof, for example, both sides in the channel direction or both sides in the view direction.
  • the double-density sampling interval of the general method is obtained near the rotation center axis of the scanner, but the double-density is not obtained near the X-ray detection unit, and the sampling interval is not equal.
  • the magnification of the X-ray beam varies depending on the distance from the focal point of the X-ray, and the spatial resolution deteriorates when the magnification is larger. Therefore, considering the combination of projection data at opposite view angles, the spatial resolution is the highest near the imaging center, and the spatial resolution decreases as the distance from the center increases.
  • the interval between the data sample points differs depending on the imaging position, and the spatial resolution also differs. Therefore, when the reconstruction calculation is performed using the projection data after the conventional interpolation processing, However, there is a problem that a difference in spatial resolution occurs between the vicinity of the imaging center and the peripheral portion.
  • An object of the present invention is to provide a technique for reducing the difference in spatial resolution depending on the imaging position in one reconstructed image generated by the FFS method and improving the measurement accuracy.
  • the present invention solves the above problems by providing a data interpolation unit that corrects the imaging position dependency of the data sampling interval and the imaging position dependency of the spatial resolution inherent in the FFS projection data and interpolates the missing data.
  • the X-ray CT apparatus of the present invention has an X-ray generation unit that generates X-rays and a plurality of X-ray detection elements that detect the X-rays, and detects projection X-rays and outputs projection data.
  • An X-ray detector, a X-ray generator and the X-ray detector are arranged to face each other, a rotation unit that rotates the X-ray generator and the X-ray detector, and a projection that interpolates the projection data
  • a focal point moving unit that alternately moves.
  • the projection data interpolating unit interpolates data at a data loss position (referred to as missing data) that occurs with the movement of the focal point, using actual data arranged along the angular direction of the rotational movement of the projection data.
  • the reconstruction unit is configured to interpolate a view direction interpolation process and a channel direction interpolation process for interpolating the missing data using actual data arranged along the channel direction of the projection data.
  • a reconstructed image is generated in which contribution ratios of the projection data subjected to the view direction interpolation processing and the projection data subjected to the channel direction interpolation processing differ according to the position of the pixel within.
  • the movement of the focal point of the X-ray includes movement in the circumferential direction of the rotating track and movement in the radial direction of the rotating track.
  • an X-ray CT apparatus and an image reconstruction method that reduce a difference in resolution depending on an imaging position in one reconstructed image generated by the FFS method and improve measurement accuracy.
  • Explanatory drawing showing view direction resolution and channel direction resolution in reconstructed image
  • Explanatory drawing which shows the data interpolation direction on the sinogram in direction weight change type interpolation processing
  • Explanatory drawing showing the contents of view direction interpolation processing and channel direction interpolation processing
  • It is explanatory drawing which shows the calculation method of the boundary position of view direction interpolation and channel direction interpolation, Comprising: (a) shows the geometrical relationship when x-rays inject into an X-ray detection element from each focus, (B) shows the movement distance at the rotation angle for one view, and (c) shows the geometric relationship between the focal movement distance and the data sampling interval at the imaging center.
  • the flowchart which shows the flow of a process of 2nd embodiment.
  • (A) And (b) is explanatory drawing which shows an example of the combined process of a reconstructed image, respectively.
  • the flowchart which shows the flow of processing of a third embodiment.
  • the X-ray CT apparatus includes an X-ray generator that generates X-rays and a plurality of X-ray detection elements that detect X-rays, detects transmitted X-rays, and outputs projection data.
  • a reconstruction unit that performs a reconstruction calculation using the projection data of the above, and generates a reconstructed image; a focus moving unit that alternately moves the X-ray focal point to a plurality of positions in the rotational trajectory plane of the rotational movement; .
  • the X-ray detection unit is configured by arranging a plurality of X-ray detection elements in the channel direction along the rotation direction, and the projection data includes a data defect that occurs with the movement of the focal point.
  • the projection data interpolation unit interpolates the data at the data missing position of the projection data using the actual data arranged along the angular direction of the rotation of the projection data, and the projection data along the channel direction of the projection data.
  • the reconstruction unit performs the projection data subjected to the view direction interpolation process and the channel direction interpolation process according to the position of the pixel in the reconstructed image. Reconstructed images having different contribution rates of the projection data thus generated are generated.
  • FIG. 1 is an explanatory diagram showing a schematic configuration of the X-ray CT apparatus according to the present embodiment.
  • the X-ray CT apparatus 100 in FIG. 1 includes an input / output unit 200, an imaging unit 300, and an image generation unit 400.
  • the input / output unit 200 includes input devices such as a keyboard 211 and a mouse 212, and an output device including a monitor 213.
  • the monitor 213 has a touch panel function and may be used as an input device. Since the keyboard 211, mouse 212, and monitor 213 also use input settings for imaging conditions, these may be collectively referred to as the imaging condition input unit 210.
  • the imaging unit 300 faces the X-ray generation unit 310, the X-ray detection unit 320 that detects an X-ray and outputs an electrical signal indicating the detected X-ray intensity, and the X-ray generation unit 310 and the X-ray detection unit 320.
  • the gantry 330 is mounted in a state where the gantry is rotated, and an imaging control unit 340 that controls the generation and detection of X-rays and the rotational movement of the gantry 330, and a subject mounting table 350 are provided.
  • the image generation unit 400 includes a signal collection unit 410, a data processing unit 420, and an image display unit 430.
  • the input / output unit 200 and the image generation unit 400 are not necessarily integrated with the X-ray CT apparatus 100.
  • the operation may be realized by another device connected via a network.
  • the X-ray generation unit 310 in the imaging unit 300 includes an X-ray tube 311.
  • the X-ray tube 311 includes a focus moving unit (not shown) that electromagnetically changes the X-ray focal point position in the X-ray tube 311 alternately to a plurality of positions along the rotation direction of the gantry 330.
  • the function of changing the position of the X-ray focal point by the focal point moving unit is called an FFS function.
  • the focal point moving unit can change the position of the X-ray focal point while the gantry 330 is rotating.
  • the X-ray detection unit 320 includes a plurality of X-ray detectors 321 configured by stacking X-ray detection elements and photoelectric conversion elements.
  • the X-ray detection unit 320 is arcuate along the rotation direction of the gantry 330 and has a gantry structure. 330 is arranged in the direction of the rotation axis.
  • the direction along the rotation direction of the gantry 330 is referred to as a channel direction
  • the direction along the rotation center axis direction of the gantry 330 is referred to as a slice direction. Furthermore, in each figure after FIG.
  • the y-axis indicates an axis parallel to the central axis of the x-ray bundle
  • the x-axis indicates an axis orthogonal to the y-axis in the rotation orbit plane (midplane) of the gantry 330.
  • the x-axis and the y-axis are relative coordinates in the rotation orbit plane.
  • the z axis is an axis parallel to the rotation center axis of the gantry 330 and is an axis orthogonal to the x axis and the y axis.
  • the z axis is in a parallel relationship with the slice direction.
  • the gantry 330 includes a rotating plate 332 on which the X-ray tube 311 and the X-ray detector 321 are mounted, and a drive mechanism (not shown) for rotating the rotating plate 332.
  • the subject mounting table 350 is provided with a drive mechanism (not shown) for adjusting the position of the subject 110 with respect to the gantry 330.
  • the imaging control unit 340 drives the X-ray tube 311 and the X-ray controller 341 that controls the position of the X-ray focal point, the gantry controller 342 that controls the rotational drive of the rotating plate 332, and the subject mounting table 350.
  • the operation flow of the table controller 343 for controlling, the detector controller 344 for controlling the imaging of the X-ray detector 321, and the operation of the X-ray controller 341, the gantry controller 342, the table controller 343, and the detector controller 344 is shown.
  • An overall controller 345 for controlling is included.
  • the distance between the X-ray focal point of the X-ray tube 311 and the X-ray input surface of the X-ray detector 321 is set to 1000 mm.
  • the diameter of the opening 331 of the gantry 330 is set to 700 mm.
  • the X-ray detector 321 is composed of a scintillator or a semiconductor detector and detects X-rays.
  • the X-ray detector 320 rotates the gantry 330 in such a manner that the plurality of X-ray detectors 321 are equidistant from a reference position, for example, the average position or the center of gravity position of the plurality of X-ray focal positions of the X-ray tube 311. Are arranged in a circular arc shape.
  • the number of X-ray detectors 321 included in the X-ray detection unit 320 (number of channels) is, for example, 1000.
  • the size of each X-ray detector 321 in the channel direction is, for example, 1 mm.
  • the time required for the rotation of the rotating plate 332 depends on parameters input by the user using the imaging condition input unit 210. In this embodiment, the required time for rotation is 1.0 s / time.
  • the number of times of imaging in one rotation of the imaging unit 300 is 900, and imaging is performed once every time the rotating plate 332 rotates 0.4 degrees.
  • the specifications are not limited to these values, and can be variously changed according to the configuration of the X-ray CT apparatus.
  • the image generation unit 400 includes a signal collection unit 410, a data processing unit 420, and an image display unit 430.
  • the signal acquisition unit 410 includes a data acquisition system (DAS: Data Acquisition System, hereinafter referred to as “DAS”) 411.
  • DAS Data Acquisition System
  • the DAS 411 converts the electric signal (analog signal) of the X-ray detector 321 described above into a digital signal.
  • the data processing unit 420 includes a central processing unit (CPU) 421, a memory 422, and an HDD (Hard disk drive) device 423.
  • CPU central processing unit
  • memory 422 various processes such as projection data correction calculation (including view direction interpolation processing and channel direction interpolation processing described later), image reconstruction processing, and the like are performed by developing and starting a predetermined program.
  • the central processing unit 421, the memory 422, and a predetermined program cooperate to perform a projection data interpolation unit that performs projection data interpolation processing, a reconstruction calculation based on the projection data, and a reconstructed image.
  • the HDD device 423 performs data storage and input / output.
  • the image display unit 430 includes an image display monitor 431 such as a liquid crystal display or a CRT (Cathode Ray Tube).
  • the imaging method mainly includes three steps of [imaging condition setting step], [imaging step], and [imaging step]. Hereinafter, each step will be described.
  • Imaging condition setting step In the imaging condition setting step, the imaging condition input unit 210 in FIG. 1 displays an input screen on the monitor 213 or another monitor. The operator operates the mouse 212, the keyboard 211, or the touch panel sensor provided in the monitor 213 constituting the imaging condition input unit 210 while looking at this screen, whereby the tube current and tube voltage of the X-ray tube 311 are operated. Then, the imaging range, resolution, etc. of the subject 110 are set. The focus position moving method of the X-ray tube 311 is determined by the operator according to the resolution of the subject 110, and the determination conditions are input. If the imaging conditions are stored in advance, they can be read out and used. In this case, the operator does not have to input each time imaging is performed.
  • Imaging step In the imaging step, when the operator instructs to start imaging, imaging is performed in accordance with the imaging range, tube voltage, and tube current amount conditions set in the imaging condition setting step described above. An example is given for a specific method.
  • the subject 110 is placed on the subject mounting table 350.
  • the overall controller 345 in FIG. 1 moves the subject mounting table 350 in the direction perpendicular to the rotating plate 332 (z-axis direction) with respect to the table controller 343, and the imaging position of the rotating plate 332 is designated.
  • An instruction is given to stop the movement when it coincides with the captured image position. Thereby, the arrangement of the subject 110 is completed.
  • the overall controller 345 operates the drive motor to the gantry controller 342 at the same timing, and also executes an instruction to start the rotation of the rotating plate 332.
  • the overall controller 345 sends the X-ray irradiation timing of the X-ray tube 311 to the X-ray controller 341 and FFS imaging (the FFS method is used). And the position of the X-ray focal point of the X-ray detector 321 to the detector controller 344.
  • the position of the X-ray focal point in FFS imaging is provided with a plurality of positions in the rotational orbital plane of the gantry 330, more specifically, two focal positions along the tangential direction of the rotational orbital plane, and the focal point is alternately focused on each focal position.
  • the movement of the focal point of the X-ray includes the movement in the circumferential direction of the rotating track and the movement in the radial direction of the rotating track.
  • imaging is started, that is, X-ray irradiation and X-ray detection by the X-ray detector 321 are started. By repeating these instructions, the entire imaging range is imaged.
  • the X-ray is converted into an electric signal by the X-ray detector 321 and enters the DAS 411.
  • this electric signal is integrated for a predetermined time and converted into X-ray incident amount information per unit time (referred to as “projection data”), and then stored in the HDD device 423.
  • imaging may be performed while moving the subject mounting table 350 in the z-axis direction as in a known helical scan.
  • Imaging step a process of imaging data stored in the HDD device 423 is performed using the central processing unit 421, the memory 422, and the HDD device 423 provided in the data processing unit 420 illustrated in FIG. .
  • the position of the X-ray focal point 313 is fixed with respect to the X-ray detector 321, whereas in the FFS imaging, as shown in FIG.
  • the focal point 313a (313b) is moved between two positions for imaging. 13 and 14, the y-axis is an axis parallel to the central axis of the X-ray beam, and the x-axis is an axis orthogonal to the y-axis in the rotation orbit plane (midplane) of the scanner.
  • the z axis is an axis parallel to the rotation center axis of the scanner, and is an axis orthogonal to the x axis and the y axis.
  • a straight line L passes through the vicinity of the center of rotation and is a straight line parallel to the x-axis.
  • An intersection R between the straight line L and a straight line (X-ray beam) connecting the X-ray focal point and each X-ray detector 321 corresponds to a data sampling point.
  • the focal point of X-rays alternately moves with the rotational movement of the scanner, and as shown in FIG. 15, the projection data includes data along the channel direction and the view direction. There is a defect.
  • the feature of the present invention is that in this [imaging step], the projection data of the subject 110 imaged by the FFS method is subjected to interpolation of data (referred to as missing data) missing along the channel direction and the view direction. Is used to reconstruct a reconstructed image of the subject 110.
  • FIG. 2 is an explanatory diagram showing an overview of the first embodiment to the third embodiment, where (a) shows an overview of the first embodiment, (b) shows an overview of the second embodiment, c) shows an outline of the third embodiment.
  • FIG. 2 illustrates an example in which missing data is interpolated along at least one of a view direction and a channel direction using a projection data sinogram.
  • a sinogram is a graph in which projection data is developed in a coordinate system in which the vertical axis indicates the view direction (also referred to as the ⁇ direction) and the horizontal axis indicates the channel direction (also referred to as the x direction).
  • the first embodiment is an embodiment in which the sinogram is divided into a plurality of regions, and the type of interpolation processing to be performed varies depending on the regions.
  • the interpolation process a view direction interpolation process for interpolating missing data using actual data arranged along the view direction and a channel direction interpolation process using actual data arranging missing data along the channel direction are used.
  • the sinogram 500 is divided into a region 500a near the center in the channel direction and regions on both sides thereof (regions relatively closer to the end in the channel direction than the region 500a).
  • the region 500a is subjected to view direction interpolation processing
  • the region 500b is subjected to channel interpolation processing.
  • reconstruction calculation is performed using the sinogram 500A after the interpolation processing, and a reconstructed image 510 is generated.
  • the contribution ratio of the projection data subjected to the view direction interpolation process is relatively high in the vicinity of the position corresponding to the rotation center of the gantry 330.
  • a circle 520 in FIG. 2A indicates a boundary between the view direction interpolation process and the channel direction interpolation process.
  • FOV field of view
  • FIG. 2B two identical projection data are prepared for each slice direction position.
  • the same sinogram 501 and sinogram 502 are illustrated.
  • the entire sinogram 501 is subjected to view direction interpolation to interpolate missing data.
  • the projection data thus subjected to the interpolation processing is referred to as “view direction interpolation projection data”.
  • the entire sinogram 502 is subjected to a channel direction interpolation process to interpolate missing data.
  • the projection data thus subjected to the interpolation processing is referred to as “channel direction interpolation projection data”.
  • view direction interpolation projection data sinogram 501A
  • FIG. 2B two identical projection data are prepared for each slice direction position.
  • the same sinogram 501 and sinogram 502 are illustrated.
  • the entire sinogram 501 is subjected to view direction interpolation to interpolate missing data.
  • the projection data thus subjected to the interpolation processing is referred to as “view direction interpolation projection data”.
  • view direction interpolation projection data
  • channel direction interpolation projection data (sinogram 502A) is reconstructed to generate a channel direction interpolation reconstructed image 512. Thereafter, the view direction interpolation reconstructed image 511 and the channel direction interpolation reconstructed image 512 are combined to generate a combined image 513. In the combined image 513, the contribution ratio of the view direction interpolation reconstructed image 511 is relatively high near the imaging center, and the contribution ratio of the channel direction interpolation reconstructed image 512 is relatively high in the periphery of the imaging center. , Join processing.
  • view direction interpolation projection data (sinogram 501A) and channel direction interpolation projection data (sinogram 502A) are generated as in the second embodiment.
  • the first weight multiplied by the view direction interpolation projection data and the second weight multiplied by the channel direction interpolation projection data are changed, and the view direction interpolation projection data and A convolution operation is performed on the channel direction interpolation projection data to generate one reconstructed image 515.
  • the first weight is relatively higher than the second weight in the vicinity of the imaging center in the reconstructed image 515, and the periphery of the imaging center Then, the convolution calculation is performed by setting the second weight relatively higher than the first weight. Details of each embodiment will be described below.
  • FIG. 3 is a flowchart showing the flow of processing of the imaging step of the first embodiment.
  • FIG. 4 is an explanatory diagram showing the view direction resolution and the channel direction resolution in the reconstructed image.
  • FIG. 5 is an explanatory diagram showing the data interpolation direction on the sinogram in the direction weight change type interpolation processing.
  • FIG. 6 is an explanatory diagram showing the contents of the view direction interpolation process and the channel direction interpolation process.
  • FIG. 7 is an explanatory diagram showing a method for calculating the boundary position between the view direction interpolation and the channel direction interpolation.
  • FIG. 7A shows a geometrical diagram when x-rays are incident on the X-ray detection element from the respective focal points.
  • (B) shows the movement distance at the rotation angle for one view, and
  • (c) shows the geometric relation between the focal movement distance and the data sampling interval at the imaging center.
  • Step S101 First, preprocessing necessary for view direction interpolation processing and channel direction interpolation processing is performed on the projection data (step S101).
  • the contents of the preprocessing for example, circuit linearity correction, defect correction (defective pixel correction), and the like are performed. Linearity correction and defect correction are performed using known techniques.
  • the defect correction for example, a technique described in JP-A-2005-124613 can be used.
  • Step S102 a missing data interpolation process (see FIG. 2A) is performed on the projection data obtained by FFS imaging (step S102).
  • the number of data sample points in the channel direction is large near the rotation center axis and the sample density is high, whereas the data sample density in the channel direction is effectively low near the X-ray detector 321.
  • a reconstructed image reconstructed from projection data obtained by performing interpolation processing along the channel direction has different spatial resolution (referred to as channel direction resolution) depending on the pixel position (imaging position).
  • FIG. 4 is a graph using a coordinate system in which the horizontal axis indicates the distance from the imaging center in the reconstructed image, and the vertical axis indicates the channel direction resolution and the view direction resolution.
  • the channel direction resolution is higher than the view direction resolution, and both the channel direction resolution and the view direction resolution deteriorate as the distance from the imaging center increases.
  • the degree of this degradation is greater for the channel direction resolution than for the view direction resolution. Accordingly, the view direction resolution and the channel direction resolution coincide at a certain distance from the imaging center.
  • the distance at this time is indicated as a distance threshold L th . Beyond the distance threshold L th, the view direction resolution exceeds the channel direction resolution.
  • the view direction resolution is relatively low in the first area. Since the sample density of the actual data is relatively high in the channel direction, view direction interpolation processing is performed using the actual data in the view direction having a relatively low sample density, and the missing data is interpolated. Thereby, the resolution in the view direction is improved. On the other hand, in the second region, although the resolution in the view direction is relatively high, the sample density of the actual data in the channel direction is relatively low, so the channel direction interpolation is performed using the actual data in the channel direction with a relatively low sample density. Process and interpolate the missing data. As a result, the difference between the view direction resolution and the channel direction resolution depending on the imaging position of the reconstructed image can be reduced.
  • the channel direction position where the projection data of the rotation center axis is incident around the x O, the channel direction position that is the position of a distance threshold L th and first region, performs the view direction interpolation processing in the first region.
  • the distance from the channel direction position x O is the distance threshold L th or more second region, performs a channel direction interpolation process.
  • a white square indicates a position where actual data is present, and a gray square indicates a data missing position.
  • the view direction interpolation process refers to interpolating the missing data at the data missing position using the actual data adjacent to the data missing position along the view direction.
  • the channel direction interpolation processing refers to interpolating the missing data at the data missing position using the actual data adjacent to the data missing position along the channel direction. For example, in FIG.
  • the view direction interpolation and the channel direction interpolation are similarly performed using the actual data on both sides of the view direction or both sides of the channel direction. Can do.
  • the filter sizes of 1 ⁇ 3 and 3 ⁇ 1 are examples and are not limited thereto.
  • a value to be interpolated may be obtained by multiplying the filter by a larger weight as the actual data of the data sample point closer to the data missing position is appropriately applied.
  • the imaging center is O
  • the center position of the X-ray focal point 313a and the X-ray focal point 313b is S
  • the perpendicular line dropped from the central position S to the X-ray detection unit 320 is defined as I
  • the distance SID between SI and the distance OID between OI are defined.
  • the focal position shake width is ⁇
  • the number of divisions in the rotation direction, that is, the number of views is V.
  • the sampling interval on the straight line Lc and x Lc in general imaging FFS the sampling interval on the straight line Lc in scheme expressed in g x.
  • a straight line displaced by ⁇ y along the y-axis direction from the straight line Lc toward the X-ray detector 320 is displaced by Ld, and by ⁇ y along the y-axis direction from the straight line Lc toward the X-ray focal point 313a and the X-ray focal point 313b.
  • the straight line is denoted as Le.
  • sampling at the imaging center O position on the straight line Lc in FIG. 7A is x Lc / 2.
  • the sampling interval g x at the position on the straight line Le and the straight line Le deviated by ⁇ y from this position is similarly calculated from the similarity condition. It becomes.
  • the sampling interval g x (e2) becomes small, but the sampling interval g x (e1 ) Will grow.
  • ⁇ y positive, what is obtained by Equation (5) is the larger sampling interval, but when ⁇ y is negative, the smaller sampling interval is obtained.
  • ⁇ y negative, the larger sampling interval can be obtained from the sum of the smaller sampling intervals g x (e2) obtained by Equation (5).
  • the larger sampling interval g x (e1) when ⁇ y is negative is It becomes.
  • Equation (5) the absolute value is used in Equation (5) and Equation (6), Can be described. That is, it can be seen that the resolution in the channel direction (x direction) deteriorates from the center in both positive and negative directions.
  • the sampling interval g v of the view direction corresponds to the distance traveled at an angle of one view.
  • the moving distance per view at a position away from the imaging center O by a distance approximates the circumference (an arc corresponding to the moving distance) with a straight line.
  • the circumference where the distance ⁇ y from the center satisfies Equation (9) is the boundary. It becomes. Interpolation is performed in the view direction on the center side from this boundary, and in the channel direction on the outside.
  • the distance from the imaging center O to ⁇ y corresponds to the distance threshold L th described above.
  • the imaging center O is obtained as projection data of the rotation center axis.
  • the X-ray detection unit 320 passes through the imaging center O from the center position S of the X-ray focal point on the projection data.
  • the first region centered on the channel position of the X-ray detector 321 crossing the perpendicular line down to the center and below the distance threshold L th along the channel direction is to interpolate the missing data by applying view direction interpolation processing,
  • the second region equal to or greater than the threshold Lth, channel direction interpolation processing is applied to interpolate missing data.
  • the distance threshold L th is calculated using values calculated based on the X-ray focal point movement distance ⁇ , the X-ray focal point-X-ray detector distance SID, and the rotation center-X-ray detector distance OID.
  • the resolution may be determined using a value calculated based on a resolution measurement image made up of an image of a subject with a known dimension.
  • Step S103 In step S103, preprocessing necessary for log conversion and reconstruction processing is performed (step S103). This is also performed using known techniques. Log conversion can also be performed in step S101 before step S102.
  • Step S104 Reconstruction calculation processing is performed using the projection data subjected to the preprocessing in step S103 to generate a reconstructed image (X-ray CT image) (step S104).
  • the reconstruction algorithm may be reconstructed using, for example, the well-known technique FeldKamp method or a successive approximation method, and the kind of reconstruction algorithm is not limited.
  • Step S105 An X-ray CT image is displayed (step S105).
  • the difference in resolution depending on the imaging position in one reconstructed image that occurs when an image is captured by the FFS method is reduced, and the resolution of the reconstructed image is reduced to the reconstructed image. It can be optimized according to the pixel position above.
  • one sinogram is divided into two sections, the first area and the second area, and either the view direction interpolation process or the channel direction interpolation process is applied to each section.
  • a connection region including the distance threshold L th may be provided between the second region and the ratio of performing the view direction interpolation processing and the channel direction interpolation processing may be continuously changed in this connection region.
  • x and ⁇ are variables, and the weight for multiplying the view direction interpolation process and the weight for multiplying the channel direction interpolation process are continuously changed using the filter function f (x, ⁇ ). Also good. This is equivalent to making the number of sections on the sinogram infinite.
  • a continuously changing filter function By using a continuously changing filter function, it is possible to suppress the occurrence of discontinuous points and boundaries on the X-ray CT image.
  • a trigonometric function that changes according to the distance from the rotational center of the rotational movement may be used.
  • ⁇ Second embodiment> In the second embodiment, as already described with reference to FIG. 2B, two identical projection data are generated, and all missing data of one projection data are interpolated by view direction interpolation processing. Then, view direction interpolation projection data is generated, and all missing data of the other projection data are interpolated by channel direction interpolation processing to generate channel direction interpolation projection data. Then, the view direction interpolation projection data is reconstructed to generate a view direction interpolation reconstructed image, and the channel direction interpolation projection data is reconstructed to generate a channel direction interpolation reconstructed image.
  • FIG. 8 is a flowchart showing a process flow of the second embodiment.
  • FIG. 9 is an explanatory diagram showing a reconstructed image combining process.
  • FIG. 10 is an explanatory diagram illustrating an example of a display mode in the second embodiment.
  • FIG. 11 is an explanatory diagram showing an example of a display mode in the second embodiment, where (a) shows a state where an area including a designated point is included in a boundary marker indicating a distance threshold L th , and (b) shows the state that is not contained within the boundary marker portion including a designated point satisfies the distance threshold L th.
  • FIG. 8 shows the flow of [imaging step] according to the second embodiment. Since [imaging condition setting step] and [imaging step] performed before that are as described above, the description will be given. Omitted. Hereinafter, it demonstrates along each step of FIG.
  • Step S101 First, preprocessing necessary for view direction interpolation processing and channel direction interpolation processing is performed on the projection data (step S101). As the contents of the preprocessing, for example, circuit linearity correction, defect correction (defective pixel correction), and the like are performed. Linearity correction and defect correction are performed using known techniques.
  • Step S111, Step S112) Next, interpolation of missing data associated with the FFS function is performed.
  • a set (two) of projection data measured at the same slice position is prepared.
  • One projection data is subjected to view direction interpolation processing at all data missing positions on the projection data to generate view direction interpolation projection data (S111).
  • channel direction interpolation projection data is generated by interpolating the missing data of all data missing positions on the projection data by the channel direction interpolation processing (S112).
  • the channel direction interpolation processing and the view direction interpolation processing are the same as the processing contents described with reference to FIG. 6 in the first embodiment.
  • Steps S103-1, S103-2) The view direction interpolation generated in step S111 is subjected to pre-processing necessary for log conversion and reconstruction processing on the projection data (step S103-1). Similarly, pre-processing necessary for log conversion and reconstruction processing is performed on the channel direction interpolation projection data generated in step S112 (step S103-2), which is also performed using a known technique. Log conversion can also be performed in step S101 before steps S111 and S112.
  • Steps S104-1, S104-2) A reconstruction calculation is performed based on the view direction interpolation projection data to generate a reconstructed image (S104-1).
  • this reconstructed image is referred to as a “view direction interpolation reconstructed image” (corresponding to the reconstructed image 511 in FIG. 2B).
  • reconstruction calculation is performed based on the channel direction interpolation projection data to generate a reconstructed image (S104-2).
  • this reconstructed image is referred to as a “channel direction interpolation reconstructed image” (corresponding to the reconstructed image 512 in FIG. 2B).
  • the reconstruction algorithm may be reconstructed using, for example, the well-known technique FeldKamp method or a successive approximation method, and the kind of reconstruction algorithm is not limited.
  • Step S113 Next, the two reconstructed images generated in steps S104-1 and S104-2 are combined (step S113).
  • An example of coupling is shown in FIG.
  • the area enclosed by an ellipse is the subject area, and a circle 520 indicates a boundary that divides the first area 513a and the second area 513b.
  • the first region 513a inside the distance threshold L th (solid circle 520) from the reconstruction point 0 of the rotation center axis is the view direction interpolation reconstruction.
  • the second region 513b that uses the image 511 and includes the distance threshold value L th and outside thereof uses the channel direction interpolation reconstructed image 512 and combines them to generate a combined image 513.
  • the connecting region 513c that connects the first region 513a and second region 513b In this area 513c, the view direction interpolation reconstructed image 511 and the channel direction interpolation reconstructed image 512 are added together.
  • the connection region 513c is concentric with the solid circle 520 and has a radius shorter than the distance threshold L th and is concentric with the solid circle 520 and the distance threshold L th. It is illustrated as a region sandwiched between dotted circles 532 having a longer radius.
  • the first region 513a only the view direction interpolation reconstructed image 511 is used, and in the second region 513b, the channel direction interpolation reconstructed image 511 and the channel direction interpolation reconstructed image 512 are added. Only the constituent image 512 is used. Then, in the connection region 513c, distance threshold weighting factor by weighting according to the distance from the L th to (weight), summed by multiplying both of the view direction interpolation reconstructed image 511 and the channel direction interpolation reconstructed image 512. Thereby, it is possible to continuously change the contribution ratios of the view direction interpolation reconstructed image and the channel direction interpolation reconstructed image in the connection region.
  • a weighting coefficient that linearly changes according to the distance from the imaging center (reconstruction point of the rotation center) in the combined image 513 is used, and the view direction interpolation reconstructed image 511 and the channel are displayed on the distance threshold L th.
  • Both the direction interpolation reconstructed image 512 is multiplied by a weighting factor 0.5, and the weight multiplied by the view direction interpolation reconstructed image 511 is closer to the imaging center O (approaching the first region 513a).
  • the channel direction interpolation reconstructed image 512 is set to be relatively larger than the weight to be multiplied.
  • the weight multiplied by the view direction interpolation reconstructed image 511 is made relatively smaller than the weight multiplied by the channel direction interpolation reconstructed image 512.
  • the combined image 513 since the combined portions do not become discontinuous, the occurrence of artifacts at the distance threshold L th can be reduced.
  • the boundary is obtained as a point where the resolution in the view direction and the resolution in the channel direction in the projection data match.
  • Boundary is the point at which the resolution in the view direction (angular direction) and the resolution in the channel direction in the image match, or the point in the view direction (angular direction) and the channel direction resolution in the view direction interpolation reconstructed image match. You may ask for it.
  • the reconstruction unit is determined using a value calculated based on the moving distance of the focal point of the X-ray, or for measuring the resolution according to the distance from the rotation center. You may determine using the value calculated based on the resolution measurement image.
  • Step S114 Finally, an image is displayed (step S114).
  • the images to be displayed include a combined image 513, a channel direction interpolation reconstructed image 512, and a view direction interpolation reconstructed image 511, and one or any combination of these may be displayed. Thereby, diversified diagnosis becomes possible.
  • the display mode only the combined image 513 may be displayed as shown in FIG.
  • a boundary marker 540 indicating a circle 520 that satisfies the distance threshold L th may be superimposed on the combined image 513.
  • the operator can be informed that the filter has changed around the boundary marker 540. Further, the entire boundary marker 540 may be displayed without being displayed.
  • the channel direction interpolation reconstructed image 512 may be displayed in the initial display state, and the view direction interpolation reconstructed image 511 may be displayed inside as necessary.
  • the channel direction interpolation reconstructed image 512 has higher resolution uniformity in the reconstructed image than the view direction interpolation reconstructed image 511. Therefore, first, the channel direction interpolation reconstructed image 512 is displayed, the entire image is visually observed with a certain degree of uniform resolution, and if the position in which the operator is interested is specified, the specified position is included. The area is replaced with the view direction interpolation reconstructed image 511 and displayed. For example, as shown in (a) of FIG. 11, it keeps superimpose boundary markers 540 (depicted by dotted lines in FIG.
  • the specified area 551 centered on the designated point is, when the distance protruding outward than the threshold L th boundary marker 540 satisfying, of the specified area 551, the boundary marker 540 Only the inner region may be replaced with the view direction interpolation reconstructed image 511. In this display example, when the outside of the boundary marker 540 is designated, the view direction interpolation reconstructed image 511 is not replaced. In the display example of FIG. 11, a process for obtaining a distance threshold is performed in step S113, and a combining process is unnecessary.
  • the user can display an interpolated image having a desired resolution, and multi-diagnosis can be performed. The effect of being easier to do can be expected.
  • a weighting factor to be multiplied to the view direction interpolation reconstructed image and a weighting factor to be multiplied to the channel direction interpolation reconstructed image are continuously applied according to the distance from the imaging center.
  • a changing filter function may be used.
  • the difference between the view direction resolution and the channel direction resolution can be continuously reduced for the entire connection region.
  • a trigonometric function that changes in accordance with the distance from the rotational center of rotation (imaging center in the combined image) may be used.
  • ⁇ Third embodiment> In the second embodiment, it is necessary to perform reconstruction operation processing twice in order to generate a view direction interpolation reconstructed image and a channel direction interpolation reconstructed image. Therefore, the reconstruction calculation time is doubled. Therefore, in the third embodiment, by changing the projection data to be used according to the pixel position during the reconstruction calculation, the reconstruction calculation is completed once, and the reconstruction calculation time is shortened. Also in the third embodiment, since [imaging condition setting step] and [imaging step] are the same as those in the first embodiment, description thereof will be omitted, and only [imaging step] will be described below. Hereinafter, the third embodiment will be described based on FIG. 2C and FIG. FIG.
  • FIG. 12 is a flowchart showing the flow of processing of the imaging step in the third embodiment.
  • FIG. 12 demonstrates along each step of FIG. 12, about the process content common to 1st embodiment and 2nd embodiment, only an outline is described and detailed description is omitted.
  • Steps S101, S111, S112, S103-1, S103-2) As in the second embodiment, one set (two) of the same projection data is prepared, and pre-processing (S101) necessary for the view direction interpolation process and the channel direction interpolation process is performed on each set. Next, a view direction interpolation process (S111) and a channel direction interpolation process (S112) are performed for each. Then, pre-processing of log conversion and reconstruction processing is performed on the projection data after the interpolation processing in steps S111 and S112 (S103-1, S103-2).
  • Step S124 Next, composite reconstruction is performed.
  • “composite reconstruction” means that one reconstructed image is generated by performing a reconstruction operation using a plurality of types of projection data. As a result, the use ratio of projection data used for reconstruction processing is changed according to the pixel position of the reconstructed image, the interpolation level in the view direction and the channel direction is optimized, and the spatial resolution of the reconstructed image is improved. Improve.
  • the concrete reconfiguration procedure is shown.
  • a convolution method which is a known technique, is used. This weights the pixel value of each pixel in the reconstructed image according to the position of the pixel on the reconstructed image (the position of the pixel in real space) with respect to the projection data used to calculate the pixel value. It is a method of adding together. That is, since the pixel on the reconstructed image is known at the time of addition, the projection data optimum for the pixel is determined as view direction interpolation projection data (501A in FIG. 2C) and channel direction interpolation projection data ( The use ratio of 502A) in FIG. 2C is determined, and a convolution operation is performed.
  • Figure in the reconstructed image 515 shown in (c) of 2 the imaging center (exemplary and is identical to the reconstruction point of the center of rotation in the form) first from the circle 520 indicative of the distance threshold L th inside from
  • the missing data in the region is subjected to reconstruction calculation by the convolution method with the weight of the channel direction interpolation projection data 502A being 0 and the weight of the view direction interpolation projection data 501A being 1.
  • the reconstruction calculation is performed using only the view direction interpolation projection data 501A in the first region inside the circle 520.
  • the missing data of the second region on the circle 520 and outside the circle 520 is subjected to reconstruction calculation by the convolution method with the weight of the view direction interpolation projection data 501A being 0 and the weight of the channel interpolation projection data 502A being 1. That is, in this area, reconstruction calculation is performed using only the channel direction interpolation projection data 502A.
  • the reconstruction unit obtains the distance threshold L th , the point where the resolution in the view direction (angular direction) in the channel direction interpolation reconstructed image matches the resolution in the channel direction, or the view in the view direction interpolation reconstructed image You may obtain
  • the reconstruction unit may determine using a value calculated based on the moving distance of the focal point of the X-ray, or may have a resolution corresponding to the distance from the rotation center. You may determine using the value calculated based on the resolution measurement image for measuring.
  • the convolution method is described as an example of the reconstruction calculation processing algorithm. However, if the algorithm can be used to know the coordinates in the real space of the imaging position or the real coordinates in the reconstructed image, It is not limited to the volume method.
  • Step S105 As in the first embodiment, the generated reconstructed image is displayed (S105). Or, as shown in FIG. 11 in the second embodiment, the initial display in advance by displaying the channel direction interpolation reconstructed image, it distance threshold L th to superimpose boundary markers 540 that satisfies, in the boundary markers 540 When a designated area is set, reconstruction calculation is performed by convolution on projection data using the first weight and the second weight according to the imaging position of the designated area (position in the reconstructed image 515). A reconstructed image may be displayed.
  • the present embodiment it is possible to generate a reconstructed image in which the difference between the view direction resolution and the channel direction resolution of the reconstructed image is reduced by performing a single reconstruction operation. This has the effect of reducing the amount of memory required.
  • connection region that includes the circle 520 and connects the first region and the second region is provided as in the second embodiment.
  • the missing data in the connection area is relatively increased as the first weighting factor multiplied by the view direction interpolation projection data 501A approaches the imaging center, while the second weighting factor multiplied by the channel direction interpolation projection data 502A. May be relatively increased as the distance from the imaging center increases, so that the convolution calculation may be performed by continuously changing the first weight and the second weight in the connection region.
  • the first weighting coefficient to be multiplied by the view direction interpolation projection data 501A and the second weighting coefficient to be multiplied to the channel direction interpolation projection data 502A are continuously applied according to the distance from the imaging center.
  • a changing filter function may be used.
  • the difference between the view direction resolution and the channel direction resolution can be continuously reduced for the entire reconstructed image.
  • a trigonometric function that changes in accordance with the distance from the rotational center of rotation (imaging center in the reconstructed image 515) may be used.
  • DESCRIPTION OF SYMBOLS 100 X-ray CT apparatus 110 Subject 200 Input part 210 Imaging condition input part 211 Keyboard 212 Mouse 213 Monitor 300 Imaging part 310 X-ray generation part 311 X-ray tube 313, 313a, 313b X-ray focus 320 X-ray detection part 321 X-ray detection Device 330 Gantry 331 Opening 332 Rotating plate 340 Imaging controller 341 X-ray controller 342 Gantry controller 343 Table controller 344 Detector controller 345 General controller 350 Subject mounting table 400 Image generator 410 Signal collector 411 Data Collection system, DAS 420 Data processing unit 421 Central processing unit 422 Memory 423 HDD unit 430 Image display unit 431 Image display monitor

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Pulmonology (AREA)
  • Algebra (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

 FFS方式で発生する一つの再構成画像中における撮像位置に依存した分解能の差を低減し、計測精度を向上する。X線CT装置は、FFS方式で得られた投影データの欠損データを、投影データにおいて回転移動の角度方向に沿って並ぶ実データを用いたビュー方向補間処理、及び投影データにおいてチャネル方向に沿って並ぶ実データを用いたチャネル方向補間処理により補間する。そして、再構成画像内の画素の位置に応じて、ビュー方向補間処理がされた投影データ及びチャネル方向補間処理がされた投影データの寄与率が異なる再構成画像を生成する。

Description

X線CT装置及び画像再構成方法
 本発明はX線CT装置及び画像再構成方法に係り、特に、空間分解能を改善して、被写体の計測精度を向上する技術に関する。
 X線CT(Computed Tomography)装置では、X線CT計測の高度化に伴い、空間分解能の改善に対するニーズが高まりつつある。空間分解能を向上させるためには、通常、X線検出器の検出素子の微細化、すなわちサイズの小型化が考えられるが、その場合、検出信号のS/Nが低下する。
 このX線検出器の検出素子のサイズを小さくすることなく空間分解能を向上する方法として、特許文献1には、Flying Focal Spot(FFS)方式と呼ばれる技術が開示されている。FFS方式とは、スキャナが回転移動する間にX線焦点位置を2つの位置の間で交互に電磁的に移動させることでX線ビームの位置ずれを生じさせ、この位置ずれによりX線透過データの倍密度化を図る方式である。
 FFS方式では、スキャナの回転移動の角度方向(ビュー方向又はθ方向ともいう)とX線検出器のチャネル方向とで規定される投影データは、X線焦点位置の交互移動に伴い、ビュー方向毎にデータの欠損を生じる。従来は、このデータの欠損をその両側、例えばチャネル方向両側或いはビュー方向の両側に位置する実測データ(実データともいう)で補間している。
WO2011/018729 A1
 FFS方式では、スキャナの回転中心軸付近では一般方式の倍密度のサンプリング間隔が得られるが、X線検出部付近では、倍密度は得られず、サンプリング間隔も等間隔になっていない。
 また、X線ビームは、X線の焦点からの距離に応じて拡大率が異なり、拡大率が大きい方が空間分解能は劣化する。従って、対向するビュー角度での投影データの組合せを考慮すると、撮像中心付近が最も空間分解能が高く、それから遠ざかるにつれて空間分解能が低下することになる。
 このようにFFS方式では、撮像位置によってデータサンプル点の間隔が異なり、空間分解能も異なることから、従来の補間処理後の投影データを用いて再構成演算を行った場合、一つの再構成画像中において、撮像中心付近と周辺部とで空間分解能の差が発生するという問題があった。
 本発明の目的は、FFS方式で発生する一つの再構成画像中における撮像位置に依存した空間分解能の差を低減し、計測精度を向上する技術を提供することにある。
 本発明は、FFS方式の投影データに内在するデータサンプリング間隔の撮像位置依存性及び空間分解能の撮像位置依存性を補正して、欠損データを補間するデータ補間部を備えることにより上記課題を解決する。
 すなわち、本発明のX線CT装置は、X線を発生するX線発生部と、前記X線を検出する複数のX線検出素子を有し、透過X線を検出して投影データを出力するX線検出部と、前記X線発生部及び前記X線検出部を対向して配置し、前記X線発生部及び前記X線検出部を回転移動させる回転部と、前記投影データを補間する投影データ補間部と、前記補間後の前記投影データを用いて再構成演算を行い、再構成画像を生成する再構成部と、前記X線の焦点を前記回転移動の回転軌道面内における複数の位置に、交互に移動させる焦点移動部とを備える。前記投影データ補間部は、前記焦点の移動に伴って生じるデータ欠損位置のデータ(欠損データと呼ぶ)を、前記投影データの、前記回転移動の角度方向に沿って並ぶ実データを用いて補間するビュー方向補間処理と、前記欠損データを、前記投影データの、前記チャネル方向に沿って並ぶ実データを用いて補間するチャネル方向補間処理と、により補間し、前記再構成部は、前記再構成画像内の画素の位置に応じて、前記ビュー方向補間処理がされた投影データ及び前記チャネル方向補間処理がされた投影データの寄与率が異なる再構成画像を生成する。
 なおX線の焦点の移動は、回転軌道の周方向の移動と回転軌道の径方向の移動を含む。
 本発明によれば、FFS方式で発生する一つの再構成画像中における撮像位置に依存した分解能の差を低減し、計測精度を向上するX線CT装置及び画像再構成方法を提供することができる。
本実施形態に係るX線CT装置の概略構成を示す説明図 第一実施形態乃至第三実施形態の概要を示す説明図であって、(a)は第一実施形態の概要を示し、(b)は第二実施形態の概要を示し、(c)は第三実施形態の概要を示す。 第一実施形態の処理の流れを示すフローチャート 再構成画像中におけるビュー方向分解能及びチャネル方向分解能を示す説明図 方向重み変化型補間処理におけるサイノグラム上でのデータ補間方向を示す説明図 ビュー方向補間処理及びチャネル方向補間処理の内容を示す説明図 ビュー方向補間及びチャネル方向補間の境界位置の算出方法を示す説明図であって、(a)は、それぞれの焦点からX線検出素子にx線が入射したときの幾何学的な関係を示し、(b)は、1ビュー分の回転角度での移動距離を示し、(c)は、焦点移動距離と撮像中心におけるデータのサンプリング間隔との幾何学的な関係を示す。 第二実施形態の処理の流れを示すフローチャート (a)および(b)は、それぞれ、再構成画像の結合処理の一例を示す説明図 第二実施形態における表示態様の一例を示す説明図 第二実施形態における表示態様の一例を示す説明図であって、(a)は指定点を含む領域が距離閾値Lthを満たす円内に含まれる状態を示し、(b)は指定点を含む領域の一部が距離閾値Lthを満たす円内に含まれない状態を示す。 第三実施形態の処理の流れを示すフローチャート 一般方式におけるX線焦点313とX線検出部320との相対位置を示す説明図 FFS方式におけるX線焦点313とX線検出部320との相対位置を示す説明図 FFS方式でデータ収集をしたサイノグラムを示す説明図
 以下、図面を参照して、本発明に係る実施形態について説明する。全図において、共通する構成要素には同一の符号を付し、重複説明を省略する。
 本実施形態のX線CT装置は、X線を発生するX線発生部と、X線を検出する複数のX線検出素子を有し、透過X線を検出して投影データを出力するX線検出部と、X線発生部及びX線検出部を対向して配置し、X線発生部及びX線検出部を回転移動させる回転部と、投影データを補間する投影データ補間部と、補間後の投影データを用いて再構成演算を行い、再構成画像を生成する再構成部と、X線の焦点を前記回転移動の回転軌道面内における複数の位置に、交互に移動させる焦点移動部と、を備える。
 X線検出部は、複数のX線検出素子を回転方向に沿ったチャネル方向に配列して構成され、投影データは、焦点の移動に伴って生じるデータ欠損を含む。投影データ補間部は、投影データのデータ欠損位置におけるデータを、投影データの、回転移動の角度方向に沿って並ぶ実データを用いて補間するビュー方向補間処理、及び投影データの、チャネル方向に沿って並ぶ実データを用いて補間するチャネル方向補間処理、により補間し、再構成部は、再構成画像内の画素の位置に応じて、ビュー方向補間処理がされた投影データ及びチャネル方向補間処理がされた投影データの寄与率が異なる再構成画像を生成する。
<X線CT装置の概略構成>
 まず、図1に基づいて、本実施形態に係るX線CT装置の概略構成について説明する。図1は、本実施形態に係るX線CT装置の概略構成を示す説明図である。図1のX線CT装置100は、入出力部200と、撮像部300と、画像生成部400とを備えている。
 入出力部200は、キーボード211、マウス212等の入力装置と、モニタ213を含む出力装置と、を備える。モニタ213はタッチパネル機能を有し、入力装置として使用してもよい。キーボード211、マウス212、及びモニタ213は、撮像条件の入力設定も用いられるので、これらを総称して撮像条件入力部210と称することもある。
 撮像部300は、X線発生部310と、X線を検出し、検出したX線強度を示す電気信号を出力するX線検出部320と、X線発生部310及びX線検出部320を対向させた状態で搭載し、これらを回転移動させるガントリ330と、X線の発生及び検出、ガントリ330の回転移動の動作を制御する撮像制御部340、および被写体搭載用テーブル350を備えている。
 画像生成部400は、信号収集部410、データ処理部420、および画像表示部430を備えている。
 なお、入出力部200及び画像生成部400は、必ずしもX線CT装置100と一体である必要はない。例えばネットワークを介して接続された別の装置によって、その動作を実現させてもよい。
 また、画像生成部400と入出力部200の両方の機能を併せ持つ装置を使用して実現してもよい。
 撮像部300におけるX線発生部310は、X線管311を備えている。X線管311は、X線管311におけるX線焦点の位置を、ガントリ330の回転方向に沿った複数の位置に交互に電磁的に変更する焦点移動部(図示を省略)を備える。この焦点移動部によるX線焦点の位置を変更する機能を、FFS機能という。焦点移動部は、ガントリ330の回転中にX線焦点の位置を変更することが可能である。
 また、X線検出部320は、X線検出素子及び光電変換素子を積層して構成したX線検出器321を複数個備えており、ガントリ330の回転方向に沿って円弧状に、かつ、ガントリ330の回転軸方向に配列して構成される。以下、X線検出部320におけるX線検出器321の配列方向は、ガントリ330の回転方向に沿った方向をチャネル方向、ガントリ330の回転中心軸方向に沿った方向をスライス方向と称する。更に、図1以下の各図において、y軸は、x線束の中心軸に平行な軸を示し、x軸は、ガントリ330の回転軌道面(ミッドプレーン)内において、y軸に直交する軸を示す。よって、x軸及びy軸は、回転軌道面内における相対座標といえる。z軸は、ガントリ330の回転中心軸に平行な軸であり、x軸及びy軸に直交する軸である。z軸は、スライス方向と平行な関係にある。
 また、ガントリ330の中央には、被写体110および被写体搭載用テーブル350を配置するための円形の開口部331が設けられている。ガントリ330内には、X線管311およびX線検出器321を搭載する回転板332と、回転板332を回転させるための駆動機構(不図示)と、を備えている。また、被写体搭載用テーブル350には、ガントリ330に対する被写体110の位置を調整するための駆動機構(不図示)が備えられている。
 また、撮像制御部340は、X線管311、及びX線焦点の位置を制御するX線制御器341、回転板332の回転駆動を制御するガントリ制御器342、被写体搭載用テーブル350の駆動を制御するテーブル制御器343、X線検出器321の撮像を制御する検出器制御器344、およびX線制御器341、ガントリ制御器342、テーブル制御器343、検出器制御器344の動作の流れを制御する統括制御器345を含んでいる。
<X線管、X線検出器、撮像部>
 X線管311のX線焦点とX線検出器321のX線入力面との距離は、本実施形態では1000mmと設定する。ガントリ330の開口部331の直径は、本実施形態では700mmに設定する。
 X線検出器321はシンチレータや半導体検出器で構成され、X線を検出する。X線検出部320は、複数のX線検出器321を、基準位置、例えばX線管311の複数のX線焦点位置の平均位置や重心位置、から等距離となるよう、ガントリ330の回転方向に沿って円弧状に配列して構成される。X線検出部320に含まれるX線検出器321の数(チャネル数)は、例えば1000個である。各X線検出器321のチャネル方向のサイズは、例えば1mmである。なお、製作を容易にするために平面状の検出器(検出器モジュール)を複数作成し、平面の中心部分が円弧になるように配置して疑似的に円弧状に配列した構成を用いることもある。回転板332の回転の所要時間は、ユーザーが撮像条件入力部210を用いて入力したパラメータに依存する。本実施形態では回転の所要時間を1.0s/回とする。撮像部300の1回転における撮像回数は、900回であり、回転板332が0.4度回転する毎に1回の撮像が行われる。なお前記各仕様はこれらの値に限定されるものはなく、X線CT装置の構成に応じて種々変更可能である。
<画像生成部>
 画像生成部400は信号収集部410、データ処理部420、及び画像表示部430を備えている。信号収集部410は、データ収集システム(DAS:Data Acquisition System、以下「DAS」と表記する。)411を含んでいる。DAS411は、前記したX線検出器321の電気信号(アナログ信号)を、ディジタル信号に変換する。
 データ処理部420は、中央処理装置(CPU:Central Processing Unit)421、メモリ422、及びHDD(Hard disk drive)装置423を含む。中央処理装置421及びメモリ422において、所定のプログラムを展開・起動することで投影データの補正演算(後述するビュー方向補間処理及びチャネル方向補間処理を含む)、画像の再構成処理などの各種処理を行う。従って、中央処理装置421及びメモリ422と、所定のプログラムとが協働することにより、投影データの補間処理を行う投影データ補間部と、投影データを基に再構成演算を行い、再構成画像を生成する再構成部と、が構成される。HDD装置423は、データの保存や入出力を行う。画像表示部430は、液晶ディスプレイやCRT(Cathode Ray Tube)等の画像表示モニタ431を備えて構成される。
 次に、上記X線CT装置100を用いた撮像方法について説明する。撮像方法は、主に、[撮像条件設定ステップ]、[撮像ステップ]、及び[画像化ステップ]の3ステップを含む。以下、各ステップについて説明する。
[撮像条件設定ステップ]
 撮像条件設定ステップでは、図1における撮像条件入力部210が、入力画面をモニタ213もしくは別のモニタに表示する。操作者が、この画面を見ながら、撮像条件入力部210を構成するマウス212やキーボード211、もしくはモニタ213に備えられたタッチパネルセンサ等を操作することにより、X線管311の管電流、管電圧、被写体110の撮像範囲、分解能等を設定する。なお、X線管311の焦点位置移動方法については、被写体110の分解能に応じて、操作者が決定し、その決定条件を入力する。また事前に撮像条件を保存した場合、それを読み出して用いることもできる。この場合、撮像の都度、操作者が入力しなくてもよい。
[撮像ステップ]
 撮像ステップでは、操作者が撮像開始を指示すると、既述の撮像条件設定ステップで設定された撮像範囲、管電圧、管電流量の条件に従って撮像を行う。具体的な方法について例を示す。まず、被写体110を被写体搭載用テーブル350上に配置する。図1における統括制御器345は、テーブル制御器343に対し、被写体搭載用テーブル350を回転板332に対して垂直な方向(z軸方向)に移動させ、回転板332の撮像位置が、指定された撮像位置と一致した時点で移動を停止するように指示する。これにより、被写体110の配置が完了する。統括制御器345は、同じタイミングでガントリ制御器342に対して駆動モーターを動作させ、回転板332の回転を開始する指示も併せて実施する。回転板332の回転が定速状態になり、かつ被写体110の配置が終了すると、統括制御器345は、X線制御器341に対しX線管311のX線照射タイミングとFFS撮像(FFS方式を用いて撮像することを意味する)におけるX線焦点の位置と、を指示し、また検出器制御器344に対しX線検出器321の撮像タイミングを指示する。
 FFS撮像におけるX線焦点の位置は、ガントリ330の回転軌道面内における複数の位置、より詳しくは、回転軌道面の接線方向に沿った2箇所の焦点位置を設け、各焦点位置に交互に焦点を移動する。なお、X線の焦点の移動は、回転軌道の周方向の移動と回転軌道の径方向の移動を含むが、ここでは周方向の移動する場合について説明する。そして撮像を開始、すなわちX線照射及びX線検出器321によるX線の検出を開始する。これらの指示を繰り返すことで撮像範囲全体を撮像する。X線検出器321でX線が電気信号に変換されてDAS411に入る。DAS411では、この電気信号が一定時間分積分されて単位時間当たりのX線入射量情報(これを「投影データ」という)に変換された後、HDD装置423に保存される。
 上述のように、被写体搭載用テーブル350が移動、停止を繰り返すことにより、テーブル350の位置毎に一つの投影データが得られる。なおテーブル350が移動、停止を繰り返すのではなく、公知のヘリカルスキャン(Helical Scan)のように被写体搭載用テーブル350をz軸方向に移動させながら撮像してもよい。
[画像化ステップ]
 画像化ステップでは、図1に示したデータ処理部420に備えられた中央処理装置421、メモリ422、及びHDD装置423を用いて、HDD装置423に保存されたデータを画像化する処理が行われる。
 図13に示す一般方式の撮像では、X線の焦点313の位置をX線検出器321に対して固定しているのに対し、FFS方式の撮像は、図14に示すように、X線の焦点313a(313b)を2つの位置間で移動させて撮像するものである。なお図13、図14において、y軸はX線束の中心軸に平行な軸、x軸は、スキャナの回転軌道面(ミッドプレーン)内において、y軸に直交する軸を示す。z軸は、スキャナの回転中心軸に平行な軸であり、x軸及びy軸に直交する軸である。また直線Lは、回転中心付近を通り、x軸に平行な直線を示す。直線Lと、X線焦点と個々のX線検出器321とを結ぶ直線(X線ビーム)との交点Rは、データサンプリング点に相当する。このFFS方式の撮像では、スキャナの回転移動に伴いX線の焦点が交互に移動することに起因して、図15に示すように、投影データには、チャネル方向及びビュー方向に沿ってデータの欠損がある。
 本発明の特徴は、この[画像化ステップ]において、FFS方式で撮像した被写体110の投影データについて、チャネル方向及びビュー方向に沿って欠損しているデータ(欠損データという)の補間を行い、これらを用いて被写体110の再構成画像を再構成する点にある。
 チャネル方向及びビュー方向に沿って欠損データの補間をした投影データから再構成画像を生成する態様は、大きく3つの態様がある。そこで、図2を用いて、この3つの態様の概要について説明し、その後、各態様を第一実施形態から第三実施形態に分けて詳述する。図2は、第一実施形態乃至第三実施形態の概要を示す説明図であって、(a)は第一実施形態の概要を示し、(b)は第二実施形態の概要を示し、(c)は第三実施形態の概要を示す。
 なお、図2では、説明の便宜のため、投影データのサイノグラムを用いて、ビュー方向及びチャネル方向の少なくとも一つの方向に沿って欠損データの補間処理を施す例を説明する。サイノグラムとは、投影データを縦軸がビュー方向(θ方向ともいう)、横軸がチャネル方向(x方向ともいう)を示す座標系に展開したグラフである。なおサイノグラムに展開することなく、投影データに対してビュー方向及びチャネル方向に沿った欠損データの補間処理を行ってもよい。
 第一実施形態は、サイノグラムを複数の領域に分けて、領域によって施す補間処理の種類を異ならせる実施形態である。補間処理では、欠損データをビュー方向に沿って並ぶ実データを用いて補間するビュー方向補間処理と、欠損データをチャネル方向に沿って並ぶ実データを用いてチャネル方向補間処理とを用いる。
 具体的には、図2の(a)に示すように、サイノグラム500をチャネル方向の中心付近の領域500aと、その両側の領域(領域500aよりもチャネル方向の端部に相対的に近い領域)500bに分け、領域500aには、ビュー方向補間処理を施し、領域500bには、チャネル補間処理を施す。そして、補間処理後のサイノグラム500Aを用いて再構成演算を行い、再構成画像510を生成する。このような補間処理を施した再構成画像510では、ガントリ330の回転中心に対応する位置付近ではビュー方向補間処理がされた投影データの寄与率が相対的に高く、その周辺部では、チャネル方向補間処理がされた投影データの寄与率が相対的に高くなる。図2の(a)の円520は、ビュー方向補間処理とチャネル方向補間処理との境界を示す。図2の(b)及び(c)についても同様である。なお、再構成視野範囲(FOV:field of viewともいう)の中心とガントリ330の回転中心とが一致するようにFOVを設定した場合、FOV中心すなわち再構成画像における画像中心は、再構成画像における回転中心軸の再構成点と一致する。
 第二実施形態では、図2の(b)に示すように、各スライス方向位置に対して同一の投影データを二つ用意する。図2の(b)では、同一のサイノグラム501及びサイノグラム502を例示する。そして、一方のサイノグラム501の全体に対してビュー方向補間処理を施して欠損データの補間を行う。こうして補間処理がされた投影データを「ビュー方向補間投影データ」という。また、他方のサイノグラム502の全体に対してチャネル方向補間処理を施して欠損データの補間を行う。こうして補間処理がされた投影データを「チャネル方向補間投影データ」という。次いで、ビュー方向補間投影データ(サイノグラム501A)を再構成してビュー方向補間再構成画像511を生成する。また、チャネル方向補間投影データ(サイノグラム502A)を再構成してチャネル方向補間再構成画像512を生成する。その後、ビュー方向補間再構成画像511及びチャネル方向補間再構成画像512を結合して結合画像513を生成する。結合画像513は、撮像中心付近ではビュー方向補間再構成画像511の寄与率が相対的に高く、撮像中心の周辺部では、チャネル方向補間再構成画像512の寄与率が相対的に高くなるように、結合処理を行う。
 第三実施形態では、第二実施形態と同様、ビュー方向補間投影データ(サイノグラム501A)及びチャネル方向補間投影データ(サイノグラム502A)を生成する。次いで、再構成画像515上の画素位置に応じて、ビュー方向補間投影データに乗算する第一の重み及びチャネル方向補間投影データに乗算する第二の重みを変化させて、ビュー方向補間投影データ及びチャネル方向補間投影データに対しコンボリューション演算を行い、一つの再構成画像515を生成する。コンボリューション演算中に、再構成画像515の実座標がわかるので、再構成画像515における撮像中心付近では、第一の重みを第二の重みに比べて相対的に高くし、撮像中心の周辺部では第二の重みを第一の重みに比べて相対的に高くして、コンボリューション演算を行う。以下、各実施形態の詳細について説明する。
<第一実施形態>
 第一実施形態について、既述の図2の(a)、及び図3乃至図7を参照して説明する。図3は、第一実施形態の画像化ステップの処理の流れを示すフローチャートである。図4は、再構成画像中におけるビュー方向分解能及びチャネル方向分解能を示す説明図である。図5は、方向重み変化型補間処理におけるサイノグラム上でのデータ補間方向を示す説明図である。図6は、ビュー方向補間処理及びチャネル方向補間処理の内容を示す説明図である。図7は、ビュー方向補間及びチャネル方向補間の境界位置の算出方法を示す説明図であって、(a)は、それぞれの焦点からX線検出素子にx線が入射したときの幾何学的な関係を示し、(b)は、1ビュー分の回転角度での移動距離を示し、(c)は、焦点移動距離と撮像中心におけるデータのサンプリング間隔との幾何学的な関係を示す。以下、図3の各ステップに沿って説明する。
 (ステップS101)
 まず、投影データに対し、ビュー方向補間処理及びチャネル方向補間処理に必要な前処理を実施する(ステップS101)。前処理の内容としては、例えば回路のリニアリティの補正や、ディフェクト補正(欠陥画素補正)などを実施する。リニアリティ補正およびディフェクト補正は、公知の技術を用いて実施する。ディフェクト補正については、例えば特開2005-124613号に記載された技術などを用いることができる。
 (ステップS102)
 次に、FFS撮像により得られた投影データに対し、欠損データの補間処理(図2の(a)参照)を行う(ステップS102)。既述の通り、FFS撮像では、回転中心軸付近ではチャネル方向のデータサンプル点数が多く、サンプル密度が高いのに対し、X線検出器321付近では、チャネル方向のデータサンプル密度が実効的に低くなる。そのため、チャネル方向に沿って補間処理して得られた投影データから再構成した再構成画像は画素の位置(撮像位置)によって空間分解能(チャネル方向分解能と呼ぶ)が異なる。また、撮像位置によって拡大率が異なるので、ビュー方向に沿って補間処理して得られた投影データから再構成した再構成画像も画素の位置(撮像位置)によって空間分解能(ビュー方向分解能と呼ぶ)が異なる。図4は、横軸に再構成画像における撮像中心からの距離、縦軸にチャネル方向分解能及びビュー方向分解能を示す座標系を用いたグラフである。図4に示すように、撮像中心付近では、チャネル方向分解能の方がビュー方向分解能よりも高く、撮像中心から遠ざかるに従ってチャネル方向分解能及びビュー方向分解能はともに劣化する。この劣化の程度は、チャネル方向分解能の劣化の程度の方が、ビュー方向分解能の劣化の程度よりも大きい。従って、撮像中心からある距離において、ビュー方向分解能とチャネル方向分解能とが一致する。このときの距離を、距離閾値Lthと示す。距離閾値Lthを越えると、ビュー方向分解能がチャネル方向分解能を上回る。
 撮像中心からの距離が距離閾値Lth以下の区間を「第一領域」、距離閾値Lthよりも大きい区間を「第二領域」とすると、第一領域では、ビュー方向分解能は相対的に低く、チャネル方向には実データのサンプル密度が相対的に高いので、比較的サンプル密度が低いビュー方向の実データを用いて、ビュー方向補間処理を行い、欠損データを補間する。これにより、ビュー方向の分解能の向上を図る。一方、第二領域では、ビュー方向分解能は相対的に高いが、チャネル方向に実データのサンプル密度が相対的に低いので、比較的サンプル密度が低いチャネル方向の実データを用いて、チャネル方向補間処理を行い、欠損データを補間する。その結果、再構成画像の撮像位置に依存したビュー方向分解能及びチャネル方向分解能の差を低減できる。
 具体的には、図5に示すように、サイノグラム503(これは、図2の(a)のサイノグラム500を拡大表示したものに相当する)において、回転中心軸の投影データが入射するチャネル方向位置xを中心に、距離閾値Lthまでの位置にあるチャネル方向位置を第一領域とし、この第一領域ではビュー方向補間処理を行う。また、チャネル方向位置xからの距離が距離閾値Lth以上の第二領域では、チャネル方向補間処理を行う。図5のサイノグラム中、白い四角は実データのある位置、グレーの四角はデータ欠損位置を示している。
 図6を用いてビュー方向補間処理及びチャネル方向補間処理について説明する。ビュー方向補間処理とは、データ欠損位置にビュー方向に沿って隣接する実データを用いて当該データ欠損位置の欠損データを補間することをいう。また、チャネル方向補間処理とは、データ欠損位置にチャネル方向に沿って隣接する実データを用いて当該データ欠損位置の欠損データを補間することをいう。例えば、図6において、データ欠損位置R2(座標(θm,))のデータを、データ欠損位置R2を中心とする1×3のマトリクスからなるフィルタf1を用いて算出する場合、データ欠損位置R2に対し、ビュー方向に沿って隣接するデータサンプル点R11(座標(θm-1,))及びデータサンプル点R12(座標(θm+1,))の実データを用いて算出する。算出方法は、例えば下式(1)により、得られた算出結果を、データ欠損位置R2のデータとして補間する。
(数1)
  R2の値={R11の実データ+R12の実データ}/2・・・(1)
 またチャネル方向補間処理では、データ欠損位置R2(座標(θm,))のデータを、データ欠損位置R2を中心とする3×1のマトリクスからなるフィルタf2を用いて算出する場合、データ欠損位置R2に対し、チャネル方向に沿って隣接するデータサンプル点R13(座標(θm,n-1))、データサンプル点R14(座標(θm,n+1))とすると、これらサンプル点R13及びR14の実データを用いて、例えば下式(2)により算出した値をデータ欠損位置R2のデータとして補間する。
(数2)
  R2の値={R13の実データ+R14の実データ}/2・・・(2)
 なお、データサンプル点R1(R11~R14のいずれか)にデータ欠損位置が有る場合には、同様にビュー方向両側又はチャネル方向両側の実データを用いてビュー方向補間の及びチャネル方向補間をすることができる。上記1×3、及び3×1のフィルタサイズは一例でありこれに限定されるものではない。また、適宜フィルタに、データ欠損位置に近いデータサンプル点の実データほど大きな重みを乗算して補間する値を求めてもよい。
 次に、ビュー方向補間処理及びチャネル方向補間処理を適用する領域の境界、上記における距離閾値Lthに相当する位置を検出する処理について、図7を用いて説明する。境界決定の前提として、撮像中心(再構成中心点)と回転中心とが同一位置にあるとする。撮像中心をO、X線焦点313aとX線焦点313bとの中心位置をS、中心位置SからX線検出部320に下ろした垂線と、X線検出部320との交点(より詳しくは、X線検出器321の受像面との交点)の位置をIとし、SI間の距離SID、OI間の距離OIDを定義する。また、焦点位置の振れ幅をδ、回転方向の分割数、つまりview数をVとする。更に、撮像中心Oを通り、x軸に平行な直線をLcとし、図13に示す、一般的な撮像(FFS方式の撮像を行わない場合)における直線Lc上のサンプリング間隔をxLcとし、FFS方式における直線Lc上におけるサンプリング間隔をgxで表す。直線LcからX線検出部320に向けてy軸方向に沿ってΔy分変位した直線をLd、直線LcからX線焦点313a、X線焦点313bに向けてy軸方向に沿ってΔy分変位した直線をLeと示す。
 FFS方式の撮影において、撮像中心Oの位置で分解能が最良になるとき、図7の(a)の直線Lc上にある撮像中心O位置でのサンプリングがxLc/2になる。このとき、図7の(c)に示す三角形の相似条件から
Figure JPOXMLDOC01-appb-M000001
となる。この位置からΔyだけずれた直線Le、直線Le上の位置でのサンプリング間隔gxは、同様に相似条件から
Figure JPOXMLDOC01-appb-M000002
となる。
 式(4)に式(3)を代入してδ/SIDを消去すると、
Figure JPOXMLDOC01-appb-M000003
となる。この式(5)では、Δyが正(x線焦点側を正とする)のときはサンプリング間隔gxの値がxLc/2より大きくなり空間分解能が劣化し、Δyが負のときはサンプリング間隔がxLc/2より小さくなり空間分解能が向上する。しかし、実際には、Δyが負の場合も、以下説明するように空間分解能は劣化する。すなわち、図7の(a)の直線Le上において隣接する二つのサンプリング間隔gx(e1)及びgx(e2)では、サンプリング間隔gx(e2)が小さくなるが、サンプリング間隔gx(e1)は大きくなる。Δyが正の場合は、式(5)で求められるのは、大きいほうのサンプリング間隔であるが、Δyが負の場合は、小さいほうのサンプリング間隔である。Δyが負の場合の大きいほうのサンプリング間隔は、式(5)で求められる小さいほうのサンプリング間隔gx(e2)との和がわかればその和から求めることができる。説明の簡単化のためΔyの位置を拡大率がさほど変化しない範囲と仮定すると、大きいほうのサンプリング間隔と小さいほうのサンプリング間隔との和は、直線Lcにおけるサンプリング間隔の2倍(=xLc)で近似することができ、Δyが負の場合の大きいほうのサンプリング間隔gx(e1)は、
Figure JPOXMLDOC01-appb-M000004
となる。これをΔyが負の場合のサンプリング間隔gxとすると、式(5)及び式(6)に絶対値を用いて、
Figure JPOXMLDOC01-appb-M000005
と記述できる。つまり、正負両方においてチャネル方向(x方向)の分解能が中心より劣化することがわかる。
 一方、ビュー方向のサンプリング間隔gvは、1ビュー分の角度でサンプリング点が移動する距離に相当する。図7の(b)に示すように、撮像中心OからΔy離れた位置での1ビューあたりの移動距離は、ビュー数が十分大きい場合、円周(移動距離に相当する円弧)を直線で近似すると、式(8)で記述できる。
Figure JPOXMLDOC01-appb-M000006
 (式7)と(式8)とがつりあう点がビュー方向の分解能劣化とチャネル方向の分解能劣化とが一致する点であるため、中心からの距離Δyが式(9)を満たす円周が境界となる。
Figure JPOXMLDOC01-appb-M000007
この境界から中心部側ではビュー方向に補間し、外側ではチャネル方向に補間すれば良い。撮像中心OからΔyまでの距離が、既述の距離閾値Lthに相当する。
 投影データでは、撮像中心Oは、回転中心軸の投影データとして得られるので、第一実施形態では、投影データ上において、X線焦点の中心位置Sから撮影中心Oを通り、X線検出部320に下ろした垂線と交わるX線検出器321のチャネル位置を中心とし、チャネル方向に沿って距離閾値Lth未満にある第一領域はビュー方向補間処理を適用して欠損データの補間をし、距離閾値Lth以上の第二領域はチャネル方向補間処理を適用して欠損データの補間をする。上記の例では、X線の焦点の移動距離δ、X線焦点-X線検出器間距離SID及び回転中心-X線検出器間距離OIDを基に算出された値を用いて距離閾値Lthを決定したが、回転中心からの距離に応じた分解能を計測するために、寸法が既知の被写体を撮影した画像からなる、分解能計測画像を基に算出した値を用いて決定してもよい。
 (ステップS103)
 ステップS103では、Log変換や再構成処理に必要な前処理を行う(ステップS103)。これも公知の技術を用いて実施する。また、Log変換をステップS102の前にあるステップS101で実施することも可能である。
 (ステップS104)
 ステップS103の前処理を施した投影データを用いて、再構成演算処理を行い、再構成画像(X線CT画像)を生成する(ステップS104)。再構成アルゴリズムは、例えば公知の技術であるFeldKamp法や、逐次近似法を用いて再構成しても良く、再構成アルゴリズムの種類は問わない。
 (ステップS105)
 X線CT画像を表示する(ステップS105)。
 本実施形態によれば、X線CT装置において、FFS方式で撮像した場合に生じる一つの再構成画像中における撮像位置に依存した分解能の差を低減し、再構成画像の分解能を、再構成画像上での画素の位置に合わせて最適化することができる。
 なお、第一実施形態に、公知の技術であるベッドの横移動を追加することで、さらなるX線CT装置の改善が見込まれる。通常の画像においてもX線CT装置の回転中心と回転中心から離れた位置とでは、X線CT画像の分解能が異なるが、FFS方式の場合、回転中心から離れた位置における分解能の劣化は先に示したとおり顕著である。そこでベッドの横移動とベッドの上下方向移動により、回転中心と、撮像中心(再構成中心点)と、を極力合わせることで、ユーザーが所望する再構成視野での分解能の改善が見込まれる。これにより、上記の効果に加えて、計測されるX線CT画像の関心領域における分解能の向上が期待できる。
 また、上記説明では、一つのサイノグラムを第一領域及び第二領域の2つの区間に分割し、各区間に対してビュー方向補間処理又はチャネル方向補間処理の何れかを施したが、第一領域及び第二領域の間に距離閾値Lthを含む接続領域を設け、この接続領域において、ビュー方向補間処理及びチャネル方向補間処理を施す割合を連続的に変化させても良い。さらに、投影データ上で、x、θを変数とし、ビュー方向補間処理に乗算する重み及びチャネル方向補間処理に乗算する重みを、フィルタ関数f(x,θ)を用いて連続的に変化させてもよい。これは、サイノグラム上での区間数を無限大にすることと等価である。連続的に変化するフィルタ関数を用いることで、X線CT像上の不連続な点や境界の発生を抑制することが可能となる。フィルタ関数の一例として、回転移動の回転中心からの距離に応じて変化する三角関数を用いてもよい。
<第二実施形態>
 第二実施形態では、図2の(b)を用いて既に説明したように、同一の投影データを二つ生成し、一方の投影データの全ての欠損データは、ビュー方向補間処理により補間して、ビュー方向補間投影データを生成し、他方の投影データの全ての欠損データは、チャネル方向補間処理により補間して、チャネル方向補間投影データを生成する。そして、ビュー方向補間投影データを再構成演算してビュー方向補間再構成画像を生成するとともに、チャネル方向補間投影データを再構成演算してチャネル方向補間再構成画像を生成する。その後、ビュー方向補間再構成画像及びチャネル方向補間再構成画像を結合した結合画像であって、当該結合画像内の画素の位置に応じてビュー方向補間再構成画像及びチャネル方向補間再構成画像の寄与率が異なる結合画像を生成する。以下、本実施形態について、図8乃至図11を用いて説明する。図8は、第二実施形態の処理の流れを示すフローチャートである。図9は、再構成画像の結合処理を示す説明図である。図10は、第二実施形態における表示態様の一例を示す説明図である。図11は、第二実施形態における表示態様の一例を示す説明図であって、(a)は指定点を含む領域が距離閾値Lthを示す境界マーカ内に含まれる状態を示し、(b)は指定点を含む領域の一部が距離閾値Lthを満たす境界マーカ内に含まれない状態を示す。なお、図8に、第二実施形態に係る[画像化ステップ]の流れを示すが、それより前に行う[撮像条件設定ステップ]及び[撮像ステップ]は、既述のとおりであるので説明を省略する。以下、図8の各ステップに沿って説明する。
 (ステップS101)
 まず、投影データに対し、ビュー方向補間処理及びチャネル方向補間処理に必要な前処理を実施する(ステップS101)。前処理の内容としては、例えば回路のリニアリティの補正や、ディフェクト補正(欠陥画素補正)などを実施する。リニアリティ補正およびディフェクト補正は、公知の技術を用いて実施する。
 (ステップS111、ステップS112)
 次に、FFS機能に伴う欠損データの補間を実施する。同一スライス位置で計測した投影データを一組(二つ)用意する。一方の投影データには、投影データ上の全てのデータ欠損位置においてビュー方向補間処理をして、ビュー方向補間投影データを生成する(S111)。他方の投影データは、投影データ上の全てのデータ欠損位置の欠損データをチャネル方向補間処理により補間して、チャネル方向補間投影データを生成する(S112)。ここでいうチャネル方向補間処理及びビュー方向補間処理は、第一実施形態において図6を基に説明した処理内容と同じである。
 (ステップS103-1、S103-2)
 ステップS111で生成したビュー方向補間を投影データに対して、Log変換や再構成処理に必要な前処理を行う(ステップS103-1)。同様に、ステップS112で生成したチャネル方向補間投影データに対して、Log変換や再構成処理に必要な前処理を行う(ステップS103-2)これも公知の技術を用いて実施する。また、Log変換をステップS111及びS112の前にあるステップS101で実施することも可能である。
 (ステップS104-1、S104-2)
 ビュー方向補間投影データを基に再構成演算を行ない、再構成画像を生成する(S104-1)。以下、この再構成画像を「ビュー方向補間再構成画像」(図2の(b)における再構成画像511に相当する)という。更に、チャネル方向補間投影データを基に再構成演算を行い、再構成画像を生成する(S104-2)。以下、この再構成画像を「チャネル方向補間再構成画像」(図2の(b)における再構成画像512に相当する)という。従って、本ステップでは、二つの再構成画像が生成される。再構成アルゴリズムは、例えば公知の技術であるFeldKamp法や、逐次近似法を用いて再構成しても良く、再構成アルゴリズムの種類は問わない。
 (ステップS113)
 次にステップS104-1、S104-2で生成された二つの再構成画像を結合する(ステップS113)。結合の例を図9に示す。図9において、楕円で囲んだ領域内が被写体領域であり、円520は第一領域513aと第二領域513bを分ける境界を示す。図9(a)に示す例では、結合画像513のうち、回転中心軸の再構成点0から距離閾値Lth(実線の円520)よりも内側の第一領域513aは、ビュー方向補間再構成画像511を使用し、距離閾値Lthを含み、それよりも外側の第二領域513bは、チャネル方向補間再構成画像512を使用し、これらを結合して結合画像513を生成する。
 また、図9(b)に示す例では、距離閾値Lth周辺領域での連続性を持たせるため、距離閾値Lthを含み、第一領域513a及び第二領域513bを接続する接続領域513cを設けて、この領域513cではビュー方向補間再構成画像511及びチャネル方向補間再構成画像512を足し合わせる。図9(b)において、接続領域513cは、実線の円520と同心円であってかつ距離閾値Lthよりも半径が短い点線の円531及び実線の円520と同心円であってかつ距離閾値Lthよりも半径が長い点線の円532で挟まれた領域として図示する。ビュー方向補間再構成画像511及びチャネル方向補間再構成画像512の足しあわせ方は、例えば第一領域513aでは、ビュー方向補間再構成画像511のみを使用し、第二領域513bでは、チャネル方向補間再構成画像512のみを使用する。そして接続領域513cでは、距離閾値Lthからの距離に応じて重み付けした重み係数(weight)を、ビュー方向補間再構成画像511及びチャネル方向補間再構成画像512の双方に掛け合わせて足し合わせる。これにより、接続領域において、ビュー方向補間再構成画像及びチャネル方向補間再構成画像の寄与率を連続的に変化させることができる。
 例えば図9では、結合画像513における撮像中心(回転中心の再構成点)からの距離に応じて線形に変化する重み係数を用い、距離閾値Lth上は、ビュー方向補間再構成画像511及びチャネル方向補間再構成画像512の双方に重み係数0.5を乗算し、それよりも撮像中心Oに近づくにつれて(第一領域513aに近付くにつれて)、ビュー方向補間再構成画像511に乗算する重みを、チャネル方向補間再構成画像512に乗算する重みよりも相対的に大きくする。また、撮像中心Oから遠ざかるにつれて(第二領域513bに近付くにつれて)、ビュー方向補間再構成画像511に乗算する重みを、チャネル方向補間再構成画像512に乗算する重みよりも相対的に小さくする。これにより、結合画像513において、結合箇所が不連続にならないため、距離閾値Lthにおけるアーチファクトの発生が低減可能である。
 なお、再構成部が距離閾値Lthを求める際に、第一実施形態では、投影データにおけるビュー方向の分解能とチャネル方向の分解能とが一致する点として境界を求めたが、チャネル方向補間再構成画像におけるビュー方向(角度方向)の分解能とチャネル方向の分解能とが一致する点、又はビュー方向補間再構成画像におけるビュー方向(角度方向)の分解能とチャネル方向の分解能とが一致する点を境界として求めてもよい。この場合、再構成部が、第一実施形態と同様、X線の焦点の移動距離を基に算出された値を用いて決定する、又は回転中心からの距離に応じた分解能を計測するための分解能計測画像を基に算出した値を用いて決定してもよい。
 (ステップS114)
 最後に画像を表示する(ステップS114)。表示対象となる画像は、結合画像513、チャネル方向補間再構成画像512、及びビュー方向補間再構成画像511があり、これらのうちの一つ、又は任意の組み合わせで表示してもよい。これにより、多角的な診断が可能となる。表示態様の一例として、図10に示すように、結合画像513のみを表示してもよい。この場合、結合画像513に、距離閾値Lthを満たす円520を示す境界マーカ540を重畳表示してもよい。これにより境界マーカ540の周囲でフィルタが変化していることを操作者に伝えることができる。また、境界マーカ540を表示せず全体を見やすく表示しても良い。
 表示態様の別例として、初期表示状態ではチャネル方向補間再構成画像512のみを表示しておき、その内側に、必要に応じてビュー方向補間再構成画像511を表示してもよい。チャネル方向補間再構成画像512は、ビュー方向補間再構成画像511と比べて、再構成画像内における分解能の均一性が高い。そこで、まず、チャネル方向補間再構成画像512を表示して、画像全体をある程度均一な分解能で目視し、その画像中で操作者が気になった位置を指定すると、その指定された位置を含む領域をビュー方向補間再構成画像511に置き換えて表示する。例えば、図11の(a)に示すように、チャネル方向補間再構成画像512上に距離閾値Lthを満たす境界マーカ540(図11では点線で描出)を重畳表示しておく。この境界マーカ540の中の任意の点を指定する操作(例えばマウスカーソル550を指定位置に合わせてクリック)をすると、その指定点を中心とする指定領域551(図11では実線で描出)が設定される。この指定領域551の内部だけ、チャネル方向補間再構成画像512よりも分解能が高いビュー方向補間再構成画像511に置き換えて表示する。図11の(b)に示すように、指定点を中心とする指定領域551が、距離閾値Lthを満たす境界マーカ540よりも外側にはみ出した場合、指定領域551のうち、境界マーカ540よりも内側の領域のみをビュー方向補間再構成画像511に置き換えてもよい。本表示例において、境界マーカ540よりも外側を指定すると、ビュー方向補間再構成画像511への置き換えが行われない。なお、図11の表示例では、ステップS113において距離閾値を求める処理を行い、結合処理は不要である。
 本実施形態によれば、再構成画像内での撮像位置に依存したビュー方向分解能及びチャネル方向分解能の差を低減することができる。また、複数の補間画像(ビュー方向補間再構成画像、チャネル方向補間再構成画像及び結合画像)が生成されるので、ユーザーが所望の分解能の補間画像を表示することができ、多角的な診断がよりしやすくなるという効果が期待できる。
 第二実施形態の変形例として、結合画像513において、撮像中心からの距離に応じて、ビュー方向補間再構成画像に乗算する重み係数及びチャネル方向補間再構成画像に乗算する重み係数を連続的に変化させるフィルタ関数を用いてもよい。これにより、接続領域全体について連続的にビュー方向分解能及びチャネル方向分解能の差を低減することができる。このフィルタ関数の一例として、回転移動の回転中心(結合画像における撮像中心)からの距離に応じて変化する三角関数を用いてもよい。
<第三実施形態>
 第二実施形態では、ビュー方向補間再構成画像及びチャネル方向補間再構成を生成するために2回の再構成演算処理を行う必要がある。そのため、再構成演算時間が2倍となる。そこで、第三実施形態では、再構成演算中に画素位置に応じて使用する投影データを変更することにより、再構成演算を1回で済ませ、再構成演算時間の短縮を図る。第三実施形態においても[撮像条件設定ステップ]及び[撮像ステップ]は第一実施形態と同様であるので説明を省略し、[画像化ステップ]のみについて以下に示す。以下、図2の(c)及び図12を基に第三実施形態について説明する。図12は、第三実施形態における画像化ステップの処理の流れを示すフローチャートである。以下、図12の各ステップに沿って説明するが、第一実施形態及び第二実施形態と共通する処理内容については、概略のみを記載し、詳細な説明は割愛する。
(ステップS101、S111、S112、S103-1、S103-2)
 第二実施形態と同様、同一の投影データを1組(二つ)用意し、それぞれに対してビュー方向補間処理及びチャネル方向補間処理に必要な前処理(S101)を行う。次いで、それぞれに対し、ビュー方向補間処理(S111)及びチャネル方向補間処理(S112)を行う。そして、ステップS111及びS112の補間処理後の投影データに対し、Log変換及び再構成処理の前処理を実施する(S103-1、S103-2)。
(ステップS124)
 次に複合再構成を実施する。(ステップS124)。ここでいう「複合再構成」とは、一つの再構成画像を、複数種類の投影データを用いて再構成演算を行うことにより生成することをいう。これにより、再構成画像の画素の位置に応じて、再構成処理に使用する投影データの使用割合を変更し、ビュー方向及びチャネル方向の補間レベルの最適化を図り、再構成画像の空間分解能の向上を図る。
 具体的な再構成手順を示す。まず、使用するのは公知技術であるコンボリューション法(重畳積分法)を用いる。これは、再構成画像の各画素の画素値を、当該画素値の算出に用いる投影データに対し、再構成画像上における画素の位置(実空間での画素の位置)に応じて重み付をして足し合わせる方法である。つまり、足し合わせる時点で、再構成画像上におけるどの画素かがわかるため、その画素に最適な投影データを、ビュー方向補間投影データ(図2の(c)の501A)及びチャネル方向補間投影データ(図2の(c)の502A)の使用割合を決定し、コンボリューション演算を行なう。
 例えば、図2の(c)に示す再構成画像515において、撮像中心(本実施形態では回転中心の再構成点と同一であるとする)から距離閾値Lthを示す円520より内側の第一領域内の欠損データは、チャネル方向補間投影データ502Aの重みを0、ビュー方向補間投影データ501Aの重みを1としてコンボリューション法による再構成演算を行う。その結果、円520よりも内側の第一領域ではビュー方向補間投影データ501Aだけを用いて再構成演算を行う。円520上およびそれよりも外側にある第二領域の欠損データは、ビュー方向補間投影データ501Aの重みを0、チャネル補間投影データ502Aの重みを1として、コンボリューション法による再構成演算を行う。すなわち、この領域では、チャネル方向補間投影データ502Aだけを用いて再構成演算を行う。なお、再構成部が距離閾値Lthを求める際に、チャネル方向補間再構成画像におけるビュー方向(角度方向)の分解能とチャネル方向の分解能とが一致する点、又はビュー方向補間再構成画像におけるビュー方向(角度方向)の分解能とチャネル方向の分解能とが一致する点を境界として求めてもよい。この場合、再構成部は、第一実施形態と同様、X線の焦点の移動距離を基に算出された値を用いて決定してもよいし、又は回転中心からの距離に応じた分解能を計測するための分解能計測画像を基に算出した値を用いて決定してもよい。なお、本実施形態では、再構成演算処理のアルゴリズムとして、コンボリューション法を例に挙げて説明するが、撮像位置の実空間における座標、又は再構成画像における実座標がわかるアルゴリズムであれば、コンボリューション法に限定されない。
(ステップS105)
 第一実施形態と同様、生成された再構成画像を表示する(S105)。または、第二実施形態の図11で示したように、初期表示ではチャネル方向補間再構成画像を表示しておき、それに距離閾値Lthを満たす境界マーカ540を重畳表示し、境界マーカ540内に指定領域が設定された場合に、その指定領域の撮像位置(再構成画像515における位置)に応じた第一の重み及び第二の重みを用いて投影データに対するコンボリューションによる再構成演算を行った再構成像を表示するようにしてもよい。
 本実施形態によれば、一度の再構成演算を行うだけで再構成画像のビュー方向分解能及びチャネル方向分解能の差を低減した再構成画像を生成できるので、第二実施形態と比較して、最終的に必要なメモリ量が少なくなるという効果がある。
 上記の変形例として、再構成画像515の円520において不連続領域が生じるのを防ぐため、第二実施形態と同様、円520を含み、第一領域及び第二領域を接続する接続領域を設け、接続領域内の欠損データは、ビュー方向補間投影データ501Aに乗算する第一の重み係数を撮像中心に近づくにつれて相対的に大きくする一方、チャネル方向補間投影データ502Aに乗算する第二の重み係数は撮像中心から遠ざかるにつれて相対的に大きくすることで、接続領域内で、第一の重み及び第二の重みを連続的に変化させてコンボリューション演算を行なってもよい。
 また、再構成画像515において、撮像中心からの距離に応じて、ビュー方向補間投影データ501Aに乗算する第一の重み係数及びチャネル方向補間投影データ502Aに乗算する第二の重み係数を連続的に変化させるフィルタ関数を用いてもよい。これにより、再構成画像全体について連続的にビュー方向分解能及びチャネル方向分解能の差を低減することができる。このフィルタ関数の一例として、回転移動の回転中心(再構成画像515における撮像中心)からの距離に応じて変化する三角関数を用いてもよい。
 100 X線CT装置
 110 被写体
 200 入力部
 210 撮像条件入力部
 211 キーボード
 212 マウス
 213 モニタ
 300 撮像部
 310 X線発生部
 311 X線管
 313、313a、313b X線焦点
 320 X線検出部
 321 X線検出器
 330 ガントリ
 331 開口部
 332 回転板
 340 撮像制御部
 341 X線制御器
 342 ガントリ制御器
 343 テーブル制御器
 344 検出器制御器
 345 統括制御器
 350 被写体搭載用テーブル
 400 画像生成部
 410 信号収集部
 411 データ収集システム、DAS
 420 データ処理部
 421 中央処理装置
 422 メモリ
 423 HDD装置
 430 画像表示部
 431 画像表示モニタ

Claims (20)

  1.  X線を発生するX線発生部と、
     前記X線を検出する複数のX線検出素子を有し、透過X線を検出して投影データを出力するX線検出部と、
     前記X線発生部及び前記X線検出部を対向して配置し、前記X線発生部及び前記X線検出部を回転移動させる回転部と、
     前記投影データを補間する投影データ補間部と、
     前記補間後の投影データを用いて再構成演算を行い、再構成画像を生成する再構成部と、
     前記X線の焦点を前記回転移動の回転軌道面内における複数の位置に、交互に移動させる焦点移動部と、を備え、
     前記X線検出部は、前記複数のX線検出素子を前記回転方向に沿ったチャネル方向に配列して構成され、
     前記投影データは、前記焦点の移動に伴って生じるデータ欠損を含み、
     前記投影データ補間部は、前記投影データのデータ欠損位置におけるデータを、前記投影データの、前記回転移動の角度方向に沿って並ぶ実データを用いて補間するビュー方向補間処理、及び前記投影データの、前記チャネル方向に沿って並ぶ実データを用いて補間するチャネル方向補間処理、により補間し、
     前記再構成部は、前記再構成画像内の画素の位置に応じて、前記ビュー方向補間処理がされた投影データ及び前記チャネル方向補間処理がされた投影データの寄与率が異なる再構成画像を生成する、
     ことを特徴とするX線CT装置。
  2.  前記投影データ補間部は、前記データ欠損位置に応じて、前記ビュー方向補間処理及び前記チャネル方向補間処理を施す割合を変更する、
     ことを特徴とする請求項1に記載のX線CT装置。
  3.  前記投影データ補間部は、前記投影データを、前記回転移動の回転中心からの距離に応じて複数の領域に分割し、前記回転中心に相対的に近い第一領域内にある欠損位置のデータは、前記ビュー方向補間処理により補間し、前記回転中心に相対的に遠い第二領域内にある欠損位置のデータは、前記チャネル方向補間処理により補間する、
     ことを特徴とする請求項1に記載のX線CT装置。
  4.  前記投影データ補間部は、前記投影データの前記角度方向の空間分解能と前記チャネル方向の空間分解能とが一致する位置を境界として、前記投影データを前記第一領域及び前記第二領域に分割する、
     ことを特徴とする請求項3に記載のX線CT装置。
  5.  前記投影データ補間部は、前記境界の近傍であって前記第一領域の一部及び前記第二領域の一部を含む接続領域を設け、当該接続領域において、前記ビュー方向補間処理及び前記チャネル方向補間処理を施す割合を連続的に変化させる、
     ことを特徴とする請求項4に記載のX線CT装置。
  6.  前記投影データ補間部は、前記境界を、前記X線の焦点の移動距離を基に算出された値を用いて決定する、又は、前記回転中心からの距離に応じた分解能を計測するための分解能計測画像を基に算出した値を用いて決定する、
     ことを特徴とする請求項4に記載のX線CT装置。
  7.  前記投影データ補間部は、同一の前記投影データを二つ生成し、一方の前記投影データの欠損位置のデータは前記ビュー方向補間処理により補間して、ビュー方向補間投影データを生成し、他方の前記投影データの欠損位置のデータは、前記チャネル方向補間処理により補間して、チャネル方向補間投影データを生成し、
     前記再構成部は、前記ビュー方向補間投影データ及び前記チャネル方向補間投影データを用いて前記再構成画像を生成する、
     ことを特徴とする請求項1に記載のX線CT装置。
  8.  前記再構成部は、前記ビュー方向補間投影データを再構成演算してビュー方向補間再構成画像を生成するとともに、前記チャネル方向補間投影データを再構成演算してチャネル方向補間再構成画像を生成し、前記ビュー方向補間再構成画像及び前記チャネル方向補間再構成画像を結合した結合画像であって、当該結合画像内の画素の位置に応じて前記ビュー方向補間再構成画像及び前記チャネル方向補間再構成画像の寄与率が異なる結合画像を生成する、
     ことを特徴とする請求項7に記載のX線CT装置。
  9.  前記再構成部は、前記結合画像における前記回転中心の再構成点からの距離に応じて複数の領域に分割し、前記回転中心の再構成点に相対的に近い第一領域は前記ビュー方向補間再構成画像を使用し、前記回転中心の再構成点に相対的に遠い第二領域は前記チャネル方向補間再構成画像を使用し、前記第一領域の前記ビュー方向補間再構成画像及び前記第二領域の前記チャネル方向補間再構成画像を結合して前記結合画像を生成する、
     ことを特徴とする請求項8に記載のX線CT装置。
  10.  前記チャネル方向補間再構成画像上の任意の点を指定する操作部を更に備え、
     前記再構成部は、前記チャネル方向補間再構成画像上に、前記第一領域及び前記第二領域の境界を示す境界マーカを重畳表示し、前記チャネル方向補間再構成画像に含まれる前記第一領域のうち、操作者が前記操作部により指定した点を含む指定領域内の前記チャネル方向補間再構成画像を、前記ビュー方向補間再構成画像に置き換える、
     ことを特徴とする請求項9に記載のX線CT装置。
  11.  前記再構成部は、前記チャネル方向補間再構成画像における前記角度方向の空間分解能と前記チャネル方向の空間分解能とが一致する点、又は前記ビュー方向補間再構成画像における前記角度方向の空間分解能と前記チャネル方向の空間分解能とが一致する点を境界として、前記結合画像を前記第一領域及び前記第二領域に分割する、
     ことを特徴とする請求項9又は10に記載のX線CT装置。
  12.  前記再構成部は、前記境界の近傍であって前記第一領域の一部及び前記第二領域の一部を含む接続領域を設け、当該接続領域において、前記ビュー方向補間再構成画像及び前記チャネル方向補間再構成画像の寄与率を連続的に変化させる、
     ことを特徴とする請求項11に記載のX線CT装置。
  13.  前記再構成部は、補間後の投影データに対しコンボリューション演算を行い前記再構成画像を生成するに際し、前記再構成画像における前記回転中心の再構成点から相対的に近い位置では、前記ビュー方向補間投影データに乗算する第一の重み係数を、前記チャネル方向補間投影データに乗算する第二の重み係数よりも相対的に大きくして前記コンボリューション演算を行い、前記再構成画像における前記回転中心の再構成点から相対的に遠い位置では、前記第二の重み係数を前記第一の重み係数よりも相対的に大きくして前記コンボリューション演算を行う、
     ことを特徴とする請求項7に記載のX線CT装置。
  14.  前記再構成部は、前記再構成画像における前記回転中心の再構成点からの距離に応じて複数の区間に分割し、前記回転中心の再構成点に相対的に近い第一領域は、前記第一の重み係数を1、前記第二の重み係数を0にして前記コンボリューション演算を行い、前記回転中心の再構成点に相対的に遠い第二領域は、前記第一の重み係数を0、前記第二の重み係数を1にして前記コンボリューション演算を行う、
     ことを特徴とする請求項13に記載のX線CT装置。
  15.  前記再構成部は、前記X線の焦点を移動させて計測した前記投影データの前記角度方向の分解能と前記チャネル方向の分解能とが一致する点を境界として、前記再構成画像を前記第一領域及び前記第二領域に分割する、
     ことを特徴とする請求項14に記載のX線CT装置。
  16.  前記再構成部は、前記境界の近傍であって前記第一領域の一部及び前記第二領域の一部を含む接続領域を設け、当該接続領域において、前記第一の重み係数及び前記第二の重み係数を連続的に変化させる、
     ことを特徴とする請求項15に記載のX線CT装置。
  17.  前記再構成部は、前記境界を、前記X線の焦点の移動距離を基に算出された値を用いて決定する、又は前記回転中心からの距離に応じた分解能を計測するための分解能計測画像を基に算出した値を用いて決定する、
     ことを特徴とする請求項11に記載のX線CT装置。
  18.  前記再構成部は、前記回転移動の回転中心からの位置に応じて、前記ビュー方向補間処理がされた投影データ及び前記チャネル方向補間処理がされた投影データの寄与率を連続的に変化させるフィルタ関数を用いて前記再構成画像を生成する、
     ことを特徴とする請求項1に記載のX線CT装置。
  19.  前記フィルタ関数は、前記回転移動の回転中心からの距離に応じて変化する三角関数である、
     ことを特徴とする請求項18に記載のX線CT装置。
  20.  X線を発生するX線発生部と、前記X線を検出する複数のX線検出素子を有し、透過X線を検出して投影データを出力するX線検出部と、前記X線発生部及び前記X線検出部を対向して配置し、前記X線発生部及び前記X線検出部を回転移動させる回転部と、前記X線の焦点を前記回転移動の回転軌道面内における複数の位置に、交互に移動させる焦点移動部と、を備え、前記X線検出部が、前記複数のX線検出素子を前記回転方向に沿ったチャネル方向に配列して構成されたX線CT装置により、前記X線の焦点の位置を交互に移動させながら前記回転移動を行い、撮像して得られた投影データを用いた画像再構成方法において、
     前記投影データは、前記焦点の移動に伴って生じるデータ欠損を含み、前記データ欠損の位置のデータを、前記投影データの、前記回転移動の角度方向に沿って並ぶ実データを用いて補間するビュー方向補間処理、及び前記投影データの、前記チャネル方向に沿って並ぶ実データを用いて補間するチャネル方向補間処理、により補間するステップと、
     前記再構成画像内の画素の位置に応じて、前記ビュー方向補間処理がされた投影データ及び前記チャネル方向補間処理がされた投影データの寄与率が異なる前記再構成画像を生成するステップと、
     を含むことを特徴とする画像再構成方法。
PCT/JP2014/050586 2013-01-28 2014-01-15 X線ct装置及び画像再構成方法 Ceased WO2014115625A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014558538A JP5978516B2 (ja) 2013-01-28 2014-01-15 X線ct装置及び画像再構成方法
US14/655,589 US9552659B2 (en) 2013-01-28 2014-01-15 X-ray CT device, and image reconfiguration method
CN201480005942.7A CN104936526B (zh) 2013-01-28 2014-01-15 X射线ct装置以及图像重构方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013013161 2013-01-28
JP2013-013161 2013-01-28

Publications (1)

Publication Number Publication Date
WO2014115625A1 true WO2014115625A1 (ja) 2014-07-31

Family

ID=51227417

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/050586 Ceased WO2014115625A1 (ja) 2013-01-28 2014-01-15 X線ct装置及び画像再構成方法

Country Status (4)

Country Link
US (1) US9552659B2 (ja)
JP (1) JP5978516B2 (ja)
CN (1) CN104936526B (ja)
WO (1) WO2014115625A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112215910A (zh) * 2019-07-12 2021-01-12 佳能医疗系统株式会社 X射线系统、图像处理装置及程序
JP2022140410A (ja) * 2021-03-12 2022-09-26 フラウンホファー ゲセルシャフト ツール フェールデルンク ダー アンゲヴァンテン フォルシュンク エー.ファオ. ギャップフィラーサイノグラム情報を取得するための処理デバイス、コンピュータ断層撮影装置、方法、およびコンピュータプログラム

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2013136560A (ru) * 2011-01-06 2015-02-20 Конинклейке Филипс Электроникс Н.В. Система визуализации для визуализации объекта
WO2014115625A1 (ja) * 2013-01-28 2014-07-31 株式会社日立メディコ X線ct装置及び画像再構成方法
WO2014156611A1 (ja) * 2013-03-27 2014-10-02 株式会社 日立メディコ 画像処理装置、放射線撮影装置および画像処理方法
US20190180481A1 (en) * 2017-12-13 2019-06-13 General Electric Company Tomographic reconstruction with weights
CN108876783B (zh) 2018-06-27 2021-02-05 上海联影医疗科技股份有限公司 图像融合方法及系统、医疗设备和图像融合终端
CN110211091A (zh) * 2019-04-25 2019-09-06 合刃科技(深圳)有限公司 一种高分辨图像重构方法、装置及隐裂无损检测系统
CN112932514B (zh) * 2021-01-29 2022-04-22 明峰医疗系统股份有限公司 插值计算方法、系统、成像方法和计算机可读存储介质
CN113269846B (zh) * 2021-05-24 2023-03-14 深圳安科高技术股份有限公司 一种ct全扫描图像重建方法、装置和终端设备
CN114842098B (zh) * 2022-03-16 2024-10-08 重庆大学 一种旋转-平移扫描ct的三维数据重排方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1099456A (ja) * 1996-06-11 1998-04-21 Wisconsin Alumni Res Found 患者に対する放射線処理の計画の記録方法
JP2005296653A (ja) * 2004-04-08 2005-10-27 Siemens Ag コンピュータ断層撮影装置によるコンピュータ断層撮影画像形成方法およびコンピュータ断層撮影装置
JP2007014783A (ja) * 2005-07-07 2007-01-25 Siemens Ag コンピュータ断層撮影装置における焦点調整方法
JP2010035812A (ja) * 2008-08-05 2010-02-18 Toshiba Corp X線コンピュータ断層撮影装置
WO2012112153A1 (en) * 2011-02-17 2012-08-23 Analogic Corporation Detector array having effective size larger than actual size

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6169779B1 (en) * 1998-10-20 2001-01-02 Analogic Corporation Data acquisition sequence for computed tomography scanners
JP5007982B2 (ja) * 2006-06-22 2012-08-22 国立大学法人東北大学 X線ct装置及び同装置の画像再構成方法並びに画像再構成プログラム
US8175218B2 (en) * 2007-10-29 2012-05-08 Kabushiki Kaisha Toshiba Interpolation interlacing based data upsampling algorithm for cone-beam x-ray CT flying focal spot projection data
BR112012002965A2 (pt) 2009-08-13 2019-09-24 Koninklijke Philips Electrnics N. V. tubo de raio x adaptado para gerar feixes de raios x, sistema de raios x e programa de computador
US20110176723A1 (en) * 2010-01-15 2011-07-21 Board Of Regents University Of Oklahoma Motion Correction in Cone-Beam CT by Tracking Internal and External Markers Using Cone-Beam Projection From a kV On-Board Imager: Four-Dimensional Cone-Beam CT and Tumor Tracking Implications
CN102770076B (zh) * 2010-02-26 2016-08-17 株式会社日立制作所 X射线摄像装置
CN102727230B (zh) * 2011-04-02 2014-06-04 沈阳东软医疗系统有限公司 Ct扫描图像重建方法及装置
JP5696963B2 (ja) * 2012-06-21 2015-04-08 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 画像生成方法、画像生成装置および放射線断層撮影装置並びにプログラム
WO2014115625A1 (ja) * 2013-01-28 2014-07-31 株式会社日立メディコ X線ct装置及び画像再構成方法
CN105377140B (zh) * 2013-07-26 2018-04-13 株式会社日立制作所 X射线ct装置以及图像重构方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1099456A (ja) * 1996-06-11 1998-04-21 Wisconsin Alumni Res Found 患者に対する放射線処理の計画の記録方法
JP2005296653A (ja) * 2004-04-08 2005-10-27 Siemens Ag コンピュータ断層撮影装置によるコンピュータ断層撮影画像形成方法およびコンピュータ断層撮影装置
JP2007014783A (ja) * 2005-07-07 2007-01-25 Siemens Ag コンピュータ断層撮影装置における焦点調整方法
JP2010035812A (ja) * 2008-08-05 2010-02-18 Toshiba Corp X線コンピュータ断層撮影装置
WO2012112153A1 (en) * 2011-02-17 2012-08-23 Analogic Corporation Detector array having effective size larger than actual size

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
HEIN, ILMAR A.: "Lateral (xy) direction balanced flying focal spot helical cone-beam CT algorithm", NUCLEAR SCIENCE SYMPOSIUM CONFERENCE RECORD, 2007. NSS'07., vol. 4, 2007, pages 2624 - 2629 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112215910A (zh) * 2019-07-12 2021-01-12 佳能医疗系统株式会社 X射线系统、图像处理装置及程序
JP2022140410A (ja) * 2021-03-12 2022-09-26 フラウンホファー ゲセルシャフト ツール フェールデルンク ダー アンゲヴァンテン フォルシュンク エー.ファオ. ギャップフィラーサイノグラム情報を取得するための処理デバイス、コンピュータ断層撮影装置、方法、およびコンピュータプログラム
JP7318045B2 (ja) 2021-03-12 2023-07-31 フラウンホファー ゲセルシャフト ツール フェールデルンク ダー アンゲヴァンテン フォルシュンク エー.ファオ. ギャップフィラーサイノグラム情報を取得するための処理デバイス、コンピュータ断層撮影装置、方法、およびコンピュータプログラム
US12423886B2 (en) 2021-03-12 2025-09-23 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Processing device for obtaining gap filler sinogram information, computer tomograph, method and computer program

Also Published As

Publication number Publication date
JPWO2014115625A1 (ja) 2017-01-26
JP5978516B2 (ja) 2016-08-24
CN104936526A (zh) 2015-09-23
CN104936526B (zh) 2018-03-02
US9552659B2 (en) 2017-01-24
US20150325012A1 (en) 2015-11-12

Similar Documents

Publication Publication Date Title
JP5978516B2 (ja) X線ct装置及び画像再構成方法
CN106488744B (zh) X射线拍摄装置以及图像重建方法
JP5142664B2 (ja) X線コンピュータ断層撮影装置
CN101744632B (zh) X射线计算机断层摄影装置及方法、医用图像处理装置及方法
JP5537074B2 (ja) コンピュータ断層撮影装置及び方法
US7110487B2 (en) X-ray measuring apparatus
JPH03103229A (ja) 投影データを収集する装置
CN107106108A (zh) X射线ct装置、投影数据的上采样方法以及图像重构方法
JP2004180808A (ja) ビームハードニング後処理方法およびx線ct装置
US7949087B2 (en) Radiography apparatus
US20140254905A1 (en) Computed tomography image reconstruction
JP2009089810A (ja) X線ct装置
CN106659454B (zh) X射线ct装置以及x射线ct图像的拍摄方法
JP6377615B2 (ja) X線ct装置及び画像再構成方法
JP4993163B2 (ja) 傾斜円錐形ビームデータの再構成のための方法及び装置
JP2017131496A (ja) X線ct装置、撮影条件設定方法及び撮影条件設定プログラム
JP2007044391A (ja) X線ct装置
JP5690122B2 (ja) X線ct装置
JP4841639B2 (ja) X線ct装置
JP4264079B2 (ja) コンピュータ断層撮影方法および装置
JP5342682B2 (ja) X線コンピュータ断層撮影装置
JP5813022B2 (ja) X線コンピュータ断層撮影装置
JP4884649B2 (ja) X線ct装置
JP2015033442A (ja) X線ct装置及び投影データのアップサンプリング方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14743816

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014558538

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14655589

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14743816

Country of ref document: EP

Kind code of ref document: A1