[go: up one dir, main page]

CN120196775A - 一种基于多模态配准的pet/mri图像融合方法及系统 - Google Patents

一种基于多模态配准的pet/mri图像融合方法及系统 Download PDF

Info

Publication number
CN120196775A
CN120196775A CN202510624801.3A CN202510624801A CN120196775A CN 120196775 A CN120196775 A CN 120196775A CN 202510624801 A CN202510624801 A CN 202510624801A CN 120196775 A CN120196775 A CN 120196775A
Authority
CN
China
Prior art keywords
target
item
data
fragment
pet
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202510624801.3A
Other languages
English (en)
Other versions
CN120196775B (zh
Inventor
杨雯
杨颖卓
段云
杨童舒
桂平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan Cancer Hospital
Original Assignee
Sichuan Cancer Hospital
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan Cancer Hospital filed Critical Sichuan Cancer Hospital
Priority to CN202510624801.3A priority Critical patent/CN120196775B/zh
Publication of CN120196775A publication Critical patent/CN120196775A/zh
Application granted granted Critical
Publication of CN120196775B publication Critical patent/CN120196775B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10104Positron emission tomography [PET]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

本发明公开了一种基于多模态配准的PET/MRI图像融合方法及系统,涉及图像融合技术领域。包括:获取目标图像融合区域,得到目标区域项,目标区域项用于表示目标患者的待融合PET图像获取区域以及MRI图像获取区域;基于目标区域项,设定至少两个标记区域作为标记特征点,对标记特征点进行标号赋予,得到标号特征集。本发明将获取的PET和MRI图像数据拆分为数据片段后,通过选定方法快速筛选出目标数据片段,避免了对大量无关数据的处理,依据标号特征集的位置信息筛选出目标数据片段,以其实际位置数据作为对齐轮廓进行对齐和融合,减小融合过程中因为呼吸而导致的胸部轮廓差异造成的影响,提高了图像融合的精度。

Description

一种基于多模态配准的PET/MRI图像融合方法及系统
技术领域
本发明涉及图像融合技术领域,具体为一种基于多模态配准的PET/MRI图像融合方法及系统。
背景技术
PET成像为正电子发射计算机断层扫描,是一种重要的医学成像技术,主要用于观察体内的代谢活动,MRI成像为磁共振成像,是利用强磁场和无线电波来获取体内结构的详细图像,包括强磁场的产生、射频脉冲的应用、信号的释放、信号的采集和处理、图像重建等步骤,PET与MRI图像融合方法是将正电子发射断层扫描和磁共振成像的图像结合在一起以提高医学成像的诊断能力的一种技术,融合这两种成像技术的优势,能够同时获取结构和功能信息。
专利公开号为CN113362261A的图像融合方法,在一次融合得到的第一融合图像的基础上,可以利用颜色迁移实施二次融合,以使第一融合图像的亮度和颜色都可以向可见光图像迁移,从而可以得到亮度和颜色更接近可见光图像的第二融合图像,由此,以第二融合图像作为图像融合的输出结果,可以降低由于红外图像存在的亮度差异而在融合图像中引发的颜色失真。
上述以及类似的技术方案在对患者的胸腔部位进行PET以及MRI图像融合时,需要首先获取胸腔部位的PET以及MRI图像数据时,但是在这个过程中,患者是处于不断呼吸的状态,胸腔会自主出现扩张以及收缩,进而会导致获取到的PET以及MRI图像数据存在一定的差异,即胸腔扩张程度不一致,此时在融合PET以及MRI图像数据时,会导致融合结果精确度受到影响。
发明内容
本发明的目的在于提供一种基于多模态配准的PET/MRI图像融合方法及系统,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:一种基于多模态配准的PET/MRI图像融合方法,包括:
获取目标图像融合区域,得到目标区域项,目标区域项用于表示目标患者的待融合PET图像获取区域以及MRI图像获取区域;
基于目标区域项,设定至少两个标记区域作为标记特征点,对标记特征点进行标号赋予,得到标号特征集;
分别获取目标患者的PET图像数据以及MRI图像数据,得到第一数据集和第二数据集,第一数据集和第二数据集分别表示获取到目标患者的目标区域项PET以及MRI图像数据;
对第一数据集和第二数据集进行拆分,将第一数据集和第二数据集拆分为至少两个数据片段,得到第一片段集和第二片段集;
分别获取第一片段集和第二片段集中标号特征集的位置信息,得到第一位置集和第二位置集;
通过选定方法获取第一位置集和第二位置集中的目标数据片段,得到第一目标片段集和第二目标片段集;
以第一目标片段集和第二目标片段集中标号特征集处于第一位置集和第二位置集中的实际位置数据作为对齐轮廓,得到第一轮廓集和第二轮廓集;
基于第一轮廓集和第二轮廓集分别对齐,进而分别对齐第一目标片段集和第二目标片段集,使得第一目标片段集和第二目标片段集中的数据片段根据对应位置进行融合,进而得到至少两个融合片段。
更进一步地,所述目标区域项的获取方法包括:
获取融合需求,融合需求包括位置需求,得到目标位置项,目标位置项用于表示目标患者的实际待融合位置;
基于目标位置项,设定限位区域,限位区域为固定范围值,基于限位区域与目标位置项的组合结果,得到以目标位置项为起点的待融合范围,进而得到目标区域项。
更进一步地,所述标号特征集的获取方法包括:
设定标记间隙,标记间隙为固定百分比数值,基于标记间隙与目标区域项的组合结果,得到至少两个间隙特征点;
以间隙特征点作为标记特征点,得到标记特征集,依据从上到下的排序方式对标记特征集进行排序以及标号赋予,进而得到标号特征集。
更进一步地,所述第一数据集和第二数据集的获取方法包括:
设定获取时长,得到目标时长项,以目标区域项的边界位置作为获取起点以及获取终点,得到起点位置项以及终点位置项;
基于目标时长项,以起点位置项以及终点位置项作为获取端点,分别通过第一目标设备和第二目标设备获取PET图像数据以及MRI图像数据,进而得到第一数据集和第二数据集。
更进一步地,所述第一片段集和第二片段集的获取方法包括:
获取目标患者的呼吸频率以及呼吸时长,得到呼吸频率项以及呼吸时长项;
设定拆分阈值,拆分阈值为固定百分比数值,基于拆分阈值对呼吸时长项进行拆分,得到至少两个呼吸拆分项;
基于呼吸频率项,以目标患者的频率波谷点作为拆分起点,以频率波峰点作为拆分终点,得到拆分范围,以呼吸拆分项对拆分范围进行拆分,得到至少一个第一拆分集和至少一个第二拆分集;
基于第一数据集和第二数据集中呼吸频率项的数量信息,得到第一拆分集和第二拆分集的组合结果,进而得到第一片段集和第二片段集。
更进一步地,所述第一位置集和第二位置集的获取方法包括:
基于标号特征集,分别粘贴反光贴片,通过目标追踪设备追踪反光贴片的实时位置信息,得到第一实时位置集和第二实时位置集;
基于第一片段集和第二片段集,分别获取第一实时位置集和第二实时位置集中与第一片段集和第二片段集对应的反光贴片的位置信息,得到第一位置集和第二位置集。
更进一步地,所述选定方法包括:
获取第一位置集和第二位置集中,反光贴片处于最高位置以及最低位置时的数据片段,得到极高片段项和极低片段项;
获取第一位置集和第二位置集中,反光贴片高度差距最小时的数据片段,得到差距极小项;
基于极高片段项、极低片段项和差距极小项组合结果中各自对应的第一位置集和第二位置集,得到第一目标片段集和第二目标片段集。
更进一步地,所述第一轮廓集和第二轮廓集的获取方法包括:
获取第一目标片段集和第二目标片段集中标号特征集分别处于最高位置、最低位置和差距最小的实时位置数据,得到第一极高位置集、第一极低位置集、第一差距极小位置集、第二极高位置集、第二极低位置集、第二差距极小位置集;
第一极高位置集与第二极高位置集、第一极低位置集与第二极低位置集、第一差距极小位置集与第二差距极小位置集分别一一对应,得到组合对应集,分别以组合对应集中标号特征集的实时位置数据作为垂直剖面,得到第一轮廓集和第二轮廓集。
更进一步地,一种基于多模态配准的PET/MRI图像融合系统,使用了上述所述的一种基于多模态配准的PET/MRI图像融合方法,包括:
获取模块:获取目标图像融合区域,得到目标区域项,基于目标区域项,设定至少两个标记区域作为标记特征点,对标记特征点进行标号赋予,得到标号特征集,分别获取目标患者的PET图像数据以及MRI图像数据,得到第一数据集和第二数据集,第一数据集和第二数据集分别表示获取到目标患者的目标区域项PET以及MRI图像数据;
处理模块:对第一数据集和第二数据集进行拆分,将第一数据集和第二数据集拆分为至少两个数据片段,得到第一片段集和第二片段集,分别获取第一片段集和第二片段集中标号特征集的位置信息,得到第一位置集和第二位置集,通过选定方法获取第一位置集和第二位置集中的目标数据片段,得到第一目标片段集和第二目标片段集;
融合模块:以第一目标片段集和第二目标片段集中标号特征集处于第一位置集和第二位置集中的实际位置数据作为对齐轮廓,得到第一轮廓集和第二轮廓集,基于第一轮廓集和第二轮廓集分别对齐,进而分别对齐第一目标片段集和第二目标片段集,使得第一目标片段集和第二目标片段集中的数据片段根据对应位置进行融合,进而得到至少两个融合片段。
与现有技术相比,本发明的有益效果是:
该基于多模态配准的PET/MRI图像融合方法及系统,通过获取目标图像融合区域得到目标区域项,明确了待融合PET图像和MRI图像的获取区域,设定标记区域并赋予标号形成标号特征集,便于在图像数据中精准定位关键特征,将获取的PET和MRI图像数据拆分为数据片段后,数据拆分操作将第一数据集和第二数据集拆分为多个数据片段,在获取标号特征集的位置信息后,可通过选定方法快速筛选出目标数据片段,避免了对大量无关数据的处理,依据标号特征集的位置信息筛选出目标数据片段,以其实际位置数据作为对齐轮廓进行对齐和融合,减小融合过程中因为呼吸而导致的胸部轮廓差异造成的影响,提高了图像融合的精度。
附图说明
图1为本发明的整体流程示意图;
图2为本发明的目标位置项与目标区域项示意图;
图3为本发明的标号特征集示意图;
图4为本发明的第一拆分集示意图;
图5为本发明的选定方法示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
正电子发射断层扫描和磁共振成像作为重要的临床影像技术,在疾病诊断和治疗评估中发挥着不可替代的作用,PET能够反映组织代谢活动,MRI则提供高分辨率的解剖结构信息,通过PET/MRI图像融合,可以综合利用两者的优势,从而提高诊断的准确性和治疗的个性化,然而,在胸腔部位的PET/MRI图像融合过程中,患者的呼吸运动所带来的挑战不容忽视,呼吸运动导致的胸腔扩张和收缩,使得分别获取的PET和MRI图像数据存在明显的差异,进而严重影响图像融合的精确度,吸气时,肋间肌收缩,膈肌下降,胸腔容积增大,肺组织扩张,呼气时,这些肌肉放松,胸腔容积减小,肺组织收缩,这种动态的胸腔形态变化直接影响了PET和MRI图像的获取,这种差异性的存在,使得直接将PET和MRI图像进行融合变得困难,未经校正的融合会导致图像模糊、重叠错误以及位置偏差,从而无法准确地将代谢信息与解剖结构信息对应起来,而本申请提供的一种基于多模态配准的PET/MRI图像融合方法,通过获取目标图像融合区域得到目标区域项,明确了待融合PET图像和MRI图像的获取区域,设定标记区域并赋予标号形成标号特征集,便于在图像数据中精准定位关键特征,将获取的PET和MRI图像数据拆分为数据片段后,依据标号特征集的位置信息筛选出目标数据片段,以其实际位置数据作为对齐轮廓进行对齐和融合,减小融合过程中因为呼吸而导致的胸部轮廓差异造成的影响,提高了图像融合的精度,数据拆分操作将第一数据集和第二数据集拆分为多个数据片段,在获取标号特征集的位置信息后,可通过选定方法快速筛选出目标数据片段,避免了对大量无关数据的处理,如图1所示,包括步骤S100-S800。
步骤S100:获取目标图像融合区域,得到目标区域项。
需要注意的是,目标区域项用于表示目标患者的待融合PET图像获取区域以及MRI图像获取区域,目标区域项的获取方法包括:获取融合需求,融合需求包括位置需求,得到目标位置项,目标位置项用于表示目标患者的实际待融合位置;基于目标位置项,设定限位区域,限位区域为固定范围值,限位区域的固定范围值大小为±20cm,基于限位区域与目标位置项的组合结果,得到以目标位置项为起点的待融合范围,进而得到目标区域项。
实施例一
在具体的实施过程中,如图2所示,某患者在就医之后,根据医护人员的整治结果,判断出该患者需要在肺部进行正电子发射断层扫描和磁共振成像扫描,即需要获取肺部区域的PET图像以及MRI图像,此时位置需求即为肺部区域,得到目标位置项,此时再根据设定的限位区域的固定范围值,以肺部区域为起点,上下±20cm的待融合范围,进而得到目标区域项是以肺部区域为中心点的上下各延展20cm长度的范围,得到目标区域项。
步骤S200:基于目标区域项,设定至少两个标记区域作为标记特征点,对标记特征点进行标号赋予,得到标号特征集。
需要注意的是,标号特征集的获取方法包括:设定标记间隙,标记间隙为固定百分比数值,标记间隙为20%,基于标记间隙与目标区域项的组合结果,得到六个间隙特征点;以间隙特征点作为标记特征点,得到标记特征集,依据从上到下的排序方式对标记特征集进行排序以及标号赋予,进而得到标号特征集。
实施例二
在具体的实施过程中,如图3所示,某患者在就医之后根据医护人员的整治结果,得到目标区域项是以肺部区域为中心点的上下各延展20cm长度的范围,得到目标区域项,此时根据设定的标记间隙,在目标区域项中设定六个标记特征点,分别为目标区域项底部位置,以及距离底部位置8cm、16cm、24cm、32cm以及40cm,而40cm的位置正好为目标区域项的顶部位置,得到标记特征集,此时根据从上到下的排序方式对标记特征集进行排序以及标号赋予,最上端也就是目标区域项的顶部位置的标记特征点为一号,往下以此类推,目标区域项底部位置,以及距离底部位置8cm、16cm、24cm、32cm标号分别为6、5、4、3、2号,进而得到标号特征集。
步骤S300:分别获取目标患者的PET图像数据以及MRI图像数据,得到第一数据集和第二数据集。
需要注意的是,第一数据集和第二数据集分别表示获取到目标患者的目标区域项PET以及MRI图像数据,第一数据集和第二数据集的获取方法包括:设定获取时长,获取时长为10min,得到目标时长项,以目标区域项的边界位置作为获取起点以及获取终点,得到起点位置项以及终点位置项;基于目标时长项,以起点位置项以及终点位置项作为获取端点,分别通过第一目标设备和第二目标设备获取PET图像数据以及MRI图像数据,第一目标设备和第二目标设备分别为PET扫描仪以及MRI扫描仪,进而得到第一数据集和第二数据集。
步骤S400:对第一数据集和第二数据集进行拆分,将第一数据集和第二数据集拆分为至少两个数据片段,得到第一片段集和第二片段集。
需要注意的是,第一片段集和第二片段集的获取方法包括:获取目标患者的呼吸频率以及呼吸时长,得到呼吸频率项以及呼吸时长项;设定拆分阈值,拆分阈值为固定百分比数值,拆分阈值为10%,基于拆分阈值对呼吸时长项进行拆分,得到十个呼吸拆分项;基于呼吸频率项,以目标患者的频率波谷点作为拆分起点,以频率波峰点作为拆分终点,得到拆分范围,以呼吸拆分项对拆分范围进行拆分,得到至少一个第一拆分集和至少一个第二拆分集;基于第一数据集和第二数据集中呼吸频率项的数量信息,得到第一拆分集和第二拆分集的组合结果,进而得到第一片段集和第二片段集。
实施例三
在具体的实施过程中,如图4所示,获取到目标患者的单次呼吸时长为10s,此时根据设定的拆分阈值,对呼吸时长进行拆分,得到十个呼吸拆分项,分别为1s、2s、3s,一直到10s,共计10个,获取到该患者的呼吸频率中,1-5s为吸气,5-10s为呼气,此时频率波谷点10s时对应的点位,作为拆分起点,频率波峰点为5s时对应的点位,为拆分终点,得到拆分范围,此时以呼吸拆分项对拆分范围进行拆分,得到5个第一拆分集和5个第二拆分集,分别为5s-6s、6s-7s、7s-8s、8s-9s、9s-10s,而由于在10min的目标时长项内,第一数据集和第二数据集中呼吸频率项的数量非常多,在10s内存在5个第一拆分集和5个第二拆分集,在1min内,存在30个第一拆分集和第二拆分集,在10min内,存在300个第一拆分集和第二拆分集,因此得到多个第一拆分集和第二拆分集的组合结果,进而得到第一片段集和第二片段集。
步骤S500:分别获取第一片段集和第二片段集中标号特征集的位置信息,得到第一位置集和第二位置集。
需要注意的是,第一位置集和第二位置集的获取方法包括:基于标号特征集,分别粘贴反光贴片,通过目标追踪设备追踪反光贴片的实时位置信息,目标追踪设备为红外线传感器,通过红外线传感器实时监测各个反光贴片的位置,得到第一实时位置集和第二实时位置集;基于第一片段集和第二片段集,分别获取第一实时位置集和第二实时位置集中与第一片段集和第二片段集对应的反光贴片的位置信息,得到第一位置集和第二位置集。
步骤S600:通过选定方法获取第一位置集和第二位置集中的目标数据片段,得到第一目标片段集和第二目标片段集。
需要注意的是,如图5所示,选定方法包括:获取第一位置集和第二位置集中,反光贴片处于最高位置以及最低位置时的数据片段,得到极高片段项和极低片段项;获取第一位置集和第二位置集中,反光贴片高度差距最小时的数据片段,得到差距极小项;基于极高片段项、极低片段项和差距极小项组合结果中各自对应的第一位置集和第二位置集,得到第一目标片段集和第二目标片段集。
实施例四
在具体的实施过程中,某患者在就医之后根据医护人员的整治结果,得到目标区域项是以肺部区域为中心点的上下各延展20cm长度的范围,得到目标区域项,此时根据设定的标记间隙,在目标区域项中设定六个标记特征点,分别为目标区域项底部位置,以及距离底部位置8cm、16cm、24cm、32cm以及40cm,而40cm的位置正好为目标区域项的顶部位置,在六个标记特征点处分别粘贴反光贴片,序号从上到下分别为1-6号,通过红外线传感器实时监测各个反光贴片的位置,以1号为基准点,获取到在第一位置集中,反光贴片处于最高位置以及最低位置时的数据片段分别为在第3min的第5个第一拆分集以及第5min的第2个第一拆分集:1号最高位置为0,最低位置为-0.8cm;2号最高位置为1.2cm,最低位置为-1.5cm;3号最高位置为2.8cm,最低位置为-3.2cm;4号最高位置为2.1cm,最低位置为-2.9cm;5号最高位置为0.9cm,最低位置为-1.8cm;6号最高位置为0.3cm,最低位置为-2.1cm;获取到在第二位置集中,反光贴片处于最高位置以及最低位置时的数据片段分别为在第6min的第4个第二拆分集以及第4min的第3个第二拆分集:1号最高位置为0,最低位置为-0.7cm;2号最高位置为1.3cm,最低位置为-1.4cm;3号最高位置为2.9cm,最低位置为-3.3cm;4号最高位置为2.3cm,最低位置为-2.2cm;5号最高位置为0.5cm,最低位置为-1.5cm;6号最高位置为0.2cm,最低位置为-2.3cm,得到极高片段项和极低片段项;获取第一位置集和第二位置集中,反光贴片高度差距最小时的数据片段位在第6min的第3个第一拆分集和第二拆分集,其中1号为0cm,2号为0cm,3号为1cm,4号为0cm,5号为0cm,6号为0cm,得到差距极小项;基于极高片段项、极低片段项和差距极小项组合结果中各自对应的第一位置集和第二位置集,得到第一目标片段集和第二目标片段集。
步骤S700:以第一目标片段集和第二目标片段集中标号特征集处于第一位置集和第二位置集中的实际位置数据作为对齐轮廓,得到第一轮廓集和第二轮廓集。
需要注意的是,第一轮廓集和第二轮廓集的获取方法包括:获取第一目标片段集和第二目标片段集中标号特征集分别处于最高位置、最低位置和差距最小的实时位置数据,得到第一极高位置集、第一极低位置集、第一差距极小位置集、第二极高位置集、第二极低位置集、第二差距极小位置集;第一极高位置集与第二极高位置集、第一极低位置集与第二极低位置集、第一差距极小位置集与第二差距极小位置集分别一一对应,得到组合对应集,分别以组合对应集中标号特征集的实时位置数据作为垂直剖面,得到第一轮廓集和第二轮廓集。
步骤S800:基于第一轮廓集和第二轮廓集分别对齐,进而分别对齐第一目标片段集和第二目标片段集。
需要注意的是,使得第一目标片段集和第二目标片段集中的数据片段根据对应位置进行融合,进而得到至少两个融合片段,由于组合对应集中第一极高位置集与第二极高位置集、第一极低位置集与第二极低位置集、第一差距极小位置集与第二差距极小位置集分别一一对应,此时获取到的第一轮廓集和第二轮廓集分别为轮廓最大、轮廓最小以及轮廓最接近的三组轮廓数据片段,融合后得到三个融合片段。
一种基于多模态配准的PET/MRI图像融合系统,使用了上述的一种基于多模态配准的PET/MRI图像融合方法,包括:获取模块:获取目标图像融合区域,得到目标区域项,基于目标区域项,设定至少两个标记区域作为标记特征点,对标记特征点进行标号赋予,得到标号特征集,分别获取目标患者的PET图像数据以及MRI图像数据,得到第一数据集和第二数据集,第一数据集和第二数据集分别表示获取到目标患者的目标区域项PET以及MRI图像数据;处理模块:对第一数据集和第二数据集进行拆分,将第一数据集和第二数据集拆分为至少两个数据片段,得到第一片段集和第二片段集,分别获取第一片段集和第二片段集中标号特征集的位置信息,得到第一位置集和第二位置集,通过选定方法获取第一位置集和第二位置集中的目标数据片段,得到第一目标片段集和第二目标片段集;融合模块:以第一目标片段集和第二目标片段集中标号特征集处于第一位置集和第二位置集中的实际位置数据作为对齐轮廓,得到第一轮廓集和第二轮廓集,基于第一轮廓集和第二轮廓集分别对齐,进而分别对齐第一目标片段集和第二目标片段集,使得第一目标片段集和第二目标片段集中的数据片段根据对应位置进行融合,进而得到至少两个融合片段。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附实施例及其等同物限定。

Claims (9)

1.一种基于多模态配准的PET/MRI图像融合方法,包括:
获取目标图像融合区域,得到目标区域项,目标区域项用于表示目标患者的待融合PET图像获取区域以及MRI图像获取区域;
其特征在于:
基于目标区域项,设定至少两个标记区域作为标记特征点,对标记特征点进行标号赋予,得到标号特征集;
分别获取目标患者的PET图像数据以及MRI图像数据,得到第一数据集和第二数据集,第一数据集和第二数据集分别表示获取到目标患者的目标区域项PET以及MRI图像数据;
对第一数据集和第二数据集进行拆分,将第一数据集和第二数据集拆分为至少两个数据片段,得到第一片段集和第二片段集;
分别获取第一片段集和第二片段集中标号特征集的位置信息,得到第一位置集和第二位置集;
通过选定方法获取第一位置集和第二位置集中的目标数据片段,得到第一目标片段集和第二目标片段集;
以第一目标片段集和第二目标片段集中标号特征集处于第一位置集和第二位置集中的实际位置数据作为对齐轮廓,得到第一轮廓集和第二轮廓集;
基于第一轮廓集和第二轮廓集分别对齐,进而分别对齐第一目标片段集和第二目标片段集,使得第一目标片段集和第二目标片段集中的数据片段根据对应位置进行融合,进而得到至少两个融合片段。
2.根据权利要求1所述的一种基于多模态配准的PET/MRI图像融合方法,其特征在于:所述目标区域项的获取方法包括:
获取融合需求,融合需求包括位置需求,得到目标位置项,目标位置项用于表示目标患者的实际待融合位置;
基于目标位置项,设定限位区域,限位区域为固定范围值,基于限位区域与目标位置项的组合结果,得到以目标位置项为起点的待融合范围,进而得到目标区域项。
3.根据权利要求1所述的一种基于多模态配准的PET/MRI图像融合方法,其特征在于:所述标号特征集的获取方法包括:
设定标记间隙,标记间隙为固定百分比数值,基于标记间隙与目标区域项的组合结果,得到至少两个间隙特征点;
以间隙特征点作为标记特征点,得到标记特征集,依据从上到下的排序方式对标记特征集进行排序以及标号赋予,进而得到标号特征集。
4.根据权利要求1所述的一种基于多模态配准的PET/MRI图像融合方法,其特征在于:所述第一数据集和第二数据集的获取方法包括:
设定获取时长,得到目标时长项,以目标区域项的边界位置作为获取起点以及获取终点,得到起点位置项以及终点位置项;
基于目标时长项,以起点位置项以及终点位置项作为获取端点,分别通过第一目标设备和第二目标设备获取PET图像数据以及MRI图像数据,进而得到第一数据集和第二数据集。
5.根据权利要求1所述的一种基于多模态配准的PET/MRI图像融合方法,其特征在于:所述第一片段集和第二片段集的获取方法包括:
获取目标患者的呼吸频率以及呼吸时长,得到呼吸频率项以及呼吸时长项;
设定拆分阈值,拆分阈值为固定百分比数值,基于拆分阈值对呼吸时长项进行拆分,得到至少两个呼吸拆分项;
基于呼吸频率项,以目标患者的频率波谷点作为拆分起点,以频率波峰点作为拆分终点,得到拆分范围,以呼吸拆分项对拆分范围进行拆分,得到至少一个第一拆分集和至少一个第二拆分集;
基于第一数据集和第二数据集中呼吸频率项的数量信息,得到第一拆分集和第二拆分集的组合结果,进而得到第一片段集和第二片段集。
6.根据权利要求1所述的一种基于多模态配准的PET/MRI图像融合方法,其特征在于:所述第一位置集和第二位置集的获取方法包括:
基于标号特征集,分别粘贴反光贴片,通过目标追踪设备追踪反光贴片的实时位置信息,得到第一实时位置集和第二实时位置集;
基于第一片段集和第二片段集,分别获取第一实时位置集和第二实时位置集中与第一片段集和第二片段集对应的反光贴片的位置信息,得到第一位置集和第二位置集。
7.根据权利要求1所述的一种基于多模态配准的PET/MRI图像融合方法,其特征在于:所述选定方法包括:
获取第一位置集和第二位置集中,反光贴片处于最高位置以及最低位置时的数据片段,得到极高片段项和极低片段项;
获取第一位置集和第二位置集中,反光贴片高度差距最小时的数据片段,得到差距极小项;
基于极高片段项、极低片段项和差距极小项组合结果中各自对应的第一位置集和第二位置集,得到第一目标片段集和第二目标片段集。
8.根据权利要求1所述的一种基于多模态配准的PET/MRI图像融合方法,其特征在于:所述第一轮廓集和第二轮廓集的获取方法包括:
获取第一目标片段集和第二目标片段集中标号特征集分别处于最高位置、最低位置和差距最小的实时位置数据,得到第一极高位置集、第一极低位置集、第一差距极小位置集、第二极高位置集、第二极低位置集、第二差距极小位置集;
第一极高位置集与第二极高位置集、第一极低位置集与第二极低位置集、第一差距极小位置集与第二差距极小位置集分别一一对应,得到组合对应集,分别以组合对应集中标号特征集的实时位置数据作为垂直剖面,得到第一轮廓集和第二轮廓集。
9.一种基于多模态配准的PET/MRI图像融合系统,其特征在于:使用了权利要求1-8任意一项所述的一种基于多模态配准的PET/MRI图像融合方法,包括:
获取模块:获取目标图像融合区域,得到目标区域项,基于目标区域项,设定至少两个标记区域作为标记特征点,对标记特征点进行标号赋予,得到标号特征集,分别获取目标患者的PET图像数据以及MRI图像数据,得到第一数据集和第二数据集,第一数据集和第二数据集分别表示获取到目标患者的目标区域项PET以及MRI图像数据;
处理模块:对第一数据集和第二数据集进行拆分,将第一数据集和第二数据集拆分为至少两个数据片段,得到第一片段集和第二片段集,分别获取第一片段集和第二片段集中标号特征集的位置信息,得到第一位置集和第二位置集,通过选定方法获取第一位置集和第二位置集中的目标数据片段,得到第一目标片段集和第二目标片段集;
融合模块:以第一目标片段集和第二目标片段集中标号特征集处于第一位置集和第二位置集中的实际位置数据作为对齐轮廓,得到第一轮廓集和第二轮廓集,基于第一轮廓集和第二轮廓集分别对齐,进而分别对齐第一目标片段集和第二目标片段集,使得第一目标片段集和第二目标片段集中的数据片段根据对应位置进行融合,进而得到至少两个融合片段。
CN202510624801.3A 2025-05-15 2025-05-15 一种基于多模态配准的pet/mri图像融合方法及系统 Active CN120196775B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202510624801.3A CN120196775B (zh) 2025-05-15 2025-05-15 一种基于多模态配准的pet/mri图像融合方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202510624801.3A CN120196775B (zh) 2025-05-15 2025-05-15 一种基于多模态配准的pet/mri图像融合方法及系统

Publications (2)

Publication Number Publication Date
CN120196775A true CN120196775A (zh) 2025-06-24
CN120196775B CN120196775B (zh) 2025-07-18

Family

ID=96067881

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202510624801.3A Active CN120196775B (zh) 2025-05-15 2025-05-15 一种基于多模态配准的pet/mri图像融合方法及系统

Country Status (1)

Country Link
CN (1) CN120196775B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080281181A1 (en) * 2004-05-14 2008-11-13 The Research Foundation Of State University Of New York Combination of Multi-Modality Imaging Technologies
US20120265050A1 (en) * 2011-04-04 2012-10-18 Ge Wang Omni-Tomographic Imaging for Interior Reconstruction using Simultaneous Data Acquisition from Multiple Imaging Modalities
CN108898593A (zh) * 2018-06-25 2018-11-27 重庆知遨科技有限公司 一种基于腹部ct医学图像融合分类的检测方法
CN116602649A (zh) * 2023-05-23 2023-08-18 大连医科大学附属第一医院 一种基于pet-mr的心肌采集与定量分析系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080281181A1 (en) * 2004-05-14 2008-11-13 The Research Foundation Of State University Of New York Combination of Multi-Modality Imaging Technologies
US20120265050A1 (en) * 2011-04-04 2012-10-18 Ge Wang Omni-Tomographic Imaging for Interior Reconstruction using Simultaneous Data Acquisition from Multiple Imaging Modalities
CN108898593A (zh) * 2018-06-25 2018-11-27 重庆知遨科技有限公司 一种基于腹部ct医学图像融合分类的检测方法
CN116602649A (zh) * 2023-05-23 2023-08-18 大连医科大学附属第一医院 一种基于pet-mr的心肌采集与定量分析系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JOCHEN FRANKE等: "Hybrid MPI-MRI System for Dual-Modal In Situ Cardiovascular Assessments of Real-Time 3D Blood Flow Quantification—A Pre-Clinical In Vivo Feasibility Investigation", IEEE TRANSACTIONS ON MEDICAL IMAGING, 17 August 2020 (2020-08-17) *
徐慧: "多模态多区域影像组学预后分析及特征鲁棒性研究", CNKI优秀硕士论文全文库, 15 March 2024 (2024-03-15) *
范丽;望云;夏艺;管宇;李琼;刘士远;: "PET/MRI在肺癌中的潜在临床应用价值", 国际医学放射学杂志, no. 03, 15 May 2016 (2016-05-15) *

Also Published As

Publication number Publication date
CN120196775B (zh) 2025-07-18

Similar Documents

Publication Publication Date Title
CN110390351B (zh) 一种基于深度学习的致痫灶三维自动定位系统
CN104739510B (zh) 一种新的构建序列影像与呼吸信号对应关系的方法
CN105411678B (zh) 医疗程序期间用于确定和追踪运动的系统
US8700132B2 (en) Systems and methods for navigation within a branched structure of a body
CN109549659A (zh) 一种自动获得扫描部位定位片的方法和系统
CN103247056B (zh) 人体骨关节系统三维模型-二维影像空间配准方法
CN115222937A (zh) 一种脊柱侧弯检测方法及装置
CN113223028A (zh) 一种基于mr和ct的多模态肝脏肿瘤分割方法
JP3234668U (ja) X線による脊柱側弯症の画像認識システム
CN109146993A (zh) 一种医学图像融合方法及系统
CN109363771A (zh) 一种融合术中2d规划信息的股骨颈骨折多隧道植钉定位系统
CN120196775B (zh) 一种基于多模态配准的pet/mri图像融合方法及系统
CN105498100A (zh) 一种监测生理运动曲线和体表轮廓的方法及系统
Shao et al. Augmented reality navigation with real-time tracking for facial repair surgery
CN109620288A (zh) 一种普外科腹部超声诊断设备及其使用方法
US20240189041A1 (en) Virtual fiducial markings for automated planning in medical imaging
CN110728660A (zh) 基于缺血性脑卒中mri检测标记进行病灶分割的方法及装置
CN105748173A (zh) 眼眶修复材料的制作方法和装置
CN1794301A (zh) 手术导航中基于基准面膜的多模式医学图像配准方法
CN118948310B (zh) 一种用于获得全肺图像的双4d-ct扫描时空拼接方法
CN104915989A (zh) 基于ct影像的血管三维分割方法
CN112381750A (zh) 一种超声波图像和ct/mri图像的多模态配准融合方法
CN203447299U (zh) 一种pet运动式pet-ct装置
CN119067984A (zh) 一种基于sam模型的舌象精准分割系统
CN105816196A (zh) 用于4dct成像的标记带及4dct成像方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant