[go: up one dir, main page]

CN120826699A - 使用机器学习模型生成高分辨率医学图像 - Google Patents

使用机器学习模型生成高分辨率医学图像

Info

Publication number
CN120826699A
CN120826699A CN202480017307.4A CN202480017307A CN120826699A CN 120826699 A CN120826699 A CN 120826699A CN 202480017307 A CN202480017307 A CN 202480017307A CN 120826699 A CN120826699 A CN 120826699A
Authority
CN
China
Prior art keywords
image
resolution
machine learning
learning model
super
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202480017307.4A
Other languages
English (en)
Inventor
韩润泽
张惠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intuitive Surgical Operations Inc
Original Assignee
Intuitive Surgical Operations Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intuitive Surgical Operations Inc filed Critical Intuitive Surgical Operations Inc
Publication of CN120826699A publication Critical patent/CN120826699A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

说明性图像生成系统可以被配置成:访问描绘解剖对象的第一图像;基于第一图像并使用机器学习模型生成描绘解剖对象并具有比第一图像的分辨率大的分辨率的第二图像;以及基于第二图像生成解剖对象的三维模型。可以对机器学习模型进行训练以使用各种技术生成第二图像。

Description

使用机器学习模型生成高分辨率医学图像
相关申请
本申请要求于2023年3月6日提交的美国临时专利申请第63/450,250号的优先权,该美国临时专利申请的内容通过引用整体并入本文。
背景技术
在一些场景中,一个或更多个医学图像(例如,一个或更多个计算机断层扫描(CT)图像)可以用于规划医疗过程。作为示例,描绘肺气道的医学图像可以用于确定可以到达肺内的位置(例如,病变)的通路(例如,通过肺的气道)。然而,在一些情况下,医学图像可能具有低分辨率,使得医学图像可能无法准确地描绘解剖对象。作为说明,医学图像可能无法描绘在肺内延伸的气道的较小部分。因为解剖对象可能不能在医学图像内被准确地描绘,所以规划医疗过程可能是困难和/或耗时的,特别是对于相对缺乏经验的人员而言。在医学图像用于生成(例如,肺的)解剖结构的三维(3D)模型的一些情况下,由于一些医学图像(例如,较低分辨率图像和/或具有较大切片厚度的图像)的较低质量,可能无法准确地生成3D模型。
发明内容
以下描述呈现了本文中描述的系统和方法的一个或更多个方面的简化概述。该概述不是对所有设想的方面的广泛综述,并且既不旨在标识所有方面的关键要素或重要要素,也不旨在描绘任何或所有方面的范围。其目的是呈现本文中描述的系统和方法的一个或更多个方面,作为下面呈现的详细描述的前序。
一种说明性设备包括:存储器,其存储指令;以及处理器,其通信地耦接至存储器并被配置成执行指令以执行处理,该处理包括:访问描绘解剖对象的第一图像,该第一图像具有第一分辨率;基于第一图像并使用机器学习模型生成描绘解剖对象的第二图像,该第二图像具有比第一分辨率大的第二分辨率;以及基于第二图像生成解剖对象的三维(3D)模型。
一种说明性方法包括:访问描绘解剖对象的第一图像,该第一图像具有第一分辨率;基于第一图像并使用机器学习模型生成描绘解剖对象的第二图像,该第二图像具有比第一分辨率大的第二分辨率;以及基于第二图像生成解剖对象的三维(3D)模型。
一种说明性非暂态计算机可读介质可以存储指令,所述指令在被执行时指示计算装置的处理器执行处理,该处理包括:访问描绘解剖对象的第一图像,该第一图像具有第一分辨率;基于第一图像并使用机器学习模型生成描绘解剖对象的第二图像,该第二图像具有比第一分辨率大的第二分辨率;以及基于第二图像生成解剖对象的三维(3D)模型。
一种用于训练机器学习模型的说明性设备可以包括存储指令的存储器和一个或更多个处理器,其中,该机器学习模型被配置成接收具有第一分辨率的低分辨率图像并输出具有比第一分辨率高的第二分辨率的超分辨率图像,所述一个或更多个处理器通信地耦接至存储器并被配置成执行指令以执行处理,该处理包括:访问三维(3D)真值图像;基于3D真值图像生成具有比3D真值图像的切片厚度大的切片厚度的3D模拟图像;提供3D模拟图像作为机器学习模型的输入,该机器学习模型被配置成基于3D模拟图像和机器学习模型的一个或更多个参数来输出一系列3D超分辨率图像;以及基于提供3D模拟图像作为机器学习模型的输入来调整机器学习模型的一个或更多个参数,以减小3D真值图像与通过机器学习模型输出的该系列3D超分辨率图像之间的差异。
一种说明性方法包括:访问三维(3D)真值图像;基于3D真值图像生成具有比3D真值图像的切片厚度大的切片厚度的3D模拟图像;提供3D模拟图像作为机器学习模型的输入,该机器学习模型被配置成基于3D模拟图像和机器学习模型的一个或更多个参数来输出一系列3D超分辨率图像;以及基于提供3D模拟图像作为机器学习模型的输入来调整机器学习模型的一个或更多个参数,以减小3D真值图像的切片厚度与通过机器学习模型输出的该系列3D超分辨率图像的切片厚度之间的差异。
一种说明性非暂态计算机可读介质可以存储指令,所述指令在被执行时指示计算装置的处理器执行处理,该处理包括:访问三维(3D)真值图像;基于3D真值图像生成具有比3D真值图像的分辨率低的分辨率的3D模拟图像;提供3D模拟图像作为机器学习模型的输入,该机器学习模型被配置成基于3D模拟图像和机器学习模型的一个或更多个参数来输出一系列3D超分辨率图像;以及基于提供3D模拟图像作为机器学习模型的输入来调整机器学习模型的一个或更多个参数,以减小3D真值图像与通过机器学习模型输出的该系列3D超分辨率图像之间的差异。
附图说明
附图示出各种实施方式,并且是本说明书的一部分。示出的实施方式仅是示例,并且不限制本公开内容的范围。在整个附图中,相同或相似的附图标记表示相同或相似的元件。
图1描绘了包括图像生成系统的说明性实现方式。
图2描绘了包括图像生成系统的另一说明性实现方式。
图3描绘了操作图像生成系统的说明性方法。
图4描绘了操作图像生成系统的另一说明性方法。
图5A描绘了基于低分辨率图像的解剖对象的3D模型的说明性实现方式。
图5B描绘了基于高分辨率图像的解剖对象的3D模型的说明性实现方式。
图6描绘了用于训练机器学习模型的说明性实现方式。
图7描绘了用于训练机器学习模型的说明性方法。
图8描绘了用于训练机器学习模型的另一说明性方法。
图9描绘了说明性计算系统。
图10描绘了根据一些实施方式的医疗系统的简化图。
图11A描绘了根据一些实施方式的医疗器械系统的简化图。
图11B描绘了根据一些实施方式的包括伸长装置内的医疗工具的医疗器械的简化图。
图12A和图12B是根据一些实施方式的包括安装在插入组件上的医疗器械的患者坐标空间的侧视图的简化图。
具体实施方式
说明性图像生成系统可以包括机器学习模块,该机器学习模块被配置成将描绘解剖对象的低分辨率图像变换为描绘解剖对象的高分辨率图像(例如,用于医疗过程的规划)。
例如,图像生成系统可以被配置成访问描绘解剖对象的第一图像,并且基于第一图像并使用机器学习模型生成描绘解剖对象的第二图像,使得第二图像具有比第一图像的第一分辨率大的第二分辨率。图像生成系统还可以被配置成基于第二图像生成解剖对象的三维(3D)模型。在一些实现方式中,可以执行与3D模型相关联的操作,例如使用3D模型来规划与3D模型的解剖对象相关联的医疗过程。
在一些情况下,可以例如通过下述训练机器学习模型:基于3D真值图像生成具有比3D真值图像低的分辨率的3D模拟图像;提供3D模拟图像作为机器学习模型的输入,机器学习模型被配置成基于3D模拟图像和机器学习模型的一个或更多个参数来输出一系列3D超分辨率图像;以及基于提供3D模拟图像作为机器学习模型的输入来调整机器学习模型的一个或更多个参数,以减小3D真值图像与通过机器学习模型输出的一系列3D超分辨率图像之间的差异。
与用于将解剖对象的低分辨率图像变换为高分辨率图像的常规技术相比,本文中描述的原理可以得到解剖对象的改进表示,并且本文中描述的原理可以提供如本文中描述的其他益处。例如,使用机器学习模型将解剖对象的低分辨率图像变换为高分辨率图像可以使得能够更准确地描绘解剖对象(例如,通过示出解剖对象的附加部分),使得可以更快速且/或更容易地执行与解剖对象相关联的医疗过程的规划。作为说明,通过机器学习模型生成的高分辨率图像可以比低分辨率图像更准确地描绘在肺内延伸的气道的较小部分,使得可以更容易且/或更快速地执行对通过肺的气道到达肺中的位置的通路的确定。另外,在一些情况下,通过机器学习模型生成的高分辨率图像可以消除以高分辨率重新捕获解剖对象的图像的附加过程,这可以节约时间和/或资源以及/或者减少患者的辐射暴露量。
图1示出了说明性实现方式100,其包括图像生成系统102,被配置成将解剖对象的低分辨率图像变换为解剖对象的高分辨率图像。如可以服务于特定实现方式地,实现方式100可以包括附加或替选部件。在一些示例中,实现方式100或实现方式100的某些部件可以由计算机辅助医疗系统实现。
图像的分辨率可以指示下述中的一个或更多个:可以在图像的公共坐标系中表示的数据点(例如,二维(2D)像素或3D体素)的数目、像素或体素的间距、切片厚度、切片的数目、噪声量和/或图像的模糊量。例如,如本文中提及的低分辨率图像可以包括相对较低数目的像素或体素、相对较大的像素或体素间距、相对较大的切片厚度(例如,大于约3毫米、例如约3毫米至约6毫米的切片厚度)、相对较低数目的切片、相对较大量的噪声和/或大量的模糊。替选地,高分辨率图像可以包括下述中的一个或更多个:相对较大数目的像素或体素、相对较小的像素或体素间距、相对较小的切片厚度(例如,小于约3毫米、例如约0.5毫米至约1毫米的切片厚度)、相对较大数目的切片、相对较少量的噪声和/或相对较少量的模糊。如本文中使用的,高分辨率图像具有比低分辨率图像的分辨率高的分辨率。
如可以服务于特定实现方式地,图像生成系统102可以由一个或更多个计算装置和/或计算机资源(例如,处理器、存储器装置、存储装置等)实现。如所示的,图像生成系统102可以包括但不限于彼此选择性地和通信地耦接的存储器104和处理器106。存储器104和处理器106可以各自包括被配置成存储和/或处理计算机软件的计算机硬件或者由该计算机硬件实现。图1中未明确示出的计算机硬件和/或软件的各种其他部件也可以包括在图像生成系统102内。在一些示例中,如可以服务于特定实现方式地,存储器104和/或处理器106可以分布在多个装置和/或多个位置之间。
存储器104可以存储和/或以其他方式保持由处理器106用于执行本文中描述的任何功能的可执行数据。例如,存储器104可以存储可以由处理器106执行的指令108。存储器104可以由一个或更多个存储器或存储装置实现,所述一个或更多个存储器或存储装置包括本文中描述的被配置成以暂态或非暂态方式存储数据的任何存储器或存储装置。指令108可以由处理器106执行以使图像生成系统102执行本文中描述的任何功能。指令108可以由任何合适的应用、软件、代码和/或其他可执行数据实例实现。另外,在特定实现方式中,存储器104还可以保持由处理器106访问、管理、使用和/或传输的任何其他数据。
处理器106可以由一个或更多个计算机处理装置实现,所述一个或更多个计算机处理装置包括通用处理器(例如,中央处理单元(CPU)、图形处理单元(GPU)、微处理器等)、专用处理器(例如,专用集成电路(ASIC)、现场可编程门阵列(FPGA)等)、图像信号处理器等。使用处理器106(例如,当处理器106被指示以执行由存储在存储器104中的指令108表示的操作时),图像生成系统102可以执行如本文中描述的各种操作。
图2示出了另一说明性实现方式200,其被配置成将解剖对象的低分辨率图像变换为解剖对象的高分辨率图像。如所示的,实现方式200包括(例如,有线和/或无线地)与用户界面系统204通信地耦接的图像生成系统202。如可以服务于特定实现方式地,实现方式200可以包括附加或替选部件。在一些示例中,实现方式200或实现方式200的某些部件可以由计算机辅助医疗系统实现。
图像生成系统202可以实现图像生成系统102或者类似于图像生成系统102,并且可以被配置成访问低分辨率图像206。低分辨率图像206可以具有第一分辨率,例如低分辨率。低分辨率图像206可以描绘解剖对象,例如与主体相关联的对象(例如,活体动物的身体、人类或动物尸体、人类或动物解剖结构的一部分、从人类或动物解剖结构移除的组织、非组织工件、训练模型等)。例如,解剖对象可以包括主体的组织(例如,器官、软组织、结缔组织等)。在一些实现方式中,低分辨率图像206可以包括低分辨率医学图像(例如,正电子发射断层扫描和计算机断层扫描(PET/CT)图像、断层合成图像、常规计算机断层扫描(CT)图像、正电子发射断层扫描(PET)图像等)。低分辨率图像206可以包括任何合适类型的图像(例如,沿着与主体相关联的冠状平面、矢状平面和/或横向平面的2D图像、2.5维融合图像、具有分割损失的2D图像、3D图像等)。
图像生成系统202可以以任何合适的方式访问低分辨率图像206。例如,图像生成系统202可以通过一个或更多个网络(例如,局域网、因特网等)直接从存储低分辨率图像206的计算装置、直接从被配置成生成低分辨率图像206的成像装置等访问表示低分辨率图像206的数据。
在所示的实现方式中,图像生成系统202包括机器学习模型208,该机器学习模型208被配置成基于低分辨率图像206生成描绘解剖对象的高分辨率图像210。如可以服务于特定实现方式地,机器学习模型208可以采用任何类型的机器学习、深度学习、神经网络、人工智能和/或其他这样的算法。例如,机器学习模型208可以是包括多个卷积神经网络(CNN)层的深度神经网络。在一些实现方式中,机器学习模型208可以包括增强型深度超分辨率网络(EDSR)、增强型超分辨率生成对抗网络(ESRGAN)等。机器学习模型208可以包括用于基于低分辨率图像206生成高分辨率图像210的一个或更多个参数(例如,CNN层被设置成的大小或颗粒度、使用多少CNN层、块大小、批次大小等)。
高分辨率图像210可以具有比低分辨率图像206的第一分辨率大的第二分辨率(例如,相比于第一图像,第二图像可以具有更大数目的像素或体素、更小的像素或体素间距、更小的切片厚度、更大数目的切片、更少量的噪声和/或更少量的模糊)。在一些实现方式中,高分辨率图像210可以具有高分辨率,例如可以对应于高分辨率医学图像(例如,高分辨率计算机断层扫描(CT)图像)的高分辨率。相比于低分辨率图像206,高分辨率图像210的提高的分辨率可以使得高分辨率图像210能够描绘解剖对象的附加部分和/或特征。
所示实现方式的图像生成系统202还包括3D模型生成器212,该3D模型生成器212被配置成基于高分辨率图像210生成解剖对象的3D模型214。例如,3D模型生成器212可以被配置成融合或以其他方式组合通过机器学习模型208输出的高分辨率图像210,以生成3D模型214。融合可以包括例如通过沿着图像的非交叠边界将图像拼接在一起来将非交叠体素或像素拼接在一起。在某些示例中,高分辨率图像210可以描绘不同视点处的解剖对象,使得融合可以包括例如通过混合对准的体素或像素的强度和/或深度值来合并对准的(或交叠的)体素或像素。
图像生成系统202可以被配置成将3D模型214输出至用户界面系统204。所示实现方式的用户界面系统204包括显示装置216和用户输入装置218。显示装置216可以由被配置成向用户显示信息的监视器或其他合适的装置实现。例如,显示装置216可以被配置成显示基于高分辨率图像210的3D模型214或其他信息。用户输入装置218可以由被配置成接收用户输入以例如与由显示装置216呈现的显示交互的一个或多个任何合适的装置(例如,按钮、操纵杆、触摸屏、键盘、手柄、麦克风等)实现。作为说明,用户输入装置218可以用于与3D模型214交互,以例如规划与3D模型214的解剖对象相关联的医疗过程。
图3示出了可以由图像生成系统202执行的说明性方法300。虽然图3示出了根据一个实施方式的示例操作,但是其他实施方式可以省略、添加、重新排序和/或修改图3中所示的任何操作。此外,图3中描绘的操作中的每一个可以以本文中描述的任何方式执行。
如所示的,在操作302处,图像生成系统202可以访问描绘解剖对象并具有第一分辨率的第一图像(例如,低分辨率图像206中的一个或更多个)。例如,第一图像可以具有低分辨率,并且在一些情况下可以包括低分辨率医学图像(例如,正电子发射断层扫描和计算机断层扫描(PET/CT)图像、断层合成图像、常规计算机断层扫描(CT)图像、正电子发射断层扫描(PET)图像等)。在一些实现方式中,访问第一图像可以包括对第一图像进行处理(例如,融合、拼接、合并等)。
在操作304处,图像生成系统202可以基于第一图像生成描绘解剖对象并具有比第一分辨率大的第二分辨率的第二图像(例如,高分辨率图像210中的一个或更多个)。例如,图像生成系统202可以使用机器学习模型208将第一图像变换为具有更大分辨率的第二图像。在一些实现方式中,生成第二图像可以包括下述中的一个或更多个:锐化第一图像、从第一图像中减少噪声、减小第一图像的切片厚度、以及/或者增加第一图像的像素和/或体素的数目。
在操作306处,图像生成系统202可以基于第二图像生成解剖对象的3D模型(例如,3D模型214)。例如,第二图像可以与以像素和/或体素表示的数据点相关联,使得图像生成系统202可以被配置成基于数据点来得出解剖对象的3D模型。作为说明,图像生成系统202可以被配置成得出以3D网格配置布置的3D模型的顶点,并且将顶点与对应于第二图像的数据点的位置的3D位置相关联。在一些实现方式中,3D模型可以以一种或更多种形式(例如,实体、线框、表面等)表示解剖对象。
在一些实现方式中,第二图像可以包括多个第二图像,使得生成3D模型可以包括融合或以其他方式组合第二图像。融合可以包括例如通过沿着第二图像的非交叠边界将图像拼接在一起来将非交叠体素或像素拼接在一起。在某些示例中,第二图像可以描绘不同视点处的解剖对象,使得融合可以包括例如通过混合对准的体素或像素的强度和/或深度值来合并对准的(或交叠的)体素或像素。
在一些实现方式中,生成3D模型可以包括识别在第二图像中描绘的解剖对象(例如,通过识别与解剖对象相关联的第二图像的像素和/或体素)。例如,可以通过实现和应用诸如机器学习算法的人工智能算法来识别解剖对象。可以使用任何合适形式的人工智能和/或机器学习,包括例如深度学习、神经网络等。例如,可以通过机器学习过程生成机器学习算法并将其应用于识别操作。在一些实现方式中,机器学习算法可以涉及识别第二图像内的解剖对象和/或解剖对象的特征。机器学习算法可以作为应用于单独和/或融合图以对第二图像中的解剖对象进行分类的识别功能来操作。在一些实现方式中,识别解剖对象的至少一部分可以通过机器学习模型208实现。
除了机器学习算法之外或代替机器学习算法,还可以使用其他合适的方法来识别解剖对象。例如,图像生成系统202可以被配置成通过实现和应用对象识别算法来识别第二图像内的解剖对象。例如,对象识别算法可以用于例如通过将与第二图像相关联的数据与预定类型的对象的模型对象数据进行比较来识别第二图像内的预定类型的对象(例如,解剖对象)。这样的模型对象数据可以存储在模型数据库内,该模型数据库可以与图像生成系统202通信地耦接。
图4示出了可以由图像生成系统202执行的另一说明性方法400。虽然图4示出了根据一个实施方式的示例操作,但是其他实施方式可以省略、添加、重新排序和/或修改图4中所示的任何操作。此外,图4中描绘的操作中的每一个可以以本文中描述的任何方式来执行。
如所示的,在操作402处,图像生成系统202可以访问描绘解剖对象并具有第一分辨率(例如,低分辨率)的第一图像。在操作404处,图像生成系统202还可以确定第一分辨率是否低于分辨率阈值。作为说明,分辨率阈值可以表示与下述中的一个或更多个相关联的阈值:图像的像素或体素的数目、像素或体素的间距、切片厚度、切片的数目、噪声量和/或模糊量。可以将第一图像的第一分辨率与分辨率阈值进行比较,以确定第一分辨率是否低于分辨率阈值,这可以指示第一图像是否具有低分辨率。
如果第一分辨率低于分辨率阈值(在操作404处为是),则在操作406处,图像生成系统202可以基于第一图像生成描绘解剖对象并具有比第一分辨率大的第二分辨率(例如,高分辨率)的第二图像。作为说明,图像生成系统202可以使用机器学习模型将第一图像变换为第二图像,这可以包括下述中的一个或更多个:锐化第一图像、从第一图像中减少噪声、减小第一图像的切片厚度以及/或者增加第一图像的像素和/或体素的数目。在操作408处,图像生成系统还可以基于通过机器学习模型输出的第二图像来生成解剖对象的3D模型。替选地,如果第一分辨率满足或超过分辨率阈值(在操作404处为否)——这可以指示第一图像可以具有足够的分辨率,则在一些情况下,图像生成系统202可以被配置成基于第一图像生成3D模型。
在一些实现方式中,在操作410处,图像生成系统202还可以执行与解剖对象的3D模型相关联的操作。例如,操作可以包括提供3D模型以供显示装置(例如,显示装置216)显示。
附加地或替选地,操作可以包括使用3D模型来规划与解剖对象相关联的医疗过程。作为说明,用户可以(例如,通过用户输入装置218)与3D模型(例如,显示在显示装置216上)交互以规划医疗过程,例如访问解剖对象的位置。作为说明性示例,3D模型可以描绘肺的气道,使得3D模型可以用于确定到达肺内的位置(例如,病变)的通路(例如,通过3D模型的肺的气道)。在一些情况下,可以在医疗过程之前和/或在医疗过程期间(例如,实时)执行医疗过程的规划。此外,除了3D模型之外或代替3D模型,可以使用描绘解剖对象的第一图像或第二图像中的一个或更多个来规划医疗过程。
在一些实现方式中,操作可以包括将3D模型与第一图像配准。例如,在一些情况下,第一图像可以描绘解剖对象内的位置处的病变。3D模型可以与第一图像配准,以将由3D模型描绘的解剖对象的特征与第一图像中描绘的病变对准。这可以使得能够使用3D模型来确定到解剖对象的病变位置的通路。
在一些实现方式中,与低分辨率图像相比,通过机器学习模型生成的高分辨率图像可以描绘解剖对象的附加部分和/或特征。作为说明性示例,图5A示出了基于(例如,在输入至机器学习模型208之前的)具有低分辨率的低分辨率图像(例如,低分辨率图像206)的解剖对象的低分辨率3D模型的实现方式500。图5B示出了基于(例如,通过机器学习模型208输出的)具有比低分辨率图像的低分辨率大的高分辨率的高分辨率图像(例如,高分辨率图像210)的解剖对象的高分辨率3D模型的实现方式502。如所示的,低分辨率3D模型500和高分辨率3D模型502二者描绘了肺的多个气道504(例如,气道504-1至504-N),其可以用于规划与气道504相关联的医疗过程。
例如,如图5A所示,可以确定经由低分辨率3D模型500的气道504到达肺的目标位置508的通路506。在所示实现方式中,目标位置508定位在低分辨率3D模型500中描绘的肺的气道504之外。因此,可以确定通过低分辨率3D模型500中描绘的气道504到定位在气道504中并靠近目标位置508的气道位置510的通路506。例如,可以确定通过低分辨率3D模型500的第一气道504-1和第四气道504-4到气道位置510的所示的低分辨率3D模型500中的通路506。
在一些实现方式中,通路506和/或气道位置510可以由用户确定。例如,用户可以与用户输入装置(例如,用户输入装置218)交互以在低分辨率3D模型500上指定通路506和/或气道位置510。附加地或替选地,可以例如由一个或更多个计算装置(例如,处理器106)(例如,使用机器学习算法)自动确定通路506和/或气道位置510。
图5B示出了基于具有比低分辨率3D模型500的低分辨率图像高的分辨率的高分辨率图像的气道504的高分辨率3D模型502。例如,相比于低分辨率图像,高分辨率图像可以具有更小的切片厚度并且因此具有更多的切片。高分辨率图像的更高分辨率可以使得高分辨率3D模型502能够描绘可能未在低分辨率3D模型500中示出的肺的附加气道504和/或气道504的部分,使得高分辨率3D模型502可以更准确地对应于肺的物理气道。例如,所示实现方式的高分辨率3D模型502相对于低分辨率3D模型500描绘了气道504的附加部分(例如,第二气道504-2、第三气道504-3和第四气道504-4的从第一气道504-1更深入地延伸到肺中的部分)和附加气道(例如,第五气道504-5)。
高分辨率3D模型502中描绘的气道504的附加部分和/或数目可以用于确定到定位成靠近目标位置508的高分辨率3D模型502的气道位置510的通路506。例如,可以确定通过高分辨率3D模型502中描绘的第一气道504-1和附加的第五气道504-5的高分辨率3D模型502的通路506。如所示的,相比于低分辨率3D模型500,高分辨率3D模型502的通路506可以通过所描绘的气道504更深入地延伸,使得高分辨率3D模型502的气道位置510可以比低分辨率3D模型500的气道位置510更靠近目标位置508定位。
尽管本文中描述了描绘肺的气道的3D模型的示例,但是除了气道之外或代替气道,3D模型还可以包括其他特征和/或解剖对象。此外,医疗过程可以包括与解剖对象相关联的附加或替选的医疗过程。
在一些实现方式中,可以对机器学习模型进行训练以将描绘解剖对象的低分辨率图像变换为描绘解剖对象的高分辨率图像。例如,图6示出了被配置成训练机器学习模型208的说明性实现方式600。如所示的,实现方式600包括(例如,有线和/或无线地)与机器学习模型208通信地耦接的模拟图像生成器602和参数调整模块604。如可以服务于特定实现方式地,实现方式600可以包括附加或替选的部件。在一些示例中,实现方式600或实现方式600的某些部件可以由计算机辅助医疗系统实现。
模拟图像生成器602可以由被配置成降低图像分辨率的一个或更多个计算装置和/或计算机资源(例如,处理器、存储器装置、存储装置等)实现。在一些实现方式中,模拟图像生成器602可以至少部分地由图像生成系统102和/或图像生成系统202实现。例如,模拟图像生成器602可以被配置成访问3D真值图像606,并且基于3D真值图像606生成具有比3D真值图像606低的分辨率的3D模拟图像608。
在一些实现方式中,3D真值图像606可以具有高分辨率并且可以描绘解剖对象。例如,3D真值图像606可以包括高分辨率医学图像(例如,高分辨率CT图像)。替选地,由模拟图像生成器602生成的3D模拟图像608可以具有低分辨率,并且可以描绘3D真值图像606的解剖对象。在一些情况下,3D模拟图像608可以具有与低分辨率医学图像对应的分辨率。
在一些实现方式中,3D真值图像606可以包括3D真值图像606的数据集,使得3D真值图像606的数据集可以包括各种各样的3D真值图像606。例如,3D真值图像606的数据集可以表示具有各种特性的解剖对象(例如,具有不同类型的解剖对象、具有不同属性的解剖对象、具有不同特征的解剖对象、从不同有利点捕获的解剖对象、等等)。在3D真值图像606包括3D真值图像606的数据集的情况下,模拟图像生成器602可以基于3D真值图像的数据集生成3D模拟图像608的数据集,使得3D模拟图像608可以包括3D模拟图像608的数据集。这可以使得3D模拟图像608的数据集能够表示具有各种特性的解剖对象。
如所示的,3D模拟图像608可以被提供为机器学习模型208的输入,使得机器学习模型208可以被配置成基于3D模拟图像608输出具有比3D模拟图像608高的分辨率的一系列3D超分辨率图像610。例如,一系列3D超分辨率图像610的分辨率可以对应于3D真值图像606的分辨率。
在一些实现方式中,机器学习模型208可以具有用于基于3D模拟图像608生成一系列超分辨率图像610的一个或更多个参数(例如,CNN层被设置成的大小或颗粒度、使用多少CNN层、块大小、批次大小等)。例如,机器学习模型208的一个或更多个参数可以是可调整的,例如以调整一系列超分辨率图像610的分辨率。在一些实现方式中,可以针对解剖对象定制机器学习模型208的一个或更多个参数,使得机器学习模型208可以能够生成描绘解剖对象的一系列3D超分辨率图像610。例如,如可以服务于特定实现方式地,机器学习模型208的一个或更多个参数可以被优化和/或微调以进行解剖对象建模。
参数调整模块604可以由一个或更多个计算装置和/或计算机资源(例如,处理器、存储器装置、存储装置等)实现,并且被配置成调整机器学习模型208的一个或更多个参数。例如,参数调整模块604可以被配置成基于提供3D模拟图像608作为机器学习模型208的输入来调整机器学习模型208的一个或更多个参数,以减小3D真值图像606与通过机器学习模型208输出的一系列3D超分辨率图像610之间的差异。在一些情况下,3D真值图像606与一系列3D超分辨率图像610之间的差异可以包括3D真值图像606与一系列3D超分辨率图像610之间在下述方面的差异中的一个或更多个:分辨率、切片厚度、像素或体素的数目、像素或体素的间距、噪声量、切片的数目或模糊量。在这种情况下,参数调整模块604可以调整机器学习模型208的一个或更多个参数,以调整一系列3D超分辨率图像610的分辨率、切片厚度、像素或体素的数目、像素或体素的间距、噪声量、切片的数目或模糊量中的一个或更多个,以减小3D真值图像606与一系列3D超分辨率图像610之间的差异。
图7示出了说明性方法700,其可以被执行以训练机器学习模型208接收具有第一分辨率的低分辨率图像并输出具有比第一分辨率高的第二分辨率的超分辨率图像。虽然图7示出了根据一个实施方式的示例操作,但是其他实施方式可以省略、添加、重新排序和/或修改图7中所示的任何操作。此外,图7中描绘的操作中的每一个可以以本文中描述的任何方式来执行。方法700可以由一个或更多个计算装置和/或计算机资源(例如,处理器、存储器装置、存储装置等)来执行。
如所示的,方法700可以包括在操作702处访问3D真值图像(例如,3D真值图像606)。例如,3D真值图像可以包括高分辨率图像,例如描绘解剖对象的高分辨率医学图像。
方法700还可以包括在操作704处基于3D真值图像生成3D模拟图像(例如,3D模拟图像608)。例如,3D模拟图像可以具有比3D真值图像低的分辨率和/或大的切片厚度。在一些实现方式中,生成3D模拟图像可以包括在其中Z轴与3D真值图像的切片厚度相关联的XYZ坐标系的Z轴方向上对3D真值图像进行下采样。附加地或替选地,生成3D模拟图像可以包括下述中的一个或更多个:在XYZ坐标系的X轴方向上对3D真值图像进行下采样,在XYZ坐标系的Y轴方向上对3D真值图像进行下采样,使3D真值图像模糊,向3D真值图像注入噪声,或者在X轴方向、Y轴方向或Z轴方向中的一个或更多个上应用平滑函数。
方法700还可以包括在操作706处提供3D模拟图像作为机器学习模型(例如,机器学习模型208)的输入,使得机器学习模型可以被配置成基于3D模拟图像和机器学习模型的一个或更多个参数来输出一系列3D超分辨率图像(例如,3D超分辨率图像610)。例如,相比于3D模拟图像,通过机器学习模型输出的一系列3D超分辨率图像可以具有更高的分辨率和/或更小的切片厚度,使得一系列3D超分辨率图像的分辨率和/或切片厚度可以对应于3D真值图像的分辨率和/或切片厚度。
在一些实现方式中,生成一系列3D超分辨率图像可以包括下述中的一个或更多个:锐化3D模拟图像,从3D模拟图像中减少噪声,在3D模拟图像的XYZ坐标系的X轴方向、Y轴方向或Z轴方向中的任何一个或更多个上对3D模拟图像进行上采样,减小3D模拟图像的切片厚度,或者增加3D模拟图像的像素或体素的数目。作为说明,机器学习模型208可以减小3D模拟图像的切片厚度,使得一系列3D超分辨率图像可以相对于3D模拟图像具有附加的切片。
方法700还可以包括在操作708处基于提供3D模拟图像作为机器学习模型的输入来调整机器学习模型的一个或更多个参数,以减小3D真值图像与通过机器学习模型输出的一系列3D超分辨率图像之间的差异。作为说明性示例,在解剖对象包括肺的气道的情况下,可以调整机器学习模型的一个或更多个参数以减小3D真值图像中描绘的气道(例如,气道的数目、气道的特征等)与通过机器学习模型输出的一系列3D超分辨率图像中描绘的气道(例如,气道的数目、气道的特征等)之间的差异。
图8示出了另一说明性方法800,其可以被执行以训练机器学习模型208接收具有第一分辨率的低分辨率图像并输出具有比第一分辨率高的第二分辨率的超分辨率图像。虽然图8示出了根据一个实施方式的示例操作,但是其他实施方式可以省略、添加、重新排序和/或修改图8中所示的任何操作。此外,图8中描绘的操作中的每一个可以以本文中描述的任何方式来执行。方法800可以由一个或更多个计算装置和/或计算机资源(例如,处理器、存储器装置、存储装置等)来执行。
如所示的,方法800可以包括在操作802处访问3D真值图像。方法800还可以包括在操作804处确定3D真值图像是否具有高于分辨率阈值的分辨率。作为说明,分辨率阈值可以表示下述中的一个或更多个的选择阈值:切片厚度、像素或体素的数目、像素或体素的间距、噪声量、切片的数目、或模糊量。可以将3D真值图像的分辨率与分辨率阈值进行比较,以确定3D真值图像是否高于分辨率阈值,这可以指示3D真值图像是否具有足够高的分辨率(例如,用于训练机器学习模型)。替选地,处于分辨率阈值或低于分辨率阈值的分辨率可以指示3D真值图像具有太低的分辨率(例如,用于训练机器学习模型)。
如果3D真值图像的分辨率高于分辨率阈值(例如,在操作804处为是),则方法800还可以包括在操作806处基于3D真值图像生成具有比3D真值图像低的分辨率的3D模拟图像。替选地,如果3D真值图像的分辨率不高于分辨率阈值(例如,在操作804处为否),则可以不基于3D真值图像生成3D模拟图像。例如,可以停止机器学习模型的训练以及/或者可以丢弃3D真值图像,使得可以访问另一3D真值图像。
在已经生成3D模拟图像的情况下,方法800还可以包括在操作808处提供3D模拟图像作为机器学习模型的输入,使得机器学习模型可以被配置成基于3D模拟图像和机器学习模型的一个或更多个参数来输出一系列3D超分辨率图像。例如,相比于3D模拟图像,通过机器学习模型输出的一系列3D超分辨率图像可以具有更高的分辨率和/或更小的切片厚度。
方法800还可以包括在操作810处确定3D真值图像与通过机器学习模型输出的一系列3D超分辨率图像之间的差异是否在预定范围(例如,百分比、比率等)之外。例如,可以将3D真值图像与一系列3D超分辨率图像进行比较,以确定在3D真值图像与一系列3D超分辨率图像之间在下述项中的一个或更多个项的方面是否存在差异:分辨率、切片厚度、像素或体素的数目、像素或体素的间距、噪声量、切片的数目、或模糊量。
在一些实现方式中,当3D真值图像与一系列3D超分辨率图像之间的差异在预定范围之外时,可以确定存在差异。替选地,当3D真值图像与一系列3D超分辨率图像之间的差异在预定范围内时,可以确定不存在差异,这可以指示一系列3D超分辨率图像充分对应于3D真值图像。
如果3D真值图像与一系列3D超分辨率图像之间的差异在预定范围之外(例如,在操作810处为是),则方法800还可以包括在操作812处基于提供3D模拟图像作为机器学习模型的输入来调整机器学习模型的一个或更多个参数,以减小3D真值图像与通过机器学习模型输出的一系列3D超分辨率图像之间的差异。在一些实现方式中,在机器学习模型的一个或更多个参数已经被调整之后,可以通过机器学习模型再生成一系列3D超分辨率图像。如果3D真值图像与再生成的一系列3D超分辨率图像之间的差异保持在预定范围之外,则可以继续调整机器学习模型的一个或更多个参数(例如,直到差异减小和/或在预定范围内)。
替选地,在3D真值图像与一系列3D超分辨率图像之间的差异在预定范围内的情况下(例如,在操作810处为否),这可以指示一系列3D超分辨率图像充分对应于3D真值图像,使得可以确定已完成机器学习模型的训练。一旦机器学习模型已经被训练,则可以(例如,通过图像生成系统102和/或图像生成系统202)实现机器学习模型。
在某些实施方式中,本文中描述的处理中的一个或更多个可以至少部分地实现为体现在非暂态计算机可读介质中并且可由一个或更多个计算装置执行的指令。通常,处理器(例如,微处理器)从非暂态计算机可读介质(例如,存储器等)接收指令,并且执行那些指令,从而执行包括本文中描述的处理中的一个或更多个处理的一个或更多个处理。可以使用各种已知的计算机可读介质中的任何来存储和/或传输这样的指令。
计算机可读介质(也称为处理器可读介质)包括参与提供可以由计算机(例如,由计算机的处理器)读取的数据(例如,指令)的任何非暂态介质。这样的介质可以采取许多形式,包括但不限于非易失性介质和/或易失性介质。非易失性介质可以包括例如光盘或磁盘以及其他永久性存储器。易失性介质可以包括例如通常构成主存储器的动态随机存取存储器(“DRAM”)。计算机可读介质的常见形式包括例如磁盘、硬盘、磁带、任何其他磁性介质、光盘只读存储器(“CD-ROM”)、数字视频盘(“DVD”)、任何其他光学介质、随机存取存储器(“RAM”)、可编程只读存储器(“PROM”)、电可擦除可编程只读存储器(“EPROM”)、闪存-EEPROM、任何其他存储器芯片或盒式磁带、或计算机可以从中读取的任何其他有形介质。
图9示出了可以被具体地配置成执行本文中描述的处理中的一个或更多个处理的说明性计算装置900。本文中描述的系统、计算装置和/或其他部件中的任何可以由计算装置900实现。
如图9所示,计算装置900可以包括经由通信基础设施910彼此通信地连接的通信接口902、处理器904、存储装置906和输入/输出(“I/O”)模块908。虽然图9中示出了说明性计算装置900,但是图9中示出的部件不旨在是限制性的。在其他实施方式中可以使用附加或替选的部件。现在将更详细地描述图9中示出的计算装置900的部件。
通信接口902可以被配置成与一个或更多个计算装置通信。通信接口902的示例包括但不限于有线网络接口(例如网络接口卡)、无线网络接口(例如无线网络接口卡)、调制解调器、音频/视频连接以及任何其他合适的接口。
处理器904通常表示能够处理数据和/或解释、执行和/或引导本文中描述的指令、处理和/或操作中的一个或更多个的执行的任何类型或形式的处理单元。处理器904可以通过执行存储在存储装置906中的计算机可执行指令912(例如,应用、软件、代码和/或其他可执行数据实例)来执行操作。
存储装置906可以包括一个或更多个数据存储介质、装置或配置,并且可以采用数据存储介质和/或装置的任何类型、形式和组合。例如,存储装置906可以包括但不限于本文中描述的非易失性介质和/或易失性介质的任何组合。包括本文中描述的数据的电子数据可以临时地和/或永久地存储在存储装置906中。例如,表示被配置成引导处理器904执行本文中描述的任何操作的计算机可执行指令912的数据可以存储在存储装置906内。在一些示例中,数据可以被布置在驻留在存储装置906内的一个或更多个数据库中。
I/O模块908可以包括被配置成接收用户输入并提供用户输出的一个或更多个I/O模块。I/O模块908可以包括支持输入和输出能力的任何硬件、固件、软件或其组合。例如,I/O模块908可以包括用于捕获用户输入的硬件和/或软件,包括但不限于键盘或小键盘、触摸屏部件(例如,触摸屏显示器)、接收器(例如,RF或红外接收器)、运动传感器和/或一个或更多个输入按钮。
I/O模块908可以包括用于向用户呈现输出的一个或更多个装置,包括但不限于图形引擎、显示器(例如,显示屏幕)、一个或更多个输出驱动器(例如,显示驱动器)、一个或更多个音频扬声器以及一个或更多个音频驱动器。在某些实施方式中,I/O模块908被配置成向显示器提供图形数据以呈现给用户。如可以服务于特定实现方式地,图形数据可以表示一个或更多个图形用户界面和/或任何其他图形内容。
图10是根据一些实施方式的医疗系统1000的简化图。医疗系统1000可以适于用于例如手术过程、诊断(例如,活检)过程或治疗(例如,消融、电穿孔等)过程。虽然本文中提供了关于这样的过程的一些实施方式,但是对医疗器械或手术器械以及医疗方法或手术方法的任何提及都是非限制性的。本文中描述的系统、器械和方法可以用于动物、人类尸体、动物尸体、人类或动物解剖结构的部分、非手术诊断、以及用于工业系统、通用或专用机器人系统、通用和专用远程操作系统或机器人医疗系统。
如图10所示,医疗系统1000可以包括操纵器组件1002,该操纵器组件1002在对患者P执行各种过程时控制医疗器械1004的操作。医疗器械1004可以经由患者P的身体中的开口延伸到患者P的身体内的内部部位中。操纵器组件1002可以是远程操作的、非远程操作的、或者混合远程操作和非远程操作的组件,其具有可以电动化的一个或更多个运动自由度和/或可以非电动化(例如,手动操作)的一个或更多个运动自由度。操纵器组件1002可以安装至患者台T以及/或者定位在患者台T附近。主组件1006允许操作者O(例如,外科医生、临床医生、内科医生或其他用户)控制操纵器组件1002。在一些示例中,主组件1006允许操作者O查看过程部位或其他图形显示或信息显示。在一些示例中,操纵器组件1002可以从医疗系统1000中排除,并且器械1004可以由操作者O直接控制。在一些示例中,操纵器组件1002可以由操作者O手动控制。直接的操作者控制可以包括用于器械1004的手持操作的各种手柄和操作者界面。
主组件1006可以位于外科医生的控制台处,该控制台靠近(例如,在同一房间内)患者P所在的患者台T,例如在患者台T的侧面。在一些示例中,主组件1006远离患者台T,例如在与患者台T不同的房间或不同的建筑物中。主组件1006可以包括用于控制操纵器组件1002的一个或更多个控制装置。控制装置可以包括任何数目的各种输入装置,例如操纵杆、轨迹球、滚轮、方向垫、按钮、数据手套、扳机枪、手动控制器、语音识别装置、运动传感器或存在传感器等。
操纵器组件1002支持医疗器械1004,并且可以包括提供设置结构的连杆的运动学结构。连杆可以包括一个或更多个非伺服控制连杆(例如,可以手动定位和锁定在适当位置的一个或更多个连杆)和/或一个或更多个伺服控制连杆(例如,可以响应于例如来自控制系统1012的命令控制的一个或更多个连杆)。操纵器组件1002可以包括多个致动器(例如,电机),所述多个致动器响应于例如来自控制系统1012的命令而驱动对医疗器械1004的输入。致动器可以包括驱动系统,该驱动系统在耦接至医疗器械1004时使医疗器械1004以各种方式移动。例如,一个或更多个致动器可以将医疗器械1004前进到自然产生或手术创建的解剖孔口中。致动器可以例如通过使医疗器械1004的远端(或任何其他部分)以多个自由度移动来控制医疗器械1004的接合。这些自由度可以包括三个线性运动(例如,沿着X、Y、Z笛卡尔轴的线性运动)的度和三个旋转运动(例如,围绕X、Y、Z笛卡尔轴的旋转)的度。一个或更多个致动器可以控制医疗器械围绕纵轴的旋转。致动器还可以用于使医疗器械1004的可接合端部执行器移动,例如以用于在活检装置等的钳口中抓取组织,或者可以用于移动或以其他方式控制插入医疗器械1004内的工具(例如,成像工具、消融工具、活检工具、电穿孔工具等)。
医疗系统1000可以包括传感器系统1008,该传感器系统1008具有用于接收关于操纵器组件1002和/或医疗器械1004的信息的一个或更多个子系统。这样的子系统可以包括:位置传感器系统(例如,使用电磁(EM)传感器或检测位置或定位的其他类型的传感器);形状传感器系统,用于确定医疗器械1004的远端和/或沿着医疗器械1004的柔性体的一个或更多个区段的位置、取向、速度、速率、位姿和/或形状;可视化系统,(例如,使用彩色成像装置、红外成像装置、超声成像装置、x射线成像装置、荧光镜成像装置、计算机断层扫描(CT)成像装置、磁共振成像(MRI)成像装置或一些其他类型的成像装置),该可视化系统用于例如从医疗器械1004的远端或从某个其他位置捕获图像;以及/或者致动器位置传感器(例如,旋转变压器、编码器、电位计等),该致动器位置传感器描述了控制医疗器械1004的致动器的旋转和/或取向。
医疗系统1000可以包括用于显示过程部位和医疗器械1004的图像或表示的显示系统1010。显示系统1010和主组件1006可以被定向成使得医生O可以利用远程呈现的感知来控制医疗器械1004和主组件1006。
在一些实施方式中,医疗器械1004可以包括可视化系统,该可视化系统可以包括图像捕获组件,该图像捕获组件记录过程部位的同时发生的图像或实时图像并通过显示系统1010的一个或更多个显示器将图像提供给操作者O。图像捕获组件可以包括各种类型的成像装置。同时发生的图像可以是例如由定位在解剖过程部位内的内窥镜捕获的二维图像或三维图像。在一些示例中,可视化系统可以包括可以一体地或可拆卸地耦接至医疗器械1004的内窥镜部件。附加地或替选地,附接至单独的操纵器组件的单独内窥镜可以与医疗器械1004一起使用,以对过程部位进行成像。可视化系统可以被实现为硬件、固件、软件或其组合,所述硬件、固件、软件或其组合与(例如,控制系统1012的)一个或更多个计算机处理器交互或者以其他方式由所述一个或更多个计算机处理器执行。
显示系统1010还可以显示过程部位和医疗器械的图像,该图像可以由可视化系统捕获。在一些示例中,医疗系统1000向操作者O提供远程呈现的感知。例如,由在医疗器械1004的远侧部分处的成像装置捕获的图像可以由显示系统1010呈现,以向操作者O提供处于医疗器械1004的远侧部分处的感知。由操作者O提供的对主组件1006的输入可以以与输入性质对应的方式使医疗器械1004的远侧部分移动(例如,当轨迹球向右滚动时,远侧尖端向右转动),并且导致由在医疗器械1004的远侧部分处的成像装置捕获的图像的视角的对应变化。因此,当使用主组件1006使医疗器械1004移动时,操作者O的远程呈现感知得以保持。操作者O可以操纵医疗器械1004和主组件1006的手动控件,就像在基本真实存在的情况下查看工作空间一样,模拟操作者从患者解剖结构内物理地操纵医疗器械1004的体验。
在一些示例中,显示系统1010可以呈现使用术前(例如,在由医疗器械系统1100执行过程之前)或术中(例如,与由医疗器械系统1100执行的过程同时)记录的图像数据创建的过程部位的虚拟图像,上述图像数据例如是使用计算机断层扫描(CT)、磁共振成像(MRI)、正电子发射断层扫描(PET)、荧光镜术、热影像、超声、光学相干断层扫描(OCT)、热成像、阻抗成像、激光成像、纳米管X射线成像等创建的图像数据。虚拟图像可以包括二维、三维或更高维度(例如,包括例如基于时间或基于速率的信息)的图像。在一些示例中,根据术前或术中图像数据集创建一个或更多个模型,并且使用一个或更多个模型生成虚拟图像。
在一些示例中,出于成像引导医疗过程的目的,显示系统1010可以显示基于跟踪医疗器械1004的位置而生成的虚拟图像。例如,医疗器械1004的跟踪位置可以与使用术前或术中图像生成的模型进行配准(例如,动态引用),其中模型的不同部分与患者解剖结构的不同位置对应。当医疗器械1004移动通过患者解剖结构时,配准用于确定模型的与医疗器械1004的位置和/或视角对应的部分,并且使用模型的所确定部分来生成虚拟图像。这可以被完成以从与医疗器械1004的跟踪位置对应的医疗器械1004的视角向操作者O呈现内部过程部位的虚拟图像。
医疗系统1000还可以包括控制系统1012,该控制系统1012可以包括实现本文中讨论的方法或功能中的一些或所有方法或功能的处理电路系统。控制系统1012可以包括至少一个存储器和至少一个处理器,所述至少一个处理器用于控制操纵器组件1002、医疗器械1004、主组件1006、传感器系统1008和/或显示系统1010的操作。控制系统1012可以包括指令(例如,存储指令的非暂态机器可读介质),所述指令在由至少一个处理器执行时将一个或更多个处理器配置成实现本文中讨论的方法或功能中的一些或所有方法或功能。虽然控制系统1012在图10中被示出为单个框,但是控制系统1012可以包括两个或更多个单独的数据处理电路,其中处理的一部分在操纵器组件1002处执行,处理的另一部分在主组件1006处执行,等等。在一些示例中,控制系统1012可以包括其他类型的处理电路系统,例如专用集成电路(ASIC)和/或现场可编程门阵列(FPGA)。控制系统1012可以使用硬件、固件、软件或其组合来实现。
在一些示例中,控制系统1012可以接收来自医疗器械1004的反馈,例如力和/或扭矩反馈。响应于该反馈,控制系统1012可以将信号传输至主组件1006。在一些示例中,控制系统1012可以传输指示操纵器组件1002的一个或更多个致动器使医疗器械1004移动的信号。在一些示例中,控制系统1012可以将关于反馈的信息显示传输至显示系统1010以用于呈现或者基于反馈执行其他类型的动作。
控制系统1012可以包括虚拟可视化系统,以在图像引导医疗过程期间控制医疗器械1004时向操作者O提供导航辅助。使用虚拟可视化系统的虚拟导航可以基于所获取的患者P的解剖通路的术前或术中数据集。控制系统1012或单独的计算装置可以单独使用编程指令或与操作者输入结合将记录的图像转换为患者解剖结构的模型。模型可以包括部分或整个解剖器官或解剖区域的分割二维或三维合成表示。图像数据集可以与合成表示相关联。虚拟可视化系统可以从传感器系统1008获得用于计算医疗器械1004相对于患者P的解剖结构的(例如,近似)位置的传感器数据。传感器系统1008可以用于将医疗器械1004与术前或术中记录的图像一起进行配准并显示。例如,PCT公开WO 2016/191298(2016年12月1日公布且题为“Systems and Methods of Registration forImage Guided Surgery”)公开了示例系统,该PCT公开通过引用整体并入本文。
在虚拟导航过程期间,传感器系统1008可以用于计算医疗器械1004相对于患者P的解剖结构的(例如,近似)位置。该位置可以用于产生患者P的解剖结构的宏观层面(例如,外部)跟踪图像和患者P的解剖结构的虚拟内部图像两者。系统可以包括一个或更多个电磁(EM)传感器、光纤传感器和/或其他传感器,以将医疗器械与术前记录的医疗图像一起配准并显示。例如,美国专利第8,900,131号(2011年5月13日提交且题为“Medical SystemProviding Dynamic Registration of a Model of an Anatomic Structure for Image-Guided Surgery”)公开了示例系统,该美国专利通过引用整体并入本文。
医疗系统1000还可以包括操作和支持系统(未示出),例如照明系统、转向操纵控制系统、冲洗系统和/或抽吸系统。在一些实施方式中,医疗系统1000可以包括多于一个操纵器组件和/或多于一个主组件。操纵器组件的确切数目可以取决于医疗过程和手术室内的空间限制以及其他因素。多个主组件可以位于同一位置,或者它们可以定位在不同的位置中。多个主组件可以允许多于一个操作者以各种组合控制一个或更多个操纵器组件。
图11A是根据一些实施方式的医疗器械系统1100的简化图。医疗器械系统1100包括柔性伸长装置1102(也称为伸长装置1102)、驱动单元1104和医疗工具1126,它们共同作为医疗系统1000的医疗器械1004的示例。如参照图10所说明的,医疗系统1000可以是远程操作系统、非远程操作系统或者混合远程操作和非远程操作系统。图11A中还示出了可视化系统1131、跟踪系统1130和导航系统1132,并且可视化系统1131、跟踪系统1130和导航系统1132是医疗系统1000的控制系统1012的示例部件。在一些示例中,医疗器械系统1100可以用于非远程操作的探查过程或者用于涉及传统手动操作的医疗器械的过程(例如,内窥镜检查)中。医疗器械系统1100可以用于收集(例如,测量)与患者(例如,患者P)的解剖通路内的位置对应的数据点的集合。
伸长装置1102耦接至驱动单元1104。伸长装置1102包括通道1121,医疗工具1126可以通过该通道插入。伸长装置1102在患者解剖结构内导航,以将医疗工具1126递送至过程部位。伸长装置1102包括具有近端1117和远端1118的柔性体1116。在一些示例中,柔性体1116可以具有约3mm的外径。其他柔性体外径可以更大或更小。
医疗器械系统1100可以包括跟踪系统1130,该跟踪系统1130用于确定柔性体1116在远端1118处和/或沿着柔性体1116的一个或更多个区段1124的位置、取向、速度、速率、位姿和/或形状,如将在下面进一步详细描述的。跟踪系统1130可以包括一个或更多个传感器和/或成像装置。柔性体1116(例如远端1118与近端1117之间的长度)可以包括多个区段1124。跟踪系统1130可以使用硬件、固件、软件或其组合来实现。在一些示例中,跟踪系统1130是图10中所示的控制系统1012的一部分。
跟踪系统1130可以使用形状传感器1122跟踪柔性体1116的远端1118和/或区段1124中的一个或更多个。形状传感器1122可以包括与柔性体1116对准的光纤(例如,设置在柔性体1116的内部通道内或者沿着柔性体1116安装在外部)。在一些示例中,光纤可以具有约200μm的直径。在其他示例中,直径可以更大或更小。形状传感器1122的光纤可以形成用于确定柔性体1116的形状的光纤弯曲传感器。包括光纤布拉格光栅(FBG)的光纤可以用于在一个或更多个维度上提供结构中的应变测量。在美国专利申请公开第2006/0013523号(2005年7月13日提交且题为“Fiber optic position and shape sensing device andmethod relating thereto”);美国专利第7,772,541号(2008年3月12日提交且题为“FiberOptic Position and/or Shape Sensing Based on Rayleigh Scatter”);以及美国专利第8,773,650号(2010年9月2日提交且题为“OpticalPosition and/or Shape Sensing”)中描述了可以适用于一些实施方式的用于在三个维度上监测光纤的形状和相对位置的各种系统和方法,所述美国专利通过引用整体并入本文。在一些实施方式中,传感器可以采用其他合适的应变感测技术,例如瑞利散射、拉曼散射、布里渊散射和荧光散射。
在一些示例中,可以使用其他技术来确定柔性体1116的形状。例如,可以使用柔性体1116的远端1118的位置和/或位姿的历史来在一定时间间隔内(例如,当柔性体1116在患者解剖结构内推进或收回时)重建柔性体1116的形状。在一些示例中,跟踪系统1130可以替选地和/或附加地使用位置传感器系统1120来跟踪柔性体1116的远端1118。位置传感器系统1120可以是EM传感器系统的部件,其中位置传感器系统1120包括一个或更多个位置传感器。尽管位置传感器系统1120被示出为在柔性体1116的远端1118附近以跟踪远端1118,但是位置传感器系统1120的位置传感器的数目和位置可以变化以跟踪沿着柔性体1116的不同区域。在一个示例中,位置传感器包括可以经受外部产生的电磁场的导电线圈。位置传感器系统1120的每个线圈可以产生具有取决于与外部产生的电磁场有关的线圈的位置和取向的特性的感应电信号。位置传感器系统1120可以测量与柔性体1116中的一个或更多个部分相关联的一个或更多个位置坐标和/或一个或更多个取向角。在一些示例中,位置传感器系统1120可以被配置和定位成测量六个自由度,例如三个位置坐标X、Y、Z以及指示基点的俯仰、偏航和滚动的三个取向角。在一些示例中,位置传感器系统1120可以被配置和定位成测量五个自由度,例如三个位置坐标X、Y、Z以及指示基点的俯仰和偏航的两个取向角。在美国专利第6,380,732号(1999年8月11日提交且题为“Six-Degree of Freedom TrackingSystem Having a Passive Transponder on the Object Being Tracked”)中提供了可以适用于一些实施方式中的位置传感器系统的进一步描述,该美国专利通过引用整体并入本文。
在一些实施方式中,跟踪系统1130可以替选地和/或附加地依赖于在交替运动(例如呼吸)的一个或更多个周期期间捕获的、针对伸长装置1102和/或医疗工具1126的点存储的位姿、位置和/或取向数据的集合。该存储的数据可以用于开发关于柔性体1116的形状信息。在一些示例中,一系列位置传感器(未示出)(例如,诸如位置传感器1120中的传感器的EM传感器或者一些其他类型的位置传感器)可以沿着柔性体1116定位并且用于形状感测。在一些示例中,在过程期间获取的来自这些位置传感器中的一个或更多个位置传感器的数据历史可以用于表示伸长装置1102的形状,特别是在解剖通路通常是静态的情况下。
图11B是根据一些实施方式的伸长装置1102内的医疗工具1126的简化图。伸长装置1102的柔性体1116可以包括被定尺寸且成形为接纳医疗工具1126的通道1121。在一些实施方式中,医疗工具1126可以用于诸如诊断、成像、外科手术、活检、消融、照明、冲洗、抽吸、电穿孔等的过程。医疗工具1126可以部署通过柔性体1116的通道1121,并且在解剖结构内的过程部位处操作。医疗器械1126可以是例如图像捕获探头、活检工具(例如,针、夹持器、刷子等)、消融工具(例如,激光消融工具、射频(RF)消融工具、冷冻消融工具、热消融工具、加热液体消融工具等)、电穿孔工具和/或另一手术工具、诊断工具或治疗工具。在一些示例中,医疗工具1126可以包括具有单个工作构件的端部执行器,例如手术刀、钝刀片、光纤、电极等。端部执行器的其他端部类型可以包括例如钳子、夹持器、剪刀、缝合器、施夹器等。其他端部执行器还可以包括电激活的端部执行器,例如电外科电极、换能器、传感器等。
医疗工具1126可以是用于从目标解剖位置移除样本组织或细胞采样的活检工具。在一些示例中,活检工具是柔性针。活检工具还可以包括护套,该护套可以包围柔性针以在活检工具在通道1121内时保护针和通道1121的内表面。医疗工具1126可以是图像捕获探头,该图像捕获探头包括具有立体或单视场摄像装置的远侧部分,该摄像装置可以放置在柔性体1116的远端1118处或其附近以用于捕获图像(例如,静止图像或视频图像)。所捕获的图像可以由可视化系统1131处理以用于显示和/或提供给跟踪系统1130,以支持对柔性体1116的远端1118和/或柔性体1116的区段1124中的一个或更多个的跟踪。图像捕获探头可以包括用于传输所捕获的图像数据的线缆,该线缆耦接至图像捕获探头的远侧部分处的成像装置。在一些示例中,图像捕获探头可以包括耦接至可视化系统1131的更近侧的成像装置的光纤束,例如纤维镜。图像捕获探头可以是单光谱或多光谱的,例如捕获可见光谱、近红外光谱、红外光谱和/或紫外光谱中的一个或更多个中的图像数据。图像捕获探头还可以包括提供照明以促进图像捕获的一个或更多个光发射器。在一些示例中,图像捕获探头可以使用超声、x射线、荧光镜术、CT、MRI或其他类型的成像技术。
在一些示例中,图像捕获探头插入伸长装置1102的柔性体1116内,以促进伸长装置1102到过程部位的视觉导航,并且然后在柔性体1116内用执行过程的另一种类型的医疗工具1126替换该图像捕获探头。在一些示例中,图像捕获探头可以与另一类型的医疗工具1126一起位于伸长装置1102的柔性体1116内,以促进同时进行图像捕获和组织干预,例如在同一通道1121内或在单独的通道中。医疗工具1126可以从通道1121的开口推进以执行过程(或一些其他功能),并且然后在过程完成时收回到通道1121中。医疗工具1126可以从柔性体1116的近端1117或者沿着柔性体1116从另一可选器械端口(未示出)移除。
在一些示例中,伸长装置1102可以包括集成成像能力,而不是利用可移除图像捕获探头。例如,成像装置(或光纤束)和光发射器可以位于伸长装置1102的远端1118处。柔性体1115可以包括在远端1118与可视化系统1131之间承载线缆和/或光纤的一个或更多个专用通道。此处,医疗器械系统1100可以同时执行成像和工具操作。
在一些示例中,医疗工具1126能够进行可控接合。医疗工具1126可以容纳在其近端与远端之间延伸以可控地使医疗工具1126的远端弯曲的线缆(其也可以称为牵引线)、联动装置或其他致动控件(未示出),例如本文中针对柔性伸长装置1102所讨论的。医疗工具1126可以耦接至驱动单元1104和操纵器组件1002。在这些示例中,伸长装置1102可以被排除在医疗器械系统1100之外,或者可以是不具有可控接合的柔性装置。在美国专利第7,316,681号(2005年10月4日提交且题为“Articulated SurgicalInstrument forPerforming Minimally Invasive Surgery with Enhanced Dexterity andSensitivity”)和美国专利第9,259,274号(2008年9月30日提交且题为“Passive Preloadand Capstan Drive for SurgicalInstruments”)中进一步详细描述了适用于一些实施方式的可转向操纵器械或工具,所述美国专利通过引用整体并入本文。
伸长装置1102的柔性体1116还可以或者替选地容纳在驱动单元1104与远端1118之间延伸以可控地使远端1118弯曲的线缆、联动装置或其他转向操纵控件(未示出),如例如通过图11A中的远端1118的虚线描绘1119所示。在一些示例中,至少四个线缆用于提供独立的上下转向操纵以控制远端1118的俯仰以及左右转向操纵以控制远端1181的偏航。在这些示例中,柔性伸长装置1102可以是可转向操纵导管。在PCT公开WO 2019/018736(2019年1月24日公布且题为“Flexible Elongate Device Systems and Methods”)中详细描述了适用于一些实施方式的可转向操纵导管的示例,该PCT公开通过引用整体并入本文。
在伸长装置1102和/或医疗工具1126由远程操作组件(例如,操纵器组件1002)致动的实施方式中,驱动单元1104可以包括驱动输入,该驱动输入可移除地耦接至远程操作组件的驱动元件(例如致动器)并且从该驱动元件接收动力。在一些示例中,伸长装置1102和/或医疗工具1126可以包括夹持特征件、手动致动器或用于手动地控制伸长装置1102和/或医疗工具1126的运动的其他部件。伸长装置1102可以是可转向操纵的,或者替选地,伸长装置1102可以是不可转向操纵的,没有用于操作者控制远端1118的弯曲的集成机构。在一些示例中,一个或更多个通道1121(其也可以被称为管腔)可以由伸长装置1102的柔性体1116的内壁限定,医疗工具1126可以部署通过上述通道1121并在目标解剖位置处使用。
在一些示例中,医疗器械系统1100(例如,伸长装置1102或医疗工具1126)可以包括用于肺的检查、诊断、活检和/或治疗的柔性支气管器械,例如支气管镜或支气管导管。医疗器械系统1100还可以适用于在各种解剖系统中的任何解剖系统中经由自然或手术创建的连接通路导航和治疗其他组织,上述解剖系统包括结肠、肠、肾脏和肾盏、脑、心脏、包括脉管系统的循环系统等。
来自跟踪系统1130的信息可以被发送至导航系统1132,在该导航系统1132中,该信息可以与来自可视化系统1131的信息和/或术前获得的模型结合,以向内科医生、临床医生、外科医生或其他操作者提供实时位置信息。在一些示例中,实时位置信息可以显示在显示系统1010上,以用于控制医疗器械系统1100。在一些示例中,导航系统1132可以利用位置信息作为用于定位医疗器械系统1100的反馈。在美国专利第8,900,131号(2011年5月13日提交且题为“Medical System Providing Dynamic Registration of a Model of anAnatomic Structure for Image-Guided Surgery”)中提供了适用于一些实施方式的用于使用光纤传感器来配准和显示手术器械以及手术图像的各种系统,该美国专利通过引用整体并入本文。
图12A和图12B是根据一些实施方式的包括安装在插入组件上的医疗器械的患者坐标空间的侧视图的简化图。如图12A和图12B所示,手术环境1200可以包括定位在患者台T上的患者P。患者P在手术环境1200内可以是静止的,因为患者的总体运动受到镇静、约束和/或其他手段的限制。患者P的周期性解剖运动(包括呼吸和心脏运动)可以继续。在手术环境1200内,医疗器械1204用于执行医疗过程,该医疗过程可以包括例如手术、活检、消融、照明、冲洗、抽吸或电穿孔。医疗器械1204还可以用于执行其他类型的过程,例如用于将由传感器系统1008捕获的位置、取向和/或位姿数据与期望的(例如,解剖或系统)参考系相关联的配准过程。医疗器械1204可以是例如医疗器械1004。在一些示例中,医疗器械1204可以包括耦接至器械体1212的伸长装置1210(例如,导管)。伸长装置1210包括被定尺寸且成形为接纳医疗工具的一个或更多个通道。
伸长装置1210还可以包括一个或更多个传感器(例如,传感器系统1008的部件)。在一些示例中,形状传感器1214可以固定在器械体1212上的近侧点1216处。形状传感器1214的近侧点1216可以随器械体1212移动,并且近侧点1216相对于期望参考系的位置可以是已知的(例如,经由跟踪传感器或其他跟踪装置)。形状传感器1214可以测量从近侧点1216到另一点(例如,伸长装置1210的远端1218)的形状。形状传感器1214可以与伸长装置1210对准(例如,设置在内部通道内或安装在外部)。在一些示例中,形状传感器1214可以是用于生成伸长装置1210的形状信息的光纤。
在一些示例中,位置传感器(例如,EM传感器)可以并入医疗器械1204中。一系列位置传感器可以沿着柔性伸长装置1210定位并且用于形状感测。位置传感器可以替选形状传感器1214使用,或者与形状传感器1214一起使用,例如以提高形状感测的准确性或验证形状信息。
伸长装置1210可以容纳在器械体1212与远端1218之间延伸以可控地使远端1218弯曲的线缆、联动装置或其他转向操纵控件。在一些示例中,至少四个线缆用于提供独立的上下转向操纵以控制远端1218的俯仰和左右转向操纵以控制远端1218的偏航。器械体1212可以包括驱动输入,该驱动输入可移除地耦接至操纵器组件的驱动元件(例如,致动器)并从该驱动元件接收动力。
器械体1212可以耦接至器械托架1206。器械托架1206可以安装至固定在手术环境1200内的插入台1208。替选地,插入台1208可以是可移动的,但是在手术环境1200内具有已知位置(例如,经由跟踪传感器或其他跟踪装置)。器械托架1206可以是操纵器组件(例如,操纵器组件1002)的部件,其耦接至医疗器械1204以控制插入运动(例如,沿着插入轴A的运动)和/或伸长装置1210的远端1218在多个方向(例如偏航、俯仰和/或滚动)上的运动。器械托架1206或插入台1208可以包括控制器械托架1206沿着插入台1208的运动的致动器,例如伺服马达。
传感器装置1220(其可以是传感器系统1008的部件)可以在器械体1212沿着插入轴A相对于插入台1208移动时提供关于器械体1212的位置的信息。传感器装置1220可以包括测量控制器械托架1206的运动的致动器的旋转和/或取向的一个或更多个旋转变压器、编码器、电位计和/或其他传感器,从而指示器械体1212的运动。在一些实施方式中,插入台1208具有如图12A和图12B所示的线性轨道。在一些实施方式中,插入台1208可以具有弯曲轨道或者具有弯曲轨道部段和线性轨道部段的组合。
图12A示出了沿着插入台1208处于收回位置的器械体1212和器械托架1206。在该收回位置中,近侧点1216在插入轴A上的位置L0处。近侧点1216的位置可以被设置为零值和/或其他参考值,以提供基本参考(例如,对应于期望参考系的原点)来描述器械托架1206沿着插入台1208的位置。在收回位置中,伸长装置1210的远端1218可以刚好定位在患者P的进入孔口内。同样在收回位置中,由传感器装置1220捕获的数据可以被设置为零值和/或其他参考值(例如,I=0)。在图12B中,器械体1212和器械托架1206已经沿着插入台1208的线性轨道推进,并且伸长装置1210的远端1218已经推进到患者P中。在该推进位置中,近侧点1216在插入轴A上的位置L1处。在一些示例中,由指示器械托架1206沿着插入台1208的移动的传感器装置1220以及/或者与器械托架1206和/或插入台1208相关联的一个或更多个位置传感器测量的致动器的旋转和/或取向可以用于确定近侧点1216相对于位置L0的位置L1。在一些示例中,位置L1还可以用作伸长装置1210的远端1218插入患者P的解剖结构的通路中的距离或插入深度的指示器。
在前面的描述中,已经参照附图描述了各种示例性实施方式。然而,将明显的是,在不脱离如在所附权利要求中阐述的本发明的范围的情况下可以对其进行各种修改和改变,并且可以实现附加的实施方式。例如,本文中描述的一个实施方式的某些特征可以与本文中描述的另一实施方式的特征组合或被另一实施方式的特征替换。因此,描述和附图被认为是说明性的而非限制性意义的。

Claims (41)

1.一种设备,包括:
存储器,其存储指令;以及
一个或更多个处理器,其通信地耦接至所述存储器并被配置成执行所述指令以执行处理,所述处理包括:
访问描绘解剖对象的第一图像,所述第一图像具有第一分辨率;
基于所述第一图像并使用机器学习模型生成描绘所述解剖对象的第二图像,所述第二图像具有比所述第一分辨率大的第二分辨率;以及
基于所述第二图像生成所述解剖对象的三维(3D)模型。
2.根据权利要求1所述的设备,其中,生成所述第二图像包括下述中的一个或更多个:锐化所述第一图像、从所述第一图像中减少噪声、减小所述第一图像的切片厚度、或者增加所述第一图像的像素或体素中的一者或两者的数目。
3.根据权利要求1或2所述的设备,其中,所述第一图像包括正电子发射断层扫描和计算机断层扫描(PET/CT)图像。
4.根据权利要求1或2所述的设备,其中,所述处理还包括执行与所述解剖对象的所述3D模型相关联的操作。
5.根据权利要求4所述的设备,其中,所述操作包括提供所述3D模型以供显示装置显示。
6.根据权利要求4所述的设备,其中,所述操作包括使用所述3D模型来规划与所述解剖对象相关联的医疗过程。
7.根据权利要求6所述的设备,其中,使用所述3D模型来规划所述医疗过程包括确定到达肺内的位置的通路。
8.根据权利要求7所述的设备,其中,使用所述机器学习模型生成的所述第二图像比所述第一图像更准确地描绘所述肺的特征。
9.根据权利要求4所述的设备,其中,所述操作包括将所述3D模型与所述第一图像配准。
10.根据权利要求1所述的设备,还包括通过下述来训练所述机器学习模型:
基于3D真值图像生成具有比所述3D真值图像低的分辨率的3D模拟图像;
提供所述3D模拟图像作为所述机器学习模型的输入,所述机器学习模型被配置成基于所述3D模拟图像和所述机器学习模型的一个或更多个参数来输出一系列3D超分辨率图像;以及
基于提供所述3D模拟图像作为所述机器学习模型的输入来调整所述机器学习模型的一个或更多个参数,以减小所述3D真值图像与通过所述机器学习模型输出的所述一系列3D超分辨率图像之间的差异。
11.根据权利要求10所述的设备,其中,生成所述3D模拟图像包括在XYZ坐标系的Z轴方向上对所述3D真值图像进行下采样,其中,所述Z轴与所述3D真值图像的切片厚度相关联。
12.根据权利要求10或11所述的设备,其中,生成所述3D模拟图像还包括下述中的一个或更多个:在所述XYZ坐标系的X轴方向上对所述3D真值图像进行下采样,在所述XYZ坐标系的Y轴方向上对所述3D真值图像进行下采样,使所述3D真值图像模糊,向所述3D真值图像注入噪声,或者在所述X轴方向、所述Y轴方向或所述Z轴方向中的一个或更多个上应用平滑函数。
13.根据权利要求10或11所述的设备,其中,所述3D真值图像与所述一系列3D超分辨率图像之间的差异包括下述中的一个或更多个:所述3D真值图像与所述一系列3D超分辨率图像中包括的一个或更多个3D超分辨率图像之间的切片厚度的差异、所述3D真值图像与所述一个或更多个3D超分辨率图像之间的像素或体素中的一者或两者的数目的差异、或所述3D真值图像与一个或更多个3D超分辨率图像之间的噪声量的差异。
14.一种方法,包括:
访问描绘解剖对象的第一图像,所述第一图像具有第一分辨率;
基于所述第一图像并使用机器学习模型生成描绘所述解剖对象的第二图像,所述第二图像具有比所述第一分辨率大的第二分辨率;以及
基于所述第二图像生成所述解剖对象的三维(3D)模型。
15.根据权利要求14所述的方法,其中,生成所述第二图像包括下述中的一个或更多个:锐化所述第一图像、从所述第一图像中减少噪声、减小所述第一图像的切片厚度、或者增加所述第一图像的像素或体素中的一者或两者的数目。
16.根据权利要求14所述的方法,其中,所述第一图像包括正电子发射断层扫描和计算机断层扫描(PET/CT)图像。
17.根据权利要求14所述的方法,还包括执行与所述解剖对象的所述3D模型相关联的操作。
18.根据权利要求17所述的方法,其中,所述操作包括提供所述3D模型以供显示装置显示。
19.根据权利要求17所述的方法,其中,所述操作包括使用所述3D模型来规划与所述解剖对象相关联的医疗过程。
20.根据权利要求19所述的方法,其中,使用所述3D模型来规划所述医疗过程包括确定到达肺内的位置的通路。
21.根据权利要求17所述的方法,其中,所述操作包括将所述3D模型与所述第一图像配准。
22.根据权利要求14所述的方法,还包括通过下述来训练所述机器学习模型:
基于3D真值图像生成具有比所述3D真值图像低的分辨率的3D模拟图像;
提供所述3D模拟图像作为所述机器学习模型的输入,所述机器学习模型被配置成基于所述3D模拟图像和所述机器学习模型的一个或更多个参数来输出一系列3D超分辨率图像;以及
基于提供所述3D模拟图像作为所述机器学习模型的输入来调整所述机器学习模型的一个或更多个参数,以减小所述3D真值图像与通过所述机器学习模型输出的所述一系列3D超分辨率图像之间的差异。
23.根据权利要求22所述的方法,其中,生成所述3D模拟图像包括在XYZ坐标系的Z轴方向上对所述3D真值图像进行下采样,其中,所述Z轴与所述3D真值图像的切片厚度相关联。
24.一种非暂态计算机可读介质,其存储指令,所述指令在被执行时指示计算装置的处理器执行处理,所述处理包括:
访问描绘解剖对象的第一图像,所述第一图像具有第一分辨率;
基于所述第一图像并使用机器学习模型生成描绘所述解剖对象的第二图像,所述第二图像具有比所述第一分辨率大的第二分辨率;以及
基于所述第二图像生成所述解剖对象的三维(3D)模型。
25.根据权利要求24所述的非暂态计算机可读介质,其存储指令,所述指令在被执行时指示所述计算装置的所述处理器执行根据权利要求15至23中任一项所述的方法。
26.一种用于训练机器学习模型的设备,所述机器学习模型被配置成接收具有第一分辨率的低分辨率图像并输出具有比所述第一分辨率高的第二分辨率的超分辨率图像,所述设备包括:
存储器,其存储指令;以及
一个或更多个处理器,其通信地耦接至所述存储器并被配置成执行所述指令以执行处理,所述处理包括:
访问三维(3D)真值图像;
基于所述3D真值图像生成具有比所述3D真值图像的切片厚度大的切片厚度的3D模拟图像;
提供所述3D模拟图像作为所述机器学习模型的输入,所述机器学习模型被配置成基于所述3D模拟图像和所述机器学习模型的一个或更多个参数来输出一系列3D超分辨率图像;以及
基于提供所述3D模拟图像作为所述机器学习模型的输入来调整所述机器学习模型的一个或更多个参数,以减小所述3D真值图像与通过所述机器学习模型输出的所述一系列3D超分辨率图像之间的差异。
27.根据权利要求26所述的设备,其中,生成所述3D模拟图像包括在XYZ坐标系的Z轴方向上对所述3D真值图像进行下采样,其中,所述Z轴与所述3D真值图像的切片厚度相关联。
28.根据权利要求26或27所述的设备,其中,生成所述3D模拟图像包括下述中的一个或更多个:在所述XYZ坐标系的X轴方向上对所述3D真值图像进行下采样,在所述XYZ坐标系的Y轴方向上对所述3D真值图像进行下采样,使所述3D真值图像模糊,向所述3D真值图像注入噪声,或者在所述X轴方向、所述Y轴方向或所述Z轴方向中的一个或更多个上应用平滑函数。
29.根据权利要求26或27所述的设备,其中,所述3D真值图像包括描绘解剖对象的高分辨率医学图像,所述高分辨率医学图像具有高于阈值的分辨率。
30.根据权利要求29所述的设备,其中,所述解剖对象包括肺的气道,其中,调整所述机器学习模型的一个或更多个参数以减小所述3D真值图像中描绘的所述肺的气道与通过所述机器学习模型输出的所述一系列3D超分辨率图像中描绘的所述肺的气道之间的差异。
31.根据权利要求29所述的设备,其中,所述3D真值图像包括计算机断层扫描(CT)图像。
32.根据权利要求26或27所述的设备,其中,通过所述机器学习模型输出的所述一系列3D超分辨率图像具有比所述3D模拟图像的分辨率高的分辨率。
33.根据权利要求26或27所述的设备,其中,所述3D真值图像与所述一系列3D超分辨率图像之间的差异包括下述中的一个或更多个:所述3D真值图像与所述一系列3D超分辨率图像中包括的一个或更多个3D超分辨率图像之间的切片厚度的差异、所述3D真值图像与所述一个或更多个3D超分辨率图像之间的像素或体素中的一者或两者的数目的差异、或所述3D真值图像与一个或更多个3D超分辨率图像之间的噪声量的差异。
34.一种方法,包括:
访问三维(3D)真值图像;
基于所述3D真值图像生成具有比所述3D真值图像的切片厚度大的切片厚度的3D模拟图像;
提供所述3D模拟图像作为机器学习模型的输入,所述机器学习模型被配置成基于所述3D模拟图像和所述机器学习模型的一个或更多个参数来输出一系列3D超分辨率图像;以及
基于提供所述3D模拟图像作为所述机器学习模型的输入来调整所述机器学习模型的一个或更多个参数,以减小所述3D真值图像的切片厚度与通过所述机器学习模型输出的所述一系列3D超分辨率图像的切片厚度之间的差异。
35.根据权利要求34所述的方法,其中,生成所述3D模拟图像包括在XYZ坐标系的Z轴方向上对所述3D真值图像进行下采样,其中,所述Z轴与所述3D真值图像的切片厚度相关联。
36.根据权利要求35所述的方法,其中,生成所述3D模拟图像还包括下述中的一个或更多个:在所述XYZ坐标系的X轴方向上对所述3D真值图像进行下采样,在所述XYZ坐标系的Y轴方向上对所述3D真值图像进行下采样,使所述3D真值图像模糊,向所述3D真值图像注入噪声,或者在所述X轴方向、所述Y轴方向或所述Z轴方向中的一个或更多个上应用平滑函数。
37.根据权利要求34所述的方法,其中,所述3D真值图像包括描绘解剖对象的高分辨率医学图像,所述高分辨率医学图像具有高于阈值的分辨率。
38.根据权利要求37所述的方法,其中,所述3D真值图像包括计算机断层扫描(CT)图像。
39.根据权利要求34所述的方法,其中,通过所述机器学习模型输出的所述一系列3D超分辨率图像具有比所述3D模拟图像的分辨率高的分辨率。
40.一种非暂态计算机可读介质,其存储指令,所述指令在被执行时指示计算装置的处理器执行处理,所述处理包括:
访问三维(3D)真值图像;
基于所述3D真值图像生成具有比所述3D真值图像的分辨率低的分辨率的3D模拟图像;
提供所述3D模拟图像作为机器学习模型的输入,所述机器学习模型被配置成基于所述3D模拟图像和所述机器学习模型的一个或更多个参数来输出一系列3D超分辨率图像;以及
基于提供所述3D模拟图像作为所述机器学习模型的输入来调整所述机器学习模型的一个或更多个参数,以减小所述3D真值图像与通过所述机器学习模型输出的所述一系列3D超分辨率图像之间的差异。
41.根据权利要求40所述的非暂态计算机可读介质,其存储指令,所述指令在被执行时指示所述计算装置的所述处理器执行根据权利要求35至39中任一项所述的方法。
CN202480017307.4A 2023-03-06 2024-03-01 使用机器学习模型生成高分辨率医学图像 Pending CN120826699A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202363450250P 2023-03-06 2023-03-06
US63/450,250 2023-03-06
PCT/US2024/018155 WO2024186659A1 (en) 2023-03-06 2024-03-01 Generation of high resolution medical images using a machine learning model

Publications (1)

Publication Number Publication Date
CN120826699A true CN120826699A (zh) 2025-10-21

Family

ID=90718070

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202480017307.4A Pending CN120826699A (zh) 2023-03-06 2024-03-01 使用机器学习模型生成高分辨率医学图像

Country Status (2)

Country Link
CN (1) CN120826699A (zh)
WO (1) WO2024186659A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN119469218B (zh) * 2024-10-24 2025-11-18 中国船舶集团有限公司第七一五研究所 一种基于人工神经网络的低分辨布里渊频率谱解调方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5792135A (en) 1996-05-20 1998-08-11 Intuitive Surgical, Inc. Articulated surgical instrument for performing minimally invasive surgery with enhanced dexterity and sensitivity
WO1998036236A1 (en) 1997-02-13 1998-08-20 Super Dimension Ltd. Six-degree tracking system
US7772541B2 (en) 2004-07-16 2010-08-10 Luna Innnovations Incorporated Fiber optic position and/or shape sensing based on rayleigh scatter
US20060013523A1 (en) 2004-07-16 2006-01-19 Luna Innovations Incorporated Fiber optic position and shape sensing device and method relating thereto
US9259274B2 (en) 2008-09-30 2016-02-16 Intuitive Surgical Operations, Inc. Passive preload and capstan drive for surgical instruments
US8773650B2 (en) 2009-09-18 2014-07-08 Intuitive Surgical Operations, Inc. Optical position and/or shape sensing
US8900131B2 (en) 2011-05-13 2014-12-02 Intuitive Surgical Operations, Inc. Medical system providing dynamic registration of a model of an anatomical structure for image-guided surgery
EP3297529B1 (en) 2015-05-22 2025-03-12 Intuitive Surgical Operations, Inc. Systems for registration for image guided surgery
CN110996829B (zh) 2017-07-21 2023-11-21 直观外科手术操作公司 柔性细长装置系统和方法
JP7105363B2 (ja) * 2019-02-28 2022-07-22 富士フイルム株式会社 学習方法、学習システム、学習済みモデル、プログラム及び超解像画像生成装置
KR102488676B1 (ko) * 2021-08-02 2023-01-13 서울여자대학교 산학협력단 딥러닝 기반 ct 영상의 z축 해상도 개선 방법 및 장치

Also Published As

Publication number Publication date
WO2024186659A1 (en) 2024-09-12

Similar Documents

Publication Publication Date Title
US20230088056A1 (en) Systems and methods for navigation in image-guided medical procedures
US20240041531A1 (en) Systems and methods for registering elongate devices to three-dimensional images in image-guided procedures
US11583353B2 (en) Systems and methods of continuous registration for image-guided surgery
US11080902B2 (en) Systems and methods for generating anatomical tree structures
CN107660134B (zh) 图像引导手术记录的系统和方法
CN107072717B (zh) 用于自适应输入映射的系统和方法
EP3809953A1 (en) Systems and methods related to registration for image guided surgery
US20230030727A1 (en) Systems and methods related to registration for image guided surgery
US20220392087A1 (en) Systems and methods for registering an instrument to an image using point cloud data
US20220142714A1 (en) Systems for enhanced registration of patient anatomy
EP3930616B1 (en) Systems for registration of patient anatomy
CN120826699A (zh) 使用机器学习模型生成高分辨率医学图像
WO2025029781A1 (en) Systems and methods for segmenting image data
CN121002532A (zh) 从术中图像中提取伸长装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication