[go: up one dir, main page]

CN110199357B - 提供背景叠加的增强现实介入系统 - Google Patents

提供背景叠加的增强现实介入系统 Download PDF

Info

Publication number
CN110199357B
CN110199357B CN201880007343.7A CN201880007343A CN110199357B CN 110199357 B CN110199357 B CN 110199357B CN 201880007343 A CN201880007343 A CN 201880007343A CN 110199357 B CN110199357 B CN 110199357B
Authority
CN
China
Prior art keywords
user
overlay
graphics processing
processing module
background overlay
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201880007343.7A
Other languages
English (en)
Other versions
CN110199357A (zh
Inventor
M·L·弗莱克斯曼
A·波波维奇
A·潘斯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of CN110199357A publication Critical patent/CN110199357A/zh
Application granted granted Critical
Publication of CN110199357B publication Critical patent/CN110199357B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/003Repetitive work cycles; Sequence of movements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/252User interfaces for surgical systems indicating steps of a surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • A61B2090/3764Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT] with a rotating C-arm having a cone beam emitting source
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Business, Economics & Management (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Educational Administration (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Educational Technology (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • General Business, Economics & Management (AREA)
  • Pathology (AREA)
  • Robotics (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Gynecology & Obstetrics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

一种增强现实介入系统,其提供背景叠加(116)以帮助或引导用户(101)或增强使用执行介入流程的交互式医学设备(102)由用户对介入流程的执行。所述系统包括图形处理模块(110),所述图形处理模块被配置为在增强现实显示设备系统(106)上生成至少一个背景叠加。背景叠加可以识别交互式医学设备的部件(104)或控件。背景叠加还可以识别要由用户执行的流程的步骤,并且提供用于执行流程的指令。背景叠加还可以识别环境的特定区域,以通过识别减少辐射曝光的路径或协议来帮助或引导用户或增强介入流程的执行。

Description

提供背景叠加的增强现实介入系统
技术领域
本公开涉及增强现实系统和方法,并且更具体地涉及用于执行以背景叠加为特征的增强现实介入流程的系统和方法。
背景技术
混合手术室(OR)和导管实验室(cathlab)支持宽范围的成像协议。这些协议的数量和类型能够是复杂的,以最佳地找到针对流程的每个步骤的正确的协议。此外,当尝试在流程期间在没有帮助的情况下引入新协议、特征和工具时出现挑战。
在一个范例中,介入X射线套件提供了大量的特征和工具以优化成像,采集各种图像格式并且执行复杂的协议。用户交互通常经由诸如成像模块、几何结构模块、xper模块和查看模块的模块来执行,以及通过经由键盘、鼠标和监测器(诸如,数据和查看监测器)的典型屏幕上交互来执行。
增强现实通常是指实况图像流补充有额外的计算机生成的信息时的情况。可以使用眼睛、相机、智能电话、平板电脑等来提供实况图像流。该图像流通过针对用户的显示器来增强。可以经由眼镜、隐形眼镜、投影或在实况图像流设备(例如,智能电话、平板电脑等)上将增强显示传达给用户。
提供增强现实介入系统将是有利的,所述增强现实介入系统包括背景叠加以向用户提供帮助或引导或增强用户对介入流程的执行。
发明内容
根据本原理,提供了一种医学介入系统。医学介入系统包括交互式医学设备,所述交互式医学设备包括多个部件。增强现实显示设备被配置用于在使用交互式医学设备的环境中的介入流程的执行期间由用户查看。图形处理模块被配置为在增强现实显示设备上生成背景叠加,以帮助或增强用户使用交互式医学设备对介入流程的执行。
在另一实施例中,提供了一种医学介入系统。医学介入系统包括工作站,所述工作站包括一个或多个处理器、存储器和接口。医学介入系统还包括交互式医学设备,其包括多个部件。增强现实显示设备被配置为在使用交互式医学设备的环境中的介入流程的执行期间由用户查看。图形处理模块被配置为在增强现实显示设备上生成背景叠加以帮助用户或增强用户使用交互式医学设备对介入流程的执行。
在另一实施例中,提供了一种用于帮助或增强用户使用交互式医学设备在环境中执行介入流程的方法。所述方法包括确定要在增强现实显示设备上生成的背景叠加的步骤。所述方法还包括在增强现实显示设备上生成背景叠加以帮助用户或增强用户对介入流程的执行的步骤。
本发明的这些和其他目的、特征和优点将根据对要结合附图阅读的其说明性实施例的以下详细描述变得显而易见。
附图说明
本公开将参考以下附图详细地呈现优选实施例的以下描述,其中:
图1是示出根据一个实施例的提供背景叠加的增强现实介入系统的框图/流程图。
图2示出了与模块相关的增强现实显示设备上显示的背景叠加的图像;
图3示出了与模块和交互式显示设备相关的背景叠加的图像,其引导用户通过增强现实显示设备上显示的流程的步骤;
图4示出了与具有C型臂的成像设备相关的增强现实显示设备上显示的当前和目标等中心的背景叠加的图像;
图5示出了与具有C型臂的成像设备相关的背景叠加的图像,其在增强现实显示设备上识别障碍物必须清除的区域;并且
图6是示出根据一个实施例的用于帮助或增强用户对介入流程的执行的方法的流程图。
具体实施方式
根据本原理,提供了一种用于使用增强现实来执行介入流程以提供背景叠加的系统,所述背景叠加帮助或引导用户或增强介入流程的执行。所述系统包括增强现实显示设备,例如头戴式虚拟现实系统,其被配置用于在使用交互式医学设备执行介入流程期间由用户进行查看。图形处理模块被配置为在增强现实显示设备上生成背景叠加以帮助或引导用户或以其他方式增强介入流程的执行。
图形处理模块被配置为生成背景叠加,所述背景叠加可以识别交互式医学设备的部件或控件,并向用户提供关于部件或控件的使用的指令。背景叠加还可以识别要由用户执行的流程的步骤,并提供用于执行流程的指令。背景叠加还可以识别执行介入流程的环境的特定区域。
图形处理模块可以从用户接收输入以提供定制的背景叠加。图形处理模块还可以接收系统中的输入命令的反馈和历史,以动态地确定流程的步骤或识别环境中的特定物体或感兴趣区域。所述系统提供了相对于介入流程的工作流程和在交互式医学设备上的流程的实施的改进的清晰度。所述系统改进了介入流程的执行的效率和准确度。所述系统还相对于交互式医学设备上的新设备或流程识别和引导用户。
应该理解,本发明将依据医学介入系统来描述;然而,本发明的教导要广泛得多并且适用于任何介入系统。在一些实施例中,本原理用于执行复杂生物或机械系统的介入流程中。附图中描绘的元件可以以硬件和软件的各种组合来实施,并且提供可以组合在单个元件或多个元件中的功能。
能够通过使用专用硬件以及能够运行与合适的软件相关联的软件的硬件来提供附图中示出的各种元件的功能。在由处理器提供时,所述功能能够由单个专用处理器、由单个共享处理器、或由多个个体处理器(它们中的一些能够被共享)来提供。此外,术语“处理器”或“控制器”的明确使用不应被解释为唯一地指代能够运行软件的硬件,并且能够暗含地包括而不限于数字信号处理器(“DSP”)硬件、用于存储软件的只读存储器(“ROM”)、随机存取存储器(“RAM”)、非易失性存储设备等。
此外,在本文中的记载本发明的原理、方面和实施例的所有陈述,以及其具体范例,旨在涵盖其结构和功能等价物两者。此外,这样的等价物旨在包括当前已知的等价物和未来发展的等价物(即,无论其结构执行相同功能的所发展的任何元件)两者。因此,例如,本领域技术人员将认识到,本文呈现的框图表示实现本发明的原理的说明性系统部件和/或电路的概念视图。类似地,将认识到,任何流程表、流程图等表示基本上可以被表示在计算机可读存储介质中并因此由计算机或处理器来运行的各种过程,而无论这样的计算机或处理器是否被明确示出。
此外,本发明的实施例能够采取计算机程序产品的形式,所述计算机程序产品可从计算机可用或计算机可读存储介质存取,所述计算机可用或计算机可读存储介质提供用于由计算机或任何指令运行系统使用或者与计算机或任何指令运行系统结合来使用的程序代码。出于该描述目的,计算机可用或计算机可读存储介质能够是可以包括、存储、通信、传播或运输用于由指令运行系统、装置或设备使用或与其结合来使用的程序的任何装置。所述介质能够是电子的、磁性的、光学的、电磁的、红外的或半导体系统(或者装置或设备)或传播介质。计算机可读介质的范例包括半导体或固态存储器、磁带、可移除计算机软盘、随机存取存储器(RAM)、只读存储器(ROM)、刚性磁盘以及光盘。光盘的当前范例包括压缩盘-只读存储器(CD-ROM)、压缩盘-读/写(CD-R/W)、Blu-RayTM以及DVD。
在说明书中对本原理的“一个实施例”或“实施例”以及其变型的引用意指结合所述实施例描述的特定特征、结构、特性等被包括在本原理的至少一个实施例中。因此,贯穿说明书的出现在各个地方的短语“在一个实施例中”或“在实施例中”以及任何其他变型的出现不一定全部指的是相同实施例。
应当理解,下文“/”、“和/或”和“……中的至少一个”中的任一个的使用,例如,在“A/B”、“A和/或B”和“A和B中的至少一个”的情况下,旨在涵盖对仅第一列出选项(A)的选择、或者对仅第二列出选项(B)的选择、或者对这两个选项(A和B)的选择。作为另一范例,在“A、B和/或C”和“A、B和C中的至少一个”的情况下,这样的短语旨在涵盖对仅第一列出选项(A)的选择、或者对仅第二列出选项(B)的选择、或者对仅第三列出选项(C)的选择、或者对仅第一列出选项和第二列出选项(A和B)的选择、或者对仅第一列出选项和第三列出选项(A和C)的选择、或者对仅第二列出选项和第三列出选项(B和C)的选择、或者对所有三个选项(A和B和C)的选择。如本领域和相关领域中的普通技术人员容易显而易见的,这可以针对如所列出的许多项扩展。
还将理解,当元件,诸如层、区域或材料,被称为在另一元件“上”或“之上”时,其能够直接在其他元件上或者还可以存在中介元件。相比之下,当元件被称为“直接在另一元件上”或“直接在另一元件之上”时,不存在中介元件。还将理解,当元件被称为被“连接”或“耦合”到另一元件时,其能够被直接连接或耦合到其他元件或者可以存在中介元件。相比之下,在元件被称为被“直接连接”或“直接耦合”到另一元件时,不存在中介元件。
现在参考其中相似的附图标记表示相同或相似的元件的附图,并且首先参考图1,根据一个实施例说明性地示出了用于执行介入流程的系统100。系统100包括交互式医学设备102。例如,在一个实施例中,交互式医学设备是介入成像设备,例如Philips ALLURATM X射线系统。交互式医学设备可以包括成像系统113,成像系统113被配置用于重建对象111的解剖结构。成像系统113可以是X射线系统、超声系统、IVUS系统、导航系统、计算机断层摄影系统、磁共振或其他本领域已知的成像系统。
交互式医学设备102包括多个部件104,可以由用户在执行介入流程中利用所述多个部件。例如,在一个实施例中,部件104可以包括被配置为执行针对系统的专用功能的模块,例如用于对对象111进行成像的成像模块、用于定位系统的机动部件的几何结构模块、用于监测由系统采集的数据的数据监测模块等。部件104还可以包括用于用户输入的接口设备109,例如键盘、鼠标、操纵杆、触觉设备。
交互式医学设备102可以包括工作站或控制台103,从工作站或控制台103监督和/或管理程序。工作站103优选地包括一个或多个处理器105和用于存储程序和应用的存储器107。显示器114还可以允许用户101与工作站103及其部件和功能或系统100内的任何其他元件交互。这还通过允许用户从工作站103反馈和与工作站103交互的接口设备109促进。
在优选实施例中,系统100还包括多个反馈设备112,所述多个反馈设备被配置为获得关于用户101、环境108和/或交互式医学设备102和部件104的反馈。反馈设备112可以是一个或多个相机115,所述一个或多个相机提供用户视图和/或环境内的其他视图的相机馈送、用户的眼睛跟踪和/或头部跟踪。反馈设备112还可以是用于从用户101或环境108中的各种物体、人或设备获得音频的麦克风。反馈设备112还可以是用于确定用户身体的部分、设备102和/或部件104的位置的传感器。例如,传感器可以放置在用户的臂部或手上以跟踪其运动。反馈设备112还可以是一个或多个运动跟踪设备,诸如加速度计、红外跟踪、光纤跟踪、电磁(EM)跟踪或(一个或多个)其他跟踪机构。
系统100还包括增强现实显示设备106,增强现实显示设备106被配置用于在环境108(例如手术室)中的介入流程的执行期间由用户查看。例如,在一个实施例中,增强现实显示设备106可以是头戴式虚拟现实系统,例如GOOGLE GLASSTM、HOLOLENSTM、MAGIC LEAPTM、VUSIXTM。然而,增强现实显示设备106可以是本领域中已知的任何其他虚拟现实/增强现实系统。增强现实显示设备106可以具有二维或三维能力。
系统还包括图形处理模块110,图形处理模块110被配置为生成与用户的视场对应的显示设备的特定区域上的增强现实显示设备106上的背景叠加116。背景叠加116被配置为向用户提供相对于用户的视场特别布置的信息,以帮助或引导用户或增强用户对介入流程的执行。在一些实施例中,图形处理模块110可以被配置为从反馈设备112接收反馈,以便确定要在增强现实显示设备上生成的特定叠加。增强现实显示设备106可以通过线缆连接到系统,或者可以无线连接到系统。
如图2所示,在一个实施例中,图形处理模块110被配置为生成针对交互式医学设备的部件104上的各种控件118的背景叠加116。作为范例,图2中的图像120示出了交互式医学设备102的模块117,其包括在每个控件118上在增强现实显示设备106上生成的背景叠加116,背景叠加116识别控件和控件的移动。例如,如图2所示,控制C型臂的位置的旋钮119可包括用户定义的背景叠加“C型臂摆动”。图形处理模块110可以被配置为生成针对包括其他模块或设备的交互系统的任何其他部件104的背景叠加116。
图形处理模块110可以从存储在存储器107中的数据库122接收用于背景叠加的信息。在优选实施例中,图形处理模块110还可以被配置为经由接口109从用户101接收关于要在背景叠加116中显示的信息的输入。这允许用户基于用户的偏好和/或正在执行的特定流程来定制背景叠加。背景叠加116识别并提供针对交互设备102的部件和控件的信息,其比现有产品更清晰、更全面和更可定制,例如放置在各种部件或控件上的物理贴纸。
图形处理模块110还可以被配置为生成背景叠加116,背景叠加116引导用户通过流程的各个步骤。在一个实施例中,流程的步骤被存储在数据库122中,并且图形处理模块110从数据库122接收针对适当的背景叠加116的信息。图形处理模块110还可以被配置为经由接口109接收来自用户的输入以便定制背景叠加116。
在特定实施例中,系统100可以包括确定模块124,确定模块124被配置为接收来自数据库122的关于正在执行的流程的步骤的信息和来自反馈设备112的反馈或者来自系统的诸如模块的部件的信号的历史,以便确定用户执行的(一个或多个)适当步骤。确定模块124然后被配置为向图形处理模块110发送关于背景叠加116的信息。
例如,在交互式介入X射线产品上的目标解剖结构的3D重建的执行通常是复杂的,并且涉及需要以特定顺序准确地执行许多步骤的流程。许多模块、控件、屏幕和输入设备可能使用户感到困惑,从而导致错误和介入流程的降低的执行效率。
为了生成目标解剖结构的3D重建,可以首先对目标解剖结构定位等中心(isocenter),使得成像设备的C型臂采取以这样的方式围绕目标解剖结构旋转的路径:其中,对象111的目标解剖结构保持在图像的中心。为了对目标解剖结构定位等中心,用户通常必须在横向位置中针对C型臂向上或向下移动台架,直到解剖结构居中。然后,用户可以在AP位置中针对C型臂向左或向右和向前/向后移动台架,直到目标解剖结构居中。该流程能够是耗时的并且需要在荧光透视引导下移动台架。
在对目标解剖结构定位等中心之后,用户可以执行图像采集协议,其中,测试C型臂运动的结束位置和起始位置以确保C型臂可以通过旋转运动自由地移动而不碰撞任何物体并且臂部能够到达结束位置和起始位置。然而,该流程的执行中经常发生问题,这是由于未正确确定等中心,用户没有按压正确的按钮以将设备移动通过结束位置和起始位置或者C型臂在其路径中具有障碍物。增强现实显示设备106上的背景叠加116的生成向用户提供足够的信息以减少或避免这些问题并增加介入流程的效率。
例如,如图3所示,图像126-131示出了与几何模块132和交互式显示设备134相关的增强现实显示设备106上显示的背景叠加116,以用于在已经执行等中心定位之后执行图像采集过程。由图形处理模块110生成的背景叠加116包括关于每个步骤的顺序的识别、执行步骤的指令和/或交互式显示设备的模块或区域的特定控件,以供用户执行其上的动作。
作为范例,图像126示出了在交互式显示设备134下方生成的背景叠加135,其指出“步骤1:选择荧光透视协议”。在交互式显示设备134的特定区域上生成包括圆的背景叠加141,用户需要按压所述特定区域或以其他方式操纵所述特定区域以便选择荧光透视协议。
图像127示出了在模块132下方生成的背景叠加136,其指出“步骤2:重新调用横向位置,通过调节台架高度来进行等中心定位”。用于重新调用横向位置和调节台架高度的特定按钮和旋钮在这些控件上在增强现实显示设备106上被圈出142a、142b。
图像128示出了在模块132下方生成的背景叠加137,其指出“步骤3:重新调用AP位置,通过调节台架L/R来进行等中心定位”。图像128还示出了背景叠加143a、143b,其包括围绕控件定位在增强现实显示设备106上的圆圈,所述控件必须由用户操纵以便执行这些特定步骤。
图像129示出了在交互式显示设备134下方生成的背景叠加138,其指出“步骤4:选择xperCT协议”。在交互式显示设备134的特定区域上生成包括圆圈的背景叠加144,用户需要按压特定区域或以其他方式操纵所述特定区域以选择xperCT协议。
图像130示出了在模块132下方生成的背景叠加139,其指出“步骤5:重新调用结束位置”。图像130还示出了包括圆圈的背景叠加145,所述圆圈围绕按钮定位在增强现实显示设备106上,所述按钮必须由用户按压以便执行该特定步骤。
图像131示出了在模块132下方生成的背景叠加140,其指出“步骤6:重新调用起始位置”。图像131还示出了包括圆圈的背景叠加146,所述圆圈围绕按钮定位在增强现实显示设备106上,所述按钮必须由用户按压以便执行该特定步骤。尽管这些特定实施例示出了圆圈形式的背景叠加141以识别用户必须操纵的控件,但是任何其他标志可以用于背景叠加,诸如闪烁或颜色编码的轮廓、箭头等。在一个实施例中,图形处理模块110可以被配置为从用户接收关于用于识别要操纵的控件的叠加的特定配置的输入。如果用户没有正查看正确的面板或屏幕,则还可以存在视觉提示以使用户改变他们的头部位置和/或凝视以查看正确的面板或屏幕。
用户可以利用交互式显示设备134和模块132执行图像采集过程,并且在增强现实显示设备106上生成的背景叠加116通过提供关于要执行哪些步骤以及如何执行其的明确指令来简化流程的工作流程并减少错误。在某些实施例中,确定模块124可以接收来自反馈设备112的反馈和/或来自由用户输入到交互式医学设备102中的控制的信号,以确定需要执行的适当步骤。然后,确定模块124被配置为向图形处理模块110发送信号,以用于生成针对所确定的步骤的背景叠加。这允许系统100通过生成的背景叠加116向用户提供自适应引导。
尽管关于图像采集过程讨论由图形处理模块110生成的背景叠加116,但是可以生成背景叠加以引导用户101通过任何其他流程。例如,在一个实施例中,可以由图形处理模块110生成叠加,其引导用户操纵几何结构模块以便将成像设备的C型臂移动到特定位置或取向。然而,由图形处理模块110生成的叠加116可以用于许多其他介入流程并且相对于许多不同类型的交互设备。背景叠加116识别并提供与现有设备相比更清晰、更全面和更可定制的信息(其识别要执行的流程的步骤),例如定位于特定按钮附近的闪烁的LED灯,其被触发以指示应按压按钮。
此外,由图形处理模块110生成的叠加116可以用于提供针对与交互式医学设备102相关联的新技术、协议或设备的指令。例如,数据库122可以被配置为接收关于被并入在交互式医学设备102中或者可以由交互式医学设备执行的新技术、协议或设备的更新信息。然后,由图形处理模块110生成背景叠加116,以引导用户使用设备或执行新协议。
在另一实施例中,图形处理模块110被配置为生成识别环境中的(一个或多个)特定区域的背景叠加。例如,图4示出了增强现实显示设备106上的具有C型臂154的成像设备的图像147。如图4所示,为了帮助用户对C型臂定定位等中心,图形处理模块110可以被配置为提供背景叠加116,其识别C型臂的当前中心和C型臂的目标等中心。在图4中,图形处理模块110被配置为在增强现实显示设备106上生成识别C型臂的当前等中心的十字准线148。图形处理模块110还被配置为生成识别目标等中心的十字准线150。
在一个实施例中,系统100包括位置模块152,位置模块152被配置为确定当前等中心和目标等中心并将该信息发送到图形处理模块110以生成背景叠加,例如十字准线148、150。用户101可以然后查看C型臂154以及当前和目标十字准线等中心148、150的位置并调节台架,直到十字准线对齐并且当前等中心位于识别目标等中心的叠加上。由图形处理模块110生成的背景叠加116增加等中心定位步骤的容易性和准确度。背景叠加116减少了需要对对象111的额外的成像并且导致对对象的增加的辐射暴露的不正确的等中心定位。十字准线备选地可以是表示等中心的球形或其他物体。十字准线也可以叠加到实况成像或查看屏幕上显示的荧光透视图像上。
在另一实施例中,图形处理模块110被配置为生成背景叠加116,背景叠加116识别环境中必须没有障碍物以用于执行流程的区域。例如,图5示出了增强现实显示设备106上的具有C型臂154的成像设备的图像153。图形处理模块110被配置为生成背景叠加156,其表示需要在图像采集过程期间清理使得C型臂154可以自由移动而不会碰撞任何物体的区。当查看增强现实显示设备上的背景叠加156时,用户可以容易地确定物体是否在需要清理的区域内,并且然后可以从所述区域移除物体。
在一个实施例中,系统100包括定位模块160,定位模块160被配置为检查或监测需要清理的区域并确定该区域内是否存在物体。定位模块160被配置为向图形处理模块110发送关于被确定为在需要清理的区域内的任何物体的信号。图形处理模块110可以被配置为在增强现实显示设备106中的该物体上生成指示物体必须被移除的背景叠加116。例如,在图5中,包括矩形物体162的背景叠加被定位在台架164的部分上,其指示台架必须重新定位在需要清理的区域外部。
由图形处理模块110生成的背景叠加116在执行介入流程时避免C型臂区域中的阻碍。这些阻碍通常需要用户花费大量时间来移动物体,使得C型臂可以自由旋转。重要的是正确叠加代表当前C型臂位置的区域。当前C型臂位置可以通过基于相机的探测、跟踪标记、跟踪技术、C型臂编码自动计算或者由用户手动计算。
尽管背景叠加116被说明性地示出为识别需要清理或用于识别等中心的区域内的物体,但是背景叠加可以被配置为识别环境108中和关于任何介入流程的任何其他物体或区域。
在其他实施例中,定位模块160可以确定可移动设备的路径内的物体并确定针对可移动设备的更新路径。图形处理模块110被配置为生成识别新路径和/或引导用户沿着路径移动可移动设备的背景叠加116。
在另一实施例中,系统100通过配置图形处理模块110以生成背景叠加116来增强用户对流程的执行,背景叠加116减少对象111暴露于辐射。例如,在一个实施例中,背景叠加116包括用户检查氟味的提示。图形处理模块110可以被配置为从数据库122或从用户输入接收指令以确定用于提示用户检查氟味的优选时间段。
在其他实施例中,系统100可以包括实时剂量监测设备,并且图形处理模块110可以被配置为生成背景叠加116,背景叠加116基于来自实时剂量监测设备的测量结果来识别已经接收到高辐射剂量的个体。系统100还可以生成背景叠加116,其基于来自数据库122的指令、来自用户输入的指令或响应于由剂量监测设备探测到的辐射来建议何时使用楔形物、移动辐射探测器等。
在其他实施例中,图形处理模块110可以被配置为生成背景叠加116,背景叠加116提供针对环境108中的各种物体的最佳位置。例如,在一个实施例中,背景叠加116可以在执行介入流程之前提供交互式医学设备102、部件104和对象111的期望设置,使得环境108(例如手术室)可以在从业者到达之前设置在最佳状态中。房间的最佳取向可以被包括在数据库122中的指令中,或者可以在介入流程之前由用户输入。
参考图6,根据本原理说明性地示出了用于使用交互式医学设备帮助或增强用户在环境中对介入流程的执行的方法200。在框210中,确定要在增强现实显示设备上生成的背景叠加。在框220中,在增强现实显示设备上生成背景叠加以帮助或增强用户对介入流程的执行。
如先前关于系统100的实施例所描述的,方法可以包括从用户接收关于背景叠加的输入以便生成定制的背景叠加的步骤。备选地,在介入流程期间来自用户、对象和/或交互式医学设备的反馈可以用于确定在增强现实显示设备上生成的背景叠加。
如前所述,方法可以包括生成识别交互式医学设备的至少一个部件的背景叠加。背景叠加还可以识别要由用户执行的介入流程的至少一个步骤。背景叠加还可以识别环境中的特定区域,例如目标等中心或当前等中心,需要清除障碍物的区域、C型臂的期望位置等。
在一个实施例中,来自以下中的至少一个的反馈用于确定要由用户执行的介入流程的至少一个步骤:反馈设备,其被配置为在介入流程期间接收来自用户;对象和/或交互式医学设备的反馈;来自多个部件中的一个或多个部件的信号的历史;或数据库。方法还可以自适应地向用户提供背景叠加,以用于识别设备的最佳路径,减少辐射等。
在解释权利要求时,应理解:
a)词语“包括”不排除除了在给定的权利要求中列出的元件或动作以外的其他元件或动作的存在;
b)元件前面的词语“一”或“一个”不排除多个这样的元件的存在;
c)权利要求中的任何附图标记不限制其范围;
d)若干“单元”可以由相同项或者硬件或软件实施的结构或功能来表示;并且
e)除非明确地指示,否则并不旨在要求动作的具体顺序。
已经描述了针对提供背景叠加的增强现实介入系统及其方法的优选实施例(其旨在是说明性的而非限制性的),应该注意到,本领域技术人员能够鉴于以上教导而作出修改和变型。因此应当理解,可以在所公开的本公开的特定实施例中做出变化,所述变化在如权利要求书所概括的本文所公开的实施例的范围内。因而已经描述了专利法所要求的细节和特性,由专利证书所主张并期望保护的内容在权利要求书中得以阐述。

Claims (15)

1.一种医学介入系统,包括:
交互式医学设备(102),其包括多个部件(104);
增强现实显示设备(106),其由用户(101)穿戴并且被配置为示出所述多个部件中的至少一个部件的图像,在使用所述交互式医学设备的环境(108)中的介入流程期间,所述图像由所述用户(101)查看;以及
图形处理模块(110),其被配置为在所述增强现实显示设备上示出的所述至少一个部件之上生成背景叠加(116),以帮助所述用户使用所述交互式医学设备来执行所述介入流程。
2.如权利要求1所述的系统,其中,所述系统还包括:
反馈设备(112),其被配置为在所述介入流程期间接收来自所述用户、对象(111)和/或所述交互式医学设备的反馈;
其中,所述图形处理模块还被配置为接收所述反馈并且基于所述反馈来提供所述背景叠加。
3.如权利要求1所述的系统,其中,所述图形处理模块还被配置为生成所述背景叠加以识别至少一个部件。
4.如权利要求1所述的系统,其中,所述图形处理模块还被配置为接收来自所述用户的输入以确定所生成的所述背景叠加。
5.如权利要求1所述的系统,其中,所述图形处理模块还被配置为生成所述背景叠加以识别要由所述用户执行的所述介入流程的步骤。
6.如权利要求5所述的系统,其中,对所述介入流程的所述步骤进行识别包括识别要由所述用户操纵的一个或多个特定控件并且描述对所述控件的操纵。
7.如权利要求5所述的系统,还包括:
确定模块(124),其被配置为:
接收来自以下中的至少一项的反馈:反馈设备,其被配置为在所述介入流程期间接收来自所述用户、对象和/或所述交互式医学设备的反馈;来自所述多个部件中的所述至少一个部件的信号的历史;或者数据库(122);
基于所述反馈来确定针对所述介入流程的所述用户要执行的所述步骤;并且
向所述图形处理模块发送关于要针对所述步骤生成的所述背景叠加的信号。
8.如权利要求1所述的系统,其中,所述图形处理模块还被配置为生成所述背景叠加以识别所述环境中的特定区域。
9.如权利要求8所述的系统,其中,所述图形处理模块还被配置为生成所述背景叠加以识别针对所述交互式医学设备的C型臂(154)的期望位置。
10.如权利要求1所述的系统,还包括:
位置模块(152),其被配置为确定针对所述交互式医学设备的C型臂的目标等中心的位置和针对所述C型臂的当前等中心的位置;
其中,所述图形处理模块还被配置为接收来自所述位置模块的所述目标等中心的所述位置和所述当前等中心的所述位置,并且生成所述背景叠加以识别所述目标等中心并生成另一背景叠加以识别所述环境中的所述当前等中心。
11.如权利要求1所述的系统,其中,所述图形处理模块还被配置为生成所述背景叠加以识别至少一个区域,针对所述至少一个区域,必须清除障碍物以执行所述介入流程。
12.如权利要求11所述的系统,还包括:
定位模块(160),其被配置为确定所述环境中的物体的位置,并且将物体的所述位置与必须清除障碍物的所述至少一个区域进行比较;
其中,所述图形处理模块还被配置为生成所述背景叠加以识别必须清除障碍物的所述至少一个区域中必须被移除的物体。
13.一种用于使用交互式医学设备(102)和增强现实显示设备(106)来帮助由用户(101)在环境(108)中对介入流程的执行的方法,所述增强现实显示设备(106)由用户穿戴并且被配置为示出所述交互式医学设备(102)的至少一个部件的图像,所述图像在执行所述介入流程时由所述用户查看,所述方法包括以下步骤:
确定(210)要在所述增强现实显示设备上的所述图像之上生成的背景叠加;并且
在所述增强现实显示设备上生成(220)在所述图像之上示出的所述背景叠加,以帮助所述用户对所述介入流程的执行。
14.如权利要求13所述的方法,还包括基于由至少一个反馈设备(112)在所述介入流程期间采集的来自所述用户、对象和/或所述交互式医学设备的反馈来确定所述背景叠加。
15.如权利要求13所述的方法,其中,所述背景叠加被配置为通过识别要由所述用户操纵的一个或多个特定控件并且描述对所述控件的操纵来识别要由所述用户执行的所述介入流程的至少一个步骤。
CN201880007343.7A 2017-01-17 2018-01-15 提供背景叠加的增强现实介入系统 Active CN110199357B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762447069P 2017-01-17 2017-01-17
US62/447,069 2017-01-17
PCT/EP2018/050806 WO2018134140A1 (en) 2017-01-17 2018-01-15 Augmented reality interventional system providing contextual overlays

Publications (2)

Publication Number Publication Date
CN110199357A CN110199357A (zh) 2019-09-03
CN110199357B true CN110199357B (zh) 2023-07-14

Family

ID=61163661

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880007343.7A Active CN110199357B (zh) 2017-01-17 2018-01-15 提供背景叠加的增强现实介入系统

Country Status (5)

Country Link
US (3) US11551380B2 (zh)
EP (1) EP3571698A1 (zh)
JP (1) JP7146772B2 (zh)
CN (1) CN110199357B (zh)
WO (1) WO2018134140A1 (zh)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9566414B2 (en) 2013-03-13 2017-02-14 Hansen Medical, Inc. Integrated catheter and guide wire controller
US9283046B2 (en) 2013-03-15 2016-03-15 Hansen Medical, Inc. User interface for active drive apparatus with finite range of motion
US10849702B2 (en) 2013-03-15 2020-12-01 Auris Health, Inc. User input devices for controlling manipulation of guidewires and catheters
US11020016B2 (en) 2013-05-30 2021-06-01 Auris Health, Inc. System and method for displaying anatomy and devices on a movable display
EP2923669B1 (en) 2014-03-24 2017-06-28 Hansen Medical, Inc. Systems and devices for catheter driving instinctiveness
US11037464B2 (en) 2016-07-21 2021-06-15 Auris Health, Inc. System with emulator movement tracking for controlling medical devices
US10010379B1 (en) 2017-02-21 2018-07-03 Novarad Corporation Augmented reality viewing and tagging for medical procedures
JP7314136B2 (ja) 2017-12-08 2023-07-25 オーリス ヘルス インコーポレイテッド 医療器具のナビゲーションおよびターゲット用のシステムおよび方法
US10573023B2 (en) * 2018-04-09 2020-02-25 Globus Medical, Inc. Predictive visualization of medical imaging scanner component movement
US11367526B2 (en) * 2018-05-07 2022-06-21 Medtronic Minimed, Inc. Proactive patient guidance using augmented reality
KR20250002662A (ko) 2018-05-18 2025-01-07 아우리스 헬스, 인코포레이티드 로봇식 원격작동 시스템을 위한 제어기
US11923084B2 (en) 2018-09-07 2024-03-05 Cilag Gmbh International First and second communication protocol arrangement for driving primary and secondary devices through a single port
US12144136B2 (en) 2018-09-07 2024-11-12 Cilag Gmbh International Modular surgical energy system with module positional awareness with digital logic
US11350978B2 (en) 2018-09-07 2022-06-07 Cilag Gmbh International Flexible neutral electrode
US11804679B2 (en) 2018-09-07 2023-10-31 Cilag Gmbh International Flexible hand-switch circuit
US20200078113A1 (en) 2018-09-07 2020-03-12 Ethicon Llc Port presence detection system for modular energy system
US20210225502A1 (en) * 2018-10-12 2021-07-22 Sony Corporation An operating room control system, method, and program
US11287874B2 (en) * 2018-11-17 2022-03-29 Novarad Corporation Using optical codes with augmented reality displays
EP3989793B1 (en) 2019-06-28 2025-11-19 Auris Health, Inc. Surgical console interface
USD939545S1 (en) 2019-09-05 2021-12-28 Cilag Gmbh International Display panel or portion thereof with graphical user interface for energy module
EP3838209A1 (en) * 2019-12-20 2021-06-23 Koninklijke Philips N.V. Generating interactive zones for interventional medical devices
US11237627B2 (en) 2020-01-16 2022-02-01 Novarad Corporation Alignment of medical images in augmented reality displays
EP4107751A1 (en) 2020-02-18 2022-12-28 Koninklijke Philips N.V. Medical imaging systems, devices, and methods for visualizing a deployment state of an intracorporeal therapeutic device
US12016633B2 (en) 2020-12-30 2024-06-25 Novarad Corporation Alignment of medical images in augmented reality displays
US12040749B2 (en) 2021-03-30 2024-07-16 Cilag Gmbh International Modular energy system with dual amplifiers and techniques for updating parameters thereof
US12235697B2 (en) 2021-03-30 2025-02-25 Cilag Gmbh International Backplane connector attachment mechanism for modular energy system
US11857252B2 (en) 2021-03-30 2024-01-02 Cilag Gmbh International Bezel with light blocking features for modular energy system
US11963727B2 (en) 2021-03-30 2024-04-23 Cilag Gmbh International Method for system architecture for modular energy system
US11968776B2 (en) 2021-03-30 2024-04-23 Cilag Gmbh International Method for mechanical packaging for modular energy system
US12228987B2 (en) 2021-03-30 2025-02-18 Cilag Gmbh International Method for energy delivery for modular energy system
US11950860B2 (en) 2021-03-30 2024-04-09 Cilag Gmbh International User interface mitigation techniques for modular energy systems
US11980411B2 (en) 2021-03-30 2024-05-14 Cilag Gmbh International Header for modular energy system
US12369994B2 (en) 2021-03-30 2025-07-29 Cilag Gmbh International Modular energy system with multi-energy port splitter for multiple energy devices
US11978554B2 (en) 2021-03-30 2024-05-07 Cilag Gmbh International Radio frequency identification token for wireless surgical instruments
US12004824B2 (en) 2021-03-30 2024-06-11 Cilag Gmbh International Architecture for modular energy system
US12444094B2 (en) 2021-04-14 2025-10-14 Cilag Gmbh International Systems and methods for controlling surgical data overlay
US12106161B2 (en) 2021-11-02 2024-10-01 International Business Machines Corporation Augmented reality object interaction and notification
US11948265B2 (en) 2021-11-27 2024-04-02 Novarad Corporation Image data set alignment for an AR headset using anatomic structures and data fitting
US12079460B2 (en) 2022-06-28 2024-09-03 Cilag Gmbh International Profiles for modular energy system
US12324691B2 (en) 2022-11-18 2025-06-10 GE Precision Healthcare LLC Cone beam computed tomography centering with augmented reality

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104272868A (zh) * 2011-12-05 2015-01-07 高通股份有限公司 远程医疗无线通信集线器设备和服务平台系统
CN104584018A (zh) * 2012-08-22 2015-04-29 皇家飞利浦有限公司 用于有效查看和报告成像研究相关的先前注释的自动检测和检索

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104470458B (zh) * 2012-07-17 2017-06-16 皇家飞利浦有限公司 用于手术仪器引导的增强现实成像系统
JP6299067B2 (ja) 2013-02-14 2018-03-28 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
US9916691B2 (en) 2013-02-14 2018-03-13 Seiko Epson Corporation Head mounted display and control method for head mounted display
KR20140112207A (ko) * 2013-03-13 2014-09-23 삼성전자주식회사 증강현실 영상 표시 시스템 및 이를 포함하는 수술 로봇 시스템
DE102014206004A1 (de) * 2014-03-31 2015-10-01 Siemens Aktiengesellschaft Triangulationsbasierte Tiefen- und Oberflächen-Visualisierung
US9696210B2 (en) 2014-06-16 2017-07-04 Honeywell International Inc. Extended temperature range mapping process of a furnace enclosure using various device settings
EP2982415A1 (en) * 2014-08-04 2016-02-10 Université de Strasbourg Method for estimating the spatial distribution of the hazardousness of radiation doses
US10154239B2 (en) * 2014-12-30 2018-12-11 Onpoint Medical, Inc. Image-guided surgery with surface reconstruction and augmented reality visualization
KR101647467B1 (ko) 2015-06-05 2016-08-11 주식회사 메드릭스 증강현실을 이용한 외과 수술용 3d 안경 시스템
US10706626B1 (en) * 2015-12-09 2020-07-07 Roger Brent Augmented reality procedural system
DE102015226669B4 (de) * 2015-12-23 2022-07-28 Siemens Healthcare Gmbh Verfahren und System zum Ausgeben einer Erweiterte-Realität-Information

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104272868A (zh) * 2011-12-05 2015-01-07 高通股份有限公司 远程医疗无线通信集线器设备和服务平台系统
CN104584018A (zh) * 2012-08-22 2015-04-29 皇家飞利浦有限公司 用于有效查看和报告成像研究相关的先前注释的自动检测和检索

Also Published As

Publication number Publication date
US20190371012A1 (en) 2019-12-05
EP3571698A1 (en) 2019-11-27
JP2020510461A (ja) 2020-04-09
US20250061617A1 (en) 2025-02-20
JP7146772B2 (ja) 2022-10-04
WO2018134140A1 (en) 2018-07-26
US11551380B2 (en) 2023-01-10
US20230086592A1 (en) 2023-03-23
CN110199357A (zh) 2019-09-03
US12169881B2 (en) 2024-12-17

Similar Documents

Publication Publication Date Title
CN110199357B (zh) 提供背景叠加的增强现实介入系统
JP7004729B2 (ja) 手術室における予測ワークフローのための拡張現実
CN104411248B (zh) 在内窥镜外科手术中用于最佳图像采集的c型臂轨迹规划
CN104244833B (zh) X射线焦斑移动的方向控制
CN110225719B (zh) 用于辐射剂量监测的增强现实
CN115804652B (zh) 手术操作系统及方法
EP3890610B1 (en) Positioning a medical x-ray imaging apparatus
JP6329953B2 (ja) カテーテルのためのx線撮像システム
CN105266831B (zh) 对x光源的调节变量进行姿势控制的调节的设备和方法
JP6222835B2 (ja) X線診断装置
CN112397189A (zh) 一种医用导引装置及其使用方法
US12026837B2 (en) Adapting an augmented and/or virtual reality
JP6824595B2 (ja) X線診断装置および医用画像診断装置
KR20150113490A (ko) 의료 영상 판독을 지원하기 위한 가상 사용자 인터페이스 장치 및 가상 사용자 인터페이스 제공 방법
KR20150113940A (ko) 의료 영상 판독을 지원하기 위한 가상 사용자 인터페이스 장치 및 가상 사용자 인터페이스 제공 방법
JP2014113325A (ja) 画像表示装置及び医用画像診断装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant