RU2746458C2 - Система навигации, слежения и направления для позиционирования операционных инструментов в теле пациента - Google Patents
Система навигации, слежения и направления для позиционирования операционных инструментов в теле пациента Download PDFInfo
- Publication number
- RU2746458C2 RU2746458C2 RU2018117932A RU2018117932A RU2746458C2 RU 2746458 C2 RU2746458 C2 RU 2746458C2 RU 2018117932 A RU2018117932 A RU 2018117932A RU 2018117932 A RU2018117932 A RU 2018117932A RU 2746458 C2 RU2746458 C2 RU 2746458C2
- Authority
- RU
- Russia
- Prior art keywords
- patient
- specified
- viewing device
- probe
- paragraphs
- Prior art date
Links
- 239000000523 sample Substances 0.000 claims abstract description 49
- 239000006185 dispersion Substances 0.000 claims abstract description 33
- 238000000034 method Methods 0.000 claims abstract description 31
- 238000001514 detection method Methods 0.000 claims abstract description 20
- 238000004590 computer program Methods 0.000 claims abstract description 5
- 238000012545 processing Methods 0.000 claims description 20
- 230000007170 pathology Effects 0.000 claims description 18
- 210000000056 organ Anatomy 0.000 claims description 14
- 239000000835 fiber Substances 0.000 claims description 11
- 230000004907 flux Effects 0.000 claims description 11
- 230000011218 segmentation Effects 0.000 claims description 11
- 239000003550 marker Substances 0.000 claims description 9
- 230000000007 visual effect Effects 0.000 claims description 7
- 230000017074 necrotic cell death Effects 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 239000011521 glass Substances 0.000 claims description 4
- 239000013307 optical fiber Substances 0.000 claims description 4
- 238000010521 absorption reaction Methods 0.000 claims description 2
- 238000006073 displacement reaction Methods 0.000 claims 1
- 238000003780 insertion Methods 0.000 claims 1
- 230000037431 insertion Effects 0.000 claims 1
- 239000003814 drug Substances 0.000 abstract 2
- 239000000126 substance Substances 0.000 abstract 1
- 230000003190 augmentative effect Effects 0.000 description 12
- 238000001356 surgical procedure Methods 0.000 description 9
- 238000002591 computed tomography Methods 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 238000002604 ultrasonography Methods 0.000 description 4
- 238000001574 biopsy Methods 0.000 description 3
- 238000002595 magnetic resonance imaging Methods 0.000 description 3
- 230000005855 radiation Effects 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 230000029058 respiratory gaseous exchange Effects 0.000 description 3
- 210000003484 anatomy Anatomy 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000002405 diagnostic procedure Methods 0.000 description 2
- 238000001839 endoscopy Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000002350 laparotomy Methods 0.000 description 2
- 238000002324 minimally invasive surgery Methods 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 206010028980 Neoplasm Diseases 0.000 description 1
- 238000002679 ablation Methods 0.000 description 1
- 238000005299 abrasion Methods 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000005253 cladding Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000010410 layer Substances 0.000 description 1
- 210000004185 liver Anatomy 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000005459 micromachining Methods 0.000 description 1
- 230000000771 oncological effect Effects 0.000 description 1
- 230000001575 pathological effect Effects 0.000 description 1
- 230000000241 respiratory effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000002344 surface layer Substances 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 230000002792 vascular Effects 0.000 description 1
- 210000001835 viscera Anatomy 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2048—Tracking techniques using an accelerometer or inertia sensor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
- A61B2034/2057—Details of tracking cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2061—Tracking techniques using shape-sensors, e.g. fiber shape sensors with Bragg gratings
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2063—Acoustic tracking systems, e.g. using ultrasound
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/06—Measuring instruments not otherwise provided for
- A61B2090/062—Measuring instruments not otherwise provided for penetration depth
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/06—Measuring instruments not otherwise provided for
- A61B2090/064—Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension
- A61B2090/065—Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension for measuring contact or contact pressure
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/06—Measuring instruments not otherwise provided for
- A61B2090/064—Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension
- A61B2090/066—Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension for measuring torque
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/08—Accessories or related features not otherwise provided for
- A61B2090/0807—Indication means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/365—Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/367—Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3983—Reference marker arrangements for use with image guided surgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/50—Supports for surgical instruments, e.g. articulated arms
- A61B2090/502—Headgear, e.g. helmet, spectacles
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0141—Head-up displays characterised by optical features characterised by the informative content of the display
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Optics & Photonics (AREA)
- General Physics & Mathematics (AREA)
- Pathology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Robotics (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Nuclear Medicine (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
Группа изобретений относится к медицине. Система навигации, слежения и направления для позиционирования операционных инструментов в теле пациента содержит управляющее устройство, просмотровое устройство и первое средство обнаружения для определения пространственного положения просмотрового устройства. Система дополнительно содержит зонд, соединенный с операционным инструментом и выполненный с возможностью введения во внутреннюю часть тела пациента. Зонд содержит по меньшей мере один световод, имеющий зоны дисперсии светового потока, генерируемого внутри световода, и средство обнаружения для обнаружения дисперсии светового потока, чтобы идентифицировать пространственное расположение зонда, введенного в тело пациента. Управляющее устройство выполнено с возможностью проецирования на просмотровом устройстве изображения внутреннего состояния по меньшей мере одной внутренней части тела пациента и изображения зонда на основе идентифицированного пространственного расположения. Носитель данных, содержит компьютерную программу, при выполнении на компьютере осуществляющую этапы способа. Применение данной группы изобретений позволит оператору оперировать пациента точным, надежным, безопасным способом. 3 н. и 24 з.п. ф-лы, 2 ил.
Description
Настоящее изобретение относится к системе навигации, слежения и направления для позиционирования операционных инструментов в теле пациента, в которой в качестве интерфейса оператора используется дополненная реальность.
Предлагаемая система в частности подходит для таких применений, как рентгенодиагностика, онкологическая хирургическая радиология, сосудистая хирургическая радиология, процедуры, выполняемые путем введения зондов и/или игл (например, с целью биопсии и отсасывания жидкости), и нейрохирургия.
На сегодняшний день в области хирургии и хирургической навигации известно применение систем, использующих радиологические изображения и связывающих их с движением ультразвукового зонда.
Например, во время хирургической навигации этих видов используют системы, оснащенные компьютерными томографами (КТ), которые обеспечивают радиологические изображения в реальном времени и во время операции (интраоперационные компьютерные томограммы).
Существуют также другие известные системы, могущие обеспечить виртуальное отслеживание абляционных зондов, но не дающие информации, касающейся деформации.
С другой стороны, известно использование операционных очков, снабженных дисплеем для просмотра изображений. С этой целью в документе ЕР 2737868 А1 описана система, содержащая беспроводную хирургическую увеличительную линзу, которая позволяет пользователю, использующему беспроводную линзу во время выполнения процедуры, передавать информацию, полученную от беспроводной линзы, и просматривать на дисплее информацию о пациенте. Таким образом, передаваемая информация может использоваться для помощи при процедуре, проводимой в операционной, усовершенствования инструкций и записи для последующего использования.
Кроме того, в документе US 6,847,336 В1 описана система и способ отображения данных на полупрозрачном экране, установленном в нормальном поле зрения пользователя. Этот экран может быть установлен на голове пользователя или смонтирован на подвижной конструкции и расположен перед пользователем. На экране отображается пользовательский интерфейс, включая движущийся курсор и меню из пиктограмм управления компьютером. Рядом с пользователем устанавливается система слежения за глазами, используемая для управления движением курсора.
Кроме того, в документе US 7501995 B2 описана система и способ представления данных клинической поддержки, в которых используется навигация с помощью зрения.
Кроме того, в документе WO 2009083191 A1 описана система избирательного отображения, позволяющая выборочно отображать данные и информацию на устройстве отображения, установленном на очках.
С другой стороны, также известна реконструкция медицинских изображений посредством трехмерного отображения, при котором предусмотрено трехмерное отслеживание объема на пациенте и, возможно, также отслеживание иглы в различных областях медицинского и хирургического применения.
Например, документ US 5526812 A описывает систему отображения, позволяющую увеличивать и улучшать визуальное представление структур тела во время медицинских процедур.
Другие примеры систем и способов навигации в дополненной реальности в процедурах, связанных с медицинскими вмешательствами, описаны в документах US 7,774,044 В2, US 2002/0082498 А1 и US 2013/0267838 А1.
Несмотря на то, что все вышеперечисленные системы описывают различные способы помощи оператору во время операции, в случае минимально-инвазивных вмешательств все еще существуют некоторые ограничения.
Действительно, в случае минимально-инвазивных вмешательств предусмотрен ввод в тело пациента хирургических инструментов, т.е. зондов, делающих возможными операции без вскрытия тела пациента. Такие вмешательства сложны из-за трудностей с точной оценкой положения тканей, на которых необходимо проводить операцию, и вводимых инструментов. Из-за этой сложности при проведении операции часто возникают ошибки.
Эти системы сочетают использование ультразвука, характеризующегося низким пространственным разрешением, воспроизведение радиологических изображений, характеризующихся высоким разрешением, путем отслеживания ультразвукового зонда (зондов) для минимально-инвазивных вмешательств с помощью электромагнитных датчиков или оптических систем без пространственного разрешения или с низким пространственных разрешением.
В этом контексте техническая задача, лежащая в основе настоящего изобретения, заключается в том, чтобы предложить систему навигации, слежения и направления для позиционирования операционных инструментов в теле пациента, позволяющую преодолеть один или более вышеупомянутых недостатков известного уровня техники.
В частности, целью настоящего изобретения является создание системы навигации, слежения и направления для позиционирования операционных инструментов в теле пациента, в которой в качестве интерфейса оператора используется дополненная реальность, чтобы оператор мог оперировать пациента точным, надежным, безопасным и эффективным способом.
Преимущественно изобретение относится к системе и способу, который объединяет различные технологии, позволяющие в совокупности или в их комбинациях отображать на устройствах любого типа изображения, связанные с внутренними структурами тела пациента (биомедицинского, физиологического и патологического типа) и операционными инструментами, частично вводимыми в тело пациента, которые, если тело пациента не вскрыто, извне оператору не видны. Эти изображения в 2, 3 или 4 измерениях становятся видимыми для оператора в позициях, соответствующих реальному положению в пространстве структур, которые они отображают.
Предпочтительно в соответствии с изобретением визуальное отображение также относится к использованию, отслеживанию и позиционированию хирургических инструментов с особой фокусировкой на "нацеливание" на патологии в организме человека.
Таким образом, настоящее изобретение обеспечивает систему навигации, слежения и направления и соответствующий способ для позиционирования операционных инструментов в теле пациента, причем в качестве интерфейса оператора для просмотра в реальном времени операционного поля внутри тела пациента в точном фактическом наружном положении пациента используется дополненная реальность.
В соответствии с первым аспектом изобретения упомянутая техническая задача и указанные цели по существу достигнуты посредством системы навигации, слежения и направления для позиционирования операционных инструментов в теле пациента, имеющей технические признаки, изложенные в одном или нескольких пунктах прилагаемой формулы изобретения.
В частности данное изобретение обеспечивает систему навигации, слежения и направления для позиционирования операционных инструментов в теле пациента, содержащую:
- управляющее устройство, выполненное с возможностью приема множества данных, относящихся к внутреннему состоянию тела пациента;
- просмотровое устройство, выполненное так, что посредством указанного просмотрового устройства обеспечена возможность для оператора видеть по меньшей мере одну внутреннюю часть тела пациента; и
- первое средство обнаружения для определения пространственного положения просмотрового устройства.
Управляющее устройство выполнено с возможностью проецирования на просмотровом устройстве изображения внутреннего состояния внутренней части тела пациента, при этом изображение получено путем обработки множества данных на основе пространственного положения просмотрового устройства.
Предпочтительно система дополнительно содержит зонд, соединенный с операционным инструментом и выполненный с возможностью введения в часть тела пациента, причем зонд содержит по меньшей мере один световод, имеющий зоны дисперсии светового потока, генерируемого внутри световода, и средство обнаружения дисперсии светового потока, чтобы идентифицировать пространственное расположение зонда, введенного в тело пациента.
Предпочтительно управляющее устройство также выполнено с возможностью проецирования на просмотровом устройстве изображения зонда на основе идентифицированного пространственного расположения.
Зависимые пункты формулы изобретения, включенные в настоящий документ путем ссылки, соответствуют различным вариантам осуществления изобретения.
Во втором аспекте изобретения упомянутая техническая задача и указанные цели по существу достигнуты с помощью способа навигации, слежения и направления для позиционирования операционных инструментов в теле пациента, имеющего технические признаки, изложенные в одном или нескольких пунктах прилагаемой формулы изобретения.
В соответствии с изобретением способ содержит следующие этапы:
- обеспечение наличия просмотрового устройства, выполненного так, что посредством этого просмотрового устройства обеспечена возможность для оператора видеть по меньшей мере одну внутреннюю часть тела пациента (Р);
- обеспечение наличия первого средства обнаружения для определения пространственного положения просмотрового устройства;
обеспечение наличия управляющего устройства для выполнения следующих этапов:
- прием множества данных, относящихся к внутреннему состоянию тела пациента;
- обработка указанного множества данных на основе пространственного положения просмотрового устройства; и
- проецирование на просмотровом устройстве изображения внутреннего состояния по меньшей мере одной внутренней части тела пациента на основе осуществленной обработки.
Предпочтительно способ содержит следующие этапы:
- обеспечение наличия зонда, соединенного с операционным инструментом и выполненного с возможностью введения в часть тела пациента, причем зонд содержит по меньшей мере один световод, имеющий зоны дисперсии светового потока, генерируемого внутри световода, и средство обнаружения дисперсии светового потока для идентификации пространственного расположения зонда, введенного в тело пациента;
- кроме того, проецирование посредством управляющего устройства на просмотровом устройстве изображения зонда на основе идентифицированного пространственного расположения.
Зависимые пункты формулы изобретения, включенные в настоящий документ путем ссылки, соответствуют различным вариантам осуществления изобретения.
В третьем аспекте изобретения упомянутая техническая задача и указанные цели по существу достигнуты с помощью способа навигации, слежения и направления для позиционирования операционных инструментов в теле пациента, отличающегося тем, что его осуществляют посредством компьютера, как описано в прилагаемой формуле изобретения.
В четвертом аспекте изобретения упомянутая техническая задача и указанные цели по существу достигнуты с помощью компьютерной программы, отличающейся тем, что при выполнении этой программы на компьютере она выполняет этапы описанного способа.
Дополнительные признаки и преимущества настоящего изобретения станут более понятными из примерного и, следовательно, не ограничивающего описания предпочтительного, но не исключительного варианта осуществления системы навигации, слежения и направления для позиционирования операционных инструментов в теле пациента, как показано на прилагаемом чертеже, причем фиг. 1 представляет собой перспективный схематический вид системы навигации, слежения и направления для позиционирования операционных инструментов в теле пациента в соответствии с настоящим изобретением во время рабочей конфигурации.
Со ссылкой на прилагаемые чертежи, номер позиции 1 обозначает в целом систему навигации, слежения и направления для позиционирования операционных инструментов в теле пациента, далее просто называемую системой 1.
Система 1 содержит управляющее устройство 2, выполненное с возможностью приема множества данных, относящихся к внутреннему состоянию тела пациента Р.
Предпочтительно множество данных, относящихся к внутреннему состоянию тела пациента Р, получают по меньшей мере посредством сканирования, например, облучения рентгеновскими лучами, МРТ (магнитно-резонансная томография), КТ (аксиальная компьютерная томография), ПЭТ-КТ (позитронно-эмиссионная компьютерная томография).
Сканирование может выполняться на месте или предварительно загружаться в управляющее устройство 2.
Система 1 содержит просмотровое устройство 3, выполненное так, что посредством просмотрового устройства 3 обеспечена возможность для оператора, который не показан, видеть по меньшей мере одну внутреннюю часть Pi тела пациента (Р).
Кроме того, система содержит первое средство 4 обнаружения для определения пространственного положения просмотрового устройства 3.
Управляющее устройство 2 выполнено с возможностью проецирования на просмотровом устройстве 3 изображения внутреннего состояния внутренней части Pi тела пациента Р, в частности изображение получается путем обработки множества данных на основе пространственного положения просмотрового устройства 3.
Другими словами, управляющее устройство 2 может проецировать на просмотровом устройстве 3 изображение в дополненной реальности внутренней части тела пациента Р, изменяющееся в зависимости от пространственного расположения просмотрового устройства 3.
Предпочтительно просмотровое устройство 3 расположено вдоль зрительной линии "оператор - часть тела пациента Р", чтобы обеспечить наилучшие эргономические условия для оператора и избежать любых проблем с координацией.
Предпочтительно согласно предпочтительному варианту осуществления настоящего изобретения, показанному на фиг. 1, просмотровое устройство 3 образовано просмотровым устройством, носимым оператором перед лицом (также называемым устанавливаемым на голове дисплеем (Head Mounted Display, HMD)), например, очками с по меньшей мере частично прозрачными линзами.
Предпочтительно просмотровое устройство 3 содержит гироскоп, компас и инерциальное измерительное устройство, преимущественно эти элементы позволяют корректно и точно идентифицировать пространственное положение просмотрового устройства 3.
Предпочтительно просмотровое устройство 3 также содержит датчик глубины, выполненный с возможностью записи восстановленного объема пациента, что предпочтительным образом позволяет оператору исследовать органы и патологии в теле пациента Р, одновременно наблюдая того же пациента Р.
Предпочтительно система 1 в соответствии с настоящим изобретением дополнительно содержит зонд, который не показан, соединенный с операционным инструментом 5 (т.е. вставленный внутрь) и выполненный с возможностью введения в часть Pi тела пациента Р.
Зонд содержит по меньшей мере один световод, который не показан, имеющий зоны дисперсии светового потока, генерируемого внутри световода, и средство обнаружения дисперсии светового потока, чтобы идентифицировать пространственное расположение зонда, введенного в тело пациента Р.
В сущности, управляющее устройство 2 также выполнено с возможностью проецирования на просмотровом устройстве 3 изображения зонда на основе идентифицированного пространственного расположения.
Таким образом, благодаря настоящему изобретению оператор может воспроизвести на просмотровом устройстве 3 то, что иначе не было бы видно невооруженным глазом. Действительно, управляющее устройство 2 передает в просмотровое устройство 3 изображение дополненной реальности, которое показывает не только внутреннее состояние тела пациента Р, но и движение зонда (и, следовательно, соединенного с ним операционного инструмента 5) во внутренней части Pi тела того же пациента Р.
Следовательно, реальное изображение пациента Р, видимое при помощи просмотрового устройства 3, накладывается на мнимое изображение, проецируемое с прозрачностью, и показывает органы и внутренние ткани пациента Р вместе с частью зонда, введенного в тело пациента Р, которые иначе не было бы видны.
Следовательно, благодаря настоящему изобретению оператор может работать на пораженном участке абсолютно безопасно и точно, без необходимости вскрывать тело пациента Р, чтобы отобразить рабочую область и положение/движение операционных инструментов 5.
Как сказано выше, чтобы идентифицировать пространственное расположение зонда, введенного в тело пациента Р, предусмотрен световод, в котором протекает световой поток. Путем модуляции и измерения потерь мощности оптического излучения, отраженного из-за областей дисперсии, с помощью управляющего устройства 2 можно определить и, следовательно, отобразить на просмотровом устройстве 3 положение зонда внутри пациента Р.
Следовательно, можно в реальном времени проконтролировать и отобразить правильность обращения с хирургическими инструментами 5, которые включают в себя зонды, являющиеся объектом настоящего изобретения, чтобы работать точно и надежно.
Другими словами, световод подвергнут микрообработке вдоль его центральной оси, чтобы потери мощности отражаемого оптического излучения могли изменяться в зависимости от существования и направления кривизны, испытываемой световодом.
Зоны дисперсии предпочтительно реализуют посредством процедуры микрообработки световода, заключающейся в прямом механическом истирании поверхностного слоя световода (также называемого "оболочкой"), чтобы локально уменьшить степень удержания света в сердцевине.
Благодаря части световода, подвергнутой избирательному удалению оболочки, свет, уже не ограничиваемый внутри сердцевины, может выходить наружу, что приводит к потере мощности отраженной волны.
Потери мощности оптического излучения возрастают или уменьшаются после положительной или отрицательной кривизны световода, поэтому оказывается, что потери мощности прямо пропорциональны кривизне чувствительной области (также называемой "сердцевиной") световода.
Итак, в соответствии с принципом работы настоящей системы 1 обеспечивается интеграция измерения изгиба зонда с данными о положении, получаемыми от первого средства 4 обнаружения для определения пространственного положения просмотрового устройства 3.
Согласно возможному варианту осуществления настоящего изобретения пространственная система отсчета реализуется с помощью шарнирного манипулятора с пятью степенями свободы, позволяющему обеспечить декартовы координаты X, Y, Z зонда относительно системы отсчета "операционное поле".
Предпочтительно зоны дисперсии образованы рядом первых зон дисперсии, последовательно расположенных вдоль по меньшей мере одной части указанного световода.
Предпочтительно зоны дисперсии, кроме того, образованы рядом вторых зон дисперсии, последовательно расположенных вдоль по меньшей мере одной части указанного световода и со смещением в радиальном направлении относительно центральной оси световода.
Благодаря расположению со смещением этих двух рядов зон дисперсии можно получить точную оценку пространственного расположения зонда.
Еще более предпочтительно вторые зоны дисперсии расположены под углом 90° относительно ряда первых зон дисперсии, измеренным относительно центральной оси световода.
Предпочтительно зонд содержит два параллельных световода, в которых ряд первых зон дисперсии и ряд вторых зон дисперсии соответственно образованы на одном из этих двух световодов.
Предпочтительно световод соединен с источником света, в частности с лазером, который не показан, и имеет отражающую стенку, расположенную на свободном конце, причем между лазером и отражающей стенкой расположен направленный ответвитель, соединенный с осциллографом.
Предпочтительно, закрывая свободный конец оптического волокна светоотражающим материалом, возможно осуществить отражение света в противоположном направлении.
Предпочтительно система содержит узел преобразования видеосигнала, который не показан, соединенный с управляющим устройством 2.
Предпочтительно узел преобразования видеосигнала содержит: по меньшей мере два конвертера VGA-HDMI, по меньшей мере один конвертер BNC-HDMI и по меньшей мере два порта HDMI. Более предпочтительно, конвертеры расположены в одном контейнере, а пять видеосигналов определяют вход "переключателя" и "преобразователя масштаба" с пятью входами и одним выходом HDMI. Видеосигналы принимаются переключателем и отправляются по стандарту HDMI в просмотровое устройство 3.
Видеосигналы передаются в просмотровое устройство 3 устройством зеркального отображения или кодером, в качестве альтернативы можно использовать локальный сервер.
Согласно возможному варианту осуществления настоящей системы предусмотрено, что видеосигналы могут быть выбраны оператором с помощью нажимного устройства, например, педали.
Педаль полезна с точки зрения эргономики во время операции, при которой врач/оператор должен смотреть на разные мониторы, как во время операции, так и во время диагностики, а также при прицеливании в области биопсии.
Предпочтительно система 1 содержит второе средство 6 обнаружения наружной поверхности тела пациента Р, которое не показано, соединенное с управляющим устройством 2 и содержащее, например, камеру или стереоскопическую камеру, предпочтительно составляющую одно целое с просмотровым устройством 3.
Предпочтительно второе средство 6 обнаружения наружной поверхности тела пациента Р делает возможным записывать операцию при осуществлении ее оператором. Кроме того, если это средство установлено на просмотровом устройстве 3, они особенно полезны как с точки зрения инструкций, потому что можно получить непосредственно точку клинического наблюдения, так и с точки зрения правовых аспектов, так как они записывают всю операцию.
Предпочтительно просмотровое устройство 3 содержит устройство передачи и приема данных, которое не показано, предпочтительно при помощи Wi-Fi, соединенное с первым средством обнаружения для определения пространственного положения просмотрового устройства 3 и/или соединенное со вторым средством 6 обнаружения наружной поверхности тела пациента Р.
Чтобы изображение дополненной реальности отображалось как можно точнее и в соответствии с реальным внутренним состоянием пациента Р, необходимо учитывать жизненно важные параметры пациента Р (дыхание, сердцебиение и т.п.). На самом деле, радиологические обследования могут обеспечить только статическое изображение внутренней части тела пациента Р.
Для этого необходимо идентифицировать изменение пространственной конфигурации внешней поверхности тела пациента Р, наблюдаемой оператором при помощи просмотрового устройства 3, чтобы получить корректное перекрытие/проекцию изображения, обработанного управляющим устройством 2, на реальном изображении пациента Р.
Изобретение предусматривает обеспечение второго средства 6 обнаружения наружной поверхности тела пациента Р, соединенного с управляющим устройством 2.
В частности изобретение предусматривает размещение по меньшей мере трех первых физических маркеров, подходящих для размещения на наружной поверхности части Pi тела пациента Р и обнаруживаемых самим вторым средством 6 обнаружения, обнаружение динамического позиционирования первых физических маркеров для передачи множества данных в управляющее устройство 2 и совмещение при помощи управляющего устройства 2 первых виртуальных маркеров изображения внутреннего состояния, спроецированного на просмотровом устройстве 3, с первыми физическими маркерами, расположенными на теле пациента Р.
Другими словами, второе средство 6 обнаружения наружной поверхности тела пациента Р содержит по меньшей мере три первых физических маркера (предпочтительно электромагнитных или оптических), которые не показаны, подходящих для размещения на наружной поверхности части Pi тела пациента Р и выполненных с возможностью обнаружения самим вторым средством 6 обнаружения. Второе средство 6 обнаружения наружной поверхности тела пациента Р обнаруживает динамическое позиционирование первых физических маркеров для передачи множества данных в управляющее устройство 2, предпочтительно выполненное с возможностью совмещения первых виртуальных маркеров изображения внутреннего состояния, спроецированного на просмотровом устройстве 3, с первыми физическими маркерами, расположенными на теле пациента 3.
Это делает возможным создание точного и качественного изображения дополненной реальности, мгновенно отражающего реальное внутреннее состояние пациента, при этом неподвижные изображения "корректируются" с учетом жизненно важных параметров пациента Р.
Изобретение предусматривает установку второго физического маркера, расположенного на зонде и пригодного для расположения вне тела пациента Р, а также для обнаружения физического положения второго маркера с использованием второго средства 6 обнаружения внешней поверхности тела пациента Р.
Другими словами, система 1 содержит второй физический маркер, расположенный на зонде и пригодный для расположения при применении вне тела пациента Р, причем второе средство 6 обнаружения наружной поверхности тела пациента Р также выполнено с возможностью обнаружения физического положения второго маркера.
Предпочтительно таким образом возможно точно идентифицировать позиционирование зонда в теле пациента Р и видеть его в дополненной реальности, проецируемой на просмотровом устройстве 3.
Здесь следует отметить, что пространственный ориентир может быть обеспечен фактом существования антропоморфного манипулятора, используемого оператором, тогда в этой конфигурации второй физический маркер может представлять дополнительную часть информации (по существу избыточную), но полезную для увеличения надежности системы в отношении рукоятки зонда.
Предпочтительно второе средство 6 обнаружения наружной поверхности тела пациента содержит по меньшей мере одно из следующих устройств: ультразвуковой преобразователь, инерциальное измерительное устройство и измерительный датчик, чтобы в реальном времени определять указанные жизненно важные параметры пациента.
В частности, измерительный датчик представляет собой систему, состоящую по меньшей мере из двух рычагов, соединенных посредством шарнира, движение которого определяется датчиком.
Концы этих двух рычагов закреплены на груди человека и, следовательно, движутся в соответствии с движением груди человека при дыхании. Таким образом, они показывают динамическую картину дыхательного цикла. Каждый момент этой картины будет сравниваться с выбранным в этот момент целевым положением, чтобы сопоставить каждую фазу дыхательного цикла, определенную таким образом, с положением шарнира.
Предпочтительно система 1 содержит датчик плотности внутренних тканей пациента Р, предпочтительно волоконно-оптический интерферометрический датчик с модуляцией поглощением.
Предпочтительно благодаря датчику плотности можно интегрировать множество определенных данных, а также определить степень так называемой "жесткости", что позволяет обеспечить параметры, характеризующие ткани, пересекаемые зондом.
Предпочтительно настоящая система 1 может быть успешно применена во время операции, перед операцией, или после операции. Действительно, система 1 позволяет оператору визуализировать перекрытие внутренних органов и патологий в трех измерениях, совмещая их с реальными анатомическими структурами.
Кроме того, настоящая система 1 позволяет отображать операционные инструменты внутри тела пациента Р и их деформацию из-за различных анатомических структур.
Ее можно использовать как для минимально-инвазивных процедур, так и для стандартных хирургических вмешательств. Единственное отличие заключается в том, что при минимально-инвазивных процедурах весь восстанавливаемый объем внутренней части тела пациента Р совмещается с телом пациента Р, в то время как во втором случае совмещение производится между определенной частью органа и той же частью органа в восстановленном объеме. Например, на фиг. 1 схематически показан реальный сегмент печени и его восстанавливаемый объем.
Система согласно настоящему изобретению имеет много преимуществ.
Что касается оператора, решение согласно изобретению позволяет наблюдать изображения в 2, 3 или 4 измерениях, точно в том месте, где расположена структура, к которой они относятся, и с высоким пространственным разрешением, а также увеличить разрешение, точность и распознавание правильного позиционирования операционных инструментов 5.
Кроме того, найденное решение позволяет обнаруживать положение и изгиб зондов и деформируемых инструментов.
В отличие от решений, используемых для решения тех же задач, настоящая система обеспечивает более высокую точность, даже без электромагнитных систем, при помощи механических систем и/или машинного зрения - вместе или по отдельности.
Система согласно настоящему изобретению может быть использована для подготовки или выполнения хирургического вмешательства, лапаротомии, эндоскопии или минимально-инвазивного вмешательства - чрескожного или чрескостного, или во время вмешательства при лапаротомии или эндоскопии. Кроме того, эта система подходит для проведения чрескожных диагностических процедур или диагностических процедур, проводимых под рентгенологическим контролем, таких как, например, биопсия или аспирация иглой.
Предпочтительно изобретение предусматривает, что этап обработки множества данных на основе пространственного положения просмотрового устройства 3 содержит обработку посредством сегментации органов и патологий.
Предпочтительно этап обработки содержит процесс трехмерного рендеринга изображений, полученных при радиологических обследованиях.
Изобретение также содержит создание трехмерного представления с патологией, сегментированной и отделенной от остальной части объема, в зависимости от осуществляемых сегментаций.
Изобретение дополнительно содержит этап проецирования на просмотровом устройстве 3 изображения внутреннего состояния по меньшей мере одной внутренней части Pi тела пациента Р в зависимости от выполняемой обработки, осуществляемый путем проецирования совместного визуального отображения органов и патологий.
В качестве альтернативы предпочтительно изобретение предусматривает, что этап обработки множества данных на основе пространственного положения просмотрового устройства 3 содержит обработку посредством сегментации органов и некроза, образовавшегося после лечения.
Изобретение также содержит создание трехмерного представления с патологией, сегментированной и отделенной от остальной части объема, в зависимости от осуществляемых сегментаций.
Предпочтительно этап обработки содержит процесс трехмерного рендеринга изображений, полученных при радиологических обследованиях.
Изобретение дополнительно содержит этап проецирования на просмотровом устройстве 3 изображения внутреннего состояния по меньшей мере одной внутренней части Pi тела пациента Р в зависимости от выполняемой обработки, осуществляемый путем проецирования совместного визуального отображения патологии и некроза.
Другими словами, в первом из этих двух вариантов изобретение предусматривает применение компьютерной программы, способной осуществить сегментацию органов и патологий (например, опухолей и т.п.) и трехмерный рендеринг изображений, полученных при радиологических обследованиях. Кроме того, программное обеспечение также может сравнивать трехмерный рендеринг изображений, полученных при разных исследованиях. Она состоит из программных кодов, которые включают в себя алгоритмы сегментации.
В частности, программа представляет собой веб-приложение, которое может принимать изображения от разных радиологических обследований (MPT, КТ, ПЭТ-КТ) и преобразовывать их в трехмерное представление с патологией, сегментированной и отделенной от остальной части объема (например, с помощью другого цвета). Сегментация полностью автоматическая, то есть она происходит без вмешательства пользователя, и не требует никакой коррекции.
Кроме того, во втором из двух вариантов осуществления программа также определяет, было ли лечение успешным или нет. Действительно, благодаря применению этого программного обеспечения органы и некроз, образовавшийся после лечения, на изображениях сегментируются (ПЭТ-КТ, МРТ и КТ), объем регистрируется до лечения и после лечения, и выполняется совместное визуальное представление патологии и некроза.
Программа предусматривает получение запроса на обработку изображения внутренней части Pi тела пациента Р и передачу в управляющее устройство 2 данных, репрезентативных для запроса.
Другими словами, веб-клиент запрашивает выполнение скрипта, скрипт помещается в планировщик, который будет управлять очередью или порядком скрипта, который будет выполняться на сервере, и, как только планировщик даст разрешение, сервер обработает файлы с требуемым скриптом и запишет файлы в совместно используемое запоминающее устройство.
Программа предусматривает получение изображение зонда, как определено выше, и отображение этого изображения.
Другими словами, веб-клиент найдет сгенерированные файлы или запрошенные слои и будет просматривать их при помощи просмотрового устройства 3, в частности при помощи устанавливаемого на голове дисплея.
Другой вариант осуществления изобретения содержит регистрацию восстановленного объема тела пациента с использованием датчика глубины. Предпочтительно этот датчик позволяет оператору исследовать органы и патологии в теле пациента Р, одновременно наблюдая того же пациента Р.
Это представляет собой второе решение компьютерной программы, основанной на соответствующих средствах, приспособленных для реализации так называемого "машинного зрения".
Это второе решение предусматривает применение датчиков глубины и стереоскопической камеры, вместе или отдельно, таким образом, чтобы совместить два объема. Вышеупомянутая камера применяется как при распознавании с применением дополненной реальности, так и для создания "карты несоответствия", позволяющей получить больше информации о глубине сцены; по этой второй причине камера должна также обеспечивать возможность регулировки межзрачкового расстояния, чтобы в этом случае работать с разными диапазонами глубины (например, с двумя/тремя фиксированными предварительными установками для большей дальности и дающей большую точность меньшей дальности).
Следует отметить, что для определения карты глубин сцены может быть достаточно одного только датчика глубины, что делает ненужным расчет карты несоответствия с использованием стереоскопической камеры, но, учитывая, что этот тип датчиков часто восприимчив к сильному свету и источникам инфракрасного излучения, могущим помешать считыванию, в некоторых случаях может потребоваться, интегрировать обе технологии, чтобы получить более точное соответствие между реальностью и дополненной реальностью.
Выше была описана система навигации, слежения и направления для позиционирования операционных инструментов в теле пациента, в которой в качестве интерфейса оператора используется дополненная реальность, чтобы оператор мог оперировать пациента точным, надежным, безопасным и эффективным способом.
Claims (54)
1. Система (1) навигации, слежения и направления для позиционирования операционных инструментов (5) в теле пациента (P), содержащая:
- управляющее устройство (2), выполненное с возможностью приема множества данных, относящихся к внутреннему состоянию тела пациента (P);
- просмотровое устройство (3), носимое оператором перед лицом, выполненное так, что посредством указанного просмотрового устройства (3) обеспечена возможность для оператора видеть по меньшей мере внутреннюю часть (Pi) тела пациента (P);
- первое средство (4) обнаружения для определения пространственного положения указанного просмотрового устройства (3);
причем указанное управляющее устройство (2) выполнено с возможностью проецирования на указанном просмотровом устройстве (3) изображения внутреннего состояния указанной по меньшей мере внутренней части (Pi) тела пациента (P), причем указанное изображение получено путем обработки указанного множества данных на основе указанного пространственного положения указанного просмотрового устройства (3);
- зонд, соединенный с операционным инструментом (5) и выполненный с возможностью введения во внутреннюю часть (Pi) тела указанного пациента (P), причем указанный зонд содержит по меньшей мере один световод, имеющий зоны дисперсии светового потока, генерируемого внутри указанного световода, и средство обнаружения дисперсии указанного светового потока, чтобы идентифицировать пространственное расположение зонда, введенного в тело пациента (P), причем указанное управляющее устройство (2) также выполнено с возможностью проецирования на указанном просмотровом устройстве (3) изображения указанного зонда на основе идентифицированного пространственного расположения; отличающаяся тем, что указанные зоны дисперсии образованы рядом первых зон дисперсии, последовательно расположенных вдоль по меньшей мере одной части указанного по меньшей мере одного световода.
2. Система (1) по п. 1, в которой указанные зоны дисперсии также образованы рядом вторых зон дисперсии, последовательно расположенных вдоль по меньшей мере части указанного по меньшей мере одного световода и со смещением в радиальном направлении относительно центральной оси указанного по меньшей мере одного световода.
3. Система (1) по п. 2, в которой указанный ряд вторых зон дисперсии расположен под углом 90° относительно ряда первых зон дисперсии, причем указанный угол измерен относительно центральной оси указанного по меньшей мере одного световода.
4. Система (1) по п. 2 или 3, в которой указанный зонд предпочтительно содержит два параллельных световода, причем указанный ряд первых зон дисперсии и указанный ряд вторых зон дисперсии соответственно образован на одном из указанных двух световодов.
5. Система (1) по любому из пп. 1-4, в которой указанный по меньшей мере один световод соединен с источником света, таким как лазер, и имеет отражающую стенку, расположенную на одном свободном конце, причем между указанным лазером и указанной отражающей стенкой расположен направленный ответвитель, соединенный с осциллографом.
6. Система (1) по любому из пп. 1-5, содержащая узел преобразования видеосигнала, соединенный с управляющим устройством (2), причем предпочтительно указанный узел преобразования видеосигнала содержит: по меньшей мере два конвертера VGA-HDMI, по меньшей мере один конвертер BNC-HDMI и по меньшей мере два порта HDMI.
7. Система по любому из пп. 1-6, в которой указанное множество данных, относящихся к внутреннему состоянию тела пациента, получено посредством по меньшей мере одного сканирования, такого как облучение рентгеновскими лучами, МРТ, КТ или ПЭТ-КТ.
8. Система (1) по любому из пп. 1-7, в которой указанное просмотровое устройство (3) расположено вдоль зрительной линии "оператор - часть тела пациента (P)".
9. Система (1) по любому из пп. 1-9, в которой указанное просмотровое устройство (3), носимое оператором перед лицом, представляет собой очки.
10. Система (1) по любому из пп. 1-9, содержащая второе средство (6) обнаружения наружной поверхности тела пациента (Р), соединенное с управляющим устройством (2), причем указанное второе средство (6) обнаружения содержит такое устройство, как камера или стереоскопическая камера, предпочтительно составляющее одно целое с просмотровым устройством (3).
11. Система (1) по п. 10, в которой указанное второе средство (6) обнаружения наружной поверхности тела пациента (P) содержит по меньшей мере три первых физических маркера, подходящих для расположения на наружной поверхности внутренней части (Pi) тела пациента (P) и выполненных с возможностью обнаружения, причем указанное управляющее средство (2) выполнено с возможностью совмещения первого внутреннего состояния виртуальных маркеров изображения, спроецированного на просмотровом устройстве (3), с указанными первыми физическими маркерами.
12. Система (1) по любому из пп. 10-11, в которой указанное просмотровое устройство (3) содержит устройство передачи и приема данных, предпочтительно при помощи Wi-Fi, соединенное с первым средством (4) обнаружения для определения пространственного положения просмотрового устройства (3) и/или соединенное со вторым средством (6) обнаружения наружной поверхности тела пациента (P).
13. Система (1) по любому из пп. 1-12, в которой указанное просмотровое устройство (3) содержит гироскоп, компас и инерциальное измерительное устройство.
14. Система (1) по любому из пп. 1-13, в которой указанное просмотровое устройство (3) дополнительно содержит датчик глубины, выполненный с возможностью записи восстановленного объема пациента (Р).
15. Система по п. 10, содержащая второй физический маркер, расположенный на зонде и пригодный для расположения при применении вне тела пациента (P), причем второе средство (6) обнаружения наружной поверхности тела пациента (P) также выполнено с возможностью обнаружения физического положения второго маркера.
16. Система по любому из пп. 1-15, содержащая антропоморфный манипулятор с пятью степенями свободы, обеспечивающий декартовы координаты X, Y, Z зонда относительно системы отсчета, предварительно заданной системой (1).
17. Система (1) по любому из пп. 1-16, содержащая датчик плотности внутренних тканей пациента, предпочтительно волоконно-оптический интерферометрический датчик с модуляцией поглощением.
18. Способ навигации, слежения и направления для позиционирования операционных инструментов (5) в теле пациента (P), содержащий следующие этапы:
- обеспечение наличия просмотрового устройства (3), носимого оператором перед
лицом, выполненного так, что посредством указанного просмотрового устройства (3) обеспечена возможность для оператора видеть по меньшей мере внутреннюю часть (Pi) тела пациента (P);
- обеспечение наличия первого средства (4) обнаружения для определения пространственного положения указанного просмотрового устройства (3);
- обеспечение наличия управляющего устройства (2) для выполнения следующих этапов:
- прием множества данных, относящихся к внутреннему состоянию тела пациента (P);
- обработка указанного множества данных на основе пространственного положения просмотрового устройства (3);
- проецирование на указанном просмотровом устройстве (3) изображения внутреннего состояния указанной по меньшей мере внутренней части (Pi) тела пациента (P) в зависимости от выполняемого вмешательства;
отличающийся тем, что способ содержит следующие этапы:
- обеспечение наличия зонда, соединенного с операционным инструментом (5) и выполненного с возможностью введения во внутреннюю часть (Pi) тела пациента (P),
причем указанный зонд содержит по меньшей мере один световод, имеющий зоны дисперсии светового потока, генерируемого внутри указанного по меньшей мере одного световода, и средство обнаружения дисперсии указанного светового потока для идентификации пространственного расположения указанного зонда, введенного в тело пациента (P); и
- дополнительно, проецирование посредством управляющего устройства (2) на указанном просмотровом устройстве (3) изображения указанного зонда на основе идентифицированного пространственного расположения;
причем указанные зоны дисперсии образованы рядом первых зон дисперсии, последовательно расположенных вдоль по меньшей мере одной части указанного по меньшей мере одного световода.
19. Способ по п. 18, содержащий этап получения указанного множества данных, относящихся к внутреннему состоянию тела пациента, посредством по меньшей мере одного сканирования, такого как облучение рентгеновскими лучами, МРТ, КТ, ПЭТ-КТ.
20. Способ по п. 18 или 19, содержащий этап расположения второго средства (6) обнаружения наружной поверхности тела пациента (P), соединенного с управляющим устройством (2).
21. Способ по п. 20, в котором указанный этап обеспечения наличия второго средства (6) обнаружения содержит:
- обеспечение наличия по меньшей мере трех первых физических маркеров, подходящих для размещения на наружной поверхности части (Pi) тела пациента (P) и выполненных с возможностью обнаружения самим вторым средством (6) обнаружения;
- обнаружение динамического позиционирования первых физических маркеров для передачи множества данных в управляющее устройство (2);
- совмещение посредством управляющего устройства (2) первых виртуальных маркеров изображения внутреннего состояния, спроецированного на просмотровом устройстве (3), с первыми физическими маркерами, расположенными на теле пациента (P).
22. Способ по п. 21, в котором указанный этап обеспечения наличия второго средства (6) обнаружения содержит расположение второго физического маркера, расположенного на зонде и пригодного для расположения при применении вне тела пациента (P);
- обнаружение также физического положения второго маркера с использованием второго средства (6) обнаружения внешней поверхности тела пациента (P).
23. Способ по любому из пп. 18 или 22, в котором выполняется следующее:
- указанный этап обработки указанного множества данных на основе указанного пространственного положения указанного просмотрового устройства (3) содержит обработку посредством сегментации органов и патологий;
- создание трехмерного представления с патологией, сегментированной и отделенной от остальной части объема, в зависимости от осуществляемых сегментаций;
- указанный этап проецирования на указанном просмотровом устройстве (3) изображения внутреннего состояния по меньшей мере одной внутренней части (Pi) тела пациента (P) в зависимости от выполняемой обработки, осуществляемый путем проецирования совместного визуального отображения указанных органов и патологий.
24. Способ по любому из пп. 18 или 23, в котором выполняется следующее:
- указанный этап обработки указанного множества данных на основе указанного пространственного положения указанного просмотрового устройства (3) содержит обработку посредством сегментации органов и некроза, образовавшегося после лечения;
- создание трехмерного представления с патологией, сегментированной и отделенной от остальной части объема, в зависимости от осуществляемых сегментаций;
- указанный этап проецирования на указанном просмотровом устройстве (3) изображения внутреннего состояния по меньшей мере одной внутренней части (Pi) тела пациента (P) в зависимости от выполняемой обработки, осуществляемый путем проецирования совместного визуального отображения патологии и некроза.
25. Способ по любому из пп. 18-24, содержащий этап записи восстановленного объема пациента посредством датчика глубины с обеспечением таким образом возможности для оператора исследовать органы и патологии в теле пациента (P), одновременно наблюдая того же пациента (P).
26. Способ по любому из пп. 18-25, отличающийся тем, что его осуществляют посредством компьютера.
27. Носитель данных, содержащий компьютерную программу, при выполнении на компьютере осуществляющую по меньшей мере этапы способа по п. 26.
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| ITUB2015A005830A ITUB20155830A1 (it) | 2015-11-23 | 2015-11-23 | "sistema di navigazione, tracciamento, e guida per il posizionamento di strumenti operatori" |
| IT102015000075480 | 2015-11-23 | ||
| PCT/IB2016/057001 WO2017089941A1 (en) | 2015-11-23 | 2016-11-21 | Navigation, tracking and guiding system for the positioning of operatory instruments within the body of a patient |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| RU2018117932A RU2018117932A (ru) | 2019-12-25 |
| RU2018117932A3 RU2018117932A3 (ru) | 2020-04-20 |
| RU2746458C2 true RU2746458C2 (ru) | 2021-04-14 |
Family
ID=55538379
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| RU2018117932A RU2746458C2 (ru) | 2015-11-23 | 2016-11-21 | Система навигации, слежения и направления для позиционирования операционных инструментов в теле пациента |
Country Status (12)
| Country | Link |
|---|---|
| US (2) | US20180344408A1 (ru) |
| EP (1) | EP3380034B1 (ru) |
| JP (1) | JP6905535B2 (ru) |
| CN (1) | CN108601628B (ru) |
| AU (1) | AU2016358472A1 (ru) |
| BR (1) | BR112018010382B1 (ru) |
| CA (1) | CA3005705A1 (ru) |
| DK (1) | DK3380034T3 (ru) |
| ES (1) | ES2815800T3 (ru) |
| IT (1) | ITUB20155830A1 (ru) |
| RU (1) | RU2746458C2 (ru) |
| WO (1) | WO2017089941A1 (ru) |
Families Citing this family (19)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US10013808B2 (en) | 2015-02-03 | 2018-07-03 | Globus Medical, Inc. | Surgeon head-mounted display apparatuses |
| ITUB20155830A1 (it) | 2015-11-23 | 2017-05-23 | R A W Srl | "sistema di navigazione, tracciamento, e guida per il posizionamento di strumenti operatori" |
| DE102017108235A1 (de) * | 2017-04-18 | 2018-10-18 | Bredent Medical Gmbh & Co. Kg | Brille mit wenigstens einem teiltransparenten Bildschirm und Verfahren zum Betrieb einer Brille |
| US20190254753A1 (en) | 2018-02-19 | 2019-08-22 | Globus Medical, Inc. | Augmented reality navigation systems for use with robotic surgical systems and methods of their use |
| WO2020181498A1 (zh) * | 2019-03-12 | 2020-09-17 | 上海复拓知达医疗科技有限公司 | 体内导航系统和方法 |
| US11992373B2 (en) | 2019-12-10 | 2024-05-28 | Globus Medical, Inc | Augmented reality headset with varied opacity for navigated robotic surgery |
| US12220176B2 (en) | 2019-12-10 | 2025-02-11 | Globus Medical, Inc. | Extended reality instrument interaction zone for navigated robotic |
| US12133772B2 (en) | 2019-12-10 | 2024-11-05 | Globus Medical, Inc. | Augmented reality headset for navigated robotic surgery |
| US11464581B2 (en) | 2020-01-28 | 2022-10-11 | Globus Medical, Inc. | Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums |
| US11382699B2 (en) | 2020-02-10 | 2022-07-12 | Globus Medical Inc. | Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery |
| US11207150B2 (en) | 2020-02-19 | 2021-12-28 | Globus Medical, Inc. | Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment |
| US11607277B2 (en) | 2020-04-29 | 2023-03-21 | Globus Medical, Inc. | Registration of surgical tool with reference array tracked by cameras of an extended reality headset for assisted navigation during surgery |
| US11153555B1 (en) | 2020-05-08 | 2021-10-19 | Globus Medical Inc. | Extended reality headset camera system for computer assisted navigation in surgery |
| US11382700B2 (en) | 2020-05-08 | 2022-07-12 | Globus Medical Inc. | Extended reality headset tool tracking and control |
| US11510750B2 (en) | 2020-05-08 | 2022-11-29 | Globus Medical, Inc. | Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications |
| CN111544115A (zh) * | 2020-05-16 | 2020-08-18 | 中国人民解放军陆军军医大学第二附属医院 | 一种增强现实导航追踪显示器以及校准方法 |
| US11737831B2 (en) | 2020-09-02 | 2023-08-29 | Globus Medical Inc. | Surgical object tracking template generation for computer assisted navigation during surgical procedure |
| DE102020212086A1 (de) * | 2020-09-25 | 2022-03-31 | Siemens Healthcare Gmbh | Ermitteln der Qualität einer Positionierung eines in einen Patientenkörper eingeführten Objekts |
| WO2025188772A1 (en) * | 2024-03-04 | 2025-09-12 | Xironetic Llc | Systems and methods for executing extended reality registration and pose estimation |
Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5526812A (en) * | 1993-06-21 | 1996-06-18 | General Electric Company | Display system for enhancing visualization of body structures during medical procedures |
| US20040047044A1 (en) * | 2002-06-25 | 2004-03-11 | Dalton Michael Nicholas | Apparatus and method for combining three-dimensional spaces |
| US20050020910A1 (en) * | 2003-04-30 | 2005-01-27 | Henley Quadling | Intra-oral imaging system |
| US20070273610A1 (en) * | 2006-05-26 | 2007-11-29 | Itt Manufacturing Enterprises, Inc. | System and method to display maintenance and operational instructions of an apparatus using augmented reality |
| US20110046483A1 (en) * | 2008-01-24 | 2011-02-24 | Henry Fuchs | Methods, systems, and computer readable media for image guided ablation |
| US20140022283A1 (en) * | 2012-07-20 | 2014-01-23 | University Health Network | Augmented reality apparatus |
| RU2012142510A (ru) * | 2010-04-07 | 2014-05-20 | Софар Спа | Роботизированная хирургическая системы с усовершенствованным управлением |
Family Cites Families (32)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5337758A (en) * | 1991-01-11 | 1994-08-16 | Orthopedic Systems, Inc. | Spine motion analyzer and method |
| US5577502A (en) * | 1995-04-03 | 1996-11-26 | General Electric Company | Imaging of interventional devices during medical procedures |
| US6847336B1 (en) * | 1996-10-02 | 2005-01-25 | Jerome H. Lemelson | Selectively controllable heads-up display system |
| US6033415A (en) | 1998-09-14 | 2000-03-07 | Integrated Surgical Systems | System and method for performing image directed robotic orthopaedic procedures without a fiducial reference system |
| US7343195B2 (en) * | 1999-05-18 | 2008-03-11 | Mediguide Ltd. | Method and apparatus for real time quantitative three-dimensional image reconstruction of a moving organ and intra-body navigation |
| US20020082498A1 (en) | 2000-10-05 | 2002-06-27 | Siemens Corporate Research, Inc. | Intra-operative image-guided neurosurgery with augmented reality visualization |
| DE60130264T2 (de) | 2001-06-13 | 2008-05-21 | Volume Interactions Pte. Ltd. | Führungssystem |
| US7001383B2 (en) | 2002-10-21 | 2006-02-21 | Biosense, Inc. | Real-time monitoring and mapping of ablation lesion formation in the heart |
| US7283572B2 (en) * | 2004-01-15 | 2007-10-16 | Ben Gurion University Of The Negey | Measurement of wavelength transients in tunable lasers |
| US7774044B2 (en) * | 2004-02-17 | 2010-08-10 | Siemens Medical Solutions Usa, Inc. | System and method for augmented reality navigation in a medical intervention procedure |
| US20060089626A1 (en) | 2004-10-22 | 2006-04-27 | Vlegele James W | Surgical device guide for use with an imaging system |
| US7501995B2 (en) | 2004-11-24 | 2009-03-10 | General Electric Company | System and method for presentation of enterprise, clinical, and decision support information utilizing eye tracking navigation |
| US8954134B2 (en) * | 2005-09-13 | 2015-02-10 | Children's Medical Center Corporation | Light-guided transluminal catheter |
| CN101309725A (zh) * | 2005-11-16 | 2008-11-19 | 眼科医疗公司 | 使用激光间接检眼镜的多光点光学医疗处理 |
| EP2046224A2 (en) * | 2006-04-12 | 2009-04-15 | NAVAB, Nassir | Virtual penetrating mirror device for visualizing of virtual objects within an augmented reality environment |
| US8135227B2 (en) * | 2007-04-02 | 2012-03-13 | Esight Corp. | Apparatus and method for augmenting sight |
| US8131379B2 (en) | 2007-08-27 | 2012-03-06 | St. Jude Medical Atrial Fibrillation Division, Inc. | Cardiac tissue elasticity sensing |
| DE102008063822B4 (de) | 2007-12-21 | 2013-05-16 | Holger Essiger | System und Verfahren zur selektiven Anzeige von Informationen, enthaltend eine Head-Mounted-Display-Vorrichtung in Form einer Brille |
| WO2010067267A1 (en) * | 2008-12-09 | 2010-06-17 | Philips Intellectual Property & Standards Gmbh | Head-mounted wireless camera and display unit |
| DE102009025077A1 (de) | 2009-06-10 | 2010-12-16 | Karl Storz Gmbh & Co. Kg | System zur Orientierungsunterstützung und Darstellung eines Instruments im Inneren eines Untersuchungsobjektes insbesondere im menschlichen Körper |
| JP2013061521A (ja) * | 2011-09-14 | 2013-04-04 | Brother Ind Ltd | 画像表示装置および画像表示方法 |
| US20130267838A1 (en) | 2012-04-09 | 2013-10-10 | Board Of Regents, The University Of Texas System | Augmented Reality System for Use in Medical Procedures |
| US9729831B2 (en) | 2012-11-29 | 2017-08-08 | Sony Corporation | Wireless surgical loupe |
| EP2961308B1 (en) * | 2013-02-28 | 2020-03-18 | Cook Medical Technologies LLC | Medical devices, systems, and methods for the visualization and treatment of bodily passages |
| WO2015066037A1 (en) * | 2013-10-28 | 2015-05-07 | Brown University | Virtual reality methods and systems |
| WO2015127464A1 (en) | 2014-02-24 | 2015-08-27 | H. Lee Moffitt Cancer Center And Research Institute, Inc. | Methods and systems for performing segmentation and registration of images using neutrosophic similarity scores |
| JPWO2015133608A1 (ja) * | 2014-03-07 | 2017-04-06 | 国立大学法人京都大学 | 手術支援システムおよびこれに用いるカメラユニット |
| US9538962B1 (en) * | 2014-12-31 | 2017-01-10 | Verily Life Sciences Llc | Heads-up displays for augmented reality network in a medical environment |
| US20160324580A1 (en) * | 2015-03-23 | 2016-11-10 | Justin Esterberg | Systems and methods for assisted surgical navigation |
| GB2536650A (en) | 2015-03-24 | 2016-09-28 | Augmedics Ltd | Method and system for combining video-based and optic-based augmented reality in a near eye display |
| CN107613897B (zh) * | 2015-10-14 | 2021-12-17 | 外科手术室公司 | 扩增实境的外科导航 |
| ITUB20155830A1 (it) * | 2015-11-23 | 2017-05-23 | R A W Srl | "sistema di navigazione, tracciamento, e guida per il posizionamento di strumenti operatori" |
-
2015
- 2015-11-23 IT ITUB2015A005830A patent/ITUB20155830A1/it unknown
-
2016
- 2016-11-21 EP EP16825885.3A patent/EP3380034B1/en active Active
- 2016-11-21 AU AU2016358472A patent/AU2016358472A1/en not_active Abandoned
- 2016-11-21 US US15/775,772 patent/US20180344408A1/en not_active Abandoned
- 2016-11-21 DK DK16825885.3T patent/DK3380034T3/da active
- 2016-11-21 BR BR112018010382-9A patent/BR112018010382B1/pt active IP Right Grant
- 2016-11-21 ES ES16825885T patent/ES2815800T3/es active Active
- 2016-11-21 JP JP2018545714A patent/JP6905535B2/ja active Active
- 2016-11-21 RU RU2018117932A patent/RU2746458C2/ru active
- 2016-11-21 CA CA3005705A patent/CA3005705A1/en active Pending
- 2016-11-21 WO PCT/IB2016/057001 patent/WO2017089941A1/en not_active Ceased
- 2016-11-21 CN CN201680068251.0A patent/CN108601628B/zh active Active
-
2018
- 2018-12-14 US US16/220,809 patent/US11596480B2/en active Active
Patent Citations (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5526812A (en) * | 1993-06-21 | 1996-06-18 | General Electric Company | Display system for enhancing visualization of body structures during medical procedures |
| US20040047044A1 (en) * | 2002-06-25 | 2004-03-11 | Dalton Michael Nicholas | Apparatus and method for combining three-dimensional spaces |
| US20050020910A1 (en) * | 2003-04-30 | 2005-01-27 | Henley Quadling | Intra-oral imaging system |
| US20070273610A1 (en) * | 2006-05-26 | 2007-11-29 | Itt Manufacturing Enterprises, Inc. | System and method to display maintenance and operational instructions of an apparatus using augmented reality |
| US20110046483A1 (en) * | 2008-01-24 | 2011-02-24 | Henry Fuchs | Methods, systems, and computer readable media for image guided ablation |
| RU2012142510A (ru) * | 2010-04-07 | 2014-05-20 | Софар Спа | Роботизированная хирургическая системы с усовершенствованным управлением |
| US20140022283A1 (en) * | 2012-07-20 | 2014-01-23 | University Health Network | Augmented reality apparatus |
Also Published As
| Publication number | Publication date |
|---|---|
| ES2815800T3 (es) | 2021-03-30 |
| ITUB20155830A1 (it) | 2017-05-23 |
| AU2016358472A1 (en) | 2018-06-14 |
| RU2018117932A (ru) | 2019-12-25 |
| DK3380034T3 (da) | 2020-08-24 |
| RU2018117932A3 (ru) | 2020-04-20 |
| EP3380034A1 (en) | 2018-10-03 |
| BR112018010382B1 (pt) | 2022-07-26 |
| CN108601628B (zh) | 2022-09-09 |
| US20190183586A1 (en) | 2019-06-20 |
| CN108601628A (zh) | 2018-09-28 |
| JP6905535B2 (ja) | 2021-07-21 |
| US20180344408A1 (en) | 2018-12-06 |
| JP2019503820A (ja) | 2019-02-14 |
| BR112018010382A2 (pt) | 2018-12-04 |
| US11596480B2 (en) | 2023-03-07 |
| CA3005705A1 (en) | 2017-06-01 |
| EP3380034B1 (en) | 2020-06-03 |
| WO2017089941A1 (en) | 2017-06-01 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| RU2746458C2 (ru) | Система навигации, слежения и направления для позиционирования операционных инструментов в теле пациента | |
| JP6987893B2 (ja) | 診断試験をリアルタイムの治療に統合する汎用デバイスおよび方法 | |
| JP6706576B2 (ja) | 最小侵襲性のインターベンションのための形状センスされるロボット超音波 | |
| ES2292593T3 (es) | Sistema de guiado. | |
| US9641808B2 (en) | Navigating attachment for optical devices in medicine, and method | |
| EP2760360B1 (en) | Self-localizing medical device | |
| JP6116754B2 (ja) | 低侵襲手術において画像データを立体視表示するための装置およびその装置の作動方法 | |
| JP6952740B2 (ja) | ユーザーを支援する方法、コンピュータープログラム製品、データ記憶媒体、及び撮像システム | |
| JP2017500935A5 (ru) | ||
| US20140362199A1 (en) | Surgical port localization | |
| US20210186648A1 (en) | Surgical shape sensing fiber optic apparatus and method thereof | |
| NL2001680C2 (nl) | Beeldgevende werkwijze voor de medische diagnostiek en volgens deze werkwijze werkende inrichting. | |
| KR20230147088A (ko) | 확대된 치과 치료 부위를 시각화하기 위한 방법, 시스템 및 컴퓨터 판독가능 저장 매체 | |
| US20220022964A1 (en) | System for displaying an augmented reality and method for generating an augmented reality | |
| WO2022033656A1 (en) | Microscope camera calibration | |
| JP5881559B2 (ja) | 医療機器 | |
| JP2004016357A (ja) | 手術用観察システム | |
| KR20240083010A (ko) | Ct 영상과 내시경 영상을 정합하여 디스플레이하는 수술용 내비게이션 장치 |