DE102011106812B4 - registration of anatomical data sets - Google Patents
registration of anatomical data sets Download PDFInfo
- Publication number
- DE102011106812B4 DE102011106812B4 DE102011106812.4A DE102011106812A DE102011106812B4 DE 102011106812 B4 DE102011106812 B4 DE 102011106812B4 DE 102011106812 A DE102011106812 A DE 102011106812A DE 102011106812 B4 DE102011106812 B4 DE 102011106812B4
- Authority
- DE
- Germany
- Prior art keywords
- data set
- volume
- volume data
- anatomical structure
- bone
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/107—Measuring physical dimensions, e.g. size of the entire body or parts thereof
- A61B5/1073—Measuring volume, e.g. of limbs
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
- A61B5/1126—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb using a particular sensing technique
- A61B5/1128—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb using a particular sensing technique using image analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
- A61B6/032—Transmission computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
- A61B6/037—Emission tomography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/08—Clinical applications
- A61B8/0875—Clinical applications for diagnosis of bone
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/12—Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/42—Details of probe positioning or probe attachment to the patient
- A61B8/4245—Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
- A61B8/4254—Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors mounted on the probe
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/52—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/5215—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
- A61B8/5223—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/52—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/5292—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves using additional data, e.g. patient information, image labeling, acquisition parameters
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/30—Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H10/00—ICT specially adapted for the handling or processing of patient-related medical or healthcare data
- G16H10/60—ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/40—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/363—Use of fiducial points
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/378—Surgical systems with images on a monitor during operation using ultrasound
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30008—Bone
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Pathology (AREA)
- Physics & Mathematics (AREA)
- Radiology & Medical Imaging (AREA)
- Biophysics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Dentistry (AREA)
- High Energy & Nuclear Physics (AREA)
- Optics & Photonics (AREA)
- Physiology (AREA)
- General Physics & Mathematics (AREA)
- Robotics (AREA)
- Urology & Nephrology (AREA)
- Rheumatology (AREA)
- Pulmonology (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Child & Adolescent Psychology (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
Abstract
Ein computergestütztes Verfahren zur Registrierung von Daten, die mit einem ersten Datensatz assoziiert sind, in einem zweiten Datensatz, wobei das Verfahren folgende Schritte aufweist:
Erfassung eines ersten Datensatzes von einer anatomischen Struktur mit einem bildverarbeitenden Gerät;
Entwicklung zusätzlicher Daten für den ersten Datensatz, wobei die zusätzlichen Daten in einer einzigartigen identifizierbaren räumlichen Relation zur Struktur des ersten Datensatzes stehen, wobei die zusätzlichen Daten einen Gravitationsvektor umfassen;
Erstellung eines ersten willkürlichen Bezugssystems für den ersten Datensatz, wobei das erste Bezugssystem ohne Bezugnahme auf einen vorgewählten Orientierungspunkt in der Struktur erstellt wird und das erste Bezugssystem in einer einzigartigen räumlichen Beziehung zum ersten Datensatz steht;
Erfassung eines zweiten Datensatzes der anatomischen Struktur mit einem bildverarbeitenden Gerät;
Erstellung eines zweiten willkürlichen Bezugssystems für den zweiten Datensatz;
Transformation des ersten Bezugssystems zum zweiten Bezugssystem durch Zuordnung eines einzigartigen räumlichen Parameters des ersten Datensatzes zu dem gleichen einzigartigen räumlichen Parameter des zweiten Datensatzes, und
Registrierung der zusätzlichen Daten im zweiten Datensatz.
A computerized method for registering data associated with a first data set in a second data set, the method comprising the steps of:
Acquiring a first data set of an anatomical structure with an image processing device;
developing additional data for the first data set, the additional data being in a uniquely identifiable spatial relationship to the structure of the first data set, the additional data comprising a gravity vector;
Creating a first arbitrary reference system for the first data set, the first reference system being created without reference to a preselected landmark in the structure, the first reference system being in a unique spatial relationship to the first data set;
Acquiring a second data set of the anatomical structure using an image processing device;
Creating a second arbitrary reference system for the second data set;
Transforming the first reference system to the second reference system by assigning a unique spatial parameter of the first data set to the same unique spatial parameter of the second data set, and
Registration of the additional data in the second data set.
Description
HINTERGRUND DER ERFINDUNGBACKGROUND OF THE INVENTION
1. Gebiet der Erfindung1. Field of the invention
Die vorliegende Erfindung bezieht sich auf Systeme und Methoden um anatomische Bilddatensätze zu registrieren und um anatomische Daten zwischen anatomischen Bilddatensätzen in Relation zu setzen.The present invention relates to systems and methods for registering anatomical image data sets and for relating anatomical data between anatomical image data sets.
2. Beschreibung des Hintergrunds der Erfindung2. Description of the background of the invention
Es existieren verschiedene Techniken, um bei computergestützten Operationsverfahren patientenbezogene Daten über verschiedene Modalitäten und/oder verschiedene Zeiträume hinweg zu registrieren. Solche patientenbezogenen Daten können zum Beispiel anatomische Daten oder Bilddaten unter Verwendung einer Vielzahl von bildverarbeitenden Verfahren oder Modalitäten wie Ultraschall, Magnetresonanztomographie („MRI“), Computertomographie („CT“), Single Photon Emission Computertomographie, Positronen-Emissions-Tomographie usw. beinhalten. Eine Technik, um patientenbezogene Daten über verschiedene Modalitäten hinweg zu registrieren, ist ein „punktbasiertes“ oder „paarweises“ Zuordnungsverfahren, wobei Orientierungspunkte oder Passermarken, die über verschiedene Modalitäten hinweg identifiziert werden können, verwendet werden, um eine Transformationsmatrix zu bestimmen und eine räumliche Beziehung zwischen den verschiedenen Modalitäten herzustellen. In einem Beispiel werden vor einem Bildscan, zum Beispiel einer MRT- oder CT-Untersuchung, Orientierungspunkte oder Passermarken auf einem Patienten platziert, und solche Orientierungspunkte oder Passermarken werden während eines chirurgischen Eingriffs im Bildscan und auf dem Patienten gekennzeichnet, um die Registrierung zwischen dem Patienten und den patientenbezogenen Daten aus dem Bildscan zu etablieren.Various techniques exist for registering patient-related data across different modalities and/or different time periods in computer-assisted surgical procedures. Such patient-related data may include, for example, anatomical data or image data using a variety of imaging techniques or modalities such as ultrasound, magnetic resonance imaging ("MRI"), computed tomography ("CT"), single photon emission computed tomography, positron emission tomography, etc. One technique for registering patient-related data across different modalities is a "point-based" or "pairwise" matching technique, where landmarks or fiducials that can be identified across different modalities are used to determine a transformation matrix and establish a spatial relationship between the different modalities. In one example, landmarks or fiducials are placed on a patient prior to an image scan, such as an MRI or CT scan, and such landmarks or fiducials are marked in the image scan and on the patient during a surgical procedure to establish registration between the patient and patient-related data from the image scan.
Bei einem anderen Verfahren wird die Oberflächenregistrierung verwendet, wobei mehrere Oberflächenpunkte einer relevanten Struktur oder Region verwendet werden um eine Registrierungsoberfläche zu schaffen. Die Oberflächenpunkte werden unabhängig voneinander in verschiedenen Modalitäten gekennzeichnet, oft mit Hilfe unterschiedlicher Verfahren. In einer Ausgestaltung wird das Verfahren der Oberflächenregistrierung bei der Hals-Nasen-Ohren-Chirurgie eingesetzt, wobei das Gesicht eines Patienten als Registrierungsoberfläche verwendet wird. Es wird zum Beispiel ein CT- oder MRT-Scan des Gesichts des Patienten erstellt und die Hautoberfläche im Scan gekennzeichnet und anschließend während der Operation digitalisierten Punkten auf dem Gesicht des Patienten zugeordnet. Solche digitalisierten Punkte können entweder direkt mit einem Digitalisierungsgerät, z. B. einem Zeiger erfasst werden, oder indirekt über eine Registrierungsmaske,Another method uses surface registration, where multiple surface points of a relevant structure or region are used to create a registration surface. The surface points are independently marked in different modalities, often using different methods. In one embodiment, the surface registration method is used in ENT surgery, where a patient's face is used as a registration surface. For example, a CT or MRI scan of the patient's face is created and the skin surface is marked in the scan and then assigned to digitized points on the patient's face during surgery. Such digitized points can be captured either directly with a digitizing device, e.g. a pointer, or indirectly via a registration mask,
Die obigen Registrierungsverfahren dienen im Allgemeinen nur dazu, patientenbezogene Daten von einer Modalität zu einer anderen Modalität zu registrieren. Meist registrieren die Registrierungsverfahren während einer Operation präoperative Bilddaten eines Patienten zur Anatomie des Patienten, um chirurgische Instrumente zu lokalisieren, die zur Durchführung der Operation verwendet werden.The above registration methods are generally only used to register patient-related data from one modality to another modality. Most often, during surgery, the registration methods register a patient's preoperative image data about the patient's anatomy in order to locate surgical instruments used to perform the surgery.
Bei einigen Arten von Eingriffen, wie den Verfahren im Zusammenhang mit Muskel-Skelett-Erkrankungen, spielen biomechanische und funktionelle Daten zu Gelenken eine wichtige Rolle bei der Bestimmung des Ausmaßes oder der Ursache einer Erkrankung. Solche Daten werden in der Regel durch eine Bewegungsanalyse erfasst. In einem Beispiel für eine Bewegungsanalyse werden Passermarken auf die Haut eines zu analysierenden Körperteils gesetzt. Ein Navigationssystem verfolgt die Passermarken, während das Körperteil bewegt wird, und die Bewegung der Passermarken wird analysiert um ein biomechanisches Modell des Körperteils zu erstellen. Ein offensichtlicher Nachteil dieser Technologie ist, dass die Passermarken nicht direkt mit den zugrunde liegenden Knochenstrukturen in Zusammenhang stehen und dass während der Bewegung Verschiebungen der Haut oder weicher Gewebe auftreten. Solche Verschiebungen können zu relativ großen Bewegungsartefakten und Ungenauigkeiten in den Ergebnissen der Bewegungsanalyse und des erstellten biomechanischen Modells beitragen.In some types of interventions, such as those related to musculoskeletal disorders, biomechanical and functional data about joints play an important role in determining the extent or cause of a condition. Such data is typically acquired through motion analysis. In an example of motion analysis, fiducials are placed on the skin of a body part to be analyzed. A navigation system tracks the fiducials as the body part is moved, and the motion of the fiducials is analyzed to create a biomechanical model of the body part. An obvious disadvantage of this technology is that the fiducials are not directly related to the underlying bone structures and that displacements of the skin or soft tissues occur during movement. Such displacements can contribute to relatively large motion artifacts and inaccuracies in the results of the motion analysis and the created biomechanical model.
Eine Technik, um die Verschiebung in weichen Geweben zu überwinden, ist die direkte Implantation von Passermarken, zum Beispiel kleinen Tantalperlen, auf den Knochen des Patienten, wobei die Passermarken während der Bewegung des Körperteils des Patienten mit Stereoradiographie-Techniken verfolgt werden. Einige der offensichtlichen Nachteile dieser Technik bestehen darin, dass ein chirurgischer Eingriff zur Implantation der Perlen erforderlich ist und dass zur Bewegungsanalyse ionisierende Energie verwendet wird.One technique to overcome displacement in soft tissues is to implant fiducials, such as small tantalum beads, directly onto the patient's bone, with the fiducials being tracked using stereoradiography techniques during movement of the patient's body part. Some of the obvious disadvantages of this technique are that surgery is required to implant the beads and that ionizing energy is used for motion analysis.
Außerdem kann eine Bewegungsanalyse während eines chirurgischen Eingriffs, wenn die Bewegung des Gliedes passiv ist, funktionelle Daten der Gelenke möglicherweise nicht adäquat erfassen. Wenn zum Beispiel ein Chirurg die Gliedmaßen eines Patienten bewegt oder wenn der Patient narkotisiert ist und auf einem Operationstisch liegt, sind keine willentlichen Muskelkräfte aktiv, um den Auswirkungen der Schwerkraft auf die Körpermassen entgegenzuwirken.In addition, motion analysis during a surgical procedure when the movement of the limb is passive may not adequately capture functional data of the joints. For example, when a surgeon moves a patient's limbs or when the patient is anesthetized and lying on an operating table, no voluntary muscle forces are active to counteract the effects of gravity on the body masses.
Da die chirurgischen Verfahren bei Muskel-Skelett-Erkrankungen beginnen, sich von rein statischen Erwägungen weg und hin zu einer funktionelleren Beurteilung der Gelenke und zur frühzeitigen Intervention zu bewegen, wird die Fähigkeit, funktioneller Daten im Zusammenhang mit Gelenken zu erfassen und diese Daten auf einfache Weise zur Planung und Durchführung von chirurgischen Eingriffen in Relation zu setzen, immer wichtiger.As surgical procedures for musculoskeletal disorders begin to move away from purely static considerations and toward more functional joint assessment and early intervention, the ability to collect functional data related to joints and easily relate these data to the planning and execution of surgical procedures is becoming increasingly important.
Der Wikipedia-Eintrag „
ZUSAMMENFASSUNG DER ERFINDUNGSUMMARY OF THE INVENTION
Gemäß den Aspekten der vorliegenden Offenbarung werden computergestützte Verfahren zur Registrierung von Daten, computergestützte Verfahren zur Assoziierung räumlicher Daten, Systeme zur Erfassung und Bearbeitung eines Volumendatensatzes von einer anatomischen Struktur, und ein Verfahren zur Erstellung einer Position eines Teils eines Knochens gemäß den unabhängigen Ansprüchen bereitgestellt. Bevorzugte Ausführungsformen sind in den abhängigen Ansprüchen angegeben.According to aspects of the present disclosure, computer-aided methods for registering data, computer-aided methods for associating spatial data, systems for acquiring and processing a volume dataset from an anatomical structure, and a method for establishing a position of a portion of a bone are provided according to the independent claims. Preferred embodiments are set out in the dependent claims.
Entsprechend einiger Aspekte wird eine computergestützte Methode um Daten, die mit einem ersten Datensatz verbunden sind, zu einem zweiten Datensatz zu registrieren, offenbart. Die Methode umfasst die Schritte der Erfassung eines erstes Datensatzes einer anatomischen Struktur mit einem bildverarbeitenden Gerät, der Entwicklung zusätzlicher Daten für den ersten Datensatz, wobei die zusätzlichen Daten eine einzigartige identifizierbare räumliche Relation zu der Struktur des ersten Datensatzes haben, und die Erstellung eines ersten willkürlichen Bezugssystems für den ersten Datensatz. Das erste Bezugssystem wird ohne Bezugnahme auf irgendeinen vorgewählten Orientierungspunkt in der Struktur erstellt, und das erste Bezugssystem hat eine einzigartige räumliche Beziehung zum ersten Datensatz. Das Verfahren umfasst auch die Schritte der Erfassung eines zweiten Datensatzes einer anatomischen Struktur mit einem bild verarbeitenden Gerät, die Erstellung eines zweiten willkürlichen Bezugssystems für den zweiten Datensatz, und die Transformation des ersten Bezugssystem auf das zweite Bezugssystem, indem je einem einzigartigen räumlichen Parameter des ersten Datensatzes der gleiche einzigartige räumlichen Parameter des zweiten Datensatzes zugeordnet und die zusätzlichen Daten im zweiten Datensatz registriert werden.According to some aspects, a computer-assisted method for registering data associated with a first data set to a second data set is disclosed. The method includes the steps of acquiring a first data set of an anatomical structure with an image processing device, developing additional data for the first data set, the additional data having a unique identifiable spatial relationship to the structure of the first data set, and establishing a first arbitrary reference frame for the first data set. The first reference frame is established without reference to any preselected landmark in the structure, and the first reference frame has a unique spatial relationship to the first data set. The method also includes the steps of acquiring a second data set of an anatomical structure with an image processing device, establishing a second arbitrary reference frame for the second data set, and transforming the first reference frame to the second reference frame by associating each unique spatial parameter of the first data set with the same unique spatial parameter of the second data set and registering the additional data in the second data set.
Entsprechend anderer Aspekte wird eine computergestützte Methode offenbart, um räumliche Daten im Zusammenhang mit einem ersten Volumendatensatz einer anatomischen Struktur mit einem zweiten Volumendatensatz der anatomischen Struktur zu assoziieren. Die Methode umfasst die Schritte der Erfassung eines ersten Volumendatensatzes der anatomischen Struktur mit einem computergestützten chirurgischen Navigationssystem, die Zuweisung eines ersten willkürlichen Bezugssystems zum ersten Volumendatensatz, der Berechnung einer inhärenten Eigenschaft des ersten Volumendatensatzes, die Korrelation der inhärenten Eigenschaft mit dem ersten willkürlichen Bezugssystem und die Assoziierung zusätzlicher räumlicher Daten mit dem ersten Volumendatensatz. Die inhärente Eigenschaft hat eine einzigartige Position und Ausrichtung in Bezug auf die anatomische Struktur, die von jeder Referenzposition aus identifiziert werden kann, und die zusätzlichen räumlichen Daten haben eine einzigartige räumliche Beziehung korreliert mit dem ersten willkürlichen Bezugssystem. Das Verfahren umfasst ferner die Schritte der Erfassung eines zweiten Datensatzes der anatomischen Struktur mit einem computergestützten chirurgischen Navigationssystem, die Zuweisung eines zweiten willkürlichen Bezugssystems zum zweiten Datensatz, die Identifikation des inhärenten Merkmals im zweiten Datensatz und die Korrelation der inhärenten Eigenschaft mit dem zweiten willkürlichen Bezugssystem. Das Verfahren umfasst auch die Schritte der Registrierung des ersten Volumendatensatzes mit dem zweiten Volumendatensatz basierend auf der inhärenten Eigenschaft, die Korrelation der zusätzlichen räumlichen Daten mit dem zweiten Datensatz bei der Registrierung darin, und die Anzeige der zusätzlichen räumlichen Daten, die im zweiten Datensatz registriert wurden, auf einem Anzeigegerät. Der Registrierungsschritt wird von einem Computer ausgeführt.According to other aspects, a computer-aided method is disclosed for associating spatial data associated with a first volume dataset of an anatomical structure with a second volume dataset of the anatomical structure. The method includes the steps of acquiring a first volume dataset of the anatomical structure with a computer-aided surgical navigation system, assigning a first arbitrary reference system to the first volume dataset, computing an inherent property of the first volume dataset, correlating the inherent property with the first arbitrary reference system, and associating additional spatial data with the first volume dataset. The inherent property has a unique position and orientation with respect to the anatomical structure that can be identified from any reference position, and the additional spatial data has a unique spatial relationship correlated with the first arbitrary reference system. The method further comprises the steps of acquiring a second data set of the anatomical structure with a computer-assisted surgical navigation system, assigning a second arbitrary reference system to the second data set, identifying the inherent feature in the second data set, and correlating the inherent property with the second arbitrary reference system. The method also comprises the steps of registering the first volume data set with the second volume data set based on the inherent property, correlating the additional spatial data with the second data set upon registration thereto, and displaying the additional spatial data registered in the second data set on a display device. The registration step is performed by a computer.
Entsprechend weiterer Aspekte umfasst ein System zur Erfassung und Bearbeitung eines Volumendatensatzes von einer anatomischen Struktur Mittel zur Erfassung eines ersten Volumendatensatzes einer anatomischen Struktur eines Patienten und eines zweiten Volumendatensatzes der anatomischen Struktur und Mittel zur Berechnung einer inhärenten Eigenschaft des ersten Volumendatensatzes und des zweiten Volumendatensatzes. Die inhärente Eigenschaft hat eine einzigartige Position und Ausrichtung in Bezug auf die anatomische Struktur, die von jeder Referenzposition aus identifiziert werden kann. Das System umfasst weiterhin Mittel zur Zuweisung eines ersten willkürlichen Bezugssystems zum ersten Volumendatensatz und eines zweiten willkürlichen Bezugssystems zum zweiten Volumendatensatz, Mittel zur Korrelation der inhärenten Eigenschaft mit dem ersten willkürlichen Bezugssystem und Mittel für die Assoziierung zusätzlicher räumlicher Daten mit dem ersten Volumendatensatz, Die zusätzlichen räumlichen Daten haben eine einzigartige räumliche Beziehung korreliert mit dem ersten willkürlichen Bezugssystem, Das System umfasst auch Mittel zur Registrierung des ersten Volumendatensatzes mit dem zweiten Volumendatensatz auf der Grundlage der inhärenten Eigenschaft und Mittel zur Korrelation der zusätzlichen räumlichen Daten mit dem zweiten Volumendatensatz bei der Registrierung darin.According to further aspects, a system for recording and processing a volume volume data set of an anatomical structure, means for acquiring a first volume data set of an anatomical structure of a patient and a second volume data set of the anatomical structure, and means for calculating an inherent property of the first volume data set and the second volume data set. The inherent property has a unique position and orientation with respect to the anatomical structure that can be identified from any reference position. The system further comprises means for assigning a first arbitrary reference frame to the first volume data set and a second arbitrary reference frame to the second volume data set, means for correlating the inherent property with the first arbitrary reference frame, and means for associating additional spatial data with the first volume data set, the additional spatial data having a unique spatial relationship correlated with the first arbitrary reference frame, The system also comprises means for registering the first volume data set with the second volume data set based on the inherent property, and means for correlating the additional spatial data with the second volume data set upon registration therewith.
Entsprechend weiterer Aspekte umfasst ein Verfahren zur Festlegung einer Position eines Teils eines Knochens, der aus einer normalen Form verändert wurde, den Schritt der Erfassung eines ersten Volumendatensatzes für einen ersten Knochen, der unverändert ist, wobei der erste Volumendatensatz Volumendaten für den ersten und zweiten Teil des ersten Knochens umfasst. Das Verfahren umfasst auch die Schritte der Identifizierung eines ersten einzigartigen räumlichen Merkmals der Volumendaten für den ersten Teil des ersten Knochens, zur Festlegung eines ersten willkürlichen Bezugssystems für den ersten Volumendatensatz, korreliert mit dem ersten einzigartigen räumlichen Merkmal und der Identifizierung einer einzigartigen räumlichen Beziehung zwischen dem ersten willkürlichen Bezugssystem und dem zweiten Teil des ersten Knochens. Das Verfahren umfasst ferner den Schritt der Identifizierung eines zweiten Knochens, der normalerweise den ersten Knochen über eine Mittelachse spiegelt, wobei der zweite Knochen einen ersten Teil und einen zweiten Teil umfasst, die im Wesentlichen als Spiegelstrukturen jeweils dem ersten und zweiten Teil des ersten Knochens entsprechen, und wobei der zweite Knochen so aus einer normalen Form verändert wurde, dass der erste Teil des zweiten Knochens sich in einer veränderten Lage gegenüber dem zweiten Teil des zweiten Knochens befindet. Das Verfahren umfasst ferner die Schritte der Erfassung eines zweiten Volumendatensatzes des ersten Teils des zweiten Knochens, die Identifizierung eines zweiten einzigartigen räumlichen Merkmals des zweiten Volumendatensatzes, wobei das zweite einzigartige räumliche Merkmal im Wesentlicheren das erste eindeutige räumliche Merkmal widerspiegelt, die Registrierung des ersten Volumendatensatzes in gespiegelter Korrelation mit dem zweiten Volumendatensatz durch Korrelation des ersten einzigartigen räumlichen Merkmals mit dem zweiten einzigartigen räumlichen Merkmal und die Wiederherstellung der normalen Position des zweiten Teils des zweiten Knochens entsprechend der Position des zweiten Teils des ersten Knochens in Bezug auf die registrierte Position des ersten Teils des ersten Knochens,According to further aspects, a method for determining a position of a portion of a bone that has been altered from a normal shape includes the step of acquiring a first volume data set for a first bone that is unaltered, the first volume data set comprising volume data for the first and second portions of the first bone. The method also includes the steps of identifying a first unique spatial feature of the volume data for the first portion of the first bone, establishing a first arbitrary reference frame for the first volume data set correlated with the first unique spatial feature, and identifying a unique spatial relationship between the first arbitrary reference frame and the second portion of the first bone. The method further includes the step of identifying a second bone that normally mirrors the first bone about a central axis, the second bone comprising a first portion and a second portion that substantially correspond as mirror structures to the first and second portions of the first bone, respectively, and the second bone has been altered from a normal shape such that the first portion of the second bone is in an altered position relative to the second portion of the second bone. The method further comprises the steps of acquiring a second volume data set of the first portion of the second bone, identifying a second unique spatial feature of the second volume data set, the second unique spatial feature more substantially reflecting the first unique spatial feature, registering the first volume data set in mirrored correlation with the second volume data set by correlating the first unique spatial feature with the second unique spatial feature, and restoring the normal position of the second portion of the second bone corresponding to the position of the second portion of the first bone with respect to the registered position of the first portion of the first bone,
Weitere Aspekte und Vorteile der vorliegenden Erfindung werden bei Betrachtung der folgenden detaillierten Beschreibung ersichtlich.Further aspects and advantages of the present invention will become apparent upon consideration of the following detailed description.
EINE KURZE BESCHREIBUNG DER ZEICHNUNGENA BRIEF DESCRIPTION OF THE DRAWINGS
-
1 ist eine schematische Darstellungen einer Ausgestaltung eines chirurgischen Navigationssystems, das so angepasst ist, dass es die Methoden der vorliegenden Erfindung umsetzt;1 is a schematic representation of one embodiment of a surgical navigation system adapted to implement the methods of the present invention; -
Die
2 und2a sind Flussdiagramme von Registrierungsverfahren entsprechend der vorliegenden Erfindung;The2 and2a are flowcharts of registration methods according to the present invention; -
Die
3A ,3B und3C zeigen die Entwicklung zusätzlicher räumlicher Daten für eine anatomische Struktur, dargestellt an einem ersten Datensatz und der Relation dieser Daten zu einem zweiten Datensatz;The3A ,3B and3C show the development of additional spatial data for an anatomical structure, represented by a first data set and the relation of this data to a second data set; -
4A ist ein Beispiel Bildschirmabbild und4B und4C sind visuelle Darstellungen, die die Datenerfassung und Registrierung darstellen;4A is an example screenshot and4B and4C are visual representations that illustrate data collection and registration; -
5 zeigt die Entwicklung zusätzlicher räumlicher Daten für eine erste anatomische Struktur und die Relation dieser Daten zu einer zweiten anatomischen Struktur, die die erste anatomische Struktur widerspiegelt;5 shows the development of additional spatial data for a first anatomical structure and the relation of these data to a second anatomical structure that reflects the first anatomical structure; -
Die
6A und6B zeigen ein Beispiel für ein präoperativ definiertes anatomischen Referenzsystem, das während eines chirurgischen Eingriffs nicht zugänglich ist undThe6A and6B show an example of a preoperatively defined anatomical reference system that is not accessible during a surgical procedure and -
Die
7A und7B zeigen ein Beispiel für die Bestimmung funktioneller Bewegungsparameter einer Hüfte eines Patienten,The7A and7B show an example of the determination of functional movement parameters of a patient’s hip,
EINE DETAILLIERTE BESCHREIBUNG DER ZEICHNUNGENA DETAILED DESCRIPTION OF THE DRAWINGS
Die Systeme und Methoden der vorliegenden Erfindung können dazu verwendet werden, um verschiedene Datensätze im Zusammenhang mit einer oder mehreren Strukturen eines Patienten zu registrieren und/oder zusätzliche Daten von einem solchen Datensatz zu einem anderen solchen Datensatz in Relation zu setzen, wobei die zusätzlichen Daten möglicherweise nicht verfügbar oder für den anderen Datensatz praktisch nicht erhältlich sind. In vielen Fällen werden Positionsdaten nicht aneinander grenzender Regionen des Körpers miteinander verbunden, ohne das es erforderlich wird, lokale anatomische Bezugssysteme zu identifizieren oder sich aufgrund vordefinierter anatomischer Orientierungspunkte auf sie zu beziehen. In einer Anwendung werden funktionelle Daten aus einem Datensatz auf einem anderen Datensatz bezogen, um die Durchführung einer funktionellen Beurteilung einer Struktur zu erleichtern. Zum Beispiel kann die Struktur eine anatomische Struktur, wie ein Knochen oder Gelenk eines Patienten, sein und der Volumendatensatz kann ein Bilddatensatz des Knochens oder der Knochen sein, der unter Verwendung einer Ultraschallsonde oder eines anderen bekannten bildverarbeitenden Verfahrens oder anderer bekannter Modalitäten erfasst wurde. Die funktionellen Daten, die für die anatomische Struktur aus einem präoperativen Bilddatensatz entwickelt wurden, können zu einem intraoperativen Bilddatensatz in Bezug gesetzt werden, um bei der Planung und Durchführung von chirurgischen Eingriffen zu helfen oder die frühzeitige Erkennung und Vorbeugung von gewissen Krankheiten oder schädlichen Bedingungen zu erleichtern. In einer weiteren Ausgestaltung können auch andere Daten genutzt werden, zum Beispiel zur Wiederherstellung eines anatomischen Bezugssystems, das in einem Datensatz verfügbar ist, aber nicht in einem anderen. Ein weiterer Aspekt der vorliegenden Erfindung ist die Fähigkeit, unterschiedliche Datensätze für eine Struktur zu registrieren, ohne das vordefinierte Orientierungspunkte oder Passermarken in der Struktur erforderlich sind. Stattdessen werden beliebige Bezugssysteme für verschiedene Datensätze erstellt und verwendet um solche Datensätze zu registrieren.The systems and methods of the present invention can be used to register various data sets related to one or more structures of a patient. rify and/or relate additional data from one such data set to another such data set, where the additional data may be unavailable or impractical for the other data set. In many cases, positional data from non-contiguous regions of the body are related without the need to identify or refer to local anatomical reference systems based on predefined anatomical landmarks. In one application, functional data from one data set is related to another data set to facilitate performing a functional assessment of a structure. For example, the structure may be an anatomical structure, such as a bone or joint of a patient, and the volume data set may be an image data set of the bone or bones acquired using an ultrasound probe or other known imaging technique or modality. The functional data developed for the anatomical structure from a preoperative image dataset can be related to an intraoperative image dataset to assist in planning and performing surgical procedures or to facilitate early detection and prevention of certain diseases or harmful conditions. In a further embodiment, other data can also be used, for example to recreate an anatomical reference system that is available in one dataset but not in another. Another aspect of the present invention is the ability to register different datasets for a structure without requiring predefined landmarks or fiducials in the structure. Instead, arbitrary reference systems are created for different datasets and used to register such datasets.
Jetzt zu den Zeichnungen.
Das chirurgische Navigationssystem 20 ist entsprechend angepasst, um Bilddaten eines Patienten 30 zu erfassen. In einer Ausgestaltung werden die Bilddaten von einer Ultraschallsonde 32 erfasst, von einem Benutzer 34, wie etwa einem Chirurgen oder einer Krankenschwester bearbeitet und per Funk an das Computersystem 24 übermittelt. Alternativ oder zusätzlich kann ein System verwendet werden, das Kabel für die Datenübertragung zwischen der Ultraschallsonde 32 und dem Computersystem 24 verwendet. In der vorliegenden Ausgestaltung stellt die Ultraschallsonde 32 ein nicht invasives, nicht ionisierendes und tragbares Bildgebungsverfahren dar, um Bilddaten des Patienten 30 zu erfassen. Ferner stellt die Ultraschallsonde 32 Bilddaten der darunter liegenden Knochen zur Verfügung, um Bewegungsartefakte aufgrund von Hautverschiebungen zu vermeiden. Allerdings können in anderen Ausgestaltungen Bilddaten auch mit jedem anderen Bildgebungsverfahren oder akzeptablen Modalitäten, wie Magnetresonanztomographie („MRI“), Computertomographie („CT“), Single Photon Emission Computertomographie, Positronen-Emissions-Tomographie und dergleichen erfasst werden.The
Die Kameraanordnung 26 ist entsprechend angepasst, um die Position eines Sensors 36, der mit der Ultraschallsonde 32 gekoppelt ist, zu erkennen, um die Position und Ausrichtung einer solchen Ultraschall Sonde 32 zu verfolgen. Als nicht ausschließliche Beispiele kann der Sensor 36 aus einer oder mehreren Leuchtdioden („LEDs“) bestehen, zur Kameraanordnung 26 kann eine erste Kamera 38, eine zweite Kamera 40 und eine dritte Kamera 42 gehören und die erste, zweite und dritte Kamera, nämlich 38, 40, 42, können drei CCD-Kameras sein, die entsprechend angepasst sind, um Infrarot („IR“) Signale zu erkennen, die vom Sensor 36 erzeugt werden. Obwohl hier nicht gezeigt, kann der Benutzer 34 weitere chirurgische Geräte und Instrumente einsetzen, die geeignet sind, von der Kameraanordnung 26 in der gleichen Weise wie die UltraschallSonde 32 verfolgt zu werden. Diese zusätzlichen chirurgischen Geräte und Instrumente können Sensoren 36 haben, die beispielsweise aus Leuchtdioden bestehen, die entweder in das Gerät oder Instrument eingebaut oder physisch damit verbunden sind in einer bekannten oder bestimmbaren Position und Ausrichtung, die zur Verfolgung der Position der Instrumente ausreicht.The
Die Kameraanordnung 26 ist auf einem drehbaren Arm 44 montiert, der an dem beweglichen Wagen 28 befestigt ist, so dass die Kameraanordnung 26 eine ausreichende Sichtverbindung zu einem relevanten Bereich hat, in dem ein Eingriff erfolgen wird. In anderen Ausgestaltungen kann die Kameraanordnung 26 an einer Wand eines OP-Saals angebracht werden (nicht dargestellt) oder an einer anderen geeigneten Oberfläche oder Stelle.The
Das chirurgische Navigationssystem 20 kann ein aktives optisches System sein, das mindestens einen Infrarotsender und -empfänger beinhaltet, der verwendet wird um Daten von und zum Sensor 36 zu übermitteln. Zum Beispiel enthält in der vorliegenden Ausgestaltung die Kameraanordnung einen ersten Sender und Empfänger 46 und einem zweiten Sender und Empfänger 48, die getrennt voneinander angebracht sind. Obwohl die vorliegende Erfindung so beschrieben wird, dass sie ein aktives optisches chirurgisches Navigationssystem verwendet, können die Systeme und Verfahren der vorliegenden Erfindung auch mit anderen chirurgischen Navigationstechnologien und -systemen, wie z. B. passiven optischen Systemen, magnetischen Systemen, Trägheitsnavigationssystemen und dergleichen verwendet werden. Es können auch andere computergestützte Systeme verwendet werden, einschließlich von RFID-basierten Systemen, Video-Bilderzeugungssystemen und dergleichen.The
Die Kameraanordnung 26 ist über ein Kabel 50 mit einem Localizer (nicht dargestellt) oder in einigen Fällen direkt mit dem Computersystem 24 verbunden. Der Localizer arbeitet mit der Kameraanordnung 26 zusammen, um die Lage und Ausrichtung des Sensors 36 auf der Ultraschallsonde 32 innerhalb der Sichtlinie der Kameraanordnung 26 zu identifizieren. In einer Ausgestaltung konvertiert der Localizer rohe Positionsdaten von einer Vielzahl von Leuchtdioden, aus denen sich der Sensor 36 zusammensetzt, in die Ausrichtung der einzelnen Leuchtdioden und übermittelt diese Daten dann an das Computersystem 24. In einer anderen Ausgestaltung konvertiert der Localizer rohe Positionsdaten der Leuchtdioden in die Position und Ausrichtung der Ultraschallsonde 32 und übermittelt diese Daten dann an das Computersystem 24. In einer weiteren Ausgestaltung kann ein vom Computersystem 24 ausgeführtes Softwareprogramm die Rohdaten in die Ausrichtung der Ultraschallsonde 32 konvertieren. Die Umwandlung der rohen Positionsdaten ist bei Fachleuten auf diesem Gebiet gut bekannt. Das Computersystem 24 kann wahlweise per Fernbedienung mit Bedientasten (nicht sichtbar) auf der Ultraschallsonde 32 oder an einer anderen für den Benutzer 34 leicht zugänglichen Stelle gesteuert werden. Das Computersystem 24 enthält auch ein oder mehrere Eingabegeräte wie eine Tastatur 52, eine Maus 54, oder jedes andere Eingabegerät für den Betrieb des Computersystems 24.The
Als nächstes werden unter Bezugnahme auf die
Nach Block 100 geht die Steuerung an Block 102 über, der ein erstes Bezugssystem für den ersten Datensatz zuweist oder bestimmt. Das erste Bezugssystem ist vorzugsweise ein willkürliches Bezugssystem ohne Bezugnahme auf einen vordefinierten Orientierungspunkt, wie beispielsweise eine Passermarke oder einen besonderen anatomisch auffälligen Punkt in der anatomischen Struktur. Zum Beispiel kann das erste Bezugssystem das einer Kameraanordnung, einer Ultraschallsonde oder des ersten Volumendatensatzes selbst sein, wie etwa ein Zentrum des ersten Volumendatensatzes. Es können auch weitere Möglichkeiten, das willkürliche Bezugssystem so zu erstellen, dass es sich von anderen Arten von Bezugssystemen unterscheidet, verwendet werden. Das Bezugssystem kann mit jedem bekannten oder häufig verwendeten Bildverarbeitungsalgorithmus erstellt werden. Einmal erstellt, hat das willkürliche Bezugssystem vorzugsweise eine einzigartige räumliche Beziehung zum Volumen der betreffenden anatomischen Struktur, etwa einem Knochen, und das willkürliche Bezugssystem bleibt in der gleichen Position relativ zu diesem fixiert.After
Die Steuerung geht auf Block 104 über, der eine inhärente Eigenschaft des ersten Volumendatensatzes identifiziert, wie etwa einen räumlich einzigartigen physikalischen räumlichen Aspekt des Volumendatensatzes. Vorzugsweise hat die inhärente Eigenschaft eine einzigartige Position und Ausrichtung in Bezug auf die anatomische Struktur, die von jeder Referenzposition aus identifiziert werden kann. In einem bevorzugten Verfahren wird das Computersystem 24 mit entsprechenden Befehlsroutinen angepasst, um ein Bildträgheitsmoment des Volumendatensatzes zu berechnen, das in Bezug auf das Volumen konstant ist, unabhängig davon, aus welchem Blickwinkel das Volumen erfasst oder gesehen wird. Die Verwendung des Trägheitsmoments kann vorteilhaft sein, weil jedes gegebene Volumen ein konstantes Trägheitsmoment hat, das in einer einzigartigen fixen räumlichen Relation zu einem Datensatz steht, der ein bestimmtes Volumen repräsentiert und unabhängig vom Blickwinkel ist, aus dem das Volumen betrachtet wird. Daher wird zum Beispiel das Trägheitsmoment eines Volumendatensatzes eines bestimmten Teils eines Knochens in der gleichen relativen Position zu diesem Teil des Knochens bleiben, unabhängig davon, aus welcher Position oder welchem Blickwinkel der Volumendatensatz erfasst wird. Es können auch andere Methoden zur Bestimmung eines räumlich einzigartigen physikalischen räumlichen Aspekt des Volumendatensatzes verwendet werden und alternative oder zusätzliche eindeutig definierte räumliche Daten zur anatomischen Struktur erfassen, wie Oberflächenkonturdaten, Orientierungspunkte, usw., die verwendet werden könnten, um das willkürliche Bezugssystem zu definieren.Control transfers to block 104, which identifies an inherent property of the first volume data set, such as a spatially unique physical spatial aspect of the volume data set. Preferably, the inherent property has a unique position and orientation with respect to the anatomical structure that can be identified from any reference position. In a preferred method, the
Anschließend geht die Steuerung an Block 106 über, der das erste beliebige Bezugssystem mit dem räumlich einzigartigen physikalischen Aspekt des Volumendatensatzes korreliert. In einem Beispiel korreliert Block 88 das erste beliebige Bezugssystem und das Bildträgheitsmoment mit Hilfe einer zwischen ihnen bestehenden bekannten einzigartigen räumlichen Beziehung, wie den kartesischen xyz-Koordinaten des Bildträgheitsmomentes innerhalb des ersten willkürlichen Bezugssystems. In einem als Beispiel dienenden Verfahren wird das erste beliebige Bezugssystem so zugewiesen, dass das Trägheitsmoment eine Achse des willkürlichen Bezugssystems definiert. Es können auch andere alternative und/oder gleichwertige Methoden oder Systeme zur Korrelation des willkürlichen Bezugssystems mit dem räumlich einzigartigen physikalischen Aspekt verwendet werden.Control then passes to block 106, which correlates the first arbitrary reference frame with the spatially unique physical aspect of the volume dataset. In one example, block 88 correlates the first arbitrary reference frame and the image moment of inertia using a known unique spatial relationship between them, such as the xyz Cartesian coordinates of the image moment of inertia within the first arbitrary reference frame. In an example method, the first arbitrary reference frame is assigned such that the moment of inertia defines an axis of the arbitrary reference frame. Other alternative and/or equivalent methods or systems for correlating the arbitrary reference frame with the spatially unique physical aspect may be used.
Die Steuerung geht auf Block 108 über, der zusätzliche Positionsdaten entwickelt und/oder mit dem ersten Volumendatensatz assoziiert, wobei die zusätzlichen räumlichen Daten eine einzigartige räumliche Ausrichtung relativ zu dem ersten willkürlichen Bezugssystem haben. Die zusätzlichen Positionsdaten können funktionelle Daten der anatomischen Struktur umfassen, wie etwa einen Gravitationsvektor, der sich auf die anatomische Struktur und/oder die Ausrichtungen von Teilen der anatomischen Struktur im Verhältnis zu jedem anderen Teil auswirkt. In einer Ausgestaltung ist der erste Datensatz ein präoperativer Volumendatensatz und die funktionellen Daten werden für die anatomische Struktur erfasst, während sich ein Patient in einer allgemein stehenden oder aufrechten Position befindet. In anderen Ausgestaltungen können die funktionellen Daten auch mit anderen den Fachleuten bekannten Methoden erfasst werden.Control transfers to block 108 which develops and/or associates additional positional data with the first volume data set, the additional spatial data having a unique spatial orientation relative to the first arbitrary reference frame. The additional positional data may include functional data of the anatomical structure, such as a gravity vector affecting the anatomical structure and/or the orientations of parts of the anatomical structure relative to every other part. In one embodiment, the first data set is a pre-operative volume data set and the functional data is acquired for the anatomical structure while a patient is in an all generally standing or upright position. In other embodiments, the functional data can also be collected using other methods known to those skilled in the art.
Die zusätzlichen räumlichen Daten können mit dem ersten Volumendatensatz in Zusammenhang stehen. Zum Beispiel können die zusätzlichen räumlichen Daten Gravitationsvektordaten beinhalten, die einen Gravitationsvektor auf den ersten Volumendatensatz zum Zeitpunkt, als der Volumendatensatz erfasst wurde, definieren. Der Gravitationsvektor kann mit jedem bekannten Verfahren ermittelt werden. Ein solches Verfahren schließt ein Gravitationsmessgerät, wie etwa einen Beschleunigungssensor, der auf die Kamera des chirurgischen Navigationssystem montiert ist, ein, wobei das Gravitationsmessgerät den lokalen Gravitationsvektor identifiziert, während der erste Volumendatensatz erfasst wird. Die Gravitationsvektordaten werden dann so mit dem Volumendatensatz assoziiert, dass der Gravitationsvektor eindeutig in Hinsicht auf das erste willkürliche Bezugssystem lokalisiert werden kann.The additional spatial data may be associated with the first volume data set. For example, the additional spatial data may include gravity vector data defining a gravity vector on the first volume data set at the time the volume data set was acquired. The gravity vector may be determined using any known method. One such method includes a gravity measuring device, such as an accelerometer, mounted on the camera of the surgical navigation system, wherein the gravity measuring device identifies the local gravity vector as the first volume data set is acquired. The gravity vector data is then associated with the volume data set such that the gravity vector can be uniquely located with respect to the first arbitrary reference frame.
In einem weiteren Beispiel steht der zusätzliche räumliche Datensatz nicht in Zusammenhang zum ersten Volumendatensatz. Zum Beispiel können die zusätzlichen räumlichen Daten einen Vektor beinhalten, der die Lage und Ausrichtung eines anderen Bezugssystems festlegt. Das andere Bezugssystem kann ein anderes willkürliches Bezugssystem für einen nicht damit zusammenhängenden Volumendatensatz sein, der sich nicht mit dem ersten Volumendatensatz überschneidet, wobei der nicht mit ihm zusammenhängende Volumendatensatz sich auf eine andere anatomische Struktur oder einem anderen Teil der gleichen anatomischen Struktur bezieht. In einem Fall kann der erste Volumendatensatz der erste Teil eines Knochens und der nicht mit ihm zusammenhängende Volumendatensatz ein zweiter Teil des gleichen Knochens sein. Das andere Bezugssystem kann auch ein globales Bezugssystem enthalten, das zu mehreren Volumendatensätzen gehört, wie z. B. ein Kamerabezugssystem von einer Kamera des chirurgischen Navigationssystems. Auf diese Weise können die spezifischen Lagen und/oder Ausrichtungen der Bezugssysteme jedes einzelnen von einem oder mehreren nicht zusammenhängenden Volumendatensätzen so mit dem ersten Volumendatensatz verknüpft werden, dass die Lage und Ausrichtung eines oder mehrerer der Volumendatensätze verwendet werden können, um die Lage und Ausrichtung von einem oder mehreren anderen nicht damit zusammenhängenden Volumendatensätzen zu ermitteln, obwohl die Volumendatensätze sich nicht spezifisch überschneiden und zu dem Zeitpunkt nicht sichtbar sind.In another example, the additional spatial data set is unrelated to the first volume data set. For example, the additional spatial data may include a vector specifying the location and orientation of another reference frame. The other reference frame may be another arbitrary reference frame for an unrelated volume data set that does not overlap with the first volume data set, where the unrelated volume data set relates to a different anatomical structure or a different part of the same anatomical structure. In one case, the first volume data set may be the first part of a bone and the unrelated volume data set may be a second part of the same bone. The other reference frame may also include a global reference frame associated with multiple volume data sets, such as a camera reference frame from a camera of the surgical navigation system. In this manner, the specific locations and/or orientations of the reference systems of each of one or more non-contiguous volume data sets may be associated with the first volume data set such that the location and orientation of one or more of the volume data sets may be used to determine the location and orientation of one or more other non-contiguous volume data sets, even though the volume data sets do not specifically overlap and are not visible at that time.
Andere Arten von zusätzlichen räumlichen Daten, die einzigartige räumliche Eigenschaften in Bezug auf die durch den Volumendatensatz dargestellte anatomische Struktur haben können, können ebenfalls mit dem Volumendatensatz identifiziert werden. Als nicht ausschließliche Beispiele könnten andere Arten von zusätzlichen räumlichen Daten Lage- und Ausrichtungsvektor(en) des willkürlichen Bezugssystems des Volumendatensatzes in Bezug auf andere lokale anatomische Bezugssysteme des Patienten beinhalten, z. B. eine Beckenebene, eine mechanische Achse des Femurs, eine anatomischen Achse des Femurs und andere relevante lokale Bezugspunkte und/oder Bezugssysteme, wie sie allgemein verwendet werden. Allerdings wird hier davon ausgegangen, dass jede Art von raumbezogenen Daten, die ein eindeutig identifizierbares räumliches Merkmal in Bezug auf die durch den Volumendatensatz repräsentierte anatomische Struktur haben, mit dem Volumendatensatz so verbunden werden können, wie es als notwendig oder zweckmäßig für vielfältige und unterschiedliche Anwendungen erachtet wird.Other types of additional spatial data that may have unique spatial characteristics related to the anatomical structure represented by the volume dataset may also be identified with the volume dataset. As non-exclusive examples, other types of additional spatial data could include location and orientation vector(s) of the arbitrary reference frame of the volume dataset with respect to other local anatomical reference frames of the patient, e.g., a pelvic plane, a mechanical axis of the femur, an anatomical axis of the femur, and other relevant local reference points and/or reference frames as commonly used. However, it is contemplated herein that any type of spatial data that has a uniquely identifiable spatial feature related to the anatomical structure represented by the volume dataset may be associated with the volume dataset as deemed necessary or appropriate for a variety of different applications.
Die Steuerung geht auf Block 110 über, der einen zweiten Datensatz erfasst. In einem Beispiel kann der zweite Volumendatensatz zur gleichen anatomischen Struktur wie der erste Volumendatensatz gehören oder zumindest erhebliche Überschneidungen damit aufweisen. Es gibt genügend Überschneidungen zwischen dem ersten Datensatz und dem zweiten Datensatz, so dass der erste und der zweite Datensatz in einem nachfolgenden Schritt registriert werden können, wie im Folgenden beschrieben. In einer bevorzugten Ausgestaltung gibt es zumindest eine siebzigprozentige Übereinstimmung der im ersten Volumendatensatz erfassten anatomischen Struktur mit der im zweiten Volumendatensatz erfassten anatomischen Struktur. In einigen Fällen kann sogar eine mehr als siebzigprozentige Übereinstimmung wünschenswert sein, und in anderen Fällen kann eine weniger als siebzigprozentige Übereinstimmung ausreichen. Der zweite Volumendatensatz kann aus dem gleichen Blickwinkel erfasst werden, wie der erste Volumendatensatz, oder er kann aus einem anderen Blickwinkel erfasst werden.Control transfers to block 110, which acquires a second data set. In one example, the second volume data set may be of the same anatomical structure as the first volume data set, or at least have significant overlap therewith. There is sufficient overlap between the first data set and the second data set that the first and second data sets may be registered in a subsequent step, as described below. In a preferred embodiment, there is at least a seventy percent match of the anatomical structure acquired in the first volume data set with the anatomical structure acquired in the second volume data set. In some cases, even more than a seventy percent match may be desirable, and in other cases, less than a seventy percent match may be sufficient. The second volume data set may be acquired from the same angle as the first volume data set, or it may be acquired from a different angle.
In einem anderen Beispiel kann der zweite Volumendatensatz von einer anderen anatomischen Struktur stammen, die eine bekannte oder bestimmbare räumlichen Beziehung zur ersten anatomischen Struktur hat. In einem Aspekt kann der erste Volumendatensatz von einem Knochen oder einem Teil davon auf einer Seite des Körpers eines Patienten stammen und der zweite Volumendatensatz kann von einem Knochen oder einem Teil davon auf der gegenüberliegenden Seite des Körpers des Patienten stammen, der im Wesentlichen als Spiegelbild dem ersten Knochen entspricht. Als nicht ausschließliches Beispiel kann der erste Volumendatensatz Bilddaten von einem linken Hüftkopf und der zweite Volumendatensatz Bilddaten des rechten Hüftkopfs enthalten. Es wird angenommen, dass der linke Hüftkopf mathematisch äquivalent zu einem Spiegelbild des rechten Hüftkopfes gespiegelt an einer Mittelachse des Körpers ist. Auf diese Weise haben der linke Hüftkopf und der rechte Hüftkopf eine bekannte oder bestimmbare räumliche Beziehung zueinander über die Mittelachse des Körpers. Es kann zum Beispiel ein bekanntes anatomisches Standardcharakteristikum des Hüftkopfes, wie der Trochanter minor, als Orientierungspunkt festgelegt werden, wobei von der Annahme ausgegangen wird, dass er sich auf dem linken und rechten Oberschenkelknochen (Femur) an der gleichen Stelle befindet, nur gespiegelt an einer Mittelachse des Körpers. Es können auch weitere erkennbare Beziehungen zwischen verschiedenen anatomischen Strukturen identifiziert und in ähnlicher Weise wie hier beschrieben genutzt werden,In another example, the second volume dataset may be from a different anatomical structure that has a known or determinable spatial relationship to the first anatomical structure. In one aspect, the first volume dataset may be from a bone or portion thereof on one side of a patient's body and the second volume dataset may be from a bone or portion thereof on the opposite side of the patient's body that is substantially a mirror image of the first bone. As a non-exclusive example, the first volume dataset may be set of image data from a left femoral head and the second volume data set contains image data of the right femoral head. The left femoral head is assumed to be mathematically equivalent to a mirror image of the right femoral head mirrored about a central axis of the body. In this way, the left femoral head and the right femoral head have a known or determinable spatial relationship to each other about the central axis of the body. For example, a known standard anatomical feature of the femoral head, such as the lesser trochanter, can be set as a landmark, assuming that it is located at the same location on the left and right femur, just mirrored about a central axis of the body. Other recognizable relationships between different anatomical structures can also be identified and used in a similar manner as described here.
Bei einigen Anwendungen wird der zweite Volumendatensatz während eines anderen Teils eines Eingriffs erfasst als der erste Volumendatensatz, beispielsweise intraoperativ. In einem Beispiel ist der zweite Datensatz ein intraoperativer Volumendatensatz des gleichen Knochens oder eines Teils davon, der erfasst wird, während der Patient narkotisiert ist und auf einem Operationstisch liegt. Bei anderen Anwendungen könnte der erste und zweite Volumendatensatz im selben Abschnitt eines chirurgischen Eingriffs erfasst werden, beispielsweise beide intraoperativ oder beide präoperativ. Darüber hinaus können ein oder mehrere Volumendatensätze postoperativ erfasst werden, wie zum Beispiel zur Unterstützung bei der postoperativen Diagnostik.In some applications, the second volume dataset is acquired during a different part of a procedure than the first volume dataset, for example intraoperatively. In one example, the second dataset is an intraoperative volume dataset of the same bone or a portion thereof acquired while the patient is anesthetized and lying on an operating table. In other applications, the first and second volume datasets could be acquired during the same portion of a surgical procedure, for example, both intraoperatively or both preoperatively. In addition, one or more volume datasets may be acquired postoperatively, such as to assist in postoperative diagnostics.
Der zweite Datensatz kann mit der gleichen Modalität oder einer anderen Modalität als der erste Datensatz erfasst werden. In einem Beispiel werden sowohl der erste als auch der zweite Datensatz unter Verwendung eines 3D-Ultraschallbildgebungssystems erfasst, an dem ein Tracking-Gerät befestigt ist, mit dem es vom chirurgischen Navigationssystem verfolgt wird. Im vorliegenden Beispiel wird auch der zweite Datensatz mit der Ultraschallsonde 32, die vom chirurgischen Navigationssystem 20 verfolgt wird, erfasst.The second data set may be acquired using the same modality or a different modality than the first data set. In one example, both the first and second data sets are acquired using a 3D ultrasound imaging system that has a tracking device attached to it that is tracked by the surgical navigation system. In the present example, the second data set is also acquired using the
Anschließend geht die Steuerung auf Block 112 über, der dem zweiten Datensatz ein zweites Bezugssystem zuweist. Wie bereits beim ersten Bezugssystem, kann das zweite Bezugssystem ein willkürlichen Bezugssystem sein und in ähnlicher Weise zugewiesen oder bestimmt werden wie dort beschrieben. Das zweite willkürliche Bezugssystem wird vorzugsweise eindeutig durch den zweiten Volumendatensatz definiert. In einem Beispiel wird das zweite willkürliche Bezugssystem durch die anatomische Struktur in der gleichen Weise definiert wie hier zuvor in Hinsicht auf die erste anatomische Struktur beschrieben. Das zweite Bezugssystem kann gleich oder verschieden vom ersten Bezugssystem sein.Control then passes to block 112, which assigns a second reference frame to the second data set. As with the first reference frame, the second reference frame may be an arbitrary reference frame and may be assigned or determined in a manner similar to that described therein. The second arbitrary reference frame is preferably uniquely defined by the second volume data set. In one example, the second arbitrary reference frame is defined by the anatomical structure in the same manner as described hereinbefore with respect to the first anatomical structure. The second reference frame may be the same or different from the first reference frame.
Die Steuerung geht auch auf Block 114 über, der eine inhärente Eigenschaft des zweiten Volumendatensatzes identifiziert, wie etwa einen räumlich einzigartigen physikalischen räumlichen Aspekt des Volumendatensatzes, Wenn der erste und zweite Datensatz im Wesentlichen vom gleichen anatomischen Merkmal stammen, sollte die inhärente Eigenschaft beider Datensätze vorzugsweise gleich sein, weil die gleiche anatomische Eigenschaft den gleichen einzigartigen räumlichen Aspekt für den ersten und zweiten Datensatz hätte, wie etwa das Bildträgheitsmoment. Zum Beispiel ist in einem System, das ein Bildträgheitsmoment eines Ultraschallbildes berechnet das Trägheitsmoment der Struktur konstant und im Wesentlichen einzigartig in Bezug auf eine gegebene Struktur unabhängig vom Blickwinkel, aus dem die Struktur betrachtet wird. Daher ist das Trägheitsmoment des gleichen anatomischen Merkmals in verschiedenen Volumendatensätzen des anatomischen Merkmals, die aus verschiedenen Blickwinkeln erfasst wurden, eindeutig identifizierbar. In einem solchen Beispiel kann das zweite willkürliche Bezugssystem auch mit dem Bildträgheitsmoment eindeutig räumlich verbunden sein.Control also transfers to block 114, which identifies an inherent property of the second volume dataset, such as a spatially unique physical spatial aspect of the volume dataset. If the first and second datasets are from substantially the same anatomical feature, the inherent property of both datasets should preferably be the same because the same anatomical property would have the same unique spatial aspect for the first and second datasets, such as image moment of inertia. For example, in a system that calculates an image moment of inertia of an ultrasound image, the moment of inertia of the structure is constant and substantially unique with respect to a given structure regardless of the angle from which the structure is viewed. Therefore, the moment of inertia of the same anatomical feature is uniquely identifiable in different volume datasets of the anatomical feature acquired from different angles. In such an example, the second arbitrary reference frame may also be uniquely spatially related to the image moment of inertia.
Block 116 korreliert das zweite Bezugssystem mit dem inhärenten Merkmal des zweiten Volumendatensatzes in der gleichen Weise wie in Block 106 oder mit jedem dazu ausreichenden Verfahren.
Die Steuerung geht dann auf Block 118 über, der das erste Bezugssystem in das zweite Bezugssystem registriert. In einer Ausgestaltung führt Block 118 eine Zuordnung der Datensätze durch, zum Beispiel durch Suche nach dem einzigartigen Trägheitsmoment jedes Bildes und die Korrelation der ersten und zweiten willkürlichen Bezugssysteme miteinander indem das Trägheitsmoment des ersten Volumendatensatz dem Trägheitsmoment des zweiten Volumendatensatz zugeordnet und daraus eine geeignete Transformationsmatrix berechnet wird. Eine weitere Möglichkeit, Datensätze zuzuordnen, kann die Durchführung von unterschiedlichen Zuordnungen für den ersten und zweiten Datensatz beinhalten, wobei der erste und der zweite Datensatz mit irgendeiner geeigneten oder allgemein bekannten Methode virtuell überlagert und miteinander korreliert werden. Die Registrierung kann auch mit anderen Methoden, wie der Volumen-Volumen-Zuordnung, der Oberfläche-Oberfläche-Zuordnung und/oder der Punkt-zu-Punkt-Zuordnung durchgeführt werden. Bei jeder Registrierungstechnik wird eine mathematische Transformation, einschließlich Rotation, Translation und Skalierung berechnet, vorzugsweise vom Computersystem 24, das ein gemeinsames oder als gemeinsam angenommenes räumliches Merkmal in den beiden Volumendatensätzen registriert. Das Computersystem 24 wandelt dann eine oder beide der willkürlichen Bezugssysteme so um, dass das räumliche Merkmal und damit die Volumendatensätze miteinander in Registrierung gebracht werden. Es können auch andere ebenso wirksame Verfahren zur Berechnung und Durchführung einer geeigneten Transformation und Registrierung verwendet werden, die den Fachleuten auf diesem Gebiet bekannt sind.Control then passes to block 118, which registers the first reference frame to the second reference frame. In one embodiment, block 118 performs a mapping of the data sets, for example by searching for the unique moment of inertia of each image and correlating the first and second arbitrary reference frames with each other by mapping the moment of inertia of the first volume data set to the moment of inertia of the second volume data set and calculating an appropriate transformation matrix therefrom. Another way to map data sets may involve performing different mappings for the first and second data sets, wherein the first and second data sets are virtually superimposed and correlated with each other using any suitable or well-known method. Registration may also be performed using other methods, such as volume-volume mapping, surface-surface mapping, and/or point-to-point mapping. In each registration technique, a mathematical transformation, including rotation, translation, and scaling, is calculated, preferably by the
Die Steuerung geht dann auf Block 120 über, der die zusätzlichen räumlichen Daten aus dem ersten Bezugssystem, wie etwa funktionelle Daten der anatomischen Struktur, zum zweiten Bezugssystem in Relation setzt. Die zusätzlichen räumlichen Daten aus dem ersten Volumendatensatz werden zu dem zweiten willkürlichen Bezugssystem des zweiten Volumendatensatzes in Relation gesetzt, nach (oder gleichzeitig mit) der Registrierung des ersten und zweiten Datensatzes. Auf diese Weise werden die zusätzlichen räumlichen Daten mit dem zweiten willkürlichen Bezugssystem korrekt registriert, obwohl die zusätzlichen räumlichen Daten nicht unmittelbar zur Verfügung stehen, wenn der zweite Volumendatensatz erfasst wird. Wenn zum Beispiel die zusätzlichen räumlichen Daten wie oben beschrieben den Gravitationsvektor enthalten, wird der Gravitationsvektor mit dem zweiten Volumendatensatz assoziiert und in der richtigen Ausrichtung auf die anatomische Struktur registriert, auch wenn die anatomische Struktur anders ausgerichtet ist. Wenn die zusätzlichen räumlichen Daten wie oben beschrieben einen Vektor enthalten, der die Lage und Ausrichtung eines anderen Bezugssystem identifiziert, dann kann die Lage und Ausrichtung des nicht damit zusammenhängende Volumendatensatzes, der nicht Teil des zweiten Volumendatensatz ist, auf der Grundlage der Assoziierung und Registrierung der Vektordaten, die die zusätzlichen räumlichen Daten bilden, identifiziert werdenControl then passes to block 120, which relates the additional spatial data from the first reference frame, such as functional data of the anatomical structure, to the second reference frame. The additional spatial data from the first volume data set is related to the second arbitrary reference frame of the second volume data set after (or simultaneously with) registration of the first and second data sets. In this way, the additional spatial data is correctly registered with the second arbitrary reference frame even though the additional spatial data is not immediately available when the second volume data set is acquired. For example, if the additional spatial data includes the gravity vector as described above, the gravity vector is associated with the second volume data set and registered in the correct orientation to the anatomical structure even if the anatomical structure is oriented differently. If the additional spatial data as described above includes a vector identifying the location and orientation of another reference system, then the location and orientation of the unrelated volume data set that is not part of the second volume data set can be identified based on the association and registration of the vector data that form the additional spatial data
Wahlweise kann die Steuerung dann an Block 122 weitergegeben werden, der die Registrierung mit dem zweiten Volumendatensatz auf einem Anzeigegerät anzeigt. Je nach Wunsch können auch weitere Veränderungen und Verwendungen der zusätzlichen räumlichen Daten durchgeführt werden.Optionally, control may then be passed to block 122, which displays the registration with the second volume data set on a display device. Other modifications and uses of the additional spatial data may also be made as desired.
Die oben beschriebenen Blöcke 100-122 können neu arrangiert, neu geordnet oder modifiziert werden, indem man sie kombiniert, so dass sie weniger Schritte enthalten oder in Einzelheiten zerlegt, so dass sie weitere zusätzliche Schritte umfassen, wie es für einem Fachmann auf diesem Gebiet offensichtlich wäre. Wie in
Die
Bei einer Hüftgelenksplastik wird eine prothetische Komponente unter Anwendung des hier beschriebenen willkürlichen Bezugssystems präzise und effizient platziert, anstatt dass man sich auf lokale biomechanische/anatomische Bezugssysteme verlässt, wie z. B. eine mechanische Achse des Femurs, eine Beckenfrontalebene, oder andere lokale anatomische Standardbezugssysteme. Der Begriff „lokales“ Bezugssystem, so wie er hier verwendet wird, ist ein Bezugssystem aufgrund von bestimmten akzeptierten oder vordefinierten anatomischen Merkmalen eines Patienten, wie etwa spezifischen Orientierungspunkten am Skelett. Im Gegensatz dazu bezieht sich der Begriff „willkürliches Bezugssystem“ auf ein Bezugssystem, das ausschließlich auf der Grundlage des betrachteten Merkmals eindeutig identifiziert wird, wie etwa des spezifischen betrachteten Volumendatensatzes. Somit hängt das willkürliche Bezugssystem nicht von der Lage eines oder mehrerer bestimmter vordefinierter anatomischer Orientierungspunkte in Bezug auf andere Teile der Anatomie ab, sondern korreliert mit und ist identifizierbar aus einzigartigen räumlichen Charakteristiken der relevanten Anatomie selbst.During hip arthroplasty, a prosthetic component is precisely and efficiently placed using the arbitrary reference frame described here, rather than relying on local biomechanical/anatomical reference frames, such as a mechanical axis of the femur, a pelvic frontal plane, or other standard local anatomical reference frames. The term "local" reference frame, as used here, is a reference frame based on certain accepted or predefined anatomical features of a patient, such as specific skeletal landmarks. In contrast, the term "arbitrary reference frame" refers to a reference frame that is uniquely identified based solely on the feature under consideration, such as the specific volume dataset under consideration. Thus, the arbitrary reference frame does not depend on the location of one or more specific predefined anatomical landmarks in relation to other parts of the anatomy, but rather correlates with and is identifiable from unique spatial characteristics of the relevant anatomy itself.
Die Zuordnung funktioneller Daten, wie des Schwerkraftvektors G, zum intraoperativen Verfahren erleichtert die Platzierung der richtigen prothetischen Komponenten in einer optimalen Position und Ausrichtung aufgrund der natürlichen Bewegungsmuster des Patienten, Die Position und Ausrichtung der Prothese kann mit Hilfe einer Vielzahl von Parametern weiter optimiert werden, zu denen zum Beispiel sowohl spezifische anatomische als auch kinematische Einschränkungen, zum Lebensstil des Patienten gehörende spezifische Aktivitäten und bestimmte geometrische und kinematische Einschränkungen aufgrund des prothetischen Designs gehören. Weitere Verbesserungen sind unter Einbeziehung anderer relevanter Faktoren, die intraoperativ entstehen oder sichtbar werden, möglich, wie etwa nach der Herstellung einer gemeinsamen Oberfläche um eine prothetische Komponente aufzunehmen.Associating functional data, such as the gravity vector G, with the intraoperative procedure facilitates the placement of the correct prosthetic components in an optimal position and orientation based on the patient's natural movement patterns. The position and orientation of the prosthesis can be further optimized using a variety of parameters, including, for example, both specific anatomical and kinematic constraints, specific activities inherent to the patient's lifestyle, and certain geometric and kinematic constraints due to the prosthetic design. Further improvements are possible by incorporating other relevant factors that arise or become apparent intraoperatively, such as after the creation of a common surface to accommodate a prosthetic component.
Block 172 definiert eine beliebige Achse, etwa eine Achse der Kameraanordnung, für den Bildvolumendatensatz 150, identifiziert einen eindeutigen räumlichen Parameter des Bildvolumendatensatzes und korreliert die beliebige Achse mit dem räumlichen Parameter. In diesem speziellen Beispiel umfasst der einzigartige räumliche Parameter vorzugsweise das Bildträgheitsmoment des Bildvolumendatensatzes der Hüftknochen, so berechnet, wie hier zuvor beschrieben. Die willkürliche Achse wird wahlweise auch mit einem lokalen anatomischen Parameter der Hüfte 152 korreliert, wie einer Frontalebene 156 der Hüfte 152, wie in
Block 174 weist dem Bildvolumendatensatz 150 zusätzliche räumliche Daten zu, einschließlich von funktionellen Daten, wie einem Gravitationsvektor G. In diesem Beispiel wird der Gravitationsvektor G so dargestellt, dass er im Verhältnis zur Hüfte 152 in
Block 176 erfasst einen intraoperativen Bildvolumendatensatz 160 des gleichen allgemeinen Bereichs, während der Patient 154 in einer allgemeinen Bauchlage liegt in ähnlicher Weise wie bei Block 170.
Block 178 führt einen Datenvergleich durch, um den präoperativen Bildvolumendatensatz 150 und den intraoperativen Bildvolumendatensatz 160 unter Verwendung eines geeigneten Datenzuordnungsverfahren, wie beispielsweise der Zuordnung nach dem Bildträgheitsmoment oder den zuvor beschriebenen Volumendatenzuordnungsverfahren zu registrieren. Durch diese Registrierung wird der Gravitationsvektor G gleichzeitig oder später auf den intraoperativen Datensatz 160 übertragen um während des Eingriffs verwendet zu werden.
Block 180 zeigt den Bildvolumendatensatz 160 auf der Anzeigeeinheit 22 mit dem Gravitationsvektor G bei der Registrierung mit den Knochen der Hüfte. Eine Ersatzprothese kann dann mit den Knochen der Hüfte über das chirurgische Navigationssystem 20 so ausgerichtet werden, dass sie in Beziehung zu den Knochen steht, die auf der Grundlage der Stellung der Knochen in Bezug auf den Gravitationsvektor vorausgewählt wurden.Block 180 displays the image
Die in Bezug auf die
Die
Die Ausgestaltungen der
Die hier beschriebenen Konzepte können auch bei orthopädischen, rekonstruktiven oder unfallchirurgischen Eingriffen eingesetzt werden, bei denen es wichtig ist, die Funktion und Anatomie eines betroffenen Gebiets wiederherzustellen. In einigen Fällen wird ein nicht betroffenes Gebiet verwendet, um ein betroffenes Gebiet zu spiegeln, um symmetrische biomechanische Parameter zu erhalten, wie etwa räumliche Beziehungen, Winkel und biomechanische Parameter, um das betroffene Gebiet wiederherzustellen. Nur zur Veranschaulichung in Hinsicht auf
Im Beispiel aus
Jedem Volumendatensatz 220, 222, 228 und 230 wird jeweils ein willkürliches Bezugssystem 232, 234, 236 und 238 zugewiesen. Jedes Bezugssystem 232, 234, 236 und 238 hat vorzugsweise eine Lage und Ausrichtung, die mit einem eindeutig identifizierbaren Aspekt des Volumendatensatzes, wie dem hier beschriebenen Bildträgheitsmoment, korreliert.Each
Es werden zusätzliche räumliche Daten erstellt, die einen Vektor 240 bilden, der die räumliche Beziehung, einschließlich Position und Ausrichtung, der Volumendatensätze 222 und 230 zueinander eindeutig definiert. Somit sind die Bezugssysteme 236 und 238 durch den Vektor 240 in einem globalen Bezugssystem 242, wie der Kameraanordnung 26, räumlich miteinander korreliert obwohl die beiden Volumendatensätze nicht miteinander zusammenhängen. Natürlich können auch andere globale Bezugssysteme verwendet werden. Die Berechnung des zusätzlichen Vektors 240 ist vielleicht nicht erforderlich oder kann zur zusätzlichen mathematischen Untermauerung dienen, indem sie redundante Messungen zur Verfügung stellt, wenn zum Beispiel der Volumendatensatz 228 nicht mit dem Volumendatensatz 230 zusammenhängt.Additional spatial data is created that forms a
Als nächstes werden der erste Volumendatensatz 220 und der zweite Volumendatensatz 222 des betroffenen linken Oberschenkels 212 einander zugeordnet und mit den korrespondierenden Teilen 228 bzw. 230 des dritten Volumendatensatzes 226 des rechten nicht betroffenen Oberschenkels 214 registriert, um eine rekonstruierte Position des linken Hüftkopfes 218 und des linken Oberschenkelkörpers 224 zu ermitteln, die mit den entsprechenden Teilen des rechten nicht betroffenen Oberschenkelknochens 214 übereinstimmen. In einem als Beispiel dienenden Verfahren umfasst der Registrierungsprozess die Übertragung eines Bezugssystems des rechten nicht betroffenen Oberschenkelknochens 214 auf das Bezugssystem der Volumendatensätze 220 und 222 des betroffenen linken Oberschenkelknochens 212. Dazu wird von der Annahme ausgegangen, dass die Form und Position des linken Oberschenkelknochens 212 ein identisches Spiegelbild der Form und der Position des rechten Oberschenkelknochens 214, gespiegelt an einer Mittelachse zwischen ihnen, ist. Es wird angenommen, dass die Formen der Teile des rechten Oberschenkelknochens 214 die in den Volumendatensätzen 228 und 230 erfasst sind, im Wesentlichen den Formen der entsprechenden Teile des linken Oberschenkelknochens 212, die jeweils in den Volumendatensätzen 220 und 222 erfasst sind, entsprechen. Unter diesen Voraussetzungen werden die Bezugssysteme 236 und 238 und die entsprechenden Volumendatensätze 228 und 230 und der Vektor 240 des rechten Oberschenkelknochens 214 mathematisch an einer Mittelachse 244 gespiegelt, so dass sie so ausgerichtet sind, dass sie mit dem linken Oberschenkelknochen 212 übereinstimmen. Einer der Volumendatensätze 220 oder 222 des linken Oberschenkelknochens 212 wird dann dem entsprechenden gespiegelten Volumendatensatz 228 oder 230 des rechten Oberschenkelknochens 214 zugeordnet. Zum Beispiel können die Volumendatensätze 222 und 238 eine leicht identifizierbare dreidimensionale Eigenschaft besitzen, wie den Trochanter minor 246, die verwendet werden kann, um den Volumendatensatz 222 mit dem gespiegelten Volumendatensatz 238 zu registrieren. In einem anderen Beispiel wird ein Bildträgheitsmoment für die beiden Volumendatensätze 222 und 238 berechnet, und die Bildträgheitsmomente werden dann nach Spiegelung der Daten des rechten Oberschenkelknochens einander zugeordnet. Es können auch weitere Methoden zur Registrierung gespiegelter korrespondierender Volumendatensätze verwendet werden.Next, the first
Nachdem der Volumendatensatz 222 mit dem gespiegelten Volumendatensatz 238 registriert wurde, können Daten über die Ausrichtung anderer Teile des nicht betroffenen rechten Oberschenkelknochens 214 zum betroffenen linken Oberschenkelknochen 212 in Relation gesetzt und von einem Chirurgen verwendet werden, um die Bruchstücke des betroffenen linken Oberschenkelknochens 212 richtig zu positionieren. Zum Beispiel definieren der gespiegelte Vektor 240' und der Volumendatensatz 228 die theoretisch korrekte Position des linken Hüftkopfes 218 in Bezug auf den linken Oberschenkelkörper 224. Vorzugsweise werden die Tracking-Geräte 246 und 248 am linken Oberschenkelkörper 224 und dem linken Hüftkopf 218 angebracht und unabhängig voneinander während des gesamten Eingriffs vom chirurgischen Navigationssystem 20 verfolgt. Ein Chirurg kann dann die Bruchstücke 218 und 224 des linken Oberschenkelknochens so bewegen, dass sie mit den theoretisch abgeleiteten Positionen aufgrund der Registrierung in den gespiegelten Volumendatensätzen 228, 230 des rechten Oberschenkelknochens 214 übereinstimmen.After the
Da nur die relative Lage von Teilen eines nicht betroffenen Knochens in Bezug auf die entsprechenden Teile des betroffenen Knochens von Interesse sind, gibt es keine Notwendigkeit, die absoluten Positionen der Volumendatensätze 220, 222, 226, 228 und 230 im Verhältnis zum Rest des Körpers des Patienten mit Hilfe von lokalen Bezugssystemen zu berechnen. Vielmehr können die Volumendatensätze und die zugehörigen Bezugssysteme beliebig gewählt werden. Deshalb werden Zeit und Computerressourcen gespart, da es nicht erforderlich ist, ein lokales Bezugssystem zu erstellen. Natürlich ist das Verfahren nicht auf an einem Oberschenkelknochen geleistete Arbeit, wie sie hier beschrieben wurde, beschränkt, sondern kann mit geringfügigen Änderungen für jede anatomische Struktur verwendet werden, die im Wesentlichen auf gegenüberliegenden Seiten einer Mittelachse des Körpers spiegelgleich vorhanden ist, wie Arme, Rippen, Füße, Hände, Hüfte, usw.Since only the relative positions of portions of an unaffected bone with respect to corresponding portions of the affected bone are of interest, there is no need to calculate the absolute positions of the
Die vorliegende Erfindung berücksichtigt auch den Zusammenhang von räumlichen Daten aus einem Datensatz in Relation zu einer anatomischen Struktur zu einem ersten Zeitpunkt zu einem anderen Datensatz der gleichen anatomischen Struktur zu einem anderen Zeitpunkt, wie etwa ein anatomisches Bezugssystem. Eine als Beispiel dienende Situation, die in den
In einer anderen Anwendung werden funktionelle Daten über eine anatomische Struktur durch das Sammeln einer Vielzahl von Volumendatensätzen von der gleichen anatomischen Struktur in einer Vielzahl von unterschiedlichen Positionen zu entsprechenden unterschiedlichen Zeiten entwickelt, ohne dass es erforderlich ist, ein lokales anatomisches Bezugssystem zu identifizieren. Ein Beispiel für diese Anwendung wird in den
Andere Ausgestaltungen mit verschiedenen Kombinationen der einzelnen Merkmale einer jeden der oben beschriebenen Ausgestaltungen sind ausdrücklich hierin eingeschlossen,Other embodiments with different combinations of the individual features of each of the embodiments described above are expressly included herein,
GEWERBLICHE ANWENDBARKEITINDUSTRIAL APPLICABILITY
Die hier beschriebenen Verfahren und Systeme können die Weitergabe von Daten aus einem Datensatz an einen anderen Datensatz erleichtern, wobei die Daten in dem anderen Datensatz sonst nicht verfügbar oder nicht leicht verfügbar wären. Die hier offenbarten Methoden und Systeme nutzen in vielerlei Hinsicht vorteilhaft willkürlich definierte einzigartige Bezugssysteme in verschiedenen Datensätzen, um die Datensätze leicht registrieren und die Daten von einem zum anderen in Relation setzen zu können, ohne dass Kennzeichnung und Verwendung bestimmter Orientierungspunkte, die über zwei oder mehr Datensätze verglichen und/oder zugeordnet werden können, erforderlich ist. Zu den besonderen Verfahren, die von den hier offenbarten Erkenntnissen profitieren können, gehören chirurgische Eingriffe, wie die Hüftgelenksplastik, um funktionelle Beurteilungen während der Chirurgie und Unfallchirurgie durchzuführen, um Daten aus einer nicht betroffenen anatomischen Struktur auf eine betroffene anatomische Struktur zu spiegeln.The methods and systems described herein can facilitate the transfer of data from one data set to another data set where the data in the other data set would otherwise be unavailable or not readily available. The methods and systems disclosed herein advantageously utilize arbitrarily defined unique reference systems in different data sets to easily register the data sets and relate the data from one to the other without requiring the labeling and use of specific landmarks that can be compared and/or associated across two or more data sets. Particular procedures that may benefit from the findings disclosed herein include surgical procedures such as hip arthroplasty, to perform functional assessments during surgery and trauma surgery, to extract data from a unaffected anatomical structure to an affected anatomical structure.
Zahlreiche Modifikationen der vorliegenden Erfindung werden für Fachleute auf diesem Gebiet angesichts der vorhergehenden Beschreibung offensichtlich sein. Dementsprechend ist diese Beschreibung als nur illustrativ zu verstehen und wird vorgelegt, um es den Fachleuten zu ermöglichen, die Erfindung zu machen und zu verwenden und die beste Methode zu ihrer Durchführung zu lehren. Die exklusiven Rechte an allen Modifikationen, die in den Anwendungsbereich der beigefügten Ansprüche fallen, sind vorbehalten. Alle hier genannten Patente und Patentanmeldungen sind hier in ihrer Gesamtheit aufgenommen.Numerous modifications of the present invention will be apparent to those skilled in the art in light of the foregoing description. Accordingly, this description is to be considered as illustrative only and is presented to enable those skilled in the art to make and use the invention and to teach the best mode for carrying it out. Exclusive rights to all modifications that come within the scope of the appended claims are reserved. All patents and patent applications cited herein are incorporated herein in their entirety.
Claims (36)
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US12/835,384 US8675939B2 (en) | 2010-07-13 | 2010-07-13 | Registration of anatomical data sets |
| US12/835,384 | 2010-07-13 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| DE102011106812A1 DE102011106812A1 (en) | 2012-01-19 |
| DE102011106812B4 true DE102011106812B4 (en) | 2025-02-20 |
Family
ID=45403143
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE102011106812.4A Active DE102011106812B4 (en) | 2010-07-13 | 2011-07-06 | registration of anatomical data sets |
Country Status (3)
| Country | Link |
|---|---|
| US (2) | US8675939B2 (en) |
| JP (1) | JP2012020133A (en) |
| DE (1) | DE102011106812B4 (en) |
Families Citing this family (221)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US8784336B2 (en) | 2005-08-24 | 2014-07-22 | C. R. Bard, Inc. | Stylet apparatuses and methods of manufacture |
| US8219178B2 (en) | 2007-02-16 | 2012-07-10 | Catholic Healthcare West | Method and system for performing invasive medical procedures using a surgical robot |
| US10653497B2 (en) | 2006-02-16 | 2020-05-19 | Globus Medical, Inc. | Surgical tool systems and methods |
| US10357184B2 (en) | 2012-06-21 | 2019-07-23 | Globus Medical, Inc. | Surgical tool systems and method |
| US10893912B2 (en) | 2006-02-16 | 2021-01-19 | Globus Medical Inc. | Surgical tool systems and methods |
| US9782229B2 (en) | 2007-02-16 | 2017-10-10 | Globus Medical, Inc. | Surgical robot platform |
| US7794407B2 (en) | 2006-10-23 | 2010-09-14 | Bard Access Systems, Inc. | Method of locating the tip of a central venous catheter |
| US8388546B2 (en) | 2006-10-23 | 2013-03-05 | Bard Access Systems, Inc. | Method of locating the tip of a central venous catheter |
| US8849382B2 (en) | 2007-11-26 | 2014-09-30 | C. R. Bard, Inc. | Apparatus and display methods relating to intravascular placement of a catheter |
| US10524691B2 (en) | 2007-11-26 | 2020-01-07 | C. R. Bard, Inc. | Needle assembly including an aligned magnetic element |
| US10751509B2 (en) | 2007-11-26 | 2020-08-25 | C. R. Bard, Inc. | Iconic representations for guidance of an indwelling medical device |
| US8388541B2 (en) | 2007-11-26 | 2013-03-05 | C. R. Bard, Inc. | Integrated system for intravascular placement of a catheter |
| US9649048B2 (en) | 2007-11-26 | 2017-05-16 | C. R. Bard, Inc. | Systems and methods for breaching a sterile field for intravascular placement of a catheter |
| US9521961B2 (en) | 2007-11-26 | 2016-12-20 | C. R. Bard, Inc. | Systems and methods for guiding a medical instrument |
| US10449330B2 (en) | 2007-11-26 | 2019-10-22 | C. R. Bard, Inc. | Magnetic element-equipped needle assemblies |
| US8781555B2 (en) | 2007-11-26 | 2014-07-15 | C. R. Bard, Inc. | System for placement of a catheter including a signal-generating stylet |
| WO2010022370A1 (en) | 2008-08-22 | 2010-02-25 | C.R. Bard, Inc. | Catheter assembly including ecg sensor and magnetic assemblies |
| US8437833B2 (en) | 2008-10-07 | 2013-05-07 | Bard Access Systems, Inc. | Percutaneous magnetic gastrostomy |
| US8588892B2 (en) * | 2008-12-02 | 2013-11-19 | Avenir Medical Inc. | Method and system for aligning a prosthesis during surgery using active sensors |
| US9532724B2 (en) | 2009-06-12 | 2017-01-03 | Bard Access Systems, Inc. | Apparatus and method for catheter navigation using endovascular energy mapping |
| EP2440122B1 (en) | 2009-06-12 | 2019-08-14 | Bard Access Systems, Inc. | Apparatus, computer-based data processing algorithm and computer storage medium for positioning an endovascular device in or near the heart |
| EP2464407A4 (en) | 2009-08-10 | 2014-04-02 | Bard Access Systems Inc | Devices and methods for endovascular electrography |
| EP2482719A4 (en) | 2009-09-29 | 2016-03-09 | Bard Inc C R | Stylets for use with apparatus for intravascular placement of a catheter |
| CN102821679B (en) | 2010-02-02 | 2016-04-27 | C·R·巴德股份有限公司 | For the apparatus and method that catheter navigation and end are located |
| JP5980201B2 (en) | 2010-05-28 | 2016-08-31 | シー・アール・バード・インコーポレーテッドC R Bard Incorporated | Insertion guidance system for needles and medical components |
| WO2011150376A1 (en) | 2010-05-28 | 2011-12-01 | C.R. Bard, Inc. | Apparatus for use with needle insertion guidance system |
| WO2012000542A1 (en) * | 2010-06-30 | 2012-01-05 | Brainlab Ag | Medical image registration using a rigid inner body surface |
| EP2605699A4 (en) | 2010-08-20 | 2015-01-07 | Bard Inc C R | Reconfirmation of ecg-assisted catheter tip placement |
| WO2012058461A1 (en) | 2010-10-29 | 2012-05-03 | C.R.Bard, Inc. | Bioimpedance-assisted placement of a medical device |
| KR20130129246A (en) * | 2010-12-17 | 2013-11-27 | 아브니르 메디컬 아이엔씨. | Method and system for aligning a prosthesis during surgery |
| JP2014516256A (en) * | 2011-02-08 | 2014-07-10 | ザ ジェネラル ホスピタル コーポレイション | Patient positioning system and method |
| WO2012131660A1 (en) | 2011-04-01 | 2012-10-04 | Ecole Polytechnique Federale De Lausanne (Epfl) | Robotic system for spinal and other surgeries |
| US9020229B2 (en) * | 2011-05-13 | 2015-04-28 | Broncus Medical, Inc. | Surgical assistance planning method using lung motion analysis |
| CN106913366B (en) | 2011-06-27 | 2021-02-26 | 内布拉斯加大学评议会 | On Tool Tracking System and Computer Assisted Surgery Method |
| US9498231B2 (en) | 2011-06-27 | 2016-11-22 | Board Of Regents Of The University Of Nebraska | On-board tool tracking system and methods of computer assisted surgery |
| AU2012278809B2 (en) | 2011-07-06 | 2016-09-29 | C.R. Bard, Inc. | Needle length determination and calibration for insertion guidance system |
| US10896388B2 (en) | 2011-07-25 | 2021-01-19 | Prevedere, Inc. | Systems and methods for business analytics management and modeling |
| US10740772B2 (en) * | 2011-07-25 | 2020-08-11 | Prevedere, Inc. | Systems and methods for forecasting based upon time series data |
| US8908941B2 (en) | 2011-09-16 | 2014-12-09 | The Invention Science Fund I, Llc | Guidance information indicating an operational proximity of a body-insertable device to a region of interest |
| GB201117811D0 (en) * | 2011-10-14 | 2011-11-30 | Siemens Medical Solutions | Registration of cardiac CTA to PET/SPECT |
| US8939909B2 (en) | 2011-10-28 | 2015-01-27 | Decision Sciences International Corporation | Spread spectrum coded waveforms in ultrasound imaging |
| CA2794898C (en) * | 2011-11-10 | 2019-10-29 | Victor Yang | Method of rendering and manipulating anatomical images on mobile computing device |
| KR101423923B1 (en) * | 2012-02-06 | 2014-08-13 | 삼성메디슨 주식회사 | Apparatus and method for obtainning a symmetry information of objects |
| JP5908790B2 (en) * | 2012-05-28 | 2016-04-26 | ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー | Ultrasonic image display device and control program thereof |
| US11399900B2 (en) | 2012-06-21 | 2022-08-02 | Globus Medical, Inc. | Robotic systems providing co-registration using natural fiducials and related methods |
| US12310683B2 (en) | 2012-06-21 | 2025-05-27 | Globus Medical, Inc. | Surgical tool systems and method |
| US12446981B2 (en) | 2012-06-21 | 2025-10-21 | Globus Medical, Inc. | System and method for surgical tool insertion using multiaxis force and moment feedback |
| US11253327B2 (en) | 2012-06-21 | 2022-02-22 | Globus Medical, Inc. | Systems and methods for automatically changing an end-effector on a surgical robot |
| US11857266B2 (en) | 2012-06-21 | 2024-01-02 | Globus Medical, Inc. | System for a surveillance marker in robotic-assisted surgery |
| US11045267B2 (en) | 2012-06-21 | 2021-06-29 | Globus Medical, Inc. | Surgical robotic automation with tracking markers |
| US11395706B2 (en) | 2012-06-21 | 2022-07-26 | Globus Medical Inc. | Surgical robot platform |
| US11864839B2 (en) | 2012-06-21 | 2024-01-09 | Globus Medical Inc. | Methods of adjusting a virtual implant and related surgical navigation systems |
| US12004905B2 (en) | 2012-06-21 | 2024-06-11 | Globus Medical, Inc. | Medical imaging systems using robotic actuators and related methods |
| US11864745B2 (en) | 2012-06-21 | 2024-01-09 | Globus Medical, Inc. | Surgical robotic system with retractor |
| US11857149B2 (en) | 2012-06-21 | 2024-01-02 | Globus Medical, Inc. | Surgical robotic systems with target trajectory deviation monitoring and related methods |
| US12465433B2 (en) | 2012-06-21 | 2025-11-11 | Globus Medical Inc. | Methods of adjusting a virtual implant and related surgical navigation systems |
| US11607149B2 (en) | 2012-06-21 | 2023-03-21 | Globus Medical Inc. | Surgical tool systems and method |
| US12220120B2 (en) | 2012-06-21 | 2025-02-11 | Globus Medical, Inc. | Surgical robotic system with retractor |
| US20150032164A1 (en) | 2012-06-21 | 2015-01-29 | Globus Medical, Inc. | Methods for Performing Invasive Medical Procedures Using a Surgical Robot |
| US10231791B2 (en) | 2012-06-21 | 2019-03-19 | Globus Medical, Inc. | Infrared signal based position recognition system for use with a robot-assisted surgery |
| US10624710B2 (en) | 2012-06-21 | 2020-04-21 | Globus Medical, Inc. | System and method for measuring depth of instrumentation |
| US10350013B2 (en) | 2012-06-21 | 2019-07-16 | Globus Medical, Inc. | Surgical tool systems and methods |
| US10758315B2 (en) | 2012-06-21 | 2020-09-01 | Globus Medical Inc. | Method and system for improving 2D-3D registration convergence |
| US10136954B2 (en) | 2012-06-21 | 2018-11-27 | Globus Medical, Inc. | Surgical tool systems and method |
| US11317971B2 (en) | 2012-06-21 | 2022-05-03 | Globus Medical, Inc. | Systems and methods related to robotic guidance in surgery |
| US12472008B2 (en) | 2012-06-21 | 2025-11-18 | Globus Medical, Inc. | Robotic fluoroscopic navigation |
| US12329593B2 (en) | 2012-06-21 | 2025-06-17 | Globus Medical, Inc. | Surgical robotic automation with tracking markers |
| US11793570B2 (en) | 2012-06-21 | 2023-10-24 | Globus Medical Inc. | Surgical robotic automation with tracking markers |
| US12262954B2 (en) | 2012-06-21 | 2025-04-01 | Globus Medical, Inc. | Surgical robotic automation with tracking markers |
| US11298196B2 (en) | 2012-06-21 | 2022-04-12 | Globus Medical Inc. | Surgical robotic automation with tracking markers and controlled tool advancement |
| US11974822B2 (en) | 2012-06-21 | 2024-05-07 | Globus Medical Inc. | Method for a surveillance marker in robotic-assisted surgery |
| US11116576B2 (en) | 2012-06-21 | 2021-09-14 | Globus Medical Inc. | Dynamic reference arrays and methods of use |
| JP6081301B2 (en) * | 2012-06-27 | 2017-02-15 | 東芝メディカルシステムズ株式会社 | Ultrasonic diagnostic apparatus and image data correction method |
| US20150227679A1 (en) * | 2012-07-12 | 2015-08-13 | Ao Technology Ag | Method for generating a graphical 3d computer model of at least one anatomical structure in a selectable pre-, intra-, or postoperative status |
| US11995667B2 (en) | 2012-07-25 | 2024-05-28 | Prevedere Inc. | Systems and methods for business analytics model scoring and selection |
| US9402637B2 (en) | 2012-10-11 | 2016-08-02 | Howmedica Osteonics Corporation | Customized arthroplasty cutting guides and surgical methods using the same |
| KR101993384B1 (en) * | 2012-10-24 | 2019-06-26 | 삼성전자주식회사 | Method, Apparatus and system for correcting medical image by patient's pose variation |
| JP6487336B2 (en) * | 2012-12-31 | 2019-03-20 | マコ サージカル コーポレーション | System and method for alignment using an ultrasound probe |
| US9456874B2 (en) | 2013-02-18 | 2016-10-04 | OrthoGrid Systems, Inc | Grid patterned alignment plate for imaging apparatus and method of providing implant placement |
| US9675272B2 (en) | 2013-03-13 | 2017-06-13 | DePuy Synthes Products, Inc. | Methods, systems, and devices for guiding surgical instruments using radio frequency technology |
| US9247998B2 (en) | 2013-03-15 | 2016-02-02 | Intellijoint Surgical Inc. | System and method for intra-operative leg position measurement |
| US10105149B2 (en) | 2013-03-15 | 2018-10-23 | Board Of Regents Of The University Of Nebraska | On-board tool tracking system and methods of computer assisted surgery |
| DE102013215395A1 (en) * | 2013-08-05 | 2015-02-05 | Fiagon Gmbh | System for the reconstruction of symmetrical body parts |
| WO2015021327A2 (en) | 2013-08-09 | 2015-02-12 | Broncus Medical Inc. | Registration of fluoroscopic images of the chest and corresponding 3d image data based on the ribs and spine |
| US9844359B2 (en) | 2013-09-13 | 2017-12-19 | Decision Sciences Medical Company, LLC | Coherent spread-spectrum coded waveforms in synthetic aperture image formation |
| US9283048B2 (en) | 2013-10-04 | 2016-03-15 | KB Medical SA | Apparatus and systems for precise guidance of surgical tools |
| KR101547098B1 (en) * | 2014-01-08 | 2015-09-04 | 삼성전자 주식회사 | Apparatus and method for generating image |
| EP3094272B1 (en) | 2014-01-15 | 2021-04-21 | KB Medical SA | Notched apparatus for guidance of an insertable instrument along an axis during spinal surgery |
| ES2811323T3 (en) | 2014-02-06 | 2021-03-11 | Bard Inc C R | Systems for the guidance and placement of an intravascular device |
| WO2015121311A1 (en) | 2014-02-11 | 2015-08-20 | KB Medical SA | Sterile handle for controlling a robotic surgical system from a sterile field |
| US10433914B2 (en) * | 2014-02-25 | 2019-10-08 | JointPoint, Inc. | Systems and methods for intra-operative image analysis |
| US10758198B2 (en) * | 2014-02-25 | 2020-09-01 | DePuy Synthes Products, Inc. | Systems and methods for intra-operative image analysis |
| US12295772B2 (en) | 2014-02-25 | 2025-05-13 | DePuy Synthes Products, Inc. | Systems and methods for intra-operative image analysis |
| CN106659537B (en) | 2014-04-24 | 2019-06-11 | Kb医疗公司 | The surgical instrument holder used in conjunction with robotic surgical system |
| CN107072673A (en) | 2014-07-14 | 2017-08-18 | Kb医疗公司 | Anti-skidding operating theater instruments for preparing hole in bone tissue |
| WO2016065459A1 (en) | 2014-10-29 | 2016-05-06 | Intellijoint Surgical Inc. | Devices, systems and methods for natural feature tracking of surgical tools and other objects |
| US11103316B2 (en) | 2014-12-02 | 2021-08-31 | Globus Medical Inc. | Robot assisted volume removal during surgery |
| US10504252B2 (en) * | 2014-12-15 | 2019-12-10 | Canon Medical Systems Corporation | Method of, and apparatus for, registration and segmentation of medical imaging data |
| US10973584B2 (en) | 2015-01-19 | 2021-04-13 | Bard Access Systems, Inc. | Device and method for vascular access |
| US10013808B2 (en) | 2015-02-03 | 2018-07-03 | Globus Medical, Inc. | Surgeon head-mounted display apparatuses |
| US10555782B2 (en) | 2015-02-18 | 2020-02-11 | Globus Medical, Inc. | Systems and methods for performing minimally invasive spinal surgery with a robotic surgical system using a percutaneous technique |
| KR102677468B1 (en) | 2015-02-25 | 2024-06-27 | 디시전 사이선씨즈 메디컬 컴패니, 엘엘씨 | Acoustic signal transmission couplants and coupling mediums |
| WO2016192759A2 (en) | 2015-05-29 | 2016-12-08 | Brainlab Ag | Method for registering articulated anatomical structures |
| WO2016210325A1 (en) | 2015-06-26 | 2016-12-29 | C.R. Bard, Inc. | Connector interface for ecg-based catheter positioning system |
| US10058394B2 (en) | 2015-07-31 | 2018-08-28 | Globus Medical, Inc. | Robot arm and methods of use |
| US10646298B2 (en) | 2015-07-31 | 2020-05-12 | Globus Medical, Inc. | Robot arm and methods of use |
| US10080615B2 (en) | 2015-08-12 | 2018-09-25 | Globus Medical, Inc. | Devices and methods for temporary mounting of parts to bone |
| EP3344179B1 (en) | 2015-08-31 | 2021-06-30 | KB Medical SA | Robotic surgical systems |
| US10034716B2 (en) | 2015-09-14 | 2018-07-31 | Globus Medical, Inc. | Surgical robotic systems and methods thereof |
| JP6755308B2 (en) | 2015-10-08 | 2020-09-16 | ディスィジョン サイエンシズ メディカル カンパニー,エルエルシー | Acoustic orthopedic tracking system and method |
| US9771092B2 (en) | 2015-10-13 | 2017-09-26 | Globus Medical, Inc. | Stabilizer wheel assembly and methods of use |
| CA3005782C (en) * | 2015-11-19 | 2023-08-08 | Synaptive Medical (Barbados) Inc. | Neurosurgical mri-guided ultrasound via multi-modal image registration and multi-sensor fusion |
| EP3405926B1 (en) * | 2015-12-18 | 2022-09-28 | DePuy Synthes Products, Inc. | Systems and methods for intra-operative image analysis |
| US11000207B2 (en) | 2016-01-29 | 2021-05-11 | C. R. Bard, Inc. | Multiple coil system for tracking a medical device |
| US10117632B2 (en) | 2016-02-03 | 2018-11-06 | Globus Medical, Inc. | Portable medical imaging system with beam scanning collimator |
| US11058378B2 (en) | 2016-02-03 | 2021-07-13 | Globus Medical, Inc. | Portable medical imaging system |
| US10842453B2 (en) | 2016-02-03 | 2020-11-24 | Globus Medical, Inc. | Portable medical imaging system |
| US10448910B2 (en) | 2016-02-03 | 2019-10-22 | Globus Medical, Inc. | Portable medical imaging system |
| US11883217B2 (en) | 2016-02-03 | 2024-01-30 | Globus Medical, Inc. | Portable medical imaging system and method |
| US10866119B2 (en) | 2016-03-14 | 2020-12-15 | Globus Medical, Inc. | Metal detector for detecting insertion of a surgical device into a hollow tube |
| EP3241518B1 (en) | 2016-04-11 | 2024-10-23 | Globus Medical, Inc | Surgical tool systems |
| JP6951116B2 (en) * | 2016-05-11 | 2021-10-20 | キヤノンメディカルシステムズ株式会社 | Medical image processing equipment, medical diagnostic imaging equipment, and image processing methods |
| US10182871B2 (en) | 2016-05-22 | 2019-01-22 | JointPoint, Inc. | Systems and methods for intra-operative image acquisition and calibration |
| AU2017319515B2 (en) * | 2016-08-30 | 2019-11-21 | Mako Surgical Corp. | Systems and methods for intra-operative pelvic registration |
| JP6855239B2 (en) * | 2016-12-28 | 2021-04-07 | キヤノンメディカルシステムズ株式会社 | Magnetic resonance imaging device |
| JP7233841B2 (en) | 2017-01-18 | 2023-03-07 | ケービー メディカル エスアー | Robotic Navigation for Robotic Surgical Systems |
| US11071594B2 (en) | 2017-03-16 | 2021-07-27 | KB Medical SA | Robotic navigation of robotic surgical systems |
| US20180289432A1 (en) | 2017-04-05 | 2018-10-11 | Kb Medical, Sa | Robotic surgical systems for preparing holes in bone tissue and methods of their use |
| EP3609424A1 (en) | 2017-04-14 | 2020-02-19 | Stryker Corporation | Surgical systems and methods for facilitating ad-hoc intraoperative planning of surgical procedures |
| EP4371519A3 (en) | 2017-06-09 | 2024-07-24 | MAKO Surgical Corp. | Tools for positioning workpieces with surgical robots |
| US10675094B2 (en) | 2017-07-21 | 2020-06-09 | Globus Medical Inc. | Robot surgical platform |
| AU2018214021A1 (en) * | 2017-08-10 | 2019-02-28 | Biosense Webster (Israel) Ltd. | Method and apparatus for performing facial registration |
| US20190046155A1 (en) * | 2017-08-10 | 2019-02-14 | Biosense Webster (Israel) Ltd. | Method and apparatus for performing facial registration |
| EP3445048B1 (en) | 2017-08-15 | 2025-09-17 | Holo Surgical Inc. | A graphical user interface for a surgical navigation system for providing an augmented reality image during operation |
| JP6778242B2 (en) | 2017-11-09 | 2020-10-28 | グローバス メディカル インコーポレイティッド | Surgical robot systems for bending surgical rods, and related methods and equipment |
| US11794338B2 (en) | 2017-11-09 | 2023-10-24 | Globus Medical Inc. | Robotic rod benders and related mechanical and motor housings |
| US11382666B2 (en) | 2017-11-09 | 2022-07-12 | Globus Medical Inc. | Methods providing bend plans for surgical rods and related controllers and computer program products |
| US11134862B2 (en) | 2017-11-10 | 2021-10-05 | Globus Medical, Inc. | Methods of selecting surgical implants and related devices |
| US11272985B2 (en) | 2017-11-14 | 2022-03-15 | Stryker Corporation | Patient-specific preoperative planning simulation techniques |
| WO2019147948A1 (en) | 2018-01-26 | 2019-08-01 | Mako Surgical Corp. | End effectors, systems, and methods for impacting prosthetics guided by surgical robots |
| US20190254753A1 (en) | 2018-02-19 | 2019-08-22 | Globus Medical, Inc. | Augmented reality navigation systems for use with robotic surgical systems and methods of their use |
| US10573023B2 (en) | 2018-04-09 | 2020-02-25 | Globus Medical, Inc. | Predictive visualization of medical imaging scanner component movement |
| EP3852622B1 (en) | 2018-10-16 | 2025-04-02 | Bard Access Systems, Inc. | Safety-equipped connection systems and methods thereof for establishing electrical connections |
| US11337742B2 (en) | 2018-11-05 | 2022-05-24 | Globus Medical Inc | Compliant orthopedic driver |
| US11278360B2 (en) | 2018-11-16 | 2022-03-22 | Globus Medical, Inc. | End-effectors for surgical robotic systems having sealed optical components |
| US11602402B2 (en) | 2018-12-04 | 2023-03-14 | Globus Medical, Inc. | Drill guide fixtures, cranial insertion fixtures, and related methods and robotic systems |
| US11744655B2 (en) | 2018-12-04 | 2023-09-05 | Globus Medical, Inc. | Drill guide fixtures, cranial insertion fixtures, and related methods and robotic systems |
| EP3692939B1 (en) | 2019-02-07 | 2021-07-14 | Stryker European Operations Limited | Surgical systems for facilitating tissue treatment |
| CN113613905A (en) | 2019-03-06 | 2021-11-05 | 决策科学医疗有限责任公司 | Method for manufacturing and distributing semi-rigid acoustically coupled articles and packaging for ultrasonic imaging |
| US20200297357A1 (en) | 2019-03-22 | 2020-09-24 | Globus Medical, Inc. | System for neuronavigation registration and robotic trajectory guidance, robotic surgery, and related methods and devices |
| US11571265B2 (en) | 2019-03-22 | 2023-02-07 | Globus Medical Inc. | System for neuronavigation registration and robotic trajectory guidance, robotic surgery, and related methods and devices |
| US11806084B2 (en) | 2019-03-22 | 2023-11-07 | Globus Medical, Inc. | System for neuronavigation registration and robotic trajectory guidance, and related methods and devices |
| US11317978B2 (en) | 2019-03-22 | 2022-05-03 | Globus Medical, Inc. | System for neuronavigation registration and robotic trajectory guidance, robotic surgery, and related methods and devices |
| US11382549B2 (en) | 2019-03-22 | 2022-07-12 | Globus Medical, Inc. | System for neuronavigation registration and robotic trajectory guidance, and related methods and devices |
| US11419616B2 (en) | 2019-03-22 | 2022-08-23 | Globus Medical, Inc. | System for neuronavigation registration and robotic trajectory guidance, robotic surgery, and related methods and devices |
| US11154274B2 (en) | 2019-04-23 | 2021-10-26 | Decision Sciences Medical Company, LLC | Semi-rigid acoustic coupling articles for ultrasound diagnostic and treatment applications |
| US11045179B2 (en) | 2019-05-20 | 2021-06-29 | Global Medical Inc | Robot-mounted retractor system |
| US11628023B2 (en) | 2019-07-10 | 2023-04-18 | Globus Medical, Inc. | Robotic navigational system for interbody implants |
| US12396692B2 (en) | 2019-09-24 | 2025-08-26 | Globus Medical, Inc. | Compound curve cable chain |
| US11571171B2 (en) | 2019-09-24 | 2023-02-07 | Globus Medical, Inc. | Compound curve cable chain |
| US11426178B2 (en) | 2019-09-27 | 2022-08-30 | Globus Medical Inc. | Systems and methods for navigating a pin guide driver |
| US12408929B2 (en) | 2019-09-27 | 2025-09-09 | Globus Medical, Inc. | Systems and methods for navigating a pin guide driver |
| US12329391B2 (en) | 2019-09-27 | 2025-06-17 | Globus Medical, Inc. | Systems and methods for robot-assisted knee arthroplasty surgery |
| US11890066B2 (en) | 2019-09-30 | 2024-02-06 | Globus Medical, Inc | Surgical robot with passive end effector |
| US11864857B2 (en) | 2019-09-27 | 2024-01-09 | Globus Medical, Inc. | Surgical robot with passive end effector |
| JP7704743B2 (en) | 2019-10-01 | 2025-07-08 | マコ サージカル コーポレーション | Surgical system and method for guiding a robotic manipulator - Patents.com |
| WO2021069449A1 (en) | 2019-10-06 | 2021-04-15 | Universität Bern | System and method for computation of coordinate system transformations |
| US11510684B2 (en) | 2019-10-14 | 2022-11-29 | Globus Medical, Inc. | Rotary motion passive end effector for surgical robots in orthopedic surgeries |
| US11871998B2 (en) | 2019-12-06 | 2024-01-16 | Stryker European Operations Limited | Gravity based patient image orientation detection |
| US11992373B2 (en) | 2019-12-10 | 2024-05-28 | Globus Medical, Inc | Augmented reality headset with varied opacity for navigated robotic surgery |
| US12220176B2 (en) | 2019-12-10 | 2025-02-11 | Globus Medical, Inc. | Extended reality instrument interaction zone for navigated robotic |
| US12133772B2 (en) | 2019-12-10 | 2024-11-05 | Globus Medical, Inc. | Augmented reality headset for navigated robotic surgery |
| US12064189B2 (en) | 2019-12-13 | 2024-08-20 | Globus Medical, Inc. | Navigated instrument for use in robotic guided surgery |
| WO2021146497A1 (en) | 2020-01-15 | 2021-07-22 | Pingkun Yan | Trackerless 2d ultrasound frame to 3d image volume registration |
| US11382699B2 (en) | 2020-02-10 | 2022-07-12 | Globus Medical Inc. | Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery |
| US12414752B2 (en) | 2020-02-17 | 2025-09-16 | Globus Medical, Inc. | System and method of determining optimal 3-dimensional position and orientation of imaging device for imaging patient bones |
| US11207150B2 (en) | 2020-02-19 | 2021-12-28 | Globus Medical, Inc. | Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment |
| US12094061B2 (en) * | 2020-03-16 | 2024-09-17 | Covidien Lp | System and methods for updating an anatomical 3D model |
| EP4513441A3 (en) | 2020-03-16 | 2025-05-14 | Stryker Australia PTY LTD | Automated cut planning for removal of diseased regions |
| WO2021194895A1 (en) * | 2020-03-23 | 2021-09-30 | Intuitive Surgical Operations, Inc. | Systems and methods for registering visual representations of a surgical space |
| US11253216B2 (en) | 2020-04-28 | 2022-02-22 | Globus Medical Inc. | Fixtures for fluoroscopic imaging systems and related navigation systems and methods |
| US11153555B1 (en) | 2020-05-08 | 2021-10-19 | Globus Medical Inc. | Extended reality headset camera system for computer assisted navigation in surgery |
| US11510750B2 (en) | 2020-05-08 | 2022-11-29 | Globus Medical, Inc. | Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications |
| US11382700B2 (en) | 2020-05-08 | 2022-07-12 | Globus Medical Inc. | Extended reality headset tool tracking and control |
| US11317973B2 (en) | 2020-06-09 | 2022-05-03 | Globus Medical, Inc. | Camera tracking bar for computer assisted navigation during surgery |
| US12070276B2 (en) | 2020-06-09 | 2024-08-27 | Globus Medical Inc. | Surgical object tracking in visible light via fiducial seeding and synthetic image registration |
| US11382713B2 (en) | 2020-06-16 | 2022-07-12 | Globus Medical, Inc. | Navigated surgical system with eye to XR headset display calibration |
| US11107586B1 (en) | 2020-06-24 | 2021-08-31 | Cuptimize, Inc. | System and method for analyzing acetabular cup position |
| US11877807B2 (en) | 2020-07-10 | 2024-01-23 | Globus Medical, Inc | Instruments for navigated orthopedic surgeries |
| US11793588B2 (en) | 2020-07-23 | 2023-10-24 | Globus Medical, Inc. | Sterile draping of robotic arms |
| US11737831B2 (en) | 2020-09-02 | 2023-08-29 | Globus Medical Inc. | Surgical object tracking template generation for computer assisted navigation during surgical procedure |
| US11523785B2 (en) | 2020-09-24 | 2022-12-13 | Globus Medical, Inc. | Increased cone beam computed tomography volume length without requiring stitching or longitudinal C-arm movement |
| US12076091B2 (en) | 2020-10-27 | 2024-09-03 | Globus Medical, Inc. | Robotic navigational system |
| US11911112B2 (en) | 2020-10-27 | 2024-02-27 | Globus Medical, Inc. | Robotic navigational system |
| US11941814B2 (en) | 2020-11-04 | 2024-03-26 | Globus Medical Inc. | Auto segmentation using 2-D images taken during 3-D imaging spin |
| EP4243696A4 (en) | 2020-11-13 | 2024-09-04 | Decision Sciences Medical Company, LLC | SYSTEMS AND METHODS FOR SYNTHETIC APERTURE ULTRASOUND IMAGING OF AN OBJECT |
| US11717350B2 (en) | 2020-11-24 | 2023-08-08 | Globus Medical Inc. | Methods for robotic assistance and navigation in spinal surgery and related systems |
| US12161433B2 (en) | 2021-01-08 | 2024-12-10 | Globus Medical, Inc. | System and method for ligament balancing with robotic assistance |
| US12249084B2 (en) * | 2021-02-16 | 2025-03-11 | Medtronic Navigation, Inc. | Systems and methods for medical imagery enhancement by use of image guidance system |
| US12211221B2 (en) | 2021-03-08 | 2025-01-28 | Medtronic Navigation, Inc. | Systems and methods for enhancement of 3D imagery and navigation via integration of patient motion data |
| US12150728B2 (en) | 2021-04-14 | 2024-11-26 | Globus Medical, Inc. | End effector for a surgical robot |
| US12178523B2 (en) | 2021-04-19 | 2024-12-31 | Globus Medical, Inc. | Computer assisted surgical navigation system for spine procedures |
| US12458454B2 (en) | 2021-06-21 | 2025-11-04 | Globus Medical, Inc. | Gravity compensation of end effector arm for robotic surgical system |
| US11857273B2 (en) | 2021-07-06 | 2024-01-02 | Globus Medical, Inc. | Ultrasonic robotic surgical navigation |
| US11439444B1 (en) | 2021-07-22 | 2022-09-13 | Globus Medical, Inc. | Screw tower and rod reduction tool |
| US11887306B2 (en) | 2021-08-11 | 2024-01-30 | DePuy Synthes Products, Inc. | System and method for intraoperatively determining image alignment |
| US12213745B2 (en) | 2021-09-16 | 2025-02-04 | Globus Medical, Inc. | Extended reality systems for visualizing and controlling operating room equipment |
| US12238087B2 (en) | 2021-10-04 | 2025-02-25 | Globus Medical, Inc. | Validating credential keys based on combinations of credential value strings and input order strings |
| US12184636B2 (en) | 2021-10-04 | 2024-12-31 | Globus Medical, Inc. | Validating credential keys based on combinations of credential value strings and input order strings |
| US12444045B2 (en) | 2021-10-20 | 2025-10-14 | Globus Medical, Inc. | Interpolation of medical images |
| US11941825B2 (en) * | 2021-10-28 | 2024-03-26 | Canon Medical Systems Corporation | Method and apparatus for registering image volumes |
| US20230165639A1 (en) | 2021-12-01 | 2023-06-01 | Globus Medical, Inc. | Extended reality systems with three-dimensional visualizations of medical image scan slices |
| US11918304B2 (en) | 2021-12-20 | 2024-03-05 | Globus Medical, Inc | Flat panel registration fixture and method of using same |
| US12103480B2 (en) | 2022-03-18 | 2024-10-01 | Globus Medical Inc. | Omni-wheel cable pusher |
| US12048493B2 (en) | 2022-03-31 | 2024-07-30 | Globus Medical, Inc. | Camera tracking system identifying phantom markers during computer assisted surgery navigation |
| US12394086B2 (en) | 2022-05-10 | 2025-08-19 | Globus Medical, Inc. | Accuracy check and automatic calibration of tracked instruments |
| US12161427B2 (en) | 2022-06-08 | 2024-12-10 | Globus Medical, Inc. | Surgical navigation system with flat panel registration fixture |
| US12226169B2 (en) | 2022-07-15 | 2025-02-18 | Globus Medical, Inc. | Registration of 3D and 2D images for surgical navigation and robotic guidance without using radiopaque fiducials in the images |
| US20240020840A1 (en) | 2022-07-15 | 2024-01-18 | Globus Medical, Inc. | REGISTRATION OF 3D and 2D IMAGES FOR SURGICAL NAVIGATION AND ROBOTIC GUIDANCE WITHOUT USING RADIOPAQUE FIDUCIALS IN THE IMAGES |
| US12318150B2 (en) | 2022-10-11 | 2025-06-03 | Globus Medical Inc. | Camera tracking system for computer assisted surgery navigation |
| WO2025195646A1 (en) * | 2024-03-21 | 2025-09-25 | Smith & Nephew, Inc. | Registration of pre-operative and intra-operative data |
Family Cites Families (34)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5417210A (en) * | 1992-05-27 | 1995-05-23 | International Business Machines Corporation | System and method for augmentation of endoscopic surgery |
| US5690106A (en) | 1995-06-30 | 1997-11-25 | Siemens Corporate Research, Inc. | Flexible image registration for rotational angiography |
| US5937083A (en) | 1996-04-29 | 1999-08-10 | The United States Of America As Represented By The Department Of Health And Human Services | Image registration using closest corresponding voxels with an iterative registration process |
| US6205411B1 (en) | 1997-02-21 | 2001-03-20 | Carnegie Mellon University | Computer-assisted surgery planner and intra-operative guidance system |
| US9289153B2 (en) * | 1998-09-14 | 2016-03-22 | The Board Of Trustees Of The Leland Stanford Junior University | Joint and cartilage diagnosis, assessment and modeling |
| DE69931074T2 (en) | 1999-03-17 | 2006-11-16 | Synthes Ag Chur | DEVICE FOR PRESENTING AND PLANNING CRANE COATING OPERATIONS |
| US6625607B1 (en) * | 1999-07-22 | 2003-09-23 | Parametric Technology Corporation | Method of comparing parts |
| EP1357850A1 (en) * | 2001-02-07 | 2003-11-05 | SYNTHES AG Chur | Method for establishing a three-dimensional representation of bone x-ray images |
| US20050256398A1 (en) | 2004-05-12 | 2005-11-17 | Hastings Roger N | Systems and methods for interventional medicine |
| AU2003230845A1 (en) | 2002-04-10 | 2003-10-27 | Stereotaxis, Inc. | Systems and methods for interventional medicine |
| ATE300067T1 (en) | 2003-04-11 | 2005-08-15 | Medcom Ges Fuer Medizinische B | COMBINING FIRST AND SECOND IMAGE DATA OF AN OBJECT |
| US7570791B2 (en) * | 2003-04-25 | 2009-08-04 | Medtronic Navigation, Inc. | Method and apparatus for performing 2D to 3D registration |
| DE10333543A1 (en) | 2003-07-23 | 2005-02-24 | Siemens Ag | A method for the coupled presentation of intraoperative as well as interactive and iteratively re-registered preoperative images in medical imaging |
| US7315644B2 (en) * | 2003-07-31 | 2008-01-01 | The Boeing Company | Investigation of destroyed assemblies and identification of components thereof |
| US7968851B2 (en) * | 2004-01-13 | 2011-06-28 | Spectrum Dynamics Llc | Dynamic spect camera |
| US7949179B2 (en) * | 2004-02-25 | 2011-05-24 | The University Of Tokyo | Shape measurement device and method thereof |
| WO2005086062A2 (en) * | 2004-03-05 | 2005-09-15 | Depuy International Limited | Registration methods and apparatus |
| US8280482B2 (en) * | 2004-04-19 | 2012-10-02 | New York University | Method and apparatus for evaluating regional changes in three-dimensional tomographic images |
| US7724943B2 (en) | 2004-04-21 | 2010-05-25 | Siemens Medical Solutions Usa, Inc. | Rapid and robust 3D/3D registration technique |
| US8090429B2 (en) | 2004-06-30 | 2012-01-03 | Siemens Medical Solutions Usa, Inc. | Systems and methods for localized image registration and fusion |
| US8989349B2 (en) | 2004-09-30 | 2015-03-24 | Accuray, Inc. | Dynamic tracking of moving targets |
| US8014625B2 (en) * | 2004-11-10 | 2011-09-06 | Agfa Healthcare | Method of performing measurements on digital images |
| US20060133694A1 (en) * | 2004-11-10 | 2006-06-22 | Agfa-Gevaert | Display device for displaying a blended image |
| WO2006067719A2 (en) * | 2004-12-20 | 2006-06-29 | Koninklijke Philips Electronics N.V. | A method, a system and a computer program for integration of medical diagnostic information and a geometric model of a movable body |
| FR2882248B1 (en) * | 2005-02-18 | 2007-05-11 | Raymond Derycke | PORCEDE AND SYSTEM FOR ASSISTING THE GUIDANCE OF A TOOL FOR MEDICAL USE |
| EP1861821A2 (en) * | 2005-03-24 | 2007-12-05 | Image Metrics Limited | Method and system for characterization of knee joint morphology |
| DE102005023167B4 (en) | 2005-05-19 | 2008-01-03 | Siemens Ag | Method and device for registering 2D projection images relative to a 3D image data set |
| DE102005036322A1 (en) | 2005-07-29 | 2007-02-15 | Siemens Ag | Intraoperative registration method for intraoperative image data sets, involves spatial calibration of optical three-dimensional sensor system with intraoperative imaging modality |
| WO2007047782A2 (en) | 2005-10-20 | 2007-04-26 | Intuitive Surgical, Inc | Auxiliary image display and manipulation on a computer display in a medical robotic system |
| US8121362B2 (en) * | 2007-04-30 | 2012-02-21 | Siemens Medical Solutions Usa, Inc. | Registration of medical images using learned-based matching functions |
| GB0714940D0 (en) * | 2007-08-01 | 2007-09-12 | Depuy Orthopaedie Gmbh | Image processing |
| US8184909B2 (en) * | 2008-06-25 | 2012-05-22 | United Technologies Corporation | Method for comparing sectioned geometric data representations for selected objects |
| US8848974B2 (en) * | 2008-09-29 | 2014-09-30 | Restoration Robotics, Inc. | Object-tracking systems and methods |
| JP5612371B2 (en) * | 2010-06-11 | 2014-10-22 | 富士フイルム株式会社 | Image alignment apparatus and method, and program |
-
2010
- 2010-07-13 US US12/835,384 patent/US8675939B2/en active Active
-
2011
- 2011-07-06 DE DE102011106812.4A patent/DE102011106812B4/en active Active
- 2011-07-13 JP JP2011154736A patent/JP2012020133A/en not_active Withdrawn
-
2013
- 2013-12-09 US US14/100,055 patent/US9572548B2/en active Active
Non-Patent Citations (2)
| Title |
|---|
| Bildregistrierung", URL:https://de.wikipedia.org/w/index. php?title=Bildregistrierung&oldid=76480840 (Version vom 09.07.2010 |
| Wikipedia "Bildregistrierung", URL: https://de.wikipedia.org/w/index.php?title=Bildregistrierung&oldid=76480840 (Version vom 09.07.2010) [recherchiert und aufgerufen am 21.04.2022] * |
Also Published As
| Publication number | Publication date |
|---|---|
| US9572548B2 (en) | 2017-02-21 |
| JP2012020133A (en) | 2012-02-02 |
| US20140094694A1 (en) | 2014-04-03 |
| US8675939B2 (en) | 2014-03-18 |
| DE102011106812A1 (en) | 2012-01-19 |
| US20120016269A1 (en) | 2012-01-19 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE102011106812B4 (en) | registration of anatomical data sets | |
| EP3393391B1 (en) | Device for intraoperative image-guided navigation during surgical interventions in the vicinity of the spine and the adjoining thoracic, pelvic or head area | |
| DE60015320T2 (en) | DEVICE AND METHOD FOR IMAGE-CONTROLLED SURGERY | |
| DE60032475T2 (en) | NAVIGATION GUIDANCE ON COMPUTER-BASED FLUOROSCOPIC IMAGING | |
| EP3012759B1 (en) | Method for planning, preparing, accompaniment, monitoring and/or final control of a surgical procedure in the human or animal body, system for carrying out such a procedure and use of the device | |
| US9320421B2 (en) | Method of determination of access areas from 3D patient images | |
| US12256996B2 (en) | Systems and methods for generating a three-dimensional model of a joint from two-dimensional images | |
| WO2024165508A1 (en) | A computer-implemented method, device, system and computer program product for processing anatomic imaging data | |
| DE112004002435B4 (en) | Determination of patient-related information on the position and orientation of MR images by individualizing a body model | |
| WO2002062250A1 (en) | Device and method for intraoperative navigation | |
| DE112016005720T5 (en) | 3D visualization during surgery with reduced radiation exposure | |
| DE102008044529A1 (en) | System and method for using fluoroscopic and computed tomography registration for sinuplasty navigation | |
| EP1348394B1 (en) | Planning or navigation assistance by generic obtained patient data with two-dimensional adaptation | |
| Tu et al. | A multi-view interactive virtual-physical registration method for mixed reality based surgical navigation in pelvic and acetabular fracture fixation | |
| US20230310013A1 (en) | Apparatus, system, and method for patient-specific instrumentation | |
| US20240268966A1 (en) | Apparatus, system, and method for lapidus correction | |
| WO2024159026A2 (en) | Apparatus, system, and method for osteotomies | |
| DE102022100923A1 (en) | Navigation system with 3D surface scanner and navigation method | |
| Valstar et al. | Towards computer-assisted surgery in shoulder joint replacement | |
| Lai et al. | Computer-Aided Preoperative Planning and Virtual Simulation in Orthopedic Surgery | |
| JP2025508764A (en) | Methods, computing devices, systems, and computer program products for assisting in positioning an instrument relative to a particular body part of a patient | |
| Lai et al. | Computer-Aided Preoperative Planning and Virtual Simulation in Orthopedic | |
| Arn | An automated pipeline for three-dimensional preoperative planning of high tibial osteotomies under consideration of weight-bearing | |
| DE102022104486A1 (en) | Endoprosthesis assistance system and assistance method | |
| WO2024178122A2 (en) | Apparatus, system, and method for patient-specific harvesting guide |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: A61B0019000000 Ipc: A61B0034000000 |
|
| R081 | Change of applicant/patentee |
Owner name: STRYKER EUROPEAN OPERATIONS HOLDINGS LLC, KALA, US Free format text: FORMER OWNER: STRYKER EUROPEAN HOLDINGS VI, LLC (N.D. GES. D. STAATES DELAWARE), KALAMAZOO, MICH., US Owner name: STRYKER EUROPEAN OPERATIONS HOLDINGS LLC, KALA, US Free format text: FORMER OWNER: STRYKER LEIBINGER GMBH & CO. KG, 79111 FREIBURG, DE Owner name: STRYKER EUROPEAN HOLDINGS I, LLC (N.D. GES. D., US Free format text: FORMER OWNER: STRYKER EUROPEAN HOLDINGS VI, LLC (N.D. GES. D. STAATES DELAWARE), KALAMAZOO, MICH., US Owner name: STRYKER EUROPEAN HOLDINGS I, LLC (N.D. GES. D., US Free format text: FORMER OWNER: STRYKER LEIBINGER GMBH & CO. KG, 79111 FREIBURG, DE |
|
| R082 | Change of representative |
Representative=s name: WUESTHOFF & WUESTHOFF, PATENTANWAELTE PARTG MB, DE |
|
| R012 | Request for examination validly filed | ||
| R081 | Change of applicant/patentee |
Owner name: STRYKER EUROPEAN OPERATIONS HOLDINGS LLC, KALA, US Free format text: FORMER OWNER: STRYKER EUROPEAN HOLDINGS I, LLC (N.D. GES. D. STAATES DELAWARE), KALAMAZOO, MICH., US |
|
| R082 | Change of representative |
Representative=s name: WUESTHOFF & WUESTHOFF, PATENTANWAELTE PARTG MB, DE |
|
| R016 | Response to examination communication | ||
| R018 | Grant decision by examination section/examining division |