[go: up one dir, main page]

WO2011138172A1 - Verfahren zum erzeugen von medizinischen 3d-bilddaten - Google Patents

Verfahren zum erzeugen von medizinischen 3d-bilddaten Download PDF

Info

Publication number
WO2011138172A1
WO2011138172A1 PCT/EP2011/056371 EP2011056371W WO2011138172A1 WO 2011138172 A1 WO2011138172 A1 WO 2011138172A1 EP 2011056371 W EP2011056371 W EP 2011056371W WO 2011138172 A1 WO2011138172 A1 WO 2011138172A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
image data
patient
treatment
data set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/EP2011/056371
Other languages
English (en)
French (fr)
Inventor
Rainer Graumann
Gerhard Kleinszig
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Siemens Corp
Original Assignee
Siemens AG
Siemens Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG, Siemens Corp filed Critical Siemens AG
Publication of WO2011138172A1 publication Critical patent/WO2011138172A1/de
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • A61B2090/3764Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT] with a rotating C-arm having a cone beam emitting source
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • G06T2207/10121Fluoroscopy
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30052Implant; Prosthesis

Definitions

  • the invention relates to a method for generating medical 3D image data.
  • Medical image data are generated by a patient by imaging, ie examining, at least a part of the patient's body in the image data.
  • Image data are for example a two-dimensional (2D) x-ray image or a dreidi ⁇ -dimensional (3D) magnetic resonance image in the form of 3D image data or a 3D image data set. Is performed on the patient to me ⁇ dizinische treatment, the treatment usually takes place locally; eg in the context of an operation as
  • Treatment at the hip of the patient to be placed an implant Treatment at the hip of the patient to be placed an implant.
  • the hip region of the patient and their surroundings - sometimes even outside the patient - then represent the treatment goal in the patient.
  • Relevant medical measures eg the provision of instruments or implants or the actual intervention in the body of the patient, are carried out there.
  • the image data is usually generated by the treatment goal, especially because here Profinfor ⁇ mation wishes overall by the patient and implants or tools is.
  • the knowledge of the relative posi ⁇ tion of tools and patient anatomy This serves to decorate the medical tools locally accurately on the patient to plat ⁇ to, for example, to place a hole or an implant location right in the patient.
  • the anatomy of the patient is completely described by 3D image data of the treatment target.
  • the object of the present invention is to specify an improved method for generating 3D medical image data.
  • a method for generating medical 3D image data of a treatment target in a patient with the following steps: In a step a), a 3D image data set of the treatment target is generated at a first time before or during the treatment of a patient. It will be a pre- or made intra-operative 3D image of the treatment or surgery ⁇ area.
  • a step b) during the treatment with the aid of an imaging device, at least one - as a rule also several - 2D
  • the treatment target contains an object (22) of known geometry that can be at least partially imaged in the 2D fluoroscopy image (26).
  • a transformation rule is determined between the 3D image data record and the 2D fluoroscopic image.
  • the 2D / 3D transformation between the 3D image data set and the real-time 2D projection exposure is calculated.
  • a step d) is then determined on the basis of the
  • the known geometry makes it possible to determine the SD location information from the image of the object, since the relative geometric position of characteristic points of the object in the 2D image is recognizable.
  • a step e) the steps b) to d) are repeated when the relative position between the treatment target and the object changes.
  • the above Rivregistrie- tion between 2D fluoroscopic image and 3D image data set is per ⁇ recalculated wells if the geometries between the preoperative 3D image and the imaging device, ie between 2D and 3D change. This could be done, for example, by an object movement, Thus, the movement of the patient or the operation target ge ⁇ Schehen. Possible movements in or on the patient can be detected in a known manner, for example by a marker affixed to the patient and his location tracking, for example in 2D X-ray images taken after each other.
  • the problem of the invention can be solved very easily by the above-mentioned tech ⁇ nology associated with the above sequence.
  • the inventive method is a simple method on the 2D fluoroscopy image position information of the object to ge ⁇ Visa, for example, the visible image in a 2D x-ray current implant or instrument position.
  • the 3D position of the implant or instrument is then also known through the 2D-3D transformation and can be made available to the user, for example, in relation to the preoperative or intraoperative 3D patient anatomy.
  • the user is therefore offered SD information.
  • the image information can be, for example, an abstract mark such as a crosshair, a symbol of the object, an outline or the like.
  • an image of the object is combined with the 3D image data record in the correct location in step d) as image information on the basis of the transformation rule.
  • this information can be used, for example, together with the known projection geometry of Schmge- exercise device.
  • the projection geometry can - if not known - also be determined by known methods.
  • 3D spatial coordinates of the object or characteristic points of it can actually be determined in the coordinate system of the 3D image data set and thus in the image data. It is then possible, even abstract information about the object, for example, represent a marker cross for an implant bore or a virtual projection line of a Bohrermit ⁇ center axis in the 3D image data.
  • the object used is an implant and / or an instrument of known geometry.
  • the geometry of the instrument and / or implant itself is not known, this can be equipped with markers detectable in the 2D fluoroscopy image, in which case the geometry of the markers or their relative arrangement must be known.
  • markers or marker arrangements of known geometries are fastened or integrated on the tools or implants, for example on K-wires. These can then be used to calculate the 3D geometries in the coordinate system of the 2D fluoroscopic images, ie projection images. Implants can be used, for example, by their 3D geometries known from design drawings directly for the calculation of 3D positions and orientations in the coordinate system of the 2D projection capture. Finally, the position and orientation of the tools or implants in the coordinate system of the 2D projection receptacle, and thus in the coordinate system of the imaging device, for example an X-ray C-arm, is known.
  • a 3D image containing planning data is used as the 3D image.
  • the fiction, ⁇ contemporary approach can be combined with planning data, for example, have been obtained from the preoperative 3D dataset.
  • the 2D / 3D image registration according to step c) can be performed very simply.
  • the transformation specification is then given by the acquisition geometry or de ⁇ ren determination can strictly speaking be omitted if the 2D fluoroscopic images are obtained in a known to the 3D image data acquisition geometry.
  • FIG. 1 shows a medical work station 2, which essentially comprises an imaging system 4, here an X-ray system and a patient table 6.
  • an imaging system 4 here an X-ray system
  • a patient table 6 On the patient table 6, a patient is positioned 8 to which the medical treatment Be ⁇ an intervention on the spine 10 to be performed. Therefore, a thoracic vertebra 12 and its immediate ambient represents the target area for treatment, therefore, the goal of treatment 14th This is in other words, in ⁇ teressierende (ROI, region of interest) of the patient 8, of which an imaging in the form of medical image data.
  • ROI teressierende
  • Imaging system 4 as imaging device 16, includes an X-ray C-arm that is capable of producing both 2D and 3D image data.
  • processing or sons ⁇ term data processing steps take place in a computing unit 18 of the imaging system 4.
  • the image data generated and Sons ⁇ term are displayed on screens 20 of thessen mattersssys ⁇ tems. 4
  • the medical measure is carried out with a needle as a medical instrument or object 22.
  • the SD image data set 24 is already on the patient's 8 at the time Tl, for example, with a magnetic resonance tomograph.
  • the at least one 2D fluoroscopic image 26 allows in one
  • Coordinate system 28 of the imaging device 16 the spatial determination of the position of the in the 2D fluoroscopic image 26 gebil ⁇ Deten objects, in particular the thoracic vertebrae 12 and the Ob ⁇ jects 22nd
  • the computing unit 18 determines in a calculation step 30 a transformation rule 32, such as e.g. within the coordinate system 28 - the 2D fluoroscopic image 26 or the objects imaged therein are spatially related to the 3D image data set 24.
  • 3D image data set 24 an image information is now displayed, which represents the position of the object 22.
  • this is a real image - in an alternative embodiment of at least a part - of the object 22. This results in 3D image data 34th
  • the method is not the image of the object 22 itself, but only an abstract symbol or image 36 of which, namely shown in the form shown in Fig. 1 dashed line.
  • the line is an imaginary image of the object 22 in the sense that this represents the profile of the needle when it is in the currently supported ⁇ requested direction advanced in the direction of its central longitudinal axis in the patent tienten.
  • the object 22 also has an array of instruments with the imaging device as an instrument 16 detectable, so here radiopaque markers 38, which are shown in particular in the 2D fluoroscopic images 26 with.
  • the projection geometry of the imaging device 16 is determined on the basis of the marker 38 imaged in the 2D drone illumination image 26.
  • the location of the object 22 in the coordinate system of the Schmge ⁇ exercise device 16 is not determined based on the image of the object 22 itself, but the image of the marker 38th The Geo ⁇ geometry of the object 22 then does not need to be known.
  • the object 22 is a dashed-line implant to be inserted into the patient during the treatment. This was previously planned in advance in the 3D image data record 24 in the form of planning data 40, ie its planned position determined. In the image data 34, in this case, both the
  • X-ray images 26 shown actual implant 22 and the position of the implant 22 in the form of the planning data 40 simultaneously displayed, whereby the viewer of the image data 34 can check a deviation between the planned and real location.
  • new 2D fluoroscopic images 26 are taken at a renewed time T2 and, as explained above, new 3D image data 34 is generated or refreshed with altered image contents.
  • the relative position R changes, for example, by the movement of the thoracic vertebra 12, of the entire patient 8 or of the object 22.
  • Reference sign list

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Biophysics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Gynecology & Obstetrics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

Ein Verfahren zum Erzeugen von medizinischen 3D-Bilddaten (34) eines Behandlungsziels (14) in einem Patienten (8), weist folgende Schritte auf: a) zu einem ersten Zeitpunkt (T1) vor oder während einer Behandlung des Patienten (8) wird ein 3D-Bilddatensatz (24) des Behandlungsziels (14) erzeugt, b) zu einem späteren zweiten Zeitpunkt (T2) während der Behandlung wird mit Hilfe eines Bildgebungsgerätes (16) mindestens ein 2D-Durchleuchtungsbild (26) des Behandlungsziels (14), das ein im 2D-Durchleuchtungsbild (26) zumindest teilweise abbildbares Objekt (22) bekannter Geometrie enthält, erzeugt, c) zwischen dem 3D-Bilddatensatz (24) und dem 2D-Durchleuchtungsbild (26) wird eine Transformationsvorschrift (32) ermittelt, d) anhand des im 2D-Durchleuchtungsbild (26) abgebildeten Objekts (22) wird dessen räumliche Lage im Koordinatensystem des Bildgebungsgerätes (16) bestimmt, und eine die Lage repräsentierende Bildinformation anhand der Transformationsvorschrift (32) ortsrichtig mit dem 3D-Bilddatensatz (24) zu 3D-Bilddaten (34) zusammengeführt, e) bei Veränderung einer Relativlage (R) zwischen Behandlungsziel (14) und Objekt (22) werden die Schritte b) bis d) wiederholt.

Description

Beschreibung
Verfahren zum Erzeugen von medizinischen 3D-Bilddaten Die Erfindung betrifft ein Verfahren zum Erzeugen von medizinischen 3D-Bilddaten .
Medizinische Bilddaten werden von einem Patienten erzeugt, indem zumindest ein Teil des Körpers des Patienten in den Bilddaten abgebildet, d.h. durchleuchtet wird. Bilddaten sind z.B. ein zweidimensionales (2D) Röntgenbild oder ein dreidi¬ mensionales (3D) Magnetresonanzbild in Form von 3D-Bilddaten bzw. eines 3D-Bilddatensatzes . Wird an dem Patienten eine me¬ dizinische Behandlung durchgeführt, so erfolgt die Behandlung in der Regel lokal; z.B. soll im Rahmen einer Operation als
Behandlung an der Hüfte des Patienten ein Implantat platziert werden. Die Hüftregion des Patienten und deren - auch teils außerhalb des Patienten liegende - Umgebung stellt dann das Behandlungsziel im Patienten dar. Dort werden relevante medi- zinische Maßnahmen, z.B. die Bereitstellung von Instrumenten oder Implantaten oder der tatsächliche Eingriff in den Körper des Patienten vorgenommen. Die Bilddaten werden in der Regel vom Behandlungsziel erzeugt, da insbesondere hier Bildinfor¬ mation vom Patienten und Implantaten oder Werkzeugen ge- wünscht ist. Wichtig ist oft die Kenntnis der relativen Posi¬ tion von Werkzeugen und Patientenanatomie. Dies dient dazu, die medizinischen Werkzeuge ortsrichtig am Patienten zu plat¬ zieren, um z.B. eine Bohrung oder ein Implantat ortsrichtig im Patienten anzubringen. Die Patientenanatomie ist hierbei in der Regel vollständig durch 3D-Bilddaten des Behandlungs- ziels beschrieben.
Die ortsrichtige Platzierung von chirurgischen Instrumenten oder Implantaten bei offenen oder minimalinvasiven Eingriffen an Patienten stellt immer noch ein nicht vollständig gelöstes Problem dar. Insbesondere ist z.B. durch die Minimierung des Eingriffstraumas die direkte Sichtbarkeit auf das Operations¬ ziel nur noch sehr beschränkt gegeben. Die direkte Sicht auf das Operationsziel erfolgt - z.B. bei der sogenannten Knopf¬ lochchirurgie - nur durch ein Endoskop bzw. dessen Videokame¬ ra. Eine Durchleuchtung des Patienten - in der Regel Röntgen- bildgebung - findet daher oft statt.
Eine reine 2D-Bildgebung ist in vielen Fällen hierbei nicht ausreichend, um z.B. eine korrekte Implantatlage zu verifi¬ zieren, speziell bei degenerativer oder abnormaler Anatomie des Patienten.
Bekannt ist die Verwendung von 2D- oder 3D-Röntgenbildgebung, -Ultraschall oder Endoskopie, um medizinische Bilddaten zu erzeugen . Bekannt ist auch die Verwendung einer 2D- oder 3D-Navigation mit oder ohne Bildgebung, um ein Implantat oder ein Instrument an einer gewünschten Position im oder am Patienten zu platzieren. Bekannt ist hier z.B. das System „CAPPA C-Nav" der Firma „CAS innovations" .
Bekannt ist auch ein bildgestütztes 2D-Verfahren unter Nut¬ zung von Zusatzinformationen. Als Zusatzinformation werden z.B. geometrische Informationen von bzw. über Tools, also Instrumente oder Implantate verwendet. Bekannt ist ein solches Verfahren von Produkten der Firma Surgix.
Aufgabe der vorliegenden Erfindung ist es, ein verbessertes Verfahren zum Erzeugen von medizinischen 3D-Bilddaten anzugeben .
Die Aufgabe wird gelöst durch ein Verfahren zum Erzeugen von medizinischen 3D-Bilddaten eines Behandlungsziels in einem Patienten, mit folgenden Schritten: In einem Schritt a) wird zu einem ersten Zeitpunkt vor oder während der Behandlung eines Patienten ein 3D-Bilddatensatz des Behandlungsziels erzeugt. Es wird also eine prä- oder intra-operative 3D-Aufnahme des Behandlungs- bzw. Operations¬ gebietes angefertigt.
Zu einem späteren zweiten Zeitpunkt wird in einem Schritt b) während der Behandlung mit Hilfe eines Bildgebungsgerätes mindestens ein - in der Regel auch mehrere - 2D-
Durchleuchtungsbild des Behandlungsziels erzeugt. Mit anderen Worten werden also Echtzeit- bzw. Realtime-2D-
Durchleuchtungs- bzw. -proj ektionsaufnahmen angefertigt. Dies wird im Falle von Röntgen auch Fluoroskopie genannt. Das Be- handlungsziel enthält hierbei ein im 2D-Durchleuchtungsbild (26) zumindest teilweise abbildbares Objekt (22) bekannter Geometrie .
In einem Schritt c) wird zwischen dem 3D-Bilddatensatz und dem 2D-Durchleuchtungsbilde eine Transformationsvorschrift ermittelt. Es wird also die 2D/3D-Transformation zwischen dem 3D-Bilddatensatz und den Realtime-2D-Proj ektionsaufnahmen- berechnet . In einem Schritt d) wird dann anhand des im 2D-
Durchleuchtungsbild abgebildeten Objekts dessen räumliche La¬ ge im Koordinatensystem des Bildgebungsgerätes (16) bestimmt. Eine die Lage repräsentierende Bildinformation wird dann an¬ hand der Transformationsvorschrift ortsrichtig mit dem 3D- Bilddatensatz zu 3D-Bilddaten zusammengeführt.
Durch die bekannte Geometrie wird die Ermittlung der SD- Ortsinformation aus dem Abbild des Objekts möglich, da die relative geometrische Lage von charakteristischen Punkten des Objekts im 2D-Bild wiedererkennbar ist.
In einem Schritt e) werden bei Veränderung der Relativlage zwischen Behandlungsziel und Objekt die Schritte b) bis d) wiederholt. Mit anderen Worten wird die o.g. Bildregistrie- rung zwischen 2D-Durchleuchtungsbild und 3D-Bilddatensatz je¬ weils neu berechnet, wenn sich die Geometrien zwischen dem präoperativen 3D-Bild und dem Bildgebungsgerät , also zwischen 2D und 3D ändern. Dies könnte z.B. durch eine Objektbewegung, also die Bewegung des Patienten bzw. des Operationsziels ge¬ schehen. Mögliche Bewegungen im oder am Patienten können hierbei in bekannter Weise z.B. durch einen auf den Patienten aufgeklebten Marker und dessen Ortsverfolgung, z.B. in nach- einander aufgenommenen 2D-Röntgenbildern, detektiert werden.
Das erfindungsgemäße Problem lässt sich durch die o.g. Tech¬ nologie verbunden mit dem o.g. Ablauf sehr einfach lösen. Das erfindungsgemäße Verfahren zeigt eine einfache Methode, über das 2D-Durchleuchtungsbild Lageinformation des Objekts zu ge¬ winnen, z.B. die in einem 2D-Röntgenbild sichtbare aktuelle Implantat- bzw. Instrumentenlage. Durch die 2D-3D- Transformation ist dann auch die 3D-Lage des Implantats bzw. Instruments bekannt und kann z.B. in Relation zur präoperati- ven bzw. intraoperativen 3D-Patientenanatomie dem Anwender zur Verfügung gestellt werden. Dem Anwender wird also SD- Information angeboten.
Damit steht intra-operativ eine einfache Möglichkeit zur Ver- fügung, wie man ohne zusätzliche Navigationsgeräte die Posi¬ tionen und Orientierungen von Implantaten und Werkzeugen im 3D-Datensatz darstellen bzw. diese aktuell in das präoperative 3D-Bild einblenden kann. Wobei jederzeit eine Aktualisie¬ rung der Ortsinformation, also ein Update, durch eine erneute 2D-Durchleuchtungsaufnähme gemäß Schritt b) und deren o.g. Verwertung durchgeführt werden kann.
Die Verwendung eines einzigen 2D-Durchleuchtungsbildes reicht z.B. dann zur 3D-Lagebestimmung des Objekts aus, wenn dieses genügend Referenzpunkte bzw. charakteristische im 2D-Bild ortbare Punkte in bekannter geometrischer Beziehung zueinander aufweist, die eine 3D-Ortung anhand einer 2D-Abbildung erlauben. Verfahren hierzu sind z.B. aus der Bildverarbeitung bzw. von Mono-Kamera-Navigationssystemen bekannt.
Die Bildinformation kann hierbei z.B. eine abstrakte Marke wie ein Fadenkreuz, ein Symbol des Objekts, ein Umriss dessen oder ähnliches sein. In einer bevorzugten Ausführungsform des Verfahrens wird in Schritt d) als Bildinformation jedoch ein Abbild des Objekts anhand der Transformationsvorschrift ortsrichtig mit dem 3D- Bilddatensatz zusammengeführt.
Ist die Geometrie des Objekts selbst in Gänze oder zu wesent¬ lichen Strukturteilen bekannt, kann diese Information z.B. zusammen mit der bekannten Projektionsgeometrie des Bildge- bungsgerätes verwendet werden. Die Projektionsgeometrie kann - falls nicht bekannt - auch mit bekannten Methoden ermittelt werden. So können tatsächlich 3D-Raumkoordinaten des Objekts oder charakteristischer Punkte dessen im Koordinatensystem des 3D-Bilddatensatzes und damit in den Bilddaten ermittelt werden. Es ist sodann möglich, auch abstrakte Informationen über das Objekt, z.B. ein Markerkreuz für eine Implantatbohrung oder eine virtuelle Projektionslinie einer Bohrermit¬ telachse in den 3D-Bilddaten darzustellen. In bevorzugten Ausführungsformen wird als Objekt ein Implantat und/oder ein Instrument bekannter Geometrie verwendet.
Ist in einer alternativen Ausführungsform die Geometrie des Instruments und/oder Implantats selbst nicht bekannt, kann dieses mit im 2D-Durchleuchtungsbild detektierbaren Markern ausgerüstet werden, wobei dann die Geometrie der Marker bzw. deren Relativanordnung bekannt sein muss.
Mit anderen Worten werden also z.B. an den Werkzeugen oder Implantaten, z.B. an K-Drähten, Marker bzw. Markeranordnungen bekannter Geometrien befestigt oder integriert. Aus diesen lassen sich dann die 3D-Geometrien im Koordinatensystem der 2D-Durchleuchtungsbilder, also Projektionsaufnahmen berechnen. Implantate lassen sich z.B. durch ihre aus Konstrukti- onszeichnungen bekannten 3D-Geometrien direkt zur Berechnung von 3D-Positionen und -Orientierungen im Koordinatensystem der 2D-Proj ektionsaufnähme heranziehen. So ist schließlich die Position und Orientierung der Werkzeuge oder Implantate im Koordinatensystem der 2D- Proj ektionsaufnähme, und damit im Koordinatensystem des Bild- gebungsgerätes , z.B. eines Röntgen-C-Bogens , bekannt. So lässt sich aufgrund der bekannten Transformation zwischen 2D- Proj ektionsaufnahmegerät und 3D-Bild also -Datensatz die ak¬ tuelle Position des Implantats oder des Werkzeugs in das prä¬ operative 3D-Bild bzw. den 3D-Datensatz und schließlich in die erzeugten Bilddaten übertragen.
In einer bevorzugten Ausführungsform wird als 3D-Bild ein Planungsdaten enthaltendes 3D-Bild verwendet. Der erfindungs¬ gemäße Ansatz kann so mit Planungsdaten kombiniert werden, die z.B. aus dem präoperativen 3D-Datensatz gewonnen worden sind.
Zusätzlich lassen sich mit einem solchen Verfahren dann z.B. geplante Zugangswege und/oder Ziel- und Entrypunkte in die zum zweiten Zeitpunkt, also aktuell gewonnenen 2D- Projektionsbilder einblenden und dienen dem Chirurg damit als Anhaltspunkt für den Eingriff. Alternativ oder zusätzlich kann z.B. die Abweichung der aktuellen Lage eines Implantates von einer präoperativ geplanten Implantatlage berechnet und dem Chirurgen zur Verfügung gestellt werden.
Wird der 3D-Datensatz , also das 3D-Bild zum ersten Zeitpunkt mittels eines 3D-C-Bogens intraoperativ akquiriert, dann kann unter Umständen die 2D/3D-Bildregistrierung gemäß Schritt c) sehr einfach durchgeführt werden. Die Transformationsvor- schrift ist dann durch die Aufnahmegeometrie gegeben bzw. de¬ ren Ermittlung kann strenggenommen wegfallen, wenn die 2D- Durchleuchtungsbilder in einer zum 3D-Bilddatensatz bekannten Aufnahmegeometrie gewonnen werden. Für eine weitere Beschreibung der Erfindung wird auf die Aus¬ führungsbeispiele der Zeichnung verwiesen. Es zeigt, in einer schematischen Prinzipskizze: Fig.l die Behandlung eines Patienten und die Erzeugung medizinischer Bilddaten.
Fig. 1 zeigt einen medizinischen Arbeitsplatz 2, welcher im Wesentlichen ein Bildgebungssystem 4, hier ein Röntgensystem sowie einen Patiententisch 6 umfasst. Auf dem Patiententisch 6 ist ein Patient 8 gelagert, an welchem als medizinische Be¬ handlung ein Eingriff an dessen Wirbelsäule 10 durchgeführt werden soll. Ein Brustwirbel 12 und dessen unmittelbare Umge- bung stellt daher das Zielgebiet für die Behandlung, also das Behandlungsziel 14 dar. Dieses ist mit anderen Worten der in¬ teressierende Bereich (ROI, region of interest) des Patienten 8, von welchem eine Bildgebung in Form medizinischer Bilddaten erfolgen soll.
Das Bildgebungssystem 4 umfasst als Bildgebungsgerät 16 einen Röntgen-C-Bogen, welcher in der Lage ist, sowohl 2D- als auch 3D-Bilddaten zu erzeugen. Entsprechende für die Bildgebung notwendige, sowie für die Durchführung des erfindungsgemäßen Verfahrens notwendige Berechnungs- , Verarbeitungs- oder sons¬ tige datentechnische Schritte finden in einer Recheneinheit 18 des Bildgebungssystems 4 statt. Die erzeugten sowie sons¬ tige Bilddaten werden auf Bildschirmen 20 des Bildgebungssys¬ tems 4 ausgegeben.
Die Durchführung der medizinischen Maßnahme erfolgt mit einer Nadel als medizinisches Instrument bzw. Objekt 22.
Zu einem ersten Zeitpunkt Tl wird vom Patienten 8 bzw. dem Behandlungsziel 14 mit Hilfe des Bildgebungsgerätes 16 ein 3D-Bilddatensatz 24 in Form einer Röntgenaufnahme erzeugt, welches den zu behandelnden Brustwirbel 12 dreidimensional abbildet bzw. den entsprechenden im Behandlungsziel 14 lie¬ genden Teil der Wirbelsäule 10 zeigt.
In einer alternativen Ausführungsform ist der SD- Bilddatensatz 24 bereits vor Beginn der Behandlung am Patien- ten 8 zum Zeitpunkt Tl, z.B. mit einem Magnetresonanz- Tomographen erzeugt worden.
Während der Behandlung werden nun zu einem späteren, also nach dem Zeitpunkt Tl liegenden Zeitpunkt T2 mindestens ein 2D-Durchleuchtungsbild 26 vom Behandlungsziel 14, oder z.B. mehrere Bilder in verschiedenen Drehpositionen des Röntgen-C- Bogens des Bildgebungsgerätes 16, d.h. aus verschiedenen Blickrichtungen auf das Behandlungsziel 14, erstellt. Das mindestens eine 2D-Durchleuchtungsbild 26 erlaubt in einem
Koordinatensystem 28 des Bildgebungsgerätes 16 die räumliche Ermittlung der Lage der im 2D-Durchleuchtungsbild 26 abgebil¬ deten Objekte, insbesondere des Brustwirbels 12 und des Ob¬ jekts 22.
Die Recheneinheit 18 ermittelt in einem Berechnungsschritt 30 eine Transformationsvorschrift 32, wie - z.B. innerhalb des Koordinatensystems 28 - die 2D-Durchleuchtungsbild 26 bzw. die darin abgebildeten Objekte mit dem 3D-Bilddatensatz 24 ortsrichtig zusammenhängen.
In den 3D-Bilddatensatz 24 wird nun eine Bildinformation eingeblendet, die die Lage des Objekts 22 repräsentiert. Im Bei¬ spiel ist dies ein reales Abbild - in einer alternativen Aus- führungsform auch zumindest eines Teils - des Objekts 22. So ergeben sich 3D-Bilddaten 34.
In einer alternativen Ausgestaltung des Verfahrens wird nicht das Abbild des Objekts 22 selbst, sondern nur ein abstraktes Symbol bzw. Abbild 36 dessen, nämlich in Form in Fig. 1 gezeigten gestrichelten Linie dargestellt. Die Linie ist ein gedachtes Abbild des Objekts 22 in dem Sinne, dass dieses den Verlauf der Nadel darstellt, wenn diese in der aktuell gehal¬ tenen Richtung in Richtung seiner Mittellängsachse in den Pa- tienten vorgeschoben wird.
In einer alternativen Ausführungsform weist das Objekt 22 als Instrument außerdem eine Reihe von mit dem Bildgebungsgerät 16 detektierbaren, hier also röntgensichtbaren Markern 38 auf, die insbesondere in den 2D-Durchleuchtungsbildern 26 mit abgebildet werden. In dieser Ausführungsform wird anhand der im 2D-Druchleuchtungsbild 26 abgebildeten Marker 38 die Pro- j ektionsgeometrie des Bildgebungsgerätes 16 ermittelt. Auch wird die Lage des Objekts 22 im Koordinatensystem des Bildge¬ bungsgerätes 16 nicht anhand des Abbilds des Objekts 22 selbst, sondern des Abbilds der Marker 38 ermittelt. Die Geo¬ metrie des Objekts 22 braucht dann nicht bekannt zu sein.
In einer alternativen Ausführungsform ist das Objekt 22 ein gestrichelt dargestelltes, in den Patienten im Rahmen der Be¬ handlung einzusetzendes Implantat. Dieses wurde vor vorab im 3D-Bilddatensatz 24 in Form von Planungsdaten 40 projektiert, d.h. dessen geplante Lage festgelegt. In den Bilddaten 34 wird in diesem Fall sowohl das in den 2D-
Durchleuchtungsbildern 26 abgebildete tatsächliche Implantat 22 sowie die Lage des Implantats 22 in Form der Planungsdaten 40 gleichzeitig dargestellt, wodurch der Betrachter der Bild- daten 34 eine Abweichung zwischen der geplanten und realen Lage überprüfen kann.
Ändert sich eine Relativlage R zwischen Durchleuchtungsgerät 16 und Behandlungsziel 14, werden zu einem erneuten Zeitpunkt T2 neue 2D-Durchleuchtungsbilder 26 aufgenommen und mit diesen, wie oben erläutert, neue 3D-Bilddaten 34 erzeugt bzw. diese mit veränderten Bildinhalten aufgefrischt.
Die Relativlage R ändert sich z.B. durch die Bewegung des Brustwirbels 12, des gesamten Patienten 8 oder des Objekts 22. Bezugs zeichenliste
2 Arbeitsplatz
4 Bildgebungs System
6 Patiententisch
8 Patient
10 Wirbelsäule
12 Brustwirbel
14 Behandlungsziel
16 Bildgebungsgerät
18 Recheneinheit
20 Bildschirm
22 Objekt
24 3D-Bilddatensatz
26 2D-Durchleuchtungsbild
28 Koordinatensystem
30 Berechnungsschritt
32 Transformationsvorschrift
34 3D-Bilddaten
36 Abbild
38 Marker
40 Planungsdaten i,2 Zeitpunkt
R Relativlage

Claims

Patentansprüche
1. Verfahren zum Erzeugen von medizinischen 3D-Bilddaten (34) eines Behandlungsziels (14) in einem Patienten (8), mit fol- genden Schritten:
a) zu einem ersten Zeitpunkt (Tl) vor oder während einer Behandlung des Patienten (8) wird ein 3D-Bilddatensatz (24) des Behandlungsziels (14) erzeugt,
b) zu einem späteren zweiten Zeitpunkt (T2) während der Be- handlung wird mit Hilfe eines Bildgebungsgerätes (16) mindes¬ tens ein 2D-Durchleuchtungsbild (26) des Behandlungsziels (14), das ein im 2D-Durchleuchtungsbild (26) zumindest teil¬ weise abbildbares Objekt (22) bekannter Geometrie enthält, erzeugt,
c) zwischen dem 3D-Bilddatensatz (24) und dem 2D-
Durchleuchtungsbild (26) wird eine Transformationsvorschrift (32) ermittelt,
d) anhand des im 2D-Durchleuchtungsbild (26) abgebildeten Ob¬ jekts (22) wird dessen räumliche Lage im Koordinatensystem des Bildgebungsgerätes (16) bestimmt, und eine die Lage rep¬ räsentierende Bildinformation anhand der Transformationsvorschrift (32) ortsrichtig mit dem 3D-Bilddatensatz (24) zu SD- Bilddaten (34) zusammengeführt,
e) bei Veränderung einer Relativlage (R) zwischen Behand- lungsziel (14) und Objekt (22) werden die Schritte b) bis d) wiederholt .
2. Verfahren nach Anspruch 1, bei dem in Schritt d) als Bildinformation ein Abbild (36) des Objekts (22) mit dem SD- Bilddatensatz (24) zusammengeführt wird.
3. Verfahren nach einem der Ansprüche 1 bis 2, bei dem als Objekt (22) ein Implantat und/oder Instrument bekannter Geo¬ metrie verwendet wird.
4. Verfahren nach einem der Ansprüche 1 bis 2, bei dem als Objekt (22) ein mit Markern (38) bekannter Geometrie ausge¬ rüstetes Implantat und/oder Instrument verwendet wird.
5. Verfahren nach einem der vorhergehenden Ansprüche, bei dem als 3D-Bilddatensatz (24) ein Planungsdaten (40) enthaltender 3D-Bilddatensatz (24) verwendet wird.
PCT/EP2011/056371 2010-05-06 2011-04-20 Verfahren zum erzeugen von medizinischen 3d-bilddaten Ceased WO2011138172A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102010019645A DE102010019645A1 (de) 2010-05-06 2010-05-06 Verfahren zum Erzeugen von medizinischen 3D-Bilddaten
DE102010019645.2 2010-05-06

Publications (1)

Publication Number Publication Date
WO2011138172A1 true WO2011138172A1 (de) 2011-11-10

Family

ID=44201877

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2011/056371 Ceased WO2011138172A1 (de) 2010-05-06 2011-04-20 Verfahren zum erzeugen von medizinischen 3d-bilddaten

Country Status (2)

Country Link
DE (1) DE102010019645A1 (de)
WO (1) WO2011138172A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012200921B4 (de) * 2012-01-23 2014-08-21 Siemens Aktiengesellschaft Verfahren zum Ermitteln einer Abweichung eines medizinischen Instruments von einer Zielposition

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10141406A1 (de) * 2001-08-23 2003-03-13 Siemens Ag Verfahren zum Detektieren der dreidimensionalen Position eines in einen Körperbereich eingeführten Untersuchungsinstruments
US20060235287A1 (en) * 2003-07-10 2006-10-19 Desmedt Paul A C Apparatus and method for navigating an instrument through an anatomical structure

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7778686B2 (en) * 2002-06-04 2010-08-17 General Electric Company Method and apparatus for medical intervention procedure planning and location and navigation of an intervention tool
DE102005028746B4 (de) * 2005-06-21 2018-02-22 Siemens Healthcare Gmbh Verfahren zum Ermitteln der Position und Orientierung eines Objekts, insbesondere eines Katheters, aus zweidimonsionalen Röntgenbildern
DE102008006516A1 (de) * 2008-01-29 2009-08-13 Siemens Aktiengesellschaft Röntgeneinrichtung und Verfahren für eine Röntgeneinrichtung zur Ermittlung der Position und/oder der Orientierung eines in einen Körper eines Lebewesens eingeführten medizinischen Objektes

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10141406A1 (de) * 2001-08-23 2003-03-13 Siemens Ag Verfahren zum Detektieren der dreidimensionalen Position eines in einen Körperbereich eingeführten Untersuchungsinstruments
US20060235287A1 (en) * 2003-07-10 2006-10-19 Desmedt Paul A C Apparatus and method for navigating an instrument through an anatomical structure

Also Published As

Publication number Publication date
DE102010019645A1 (de) 2011-11-10

Similar Documents

Publication Publication Date Title
DE60032475T2 (de) Navigationsführung über computergestützte fluoroskopische bildgebung
EP3393391B1 (de) Vorrichtung für die intraoperative bildgesteuerte navigation bei chirurgischen eingriffen im bereich der wirbelsäule und im daran angrenzenden thorax-, becken- oder kopfbereich
DE10202091B4 (de) Vorrichtung zur Ermittlung einer Koordinatentransformation
DE10108547B4 (de) Operationssystem zur Steuerung chirurgischer Instrumente auf Basis von intra-operativen Röngtenbildern
DE102007013807B4 (de) Verfahren zur Unterstützung der Navigation interventioneller Werkzeuge bei Durchführung von CT- bzw. MRT-gesteuerten Interventionen in einer vorgegebenen Interventionsebene
DE60015320T2 (de) Vorrichtung und verfahren für bildgesteuerte chirurgie
EP1153572B1 (de) Verfahren zur Registrierung eines Patientendatensatzes aus einem bildgebenden Verfahren bei navigationsunterstützen chirurgischen Eingriffen mittels Röntgenbildzuordnung
DE102010020284A1 (de) Bestimmung von 3D-Positionen und -Orientierungen von chirurgischen Objekten aus 2D-Röntgenbildern
DE112016005720T5 (de) 3D-Visualisierung während Chirurgie mit verringerter Strahlenbelastung
EP1348393A1 (de) Medizinische Navigation bzw. prä-operative Behandlungsplanung mit Unterstützung durch generische Patientendaten
WO2014008613A1 (de) Verfahren zur herstellung eines graphischen 3d computermodells mindestens einer anatomischen struktur in einem wählbaren prä-, intra- oder post-operativen status
WO2002062250A1 (de) Vorrichtung und verfahren für die intraoperative navigation
DE102008052680A1 (de) Vorrichtung zur kontrollierten Einstellung einer chirurgischen Positioniereinheit
DE10393169T5 (de) Verfahren zum Platzieren von mehreren Implantaten während einer Operation unter Verwendung eines computergeschützten Chirurgiesystems
WO2011144412A1 (de) Bestimmung und überprüfung der koordinatentransformation zwischen einem röntgensystem und einem operationsnavigationssystem
EP1348394A1 (de) Planungs- bzw. Navigationsunterstützung durch generische und erfasste Patientdaten mit zweidimensionaler Anpassung
EP1905355B1 (de) Beckenregistrierungsvorrichtung für die medizintechnische Navigation
DE102010015060A1 (de) Vorrichtung zur Lagerung, Abtastung, tomographischen Darstellung eines Patienten und Durchführung einer Intervention und Verfahren zur Bestimmung der räumlichen Relation zwischen optischen Aufnahmen und tomographischen Darstellungen
DE102008012857B4 (de) Medizinsystem und Verfahren zur ortsrichtigen Zuordnung eines Bilddatensatzes zu einem elektromagnetischen Navigationssystem
DE102020116073A1 (de) Medizintechnische Vorrichtung, Verfahren zum Registrieren eines Modelldatensatzes, Datenverarbeitungsprogramm und Programmspeichermedium
EP4362844A1 (de) Chirurgisches assistenzsystem mit verbesserter registrierung und registrierverfahren
DE102011006537B4 (de) Verfahren zur Registrierung eines ersten Koordinatensystems einer ersten medizinischen Bildgebungseinrichtung mit einem zweiten Koordinatensystem einer zweiten medizinischen Bildgebungseinrichtung und/oder einem dritten Koordinatensystem eines medizinischen Instruments, welches durch Marker einer medizinischen Navigationseinrichtung definiert ist, und medizinisches Untersuchungs- und/oder Behandlungssystem
DE102010018291B4 (de) Navigationssystem und Röntgensystem
EP1675520A1 (de) Vorrichtung zur platzierung von instrumenten oder implantaten in körperorgane
DE10235795B4 (de) Medizinische Vorrichtung

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11715543

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11715543

Country of ref document: EP

Kind code of ref document: A1