WO2025051775A1 - Method for detecting instruments in image data, and device for analysing image data - Google Patents
Method for detecting instruments in image data, and device for analysing image data Download PDFInfo
- Publication number
- WO2025051775A1 WO2025051775A1 PCT/EP2024/074669 EP2024074669W WO2025051775A1 WO 2025051775 A1 WO2025051775 A1 WO 2025051775A1 EP 2024074669 W EP2024074669 W EP 2024074669W WO 2025051775 A1 WO2025051775 A1 WO 2025051775A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- instrument
- event
- image data
- detected
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/63—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
Definitions
- the present invention relates to a method for the visual recognition and classification of instruments in medical image data, in particular in an endoscopic live image.
- Optical visualization systems such as endoscopes or microscopes for medical interventions are well known and enable the representation of a scene and/or a work area within a human body, for example, during a minimally invasive procedure.
- Such visualization systems output captured image or video data on suitable screens and are typically connected to an image recording device or system to record the captured image or video data, as well as any other device- and/or patient-specific data, and/or analyze them for further processing and/or evaluation.
- US 2019/0125455 A1 discloses a method for adjusting the operation of a surgical instrument using machine learning. The method includes collecting data during surgical procedures with surgical instruments, analyzing the collected data to determine a suitable operating setting of the surgical instrument, and adjusting operating parameters of the surgical instrument to improve the operation of the surgical instrument.
- US2018/0271603 A1 discloses a control system for surgical tools comprising an instrument management system, a database, a display means for displaying at least one surgical event, for determining the identity and 3D position of detected objects and instruments, and at least one computing unit for identifying a necessary medical application or action based on a surgical event.
- EP 3 505 113 A1 discloses a surgical system for wireless communication between surgical devices, comprising a first surgical device with a control unit configured to be informed of situational events occurring in the vicinity of the first surgical device, according to data received from a database, a patient monitoring device or another surgical device coupled thereto.
- US 2021/142487 A1 discloses a system for evaluating surgical scenes based on computer-assisted visual image analysis.
- the system includes the visual recognition of instruments and events and the determination and tracking of a position in the acquired image.
- US 2019/0200985 A1 discloses a surgical instrument with a control circuit for monitoring a distance of the instrument from a tumor tissue, the instrument having an end effector for grasping tissue and a staple cartridge comprising staples insertable into the tissue and a sensor.
- the surgical instrument comprises a control circuit coupled to the sensor, the control circuit configured to receive the sensor signal and analyze the proximity of the sensor to cancerous tissue based on the sensor signal.
- the present invention relates to a method for detecting surgical instruments in medical image data, in particular for analysis and documentation purposes, comprising the steps:
- -Capturing image data preferably provided by an endoscope, in particular an endoscopic live image
- the method comprises detection and assignment of an instrument classification to the acquired instrument based on the detection of the operative event and a distance determination between the detected operative event and an instrument end of the at least one instrument.
- an instrument end is understood to mean, in particular, the distal end or a distal end region of an instrument.
- the instrument end is, in particular, a part of the instrument that can be visually detected by an image capture device that captures the image data.
- the instrument end can also be defined as a region of interest (ROI), i.e., a region in the image in which the instrument end is recognized or suspected.
- ROI region of interest
- the instrument end can be visually detected and determined within the image, in particular by markings on the instrument end or by segmentation.
- the present invention enables the preferably automatic determination and allocation of at least one attribute and in particular an instrument classification of a surgical instrument captured in the image data based on evaluation of the captured image data.
- visual acquisition and visual recognition are understood to mean software-based acquisition or recognition using known software algorithms and/or trained artificial intelligence (K1), which performs a visual analysis or evaluation of the acquired image data. This involves, for example, acquisition of contours and/or structures of an instrument and/or tissue and/or analysis of further image elements and/or image data, based on which an operative event or an instrument can be recognized, e.g., by comparison with previously stored data.
- Visual acquisition and recognition differs in particular from sensor- or antenna-based acquisition or recognition of objects in image data or a video image.
- An operative event is understood to be an event that can be visually detected in image data, in particular a visually recognizable effect of an instrument application.
- Image data is understood here to mean image and/or video data, and in particular image data provided by a video endoscope, exoscope or medical microscope.
- the invention does not involve visual recognition of an attribute of a surgical instrument based on the image data of the captured instrument alone, but rather recognition and assignment of a classification or classification of the surgical instrument based on a distance determination between a respective instrument end and a detected surgical event.
- This enables an optimized and, in particular, more precise classification of the respective instrument.
- different surgical instruments that have a similar contour/surface in image data and are therefore difficult or impossible to distinguish when analyzing the image data of the instrument alone can be more precisely identified or classified using an associated surgical event.
- the method preferably comprises the further step of storing and/or outputting the determined data, in particular the recognized and assigned instrument classification, preferably together with the acquired image data.
- an output means such as a display
- the image data can preferably be stored together with the assigned data in a provided internal or external data storage device.
- the storage device can, for example, be a buffer connected to an image acquisition device, which transmits the data to a provided database at regular or irregular intervals, in particular for documentation and/or evaluation purposes.
- the instrument classification is recognized and assigned to the instrument whose instrument end has the shortest determined distance to the captured surgical event.
- the respective distance between the instrument ends and the surgical event is first determined.
- the instrument end that is detected closest to the surgical event is then assigned as the instrument classification described above. This is advantageously also done when at least two or more detected surgical events are detected, for which a distance determination to the respective surgical instruments visually detected in the image is then carried out for each surgical event. This allows a more precise classification of the instrument assigned to a surgical event when more than two surgical instruments are detected in the image data.
- the distance determination between the operative event and the end of the detected instrument is preferably based on a distance or range measurement that can be directly visually detected from the image data.
- This can advantageously be a This can be a known software-based distance measurement between two image points, in particular between the respective centers of the instrument end and the recorded event, and/or an image analysis based on an additional depth measurement, which determines the distance between the image capture device and the scene, in particular the operative event, for individual image points.
- the depth can be determined using a sensor such as a time-of-flight sensor.
- a depth can be assigned to individual image points in the scene using triangulation, for example using a stereo instrument.
- a depth map of the scene can be determined, in particular continuously, and this information can be used to determine the spatial distance between real points in the scene, in particular the instrument end and the operative event. The distance is then determined in three dimensions. This allows for efficient analysis of the image data with sufficient accuracy, without the need for complex additional devices such as sensors and/or antennas on the respective instruments.
- a so-called region of interest can be defined for the detected instrument end and the surgical event in the image.
- ROI region of interest
- a rectangle or other shape enclosing the instrument end and the ROI can be defined.
- the distance can then be a distance between specific points of these rectangles or shapes, for example, between the centers.
- the step of determining the distance between the operative event and the end of the recorded instrument preferably occurs immediately after visual detection of the operative event and/or the detection of the instrument. This allows for a more precise association between a particular instrument and the operative event. In particular, this allows for a measurement to be taken as close as possible to the location of the operative event, thus avoiding any expansion or spatial change, or migration of the operative event in the image data, which could negatively affect the measurement.
- Detection of an operative event preferably comprises event classification from the analyzed image data into one or more of the following event classifications: smoke development, a color or structural tissue change, a developing and/or changing tissue opening, a Change in the water content of the acquired tissue, blood development in the tissue, suture placement in the tissue, introduction of foreign material into the tissue, in particular introduction of metal, for example a clip, and/or spray mist or gas bubbles.
- the surgical event is preferably visually recorded and recognized using computer- or software-assisted image evaluation or analysis, in particular using known image evaluation algorithms.
- this involves evaluating the RGB image values, evaluating multispectral and/or hyperspectral image parameters, identifying contours/structures of the detected objects in the image, and/or evaluating using known algorithms for object recognition in image data, in particular comparing them with previously acquired and/or stored image data of known and thus predefined surgical events.
- water content can be determined by evaluating hyperspectral or multispectral image parameters.
- Detection can also be performed by or with the support of artificial intelligence, for example, using a neural network, or based on machine learning. These are then trained to recognize these events based on observed surgical events.
- an evaluation can also be performed over time or across multiple consecutive frames of a video image or image data.
- a tissue change can be detected by evaluating the RGB values over time, particularly by detecting color changes, such as a change in tissue color from pink to black to detect tissue damage, or a change in image color information from white or gray to detect smoke.
- the step of detecting an operative event may further preferably include assigning an event intensity and/or another event attribute.
- This can also be performed using the aforementioned, known computer- or software-assisted image evaluation or analysis. For example, a visual detection and subsequent assignment of a smoke intensity, a bleeding intensity and/or a tissue opening size.
- a respective intensity or size factor can be assigned to the event. For example, depending on the extent or density of smoke development in the tissue that can be visually detected in the image, a lower or higher intensity value can be determined and assigned to the surgical event.
- the recognition and assignment of an instrument classification can be carried out based on the captured visual image data of the instrument, as well as on the evaluation of device and/or intervention data stored in a database for predefined instruments and/or instrument data stored for predefined interventions or predefined events.
- the recognition and assignment of an instrument classification can include the step of querying data stored and/or retrievable in an internal or external data storage device, which Assign surgical events to a particular instrument or instrument property.
- the assignment can be stored in a memory that the surgical event of smoke development in tissue can be triggered by a surgical instrument with HF functionality, or that a resulting tissue opening or division can be triggered by scissors.
- the method may optionally include manual validation, for example, during or after the procedure, of the recognized instrument classification by means of user interaction.
- This may advantageously include output of the recognized instrument classification to a user, such as a treating physician, using designated output means and recording manual feedback using designated input means.
- Output of the recognized instrument classification can include output of additional associated data, in particular the output of an associated validation value.
- an optional manual validation can be performed only for the classification data or recognized instruments to which a relatively low validation value is assigned. This allows an optional manual review for less plausible data to be performed, which, on the one hand, improves the overall validity of the recorded data and, on the other hand, allows a manual review only for the data recognized as less valid, thus optimizing the overall efficiency for valid data capture.
- the method can also include the step of transmitting a feedback signal to a device connected to the detected instrument(s) based on the data acquired by the image analysis.
- a device connected to the detected instrument(s) based on the data acquired by the image analysis.
- the respective instrument can be controlled based on the data acquired by the image analysis. For example, if excessive tissue damage is detected during an RF current application, a corresponding control can be initiated to reduce the power of the device or generator connected to the RF instrument in order to prevent further tissue damage.
- the computing unit can be configured to adjust and/or adapt the data acquisition unit, in particular the recording parameters that influence data recording, and to control the data acquisition unit depending on the determined instrument classification and/or the additionally acquired data. For example, a frame rate, an image section, and/or other image parameters of the acquired image signal can be adjusted or adapted depending on the determined and/or assigned data.
- the computing unit advantageously comprises a memory unit which is used to store and/or assign attributes such as an instrument classification, an event event classification, an event intensity, a type of medical treatment, an assigned validation value for a respectively recorded event and/or a respectively recorded surgical instrument.
- the computing unit can in particular comprise one or more lookup tables, by means of which, for example, predefined and/or changeable attributes are assigned to a respectively stored surgical event, which can be used, for example, for instrument classification.
- the data acquisition unit is configured to acquire additional device data and/or parameter data from devices connected to the device in a wired or wireless manner.
- the data acquisition unit is also advantageously configured to acquire provided patient data and/or vital parameters of a patient.
- the computing device can advantageously be configured to determine attributes of the respective surgical instrument or the respective medical procedure from a combination of the acquired device data and/or parameter data and the acquired image data.
- the device further comprises a data transmission unit, which is designed for preferably bidirectional data exchange with an external network and/or an external server unit.
- the data transmission unit can have a LAN and/or WLAN interface for connection to an internal or external network, such as a hospital LAN or the Internet.
- the device can be designed for the acquisition of data acquisition commands from the external server unit and/or for the automated and/or non-automated transmission of recordings from the data acquisition unit to the external server unit.
- the transmission to an external network and/or to an external server unit can take place in real time and/or with a time delay relative to the recording of the documentation unit.
- the respective transmission of the acquired data records can take place at predefined time intervals or at predefined transmission times.
- the respective intermediate storage of the data can take place in external or internal storage units.
- the device described above can be designed as a separate or integral component of an endoscopy device or an endoscopy system.
- Fig.1 a schematic representation of a preferred embodiment of the device according to the invention for analyzing medical image data
- Fig. 2 an exemplary live image of an endoscopic procedure with analysis of the acquired image data
- Fig. 3 a preferred embodiment of the method according to the invention as a schematically simplified block diagram.
- Fig. 1 shows a preferred embodiment of the device 10 according to the invention for analyzing acquired medical image data.
- the device 10 initially comprises a connection unit 1 for selectively connecting an image acquisition device 2 for a medical treatment or a medical procedure.
- This is, in particular, an endoscope, more preferably a video endoscope.
- the connection unit can have known plug connections, which serve for the wired connection of the endoscope to the device.
- connection unit 1 can also be designed to connect further devices, such as an input unit 7, for example a keyboard and/or a mouse, a display unit 8 for outputting a captured video image to a treating physician.
- the connection unit 1 can have wired or wireless interfaces for the respective connection and/or communication of the devices 7, 8.
- the device further comprises a data acquisition unit 3 for acquiring at least image data 3a provided by the image acquisition device 2.
- the data acquisition unit 3 can be configured to acquire device data 3b from at least the image acquisition device 2 connected to the connection unit 1.
- the device data 3b can comprise, for example, a device identification number, a device identifier, or the like, based on which an identification and/or recognition of the endoscope 2 connected to the device 10 is possible.
- the data acquisition unit 3 can additionally acquire patient data and/or vital parameters 3c associated with the patient.
- the patient data and/or vital parameters 3c can either be entered manually using appropriate input means 7 or transmitted automatically by other devices connected to the device.
- the device further comprises a computing unit 4, which is configured to perform a visual detection and recognition of a surgical event in the acquired image data 3a. Furthermore, the computing unit 4 is configured to determine the distance between the detected surgical event 32 and an instrument end 31a, 31b of at least one surgical instrument 30a, b visually detected in the image data 3a (see Fig. 2), as well as to perform a detection and assignment of an instrument classification to the detected instrument based thereon.
- the computing unit 4 preferably comprises an internal memory 4a, on which suitable software algorithms are stored and/or retrievable.
- the device 10 preferably further comprises a documentation unit 5 for recording image data 3a, device data 3b and/or the further patient data and/or vital parameters 3c provided by the data acquisition unit 3.
- the documentation unit 5 advantageously comprises an internal or external Storage unit 5a, in particular a non-volatile memory, on which the supplied data can be stored.
- the computing unit 4 can further advantageously be designed to control the documentation unit 5 for activating and/or deactivating a recording, and/or for setting and/or adapting recording parameters influencing the data recording depending on the determined and/or assigned attributes.
- a recording can, for example, only be activated or deactivated if a predefined instrument classification and/or a predefined attribute of the surgical instrument or of a recognized surgical procedure is met or not met.
- This can be particularly advantageous for data collection for training AI applications, since, for example, only data is recorded that appears to be useful for the respective desired application.
- the computing unit 4 can be configured to enable manual activation of the documentation unit 5, in particular by a treating physician. In this way, data recording could be triggered in particular if, for example, there is interest in a certain type of treatment, so that the corresponding image data is also saved for the next available procedure that is similar to this.
- the device 10 further preferably comprises a data transmission unit 6, which is designed for preferably bidirectional data exchange with an external network and/or an external server unit 20.
- the data transmission unit 6 can have a LAN and/or WLAN interface for connection to an internal or external network, such as a hospital LAN or the Internet. This allows the device to transmit the recorded data to an external network and/or an external server unit 20.
- the respective transmission can take place during the actual recording of data and thus during a medical treatment. Alternatively, Each transmission can also take place at predefined time intervals.
- the device 10 can further be configured to capture data capture commands by the external server unit 20 and/or to transmit records from the documentation unit 5 to the external server unit 20 in an automated and/or non-automated manner.
- a live image 40 of the endoscope is acquired, as shown in Fig. 2, and is output, for example, on a display unit 8 of the device 10.
- this step can also include a detection and assignment of an event intensity and/or another event attribute in a corresponding step 102c.
- the intensity of the event for example, a smoke intensity
- this step can also include a detection and assignment of an event intensity and/or another event attribute in a corresponding step 102c.
- the intensity of the event for example, a smoke intensity
- the surgical instruments 30a, 30b are visually detected in the image data.
- This step preferably comprises the detection, i.e., a spatial localization of the surgical instruments 30a, 30b visually recognizable in the image data and their respective associated instrument ends 31a, 31b.
- This is performed using a corresponding software-based algorithm by analyzing the acquired image data and can be displayed or output in the live image 40 as a preferably rectangular, frame-like boundary 33a, 33b.
- Step 103b further comprises detecting and assigning an instrument classification to the instrument. According to the invention, this is done based on the detection of the operative event in the preceding step 102 and a distance determination between the detected operative event and a respective instrument end.
- the respective distance between the instrument ends 31a, 31b and the operative event 32 is determined.
- the distance determination between the operative event 32 and the respective instrument end 31a, 31b of the detected instrument is preferably carried out using a software-based distance measurement between two image points, in particular between the respective centers of the instrument end 31a, 31b and the detected event 32, and/or based on an additional depth measurement, which methods are known per se.
- the instrument end 31a, 31b which is detected closest to the operative event 32, is then assigned as the relevant instrument classification.
- the instrument end 31a, 31b is closer to the operative event 32 than the instrument end 31b, so that the former is assigned to the event 32.
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Business, Economics & Management (AREA)
- General Business, Economics & Management (AREA)
- Epidemiology (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Primary Health Care (AREA)
- Public Health (AREA)
- Endoscopes (AREA)
Abstract
Description
Verfahren zur Erkennung von Instrumenten in Bilddaten und Vorrichtung zur Analyse von Bilddaten Method for detecting instruments in image data and device for analyzing image data
Die vorliegende Erfindung betrifft ein Verfahren zur visuellen Erkennung und Klassifizierung von Instrumenten in medizinischen Bilddaten, insbesondere in einem endoskopischen Livebild. The present invention relates to a method for the visual recognition and classification of instruments in medical image data, in particular in an endoscopic live image.
Optische Visualisierungssysteme wie Endoskope oder Mikroskope für medizinische Eingriffe sind bekannt und ermöglichen eine Darstellung einer Szene und/oder eines Arbeitsbereiches innerhalb eines menschlichen Körpers, beispielsweise während eines minimal-invasiven Eingriffs. Derartige Visualisierungssysteme geben erfasste Bild- bzw. Videodaten auf geeigneten Bildschirmen aus und sind üblicherweise mit einer Bildaufzeichnungsvorrichtung oder einem Bildaufzeichnungssystem verbunden, um die erfassten Bild- bzw. Videodaten sowie gegebenenfalls weitere geräte- und/oder patientenspezifische Daten aufzuzeichnen und/oder zur weiteren Bearbeitung und/oder Auswertung zu analysieren. Optical visualization systems such as endoscopes or microscopes for medical interventions are well known and enable the representation of a scene and/or a work area within a human body, for example, during a minimally invasive procedure. Such visualization systems output captured image or video data on suitable screens and are typically connected to an image recording device or system to record the captured image or video data, as well as any other device- and/or patient-specific data, and/or analyze them for further processing and/or evaluation.
Weiterhin sind Verfahren und Vorrichtungen bekannt, mittels derer die von einem Endoskop erfassten Bild- bzw. Videodaten zu Analyse- und/oder Dokumentationszwecken verarbeitet werden. Beispielsweise kann eine visuelle Erfassung der verwendeten chirurgischen Instrumente oder während des Eingriffs auftretender operativer Ereignisse erfolgen. Die resultierenden Daten und ermittelten Informationen können dann für die Beobachtung eines Behandlungsverlaufs, zur Optimierung von zukünftigen chirurgischen Eingriffen ähnlicher Natur oder zum Antrainieren von Kl-Anwen- dungen verwendet werden. Furthermore, methods and devices are known by which the image or video data acquired by an endoscope are processed for analysis and/or documentation purposes. For example, a visual recording of the surgical instruments used or surgical events occurring during the procedure can be performed. The resulting data and acquired information can then be used to monitor the course of treatment, to optimize future surgical interventions of a similar nature, or to train AI applications.
US 2019/0125455 A1 offenbart ein Verfahren zum Einstellen des Betriebs eines chirurgischen Instruments unter Verwendung von maschinellem Lernen. Das Verfahren umfasst ein Sammeln von Daten während chirurgischer Eingriffe mit chirurgischen Instrumenten, ein Analysieren der gesammelten Daten, um eine geeignete Betriebseinstellung des chirurgischen Instruments zu bestimmen, und das Einstellen von Betriebsparametern des chirurgischen Instruments, um den Betrieb des chirurgischen Instruments zu verbessern. Die US2018/0271603 A1 offenbart ein Steuersystem für chirurgische Werkzeuge mit einem Instrumentenverwaltungssystem, einer Datenbank, einem Anzeigemittel, um mindestens ein chirurgisches Ereignis anzuzeigen, um für erfasste Gegenstände und Instrumente deren Identität und 3D Position zu ermitteln, und mindestens einer Recheneinheit, um basierend auf einem chirurgischen Ereignis eine notwendige medizinische Anwendung oder Handlung zu identifizieren. US 2019/0125455 A1 discloses a method for adjusting the operation of a surgical instrument using machine learning. The method includes collecting data during surgical procedures with surgical instruments, analyzing the collected data to determine a suitable operating setting of the surgical instrument, and adjusting operating parameters of the surgical instrument to improve the operation of the surgical instrument. US2018/0271603 A1 discloses a control system for surgical tools comprising an instrument management system, a database, a display means for displaying at least one surgical event, for determining the identity and 3D position of detected objects and instruments, and at least one computing unit for identifying a necessary medical application or action based on a surgical event.
Die EP 3 505 113 A1 offenbart ein chirurgisches System zur drahtlosen Kommunikation zwischen chirurgischen Geräten, umfassend eine erste chirurgische Vorrichtung mit einer Steuereinheit, welche derart konfiguriert ist, dass sie über situative Ereignisse informiert ist, die in der Nähe der ersten chirurgischen Vorrichtung auftreten, und zwar entsprechend den Daten, die von einer Datenbank, einer Patientenüberwa- chungsvorrichtung oder einer damit gekoppelten weiteren chirurgischen Vorrichtung empfangen werden. EP 3 505 113 A1 discloses a surgical system for wireless communication between surgical devices, comprising a first surgical device with a control unit configured to be informed of situational events occurring in the vicinity of the first surgical device, according to data received from a database, a patient monitoring device or another surgical device coupled thereto.
Die US 2021/142487 A1 offenbart ein System zur Bewertung chirurgischer Szenen auf Grundlage von computerunterstützter visueller Bildauswertung. Das System umfasst die visuelle Erkennung von Instrumenten und Ereignissen und die Bestimmung und Verfolgung einer Position im erfassten Bild. US 2021/142487 A1 discloses a system for evaluating surgical scenes based on computer-assisted visual image analysis. The system includes the visual recognition of instruments and events and the determination and tracking of a position in the acquired image.
US 2019/0200985 A1 offenbart ein chirurgisches Instrument mit einem Steuerschaltkreis zur Überwachung eines Abstands des Instruments zu einem Tumorgewebe, wobei das Instrument einen Endeffektor zum Greifen von Gewebe und eine Klammerpatrone aufweist, die in das Gewebe einsetzbare Klammem und einen Sensor umfasst. Das chirurgische Instrument umfasst dabei einen Steuerschaltkreis, der mit dem Sensor gekoppelt ist, wobei der Steuerschaltkreis so konfiguriert ist, dass er das Sensorsignal empfängt und die Nähe des Sensors zu krebsartigem Gewebe auf der Grundlage des Sensorsignals analysiert. US 2019/0200985 A1 discloses a surgical instrument with a control circuit for monitoring a distance of the instrument from a tumor tissue, the instrument having an end effector for grasping tissue and a staple cartridge comprising staples insertable into the tissue and a sensor. The surgical instrument comprises a control circuit coupled to the sensor, the control circuit configured to receive the sensor signal and analyze the proximity of the sensor to cancerous tissue based on the sensor signal.
Basierend auf dem bekannten Stand der Technik ist es Aufgabe der vorliegenden Erfindung ein Verfahren und eine Vorrichtung zur visuellen Analyse von medizinischen Bilddaten bereitzustellen, welches bzw. welche eine optimierte Erkennung und Klassifizierung von Instrumenten in den Bilddaten ermöglicht. Gelöst wird diese Aufgabe durch das Verfahren zur Erkennung und die Vorrichtung zur Analyse gemäß den unabhängigen Ansprüchen. Die abhängigen Ansprüche beschreiben vorteilhafte Weiterbildungen der vorliegenden Erfindung. In den Rahmen der Erfindung fallen sämtliche Kombinationen aus zumindest zwei von in den Ansprüchen, der Beschreibung und/oder den Figuren offenbarten Merkmalen. Based on the known prior art, it is the object of the present invention to provide a method and a device for the visual analysis of medical image data, which enables an optimized recognition and classification of instruments in the image data. This object is achieved by the detection method and the analysis device according to the independent claims. The dependent claims describe advantageous developments of the present invention. All combinations of at least two of the features disclosed in the claims, the description, and/or the figures fall within the scope of the invention.
In einem ersten Aspekt betrifft die vorliegende Erfindung ein Verfahren zur Erkennung von chirurgischen Instrumenten in medizinischen Bilddaten, insbesondere zu Analyse- und Dokumentationszwecken, umfassend die Schritte: In a first aspect, the present invention relates to a method for detecting surgical instruments in medical image data, in particular for analysis and documentation purposes, comprising the steps:
-Erfassen von vorzugsweise mittels eines Endoskops bereitgestellten Bilddaten, insbesondere einem endoskopischen Livebild, -Capturing image data, preferably provided by an endoscope, in particular an endoscopic live image,
-visuelle Erkennung eines operativen Ereignisses in den erfassten Bilddaten, und -visuelle Erfassung wenigstens eines Instruments in den erfassten Bilddaten, wobei das Verfahren eine Erkennung und Zuordnung einer Instrumentenklassifikation zum erfassten Instrument basierend auf der Erkennung des operativen Ereignisses und einer Distanzermittlung zwischen dem erkannten operativen Ereignis und einem Instrumentenende des wenigstens eines Instruments. -visual detection of an operative event in the acquired image data, and -visual detection of at least one instrument in the acquired image data, wherein the method comprises detection and assignment of an instrument classification to the acquired instrument based on the detection of the operative event and a distance determination between the detected operative event and an instrument end of the at least one instrument.
Unter einem Instrumentenende wird vorliegend insbesondere das distale Ende oder eine distale Endregion eines Instruments verstanden. Das Instrumentenende ist insbesondere ein Teil des Instruments, der visuell von einem Bilderfassungsgerät erfasst werden kann, welches die Bilddaten erfasst. Alternativ oder zusätzlich kann das Instrumentenende auch als eine Region of Interest (ROI) definiert sein, also eine Region im Bild in der das Instrumentenende erkannt oder vermutet wird. Das Instrumentenende kann innerhalb des Bildes visuell insbesondere durch Markierungen am Instrumentenende oder durch Segmentierung erkannt und bestimmt werden. In this context, an instrument end is understood to mean, in particular, the distal end or a distal end region of an instrument. The instrument end is, in particular, a part of the instrument that can be visually detected by an image capture device that captures the image data. Alternatively or additionally, the instrument end can also be defined as a region of interest (ROI), i.e., a region in the image in which the instrument end is recognized or suspected. The instrument end can be visually detected and determined within the image, in particular by markings on the instrument end or by segmentation.
Die vorliegende Erfindung ermöglicht die bevorzugt automatische Ermittlung und Zuteilung wenigstens eines Attributs und insbesondere einer Instrumentenklassifikation eines in den Bilddaten erfassten chirurgischen Instruments basierend auf Auswertung der erfassten Bilddaten. Unter visueller Erfassung und visueller Erkennung wird vorliegend eine jeweilige softwarebasierte Erfassung bzw. Erkennung mittels an sich bekannten Softwarealgorithmen und/oder mittels antrainierter Künstlicher Intelligenz (Kl) verstanden, welche eine visuelle Analyse bzw. Auswertung der erfassten Bilddaten durchführt. Hierbei erfolgt beispielsweise eine Erfassung von Konturen und/oder Strukturen eines Instruments und/oder eines Gewebes und/oder eine Analyse weiterer Bildelemente und/oder Bilddaten, basierend auf welchen eine Erkennung eines operativen Ereignisses oder eines Instruments, bspw. mittels Abgleich mit zuvor hinterlegten Daten erfolgen kann. Eine visuelle Erfassung und Erkennung unterscheidet sich insbesondere von einer Sensor- oder Antennen-basierten Erfassung oder Erkennung von Objekten in Bilddaten bzw. einem Videobild. The present invention enables the preferably automatic determination and allocation of at least one attribute and in particular an instrument classification of a surgical instrument captured in the image data based on evaluation of the captured image data. In this context, visual acquisition and visual recognition are understood to mean software-based acquisition or recognition using known software algorithms and/or trained artificial intelligence (K1), which performs a visual analysis or evaluation of the acquired image data. This involves, for example, acquisition of contours and/or structures of an instrument and/or tissue and/or analysis of further image elements and/or image data, based on which an operative event or an instrument can be recognized, e.g., by comparison with previously stored data. Visual acquisition and recognition differs in particular from sensor- or antenna-based acquisition or recognition of objects in image data or a video image.
Unter operativem Ereignis wird ein in Bilddaten visuell detektierbares Ereignis verstanden, insbesondere eine visuell erkennbare Wirkung einer Instrumentenanwendung. An operative event is understood to be an event that can be visually detected in image data, in particular a visually recognizable effect of an instrument application.
Unter Bilddaten werden vorliegend Bild- und/oder Videodaten, und insbesondere durch ein Videoendoskop, Exoskop oder medizinisches Mikroskop bereitgestellte Bilddaten, verstanden. Image data is understood here to mean image and/or video data, and in particular image data provided by a video endoscope, exoscope or medical microscope.
Im Gegensatz zum Stand der Technik erfolgt erfindungsgemäß für ein chirurgisches Instrument keine visuelle Erkennung eines Attributs des Instruments auf Basis der Bilddaten des erfassten Instruments alleine, sondern eine auf einer Distanzermittlung zwischen einem jeweiligen Instrumentenende und einem erkannten operativen Ereignis basierte Erkennung und Zuordnung einer Klassifikation bzw. Klassifizierung des chirurgischen Instruments. Hierdurch wird eine optimierte und insbesondere genauere Klassifikation des jeweiligen Instruments ermöglicht. So können beispielsweise unterschiedliche chirurgische Instrumente, welche aber in Bilddaten eine ähnliche Kontur/Oberfläche aufweisen und somit bei einer Analyse der Bilddaten des Instruments alleine nicht oder nur schwer unterscheidbar sind, mittels eines damit assoziierten operativen Ereignisses näher bestimmt bzw. klassifiziert werden. Das Verfahren umfasst vorzugsweise den weiteren Schritt eines Speichervorgangs und/oder einer Ausgabe der ermittelten Daten, insbesondere der erkannten und zugeordneten Instrumentenklassifikation, vorzugsweise zusammen mit den erfassten Bilddaten. Vorteilhaft kann hierzu ein Ausgabemittel, wie beispielsweise ein Display, bereitgestellt werden, in welchem neben den erfassten Bilddaten wie einem endoskopischen Livebild die ermittelte Instrumentenklassifikation und/oder die weiteren erfassten und/oder ermittelten Daten einem Benutzer dargestellt werden. Weiterhin können die Bilddaten vorzugsweise zusammen mit den zugeordneten Daten in einem vorgesehenen internen oder externen Datenspeicher abgelegt werden. Der Speicher kann beispielsweise ein mit einer Bilderfassungsvorrichtung verbundener Zwischenspeicher sein, welcher in regelmäßigen oder unregelmäßigen Abständen die Daten an eine vorgesehene Datenbank, insbesondere zu Dokumentations- und/oder Auswertungszwecken übermittelt. In contrast to the prior art, the invention does not involve visual recognition of an attribute of a surgical instrument based on the image data of the captured instrument alone, but rather recognition and assignment of a classification or classification of the surgical instrument based on a distance determination between a respective instrument end and a detected surgical event. This enables an optimized and, in particular, more precise classification of the respective instrument. For example, different surgical instruments that have a similar contour/surface in image data and are therefore difficult or impossible to distinguish when analyzing the image data of the instrument alone can be more precisely identified or classified using an associated surgical event. The method preferably comprises the further step of storing and/or outputting the determined data, in particular the recognized and assigned instrument classification, preferably together with the acquired image data. For this purpose, an output means, such as a display, can advantageously be provided in which, in addition to the acquired image data such as a live endoscopic image, the determined instrument classification and/or the further acquired and/or determined data are presented to a user. Furthermore, the image data can preferably be stored together with the assigned data in a provided internal or external data storage device. The storage device can, for example, be a buffer connected to an image acquisition device, which transmits the data to a provided database at regular or irregular intervals, in particular for documentation and/or evaluation purposes.
In einer bevorzugten Ausführungsform erfolgt bei einer visuellen Erfassung von zwei oder mehr Instrumenten bzw. zugeordneter Instrumentenenden in den erfassten Bilddaten die Erkennung und Zuordnung der Instrumentenklassifikation für das Instrument, dessen Instrumentenende die kürzeste ermittelte Distanz zum erfassten operativen Ereignis aufweist. Hierbei wird vorzugsweise nach einer Erfassung und Erkennung eines operativen Ereignisses und nach Erfassung von wenigstens zwei Instrumentenenden in den Bilddaten zunächst die jeweilige Distanz zwischen den Instrumentenenden und dem operativen Ereignis ermittelt. Anschließend erfolgt eine Zuordnung des Instrumentenendes, welches nächstliegend zum operativen Ereignis erfasst ist, als für die vorgehend beschriebene Instrumentenklassifikation maßgeblich. Dies erfolgt vorteilhaft auch bei wenigstens zwei oder mehreren erkannten operativen Ereignissen, bei welchen dann für jedes operative Ereignis eine Distanzermittlung zu den jeweils im Bild visuell erfassten chirurgischen Instrumenten erfolgt. Hierdurch kann bei einer Erfassung von mehr als zwei chirurgischen Instrumenten in den Bilddaten eine genauere Klassifizierung des einem operativen Ereignis zugeordneten Instruments erfolgen. In a preferred embodiment, when two or more instruments or associated instrument ends are visually detected in the captured image data, the instrument classification is recognized and assigned to the instrument whose instrument end has the shortest determined distance to the captured surgical event. Preferably, after a surgical event has been detected and recognized and after at least two instrument ends have been detected in the image data, the respective distance between the instrument ends and the surgical event is first determined. The instrument end that is detected closest to the surgical event is then assigned as the instrument classification described above. This is advantageously also done when at least two or more detected surgical events are detected, for which a distance determination to the respective surgical instruments visually detected in the image is then carried out for each surgical event. This allows a more precise classification of the instrument assigned to a surgical event when more than two surgical instruments are detected in the image data.
Die Distanzermittlung zwischen dem operativen Ereignis und dem Instrumentenende des erfassten Instruments basiert vorzugsweise auf einer aus den Bilddaten direkt visuell detektierbaren Abstands- bzw. Entfernungsmessung. Vorteilhaft kann dies eine an sich bekannte softwarebasierte Entfernungsmessung zwischen zwei Bildpunkten, insbesondere zwischen jeweiligen Mittelpunkten des Instrumentenendes und dem erfassten Ereignis sein, und/oder eine auf einer zusätzlichen Tiefenvermessung basierende Bildauswertung umfassen, die den Abstand zwischen dem Bilderfassungsgerät und der Szene, insbesondere dem operativen Ereignis, für einzelne Bildpunkte ermittelt. Beispielsweise kann die Tiefe durch einen Sensor wie einen Time-of-Flight Sensor ermittelt werden. Alternativ kann einzelnen Bildpunkten der Szene eine Tiefe durch Triangulation zugeordnet werden, beispielsweise mit einem Stereoinstrument. Es kann, insbesondere fortlaufend, eine Tiefenkarte der Szene ermittelt werden und diese Information zur räumlichen Entfernungsbestimmung zwischen realen Punkten in der Szene, insbesondere dem Instrumentenende und dem operativen Ereignis verwendet werden. Die Distanzermittlung erfolgt dann in drei Dimensionen. Hierdurch kann mittels hinreichender Genauigkeit eine effiziente Analyse der Bilddaten erfolgen, ohne die Notwendigkeit komplexer zusätzlicher Vorrichtungen wie beispielsweise Sensoren und/oder Antennen an den jeweiligen Instrumenten. The distance determination between the operative event and the end of the detected instrument is preferably based on a distance or range measurement that can be directly visually detected from the image data. This can advantageously be a This can be a known software-based distance measurement between two image points, in particular between the respective centers of the instrument end and the recorded event, and/or an image analysis based on an additional depth measurement, which determines the distance between the image capture device and the scene, in particular the operative event, for individual image points. For example, the depth can be determined using a sensor such as a time-of-flight sensor. Alternatively, a depth can be assigned to individual image points in the scene using triangulation, for example using a stereo instrument. A depth map of the scene can be determined, in particular continuously, and this information can be used to determine the spatial distance between real points in the scene, in particular the instrument end and the operative event. The distance is then determined in three dimensions. This allows for efficient analysis of the image data with sufficient accuracy, without the need for complex additional devices such as sensors and/or antennas on the respective instruments.
Alternativ oder zusätzlich kann für das erkannte Instrumentenende und das operative Ereignis im Bild jeweils eine sog. Region of Interest (ROI) definiert werden, beispielsweise ein Rechteck oder eine andere Form, das jeweils das Instrumentenende und die ROI einfasst. Die Distanz kann dann eine Distanz zwischen bestimmten Punkten dieser Rechtecke bzw. Formen sein, beispielsweise zwischen den Mittelpunkten. Alternatively or additionally, a so-called region of interest (ROI) can be defined for the detected instrument end and the surgical event in the image. For example, a rectangle or other shape enclosing the instrument end and the ROI can be defined. The distance can then be a distance between specific points of these rectangles or shapes, for example, between the centers.
Der Schritt der Distanzermittlung zwischen dem operativen Ereignis und dem Instrumentenende des erfassten Instruments erfolgt zeitlich vorzugsweise unmittelbar nach visueller Erkennung des operativen Ereignisses und/oder der Erkennung des Instruments. Hierdurch kann eine genauere Zuordnung zwischen einem jeweiligen Instrument und dem operativen Ereignis erfolgen. Insbesondere kann damit eine Messung nächstmöglich am Entstehungsort des operativen Ereignisses erfolgen und somit eine die Messung negativ beeinflussende Ausweitung oder örtliche Veränderung bzw. ein Wandern des operativen Ereignisses in den Bilddaten vermieden werden. The step of determining the distance between the operative event and the end of the recorded instrument preferably occurs immediately after visual detection of the operative event and/or the detection of the instrument. This allows for a more precise association between a particular instrument and the operative event. In particular, this allows for a measurement to be taken as close as possible to the location of the operative event, thus avoiding any expansion or spatial change, or migration of the operative event in the image data, which could negatively affect the measurement.
Eine Erkennung eines operativen Ereignisses umfasst vorzugsweise eine Ereignisklassifizierung aus den analysierten Bilddaten in eine oder mehrere der folgenden Ereignisklassifikationen: eine Rauchentwicklung, eine farbliche oder strukturelle Gewebeveränderung, eine entstehende und/oder sich verändernde Gewebeöffnung, eine Wassergehaltveränderung des erfassten Gewebes, eine Blutentwicklung des Gewebes, eine Nahterstellung im Gewebe, eine Einbringung von Fremdmaterial in das Gewebe, insbesondere eine Metalleinbringung, beispielsweise einen Clip, und/oder einen Sprühnebel oder Gasblasen. Detection of an operative event preferably comprises event classification from the analyzed image data into one or more of the following event classifications: smoke development, a color or structural tissue change, a developing and/or changing tissue opening, a Change in the water content of the acquired tissue, blood development in the tissue, suture placement in the tissue, introduction of foreign material into the tissue, in particular introduction of metal, for example a clip, and/or spray mist or gas bubbles.
Bei der visuellen Erkennung eines operativen Ereignisses erfolgt vorzugsweise eine visuelle Erfassung und Erkennung eines operativen Ereignisses mittels computer- bzw. softwareunterstützter Bildauswertung bzw. Bildanalyse, insbesondere mit an sich bekannten Bildauswertungsalgorithmen. Vorteilhaft erfolgt hierbei eine Auswertung der RGB-Bildwerte, eine Auswertung von multispektralen und/oder hyperspektralen Bildparametern, eine Identifikation von Konturen/Strukturen der erfassten Objekte im Bild, und/oder eine Auswertung unter Verwendung von an sich bekannten Algorithmen zur Objekterkennung in Bilddaten, insbesondere auch unter Abgleich mit zuvor erfassten und/oder gespeicherten Bilddaten bekannter und somit vordefinierter operativer Ereignisse. Beispielsweise kann ein Wassergehalt mittels Auswertung von Hyperspektraler- oder Multispektraler Bildparameter ermittelt werden. Die Erkennung kann auch durch oder mit Unterstützung einer künstlichen Intelligenz, beispielsweise unter Verwendung eines neuronalen Netzes, oder basierend auf maschinellem Lernen erfolgen. Diese werden dann anhand beobachteter operativer Ereignisse zur Erkennung dieser Ereignisse trainiert. In the visual detection of a surgical event, the surgical event is preferably visually recorded and recognized using computer- or software-assisted image evaluation or analysis, in particular using known image evaluation algorithms. Advantageously, this involves evaluating the RGB image values, evaluating multispectral and/or hyperspectral image parameters, identifying contours/structures of the detected objects in the image, and/or evaluating using known algorithms for object recognition in image data, in particular comparing them with previously acquired and/or stored image data of known and thus predefined surgical events. For example, water content can be determined by evaluating hyperspectral or multispectral image parameters. Detection can also be performed by or with the support of artificial intelligence, for example, using a neural network, or based on machine learning. These are then trained to recognize these events based on observed surgical events.
Bei der visuellen Erkennung kann insbesondere auch eine Auswertung über den zeitlichen Verlauf bzw. eine Auswertung in einer Vielzahl von aufeinanderfolgenden Frames eines Videobildes bzw. der Bilddaten erfolgen. Beispielsweise kann eine Gewebeveränderung mittels Auswertung der RGB-Werte im zeitlichen Verlauf, insbesondere durch Detektion von farblichen Änderungen detektiert werden, beispielsweise für die Gewebefarbe von rosa zu schwarz zur Erkennung von Gewebeschäden, oder für die Bildfarbinformationen hin zu weiß oder grau zur Erkennung von Rauch. In visual detection, an evaluation can also be performed over time or across multiple consecutive frames of a video image or image data. For example, a tissue change can be detected by evaluating the RGB values over time, particularly by detecting color changes, such as a change in tissue color from pink to black to detect tissue damage, or a change in image color information from white or gray to detect smoke.
Der Schritt der Erkennung eines operativen Ereignisses kann weiter bevorzugt eine Zuordnung einer Ereignisintensität und/oder eines weiteren Ereignisattributs umfassen. Auch dies kann mittels der vorgenannten, an sich bekannten computer- bzw. softwareunterstützten Bildauswertung bzw. Bildanalyse erfolgen. Beispielsweise kann eine visuelle Erkennung und anschließende Zuordnung einer Rauchintensität, einer Blutungsintensität und/oder eine Gewebeöffnungsgröße erfolgen. Hierfür kann ein jeweiliger Intensitäts- oder Größenfaktor dem Ereignis zugeordnet werden. Beispielsweise kann je nach Umfang oder Dichte einer visuell im Bild detektierbaren Rauchentwicklung am Gewebe eine kleinerer oder größerer Intensitätswert ermittelt und dem operativen Ereignis zugordnet werden. The step of detecting an operative event may further preferably include assigning an event intensity and/or another event attribute. This can also be performed using the aforementioned, known computer- or software-assisted image evaluation or analysis. For example, a visual detection and subsequent assignment of a smoke intensity, a bleeding intensity and/or a tissue opening size. For this purpose, a respective intensity or size factor can be assigned to the event. For example, depending on the extent or density of smoke development in the tissue that can be visually detected in the image, a lower or higher intensity value can be determined and assigned to the surgical event.
In einer bevorzugten Ausführungsform umfasst die Erkennung und Zuordnung einer Instrumentenklassifikation eine Erkennung und Zuordnung eines Instrumententyps und/oder eines weiteren Instrumentenattributs, insbesondere umfassend die Klassifikation: HF-Instrument, Nicht-HF-Instrument, Zange, Schere, Nahtinstrument, Klam- mernahtgerät, Biopsieinstrument, Stanze, Clip-Setzer und/oder ein Ultraschall-Gerät. In a preferred embodiment, the recognition and assignment of an instrument classification comprises a recognition and assignment of an instrument type and/or a further instrument attribute, in particular comprising the classification: HF instrument, non-HF instrument, forceps, scissors, suturing instrument, stapler, biopsy instrument, punch, clip setter and/or an ultrasound device.
Die Erkennung und Zuordnung einer Instrumentenklassifikation des erfassten Instruments basiert erfindungsgemäß neben der zuvor beschriebenen Distanzermittlung auf einem erkannten operativen Ereignis. Das erkannte Ereignis umfasst dabei Informationen bzw. Daten zu einer erkannten Ereignisklassifikation, einer ermittelten Ereignisintensität, und/oder Daten zu einem weiteren Ereignisattribut. So kann beispielsweise durch die Erkennung einer in den Bilddaten detektierbaren Rauchentwicklung am Gewebe, welche durch die Distanzermittlung einem erfassten Instrumentenende zugeordnet wurde bzw. ist, das entsprechende Instrument als Hochfrequenz (HF) Instrument zur Anwendung von Hochfrequenz-Strom, beispielsweise zum Koagulieren oder Schneiden, klassifiziert werden. Hierdurch können insbesondere HF-Instrumente wie HF-Fasszangen, welche sich optisch nicht oder nur kaum von Fasszangen ohne HF-Funktionalität unterscheiden, von ebensolchen unterschieden werden. According to the invention, the recognition and assignment of an instrument classification of the detected instrument is based on a detected surgical event in addition to the distance determination described above. The detected event comprises information or data on a detected event classification, a determined event intensity, and/or data on another event attribute. For example, by detecting smoke development on the tissue that can be detected in the image data and which was or is assigned to a detected instrument end by the distance determination, the corresponding instrument can be classified as a high-frequency (HF) instrument for the application of high-frequency current, for example for coagulation or cutting. This makes it possible to differentiate between HF instruments such as HF grasping forceps, which visually do not or only barely differ from grasping forceps without HF functionality.
Hierbei kann die Erkennung und Zuordnung einer Instrumentenklassifikation neben den erfassten visuellen Bilddaten des Instruments basierend auf der Auswertung von für vordefinierte Instrumente in einer Datenbank hinterlegten Geräte- und/oder Eingriffsdaten und/oder für vordefinierte Eingriffe bzw. vordefinierte Ereignisse hinterlegte Instrumentendaten durchgeführt werden. So kann die Erkennung und Zuordnung einer Instrumentenklassifikation den Schritt einer Abfrage von in einem internen oder externen Datenspeicher hinterlegten und/oder abrufbaren Daten umfassen, die operative Ereignisse einem jeweiligen Instrument oder einer jeweiligen Instrumenteneigenschaft zuordnen. Beispielsweise kann in einem Speicher die Zuordnung hinterlegt sein, dass das operative Ereignis einer Rauchentwicklung im Gewebe durch ein chirurgisches Instrument mit HF-Funktionalität ausgelöst werden kann, oder dass eine entstehende Gewebeöffnung oder Gewebeteilung durch eine Schere ausgelöst sein kann. In this case, the recognition and assignment of an instrument classification can be carried out based on the captured visual image data of the instrument, as well as on the evaluation of device and/or intervention data stored in a database for predefined instruments and/or instrument data stored for predefined interventions or predefined events. Thus, the recognition and assignment of an instrument classification can include the step of querying data stored and/or retrievable in an internal or external data storage device, which Assign surgical events to a particular instrument or instrument property. For example, the assignment can be stored in a memory that the surgical event of smoke development in tissue can be triggered by a surgical instrument with HF functionality, or that a resulting tissue opening or division can be triggered by scissors.
Das Verfahren umfasst bevorzugt den weiteren Schritt der Ermittlung einer Erkennung und Zuordnung einer Art der medizinischen Behandlung als Attribut für die analysierten Bilddaten. So kann mit Hilfe einer Erkennung des jeweiligen operativen Ereignisses und/oder der erkannten Instrumentenklassifikation auf eine vorliegende medizinische Behandlung bzw. Behandlungsart geschlossen werden, welche als Attribut den erfassten Bilddaten zugeordnet werden kann. The method preferably includes the further step of determining a recognition and assignment of a type of medical treatment as an attribute for the analyzed image data. Thus, by recognizing the respective surgical event and/or the recognized instrument classification, an existing medical treatment or treatment type can be inferred, which can be assigned as an attribute to the acquired image data.
Weiterhin kann das Verfahren den Schritt der Auslesung und/oder Auswertung von Geräte- und/oder Instrumentendaten umfassen, welche für den jeweiligen Eingriff verwendet werden und beispielsweise an einer Vorrichtung zur Durchführung des Verfahrens angeschlossen sind. So können hierbei beispielsweise elektronisch auslesbare Gerätedaten analysiert werden und für die weitere Klassifizierung eines Instruments, zur Erkennung eines operativen Eingriffs und/oder zur Erkennung einer Art der medizinischen Behandlung bzw. einer Indikation verwendet werden. Wird beispielsweise ein HD-Rhinoskop als mit einer entsprechenden Vorrichtung verbunden erkannt, kann darauf geschlossen werden, dass es sich um einen diagnostischen Eingriff handelt, da dieses Endoskop keinen Arbeitskanal besitzt. Wird beispielsweise ein Zystoskop als mit einer entsprechenden Vorrichtung verbunden erkannt, kann darauf geschossen werden, dass es sich um einen endourologischen Eingriff handelt. Furthermore, the method can comprise the step of reading out and/or evaluating device and/or instrument data which are used for the respective procedure and which are, for example, connected to a device for carrying out the procedure. For example, electronically readable device data can be analyzed and used for the further classification of an instrument, for the recognition of a surgical procedure and/or for the recognition of a type of medical treatment or an indication. If, for example, an HD rhinoscope is recognized as being connected to a corresponding device, it can be concluded that this is a diagnostic procedure because this endoscope does not have a working channel. If, for example, a cystoscope is recognized as being connected to a corresponding device, it can be assumed that this is an endourological procedure.
Hierauf basiert kann zudem bereits im Vorfeld der Bildauswertung darauf geschlossen werden, ob eine bestimmte Klassifikation und/oder ein bestimmtes operatives Ereignis vorliegen könnte oder eher unwahrscheinlich ist. Beispielsweise wird in einem endourologischen Eingriff unter Wasser gearbeitet. Wird hier HF-Strom angewandt so entsteht kein Rauch, sondern Blasen. Weiterhin gibt es beispielsweise rein diagnostische Eingriffe, in denen keine Anwendung von HF-Instrumentenerfolgt. Dies hat den Vorteil, dass ein jeweiliger Bildauswertungsalgorithmus effizienter gestaltet werden kann, da nur eine begrenzte Anzahl an Instrumenten bzw. Instrumentenklassifikationen für den jeweiligen Eingriff relevant sind und nicht pauschal alle. Based on this, it is also possible to conclude, prior to image analysis, whether a specific classification and/or surgical event is likely or unlikely. For example, if an endourological procedure is carried out underwater, then HF current is applied, rather than smoke, but bubbles are produced. Furthermore, there are purely diagnostic procedures, for example, in which HF instruments are not used. This has The advantage is that a respective image evaluation algorithm can be designed more efficiently, since only a limited number of instruments or instrument classifications are relevant for the respective procedure and not all of them.
Weiterhin kann das Verfahren den Schritt der zeitlichen Erfassung einer jeweiligen Nutzung eines klassifizierten chirurgischen Instruments und/oder eines operativen Ereignisses umfassen. Dies kann insbesondere den jeweiligen Zeitpunkt und die Länge der Nutzung bzw. die Dauer eines erkannten Ereignisses umfassen. Die entsprechenden Daten können den Bilddaten zugeordnet werden und für die weitere Auswertung, insbesondere auch zur Klassifizierung des Instruments und/oder zur Erkennung eines Ereignisses verwendet werden. Furthermore, the method may include the step of temporally recording each use of a classified surgical instrument and/or a surgical event. This may, in particular, include the respective time and duration of use or the duration of a detected event. The corresponding data may be assigned to the image data and used for further evaluation, in particular for classifying the instrument and/or detecting an event.
Das Verfahren umfasst vorzugsweise weiterhin eine Berechnung und Zuordnung eines Validierungswerts für das jeweilige erkannte chirurgische Instrument, welcher wenigstens basierend auf einem Entfernungswert der jeweiligen Distanzermittlung zwischen einem erkannten operativen Ereignis und einem Instrumentenende ermittelt wird. Der Validierungswert kann dazu dienen, für das jeweilige chirurgische Instrument eine entsprechende Plausibilität der erkannten Instrumentenklassifikation bereitzustellen. Vorzugsweise wird bei einer relativ geringen ermittelten Distanz zwischen dem operativen Ereignis und dem Instrumentenende ein höherer Validierungswert zugeordnet als bei einer relativ größeren Distanz. Dies basiert darauf, dass bei einem direkt naheliegenden operativen Ereignis die Wahrscheinlichkeit höher ist, dass das chirurgische Instrument für das operative Ereignis verantwortlich ist, als bei einer relativ größeren Distanz zwischen Instrument und Ereignis. Der Validierungswert wird vorzugsweise den Bilddaten zugeordnet und kann zusammen mit den anderen Daten und/oder Werten in einem entsprechenden Speicher hinterlegt werden. The method preferably further comprises calculating and assigning a validation value for the respective recognized surgical instrument, which is determined at least based on a distance value of the respective distance determination between a recognized surgical event and an instrument end. The validation value can serve to provide appropriate plausibility of the recognized instrument classification for the respective surgical instrument. Preferably, a higher validation value is assigned for a relatively short determined distance between the surgical event and the instrument end than for a relatively greater distance. This is based on the fact that for a directly nearby surgical event, the probability that the surgical instrument is responsible for the surgical event is higher than for a relatively greater distance between the instrument and the event. The validation value is preferably assigned to the image data and can be stored in a corresponding memory together with the other data and/or values.
Das Verfahren kann optional eine manuelle Validierung, beispielsweise eine während des Eingriffs erfolgende oder diesem nachgelagerte Validierung der erkannten Instrumentenklassifikation mittels Benutzerinteraktion umfassen. Diese kann vorteilhaft eine Ausgabe der erkannten Instrumentenklassifikation an einen Benutzer wie einen behandelnden Arzt mittels vorgesehenen Ausgabemitteln und eine Erfassung einer manuellen Rückmeldung mittels vorgesehener Eingabemittel umfassen. Neben der Ausgabe der erkannten Instrumentenklassifikation kann eine Ausgabe von zugeordneten weiteren Daten, insbesondere die Ausgabe eines zugeordneten Validierungswerts, umfassen. Weiter bevorzugt kann eine optionale manuelle Validierung lediglich für die Klassifikationsdaten bzw. erkannten Instrumente erfolgen, welchen ein relativ geringer Validierungswert zugeordnet ist. Hierdurch kann eine optionale manuelle Überprüfung für weniger plausible Daten erfolgen, wodurch einerseits die Validität der erfassten Daten insgesamt verbessert wird und andererseits eine manuelle Überprüfung lediglich für die als weniger valide erkannten Daten erfolgt und somit insgesamt die Effizienz für eine valide Datenerfassung optimiert wird. The method may optionally include manual validation, for example, during or after the procedure, of the recognized instrument classification by means of user interaction. This may advantageously include output of the recognized instrument classification to a user, such as a treating physician, using designated output means and recording manual feedback using designated input means. In addition to Output of the recognized instrument classification can include output of additional associated data, in particular the output of an associated validation value. Further preferably, an optional manual validation can be performed only for the classification data or recognized instruments to which a relatively low validation value is assigned. This allows an optional manual review for less plausible data to be performed, which, on the one hand, improves the overall validity of the recorded data and, on the other hand, allows a manual review only for the data recognized as less valid, thus optimizing the overall efficiency for valid data capture.
In einer weiteren bevorzugten Ausführungsform kann das Verfahren auch den Schritt einer Übersendung eines Feedbacksignals an eine mit dem erfassten Instrument oder den erfassten Instrumenten verbundene Vorrichtung basierend auf den durch die Bildauswertung erfassten Daten erfolgen. Hierdurch kann insbesondere eine Ansteuerung des jeweiligen Instruments basierend auf den mittels der Bildauswertung erfassten Daten erfolgen. Beispielsweise kann bei einer Ermittlung von zu starken Gewebeschäden bei einer HF-Strom Anwendung, eine entsprechende Ansteuerung zur Verminderung einer Leistung des mit dem HF-Instrument verbundenen Geräts bzw. Generators erfolgen, um eine weitere Schädigung des Gewebes zu vermeiden. In a further preferred embodiment, the method can also include the step of transmitting a feedback signal to a device connected to the detected instrument(s) based on the data acquired by the image analysis. This allows, in particular, the respective instrument to be controlled based on the data acquired by the image analysis. For example, if excessive tissue damage is detected during an RF current application, a corresponding control can be initiated to reduce the power of the device or generator connected to the RF instrument in order to prevent further tissue damage.
In einem weiteren Aspekt betrifft die Erfindung eine Vorrichtung zur Erfassung und Analyse von medizinischen Bilddaten, welche zur Durchführung des Verfahrens wie vorgehend beschrieben ausgebildet ist, umfassend: In a further aspect, the invention relates to a device for acquiring and analyzing medical image data, which is designed to carry out the method as described above, comprising:
- eine Anschlusseinheit zur selektiven Verbindung eines Bilderfassungsgeräts für eine medizinische Behandlung, insbesondere ein Endoskop, - a connection unit for selectively connecting an image acquisition device for medical treatment, in particular an endoscope,
- eine Datenerfassungseinheit zur Erfassung von Bilddaten von wenigstens dem mit der Anschlusseinheit verbundenen Bilderfassungsgerät, und - a data acquisition unit for acquiring image data from at least the image acquisition device connected to the connection unit, and
- eine Recheneinheit, welche ausgebildet ist, eine visuelle Erfassung und Erkennung eines operativen Ereignisses in den erfassten Bilddaten durchzuführen, wobei die Recheneinheit ferner ausgebildet ist, eine Distanzermittlung zwischen dem erkannten operativen Ereignis und einem Instrumentenende wenigstens eines visuell in den Bilddaten erfassten Instruments, sowie eine darauf basierende Erkennung und Zuordnung einer Instrumentenklassifikation zum erfassten Instrument durchzuführen. In einer bevorzugten Ausführungsform umfasst die Vorrichtung eine Dokumentationseinheit zur Aufzeichnung von durch die Datenerfassungseinheit bereitgestellte Bilddaten sowie der durch die Recheneinheit ermittelten Daten, insbesondere umfassend die ermittelte Instrumentenklassifikation. Hierbei kann die Dokumentationseinheit weiter vorteilhaft zur Aufzeichnung in Abhängigkeit einer ermittelten Instrumentenklassifikation ausgebildet sein. Hierdurch kann eine selektive Datenerfassung und Dokumentation lediglich für Daten erfolgen, welche von größerem Interesse für eine spätere Dokumentation oder Analyse sind, wodurch ein effizienterer Einsatz von Daten- und Rechenkapazität erfolgen kann. - a computing unit which is designed to carry out a visual detection and recognition of an operative event in the acquired image data, wherein the computing unit is further designed to carry out a distance determination between the detected operative event and an instrument end of at least one instrument visually detected in the image data, as well as a detection and assignment of an instrument classification to the detected instrument based thereon. In a preferred embodiment, the device comprises a documentation unit for recording image data provided by the data acquisition unit and the data determined by the computing unit, in particular including the determined instrument classification. The documentation unit can advantageously be configured to record data depending on a determined instrument classification. This allows for selective data acquisition and documentation only for data that is of greater interest for subsequent documentation or analysis, thus enabling more efficient use of data and computing capacity.
Die Dokumentationseinheit ist vorzugsweise derart ausgebildet, die jeweiligen Bilddaten mit den von der Recheneinheit erfassten und/oder ermittelten Daten zur verknüpfen und als zueinander zugehörige Daten bzw. als entsprechend verknüpfter Datensatz abzuspeichern. Die ermittelten und/oder zugeordneten Daten können hierbei als Metadaten der jeweiligen Bilddaten abgespeichert werden. Hierdurch kann auch zu einem späteren Zeitpunkt eine eindeutige Zuordnung der Bilddaten zu den erfassten Daten erfolgen und insbesondere menschliche Fehlereinflüsse bei der aus dem Stand der Technik bekannten separaten Aufnahme von Bilddaten einerseits und bei der jeweiligen Untersuchung zusätzlich erfasster Datensätze andererseits vermieden werden. Die Dokumentationseinheit kann hierbei ferner ausgebildet sein, die jeweils zugeordneten Daten als Metadaten der Bilddaten in vordefinierten Frames oder weiter bevorzugt in jedem einzelnen Frame der Bilddaten zu hinterlegen. The documentation unit is preferably designed to link the respective image data with the data acquired and/or determined by the computing unit and to store them as associated data or as a correspondingly linked data set. The determined and/or assigned data can be stored as metadata of the respective image data. This allows the image data to be clearly assigned to the acquired data at a later point in time and, in particular, to avoid human error during the separate recording of image data known from the prior art on the one hand and during the respective examination of additionally acquired data sets on the other. The documentation unit can also be designed to store the respectively assigned data as metadata of the image data in predefined frames or, more preferably, in each individual frame of the image data.
Weiterhin kann die Recheneinheit zur Einstellung und/oder Anpassung der Datenerfassungseinheit ausgebildet sein, insbesondere von die Datenaufzeichnung beeinflussenden Aufnahmeparametern, und diese in Abhängigkeit der ermittelten Instrumentenklassifikation und/oder in Abhängigkeit der zusätzlich erfassten Daten ansteuern. Hierbei kann beispielsweise eine Einstellung oder Anpassung einer Framerate, eines Bildausschnitts und/oder anderer Bildparameter des erfassten Bildsignals in Abhängigkeit der ermittelten und/oder zugeordneten Daten erfolgen. Furthermore, the computing unit can be configured to adjust and/or adapt the data acquisition unit, in particular the recording parameters that influence data recording, and to control the data acquisition unit depending on the determined instrument classification and/or the additionally acquired data. For example, a frame rate, an image section, and/or other image parameters of the acquired image signal can be adjusted or adapted depending on the determined and/or assigned data.
Die Recheneinheit umfasst vorteilhaft eine Speichereinheit, welche zur Hinterlegung und/oder Zuordnung von Attributen wie einer Instrumentenklassifikation, einer Ereig- nisklassifikation, einer Ereignisintensität, einer Art der medizinischen Behandlung, einem zugeordneten Validierungswert für ein jeweils erfasstes Ereignis und/oder ein jeweils erfasstes chirurgisches Instrument ausgebildet ist. Die Recheneinheit kann insbesondere eine oder mehrere Lookup-Tabellen umfassen, mittels welcher beispielsweise einem jeweils hinterlegten operativen Ereignis vordefinierte und/oder veränderbare Attribute zugeordnet sind, welche beispielsweise für die Instrumentenklassifizierung herangezogen werden können. The computing unit advantageously comprises a memory unit which is used to store and/or assign attributes such as an instrument classification, an event event classification, an event intensity, a type of medical treatment, an assigned validation value for a respectively recorded event and/or a respectively recorded surgical instrument. The computing unit can in particular comprise one or more lookup tables, by means of which, for example, predefined and/or changeable attributes are assigned to a respectively stored surgical event, which can be used, for example, for instrument classification.
In einer bevorzugten Ausführungsform ist die Datenerfassungseinheit zur Erfassung weiterer Gerätedaten und/oder Parameterdaten von mit der Vorrichtung drahtgebunden oder drahtlos verbundenen Geräten ausgebildet. Die Datenerfassungseinheit ist weiter vorteilhaft zur Erfassung von bereitgestellten Patientendaten und/oder Vitalpa- rametern eines Patienten ausgebildet. Hierbei kann die Recheneinrichtung vorteilhaft ausgebildet sein, aus einer Kombination der erfassten Gerätedaten und/oder Parameterdaten sowie der erfassten Bilddaten Attribute des jeweiligen chirurgischen Instruments oder des jeweiligen medizinischen Eingriffs zu ermitteln. In a preferred embodiment, the data acquisition unit is configured to acquire additional device data and/or parameter data from devices connected to the device in a wired or wireless manner. The data acquisition unit is also advantageously configured to acquire provided patient data and/or vital parameters of a patient. The computing device can advantageously be configured to determine attributes of the respective surgical instrument or the respective medical procedure from a combination of the acquired device data and/or parameter data and the acquired image data.
In einer bevorzugten Ausführungsform umfasst die Vorrichtung ferner eine Datenübertragungseinheit, welche zum vorzugsweise bidirektionalen Datenaustausch mit einem externen Netzwerk und/oder einer externen Servereinheit ausgebildet ist. Die Datenübertragungseinheit kann hierbei eine LAN- und/oder WLAN-Schnittstelle zur Anbindung an ein internes oder externes Netzwerk, wie beispielsweise ein Kranken- haus-LAN oder das Internet aufweisen. Hierbei kann die Vorrichtung zur Erfassung von Datenerfassungsbefehlen von der externen Servereinheit und/oder zur automatisierten und/oder nicht-automatisierten Übertragung von Aufzeichnungen der Datenerfassungseinheit an die externe Servereinheit ausgebildet sein. Die Übertragung an ein externes Netzwerk und/oder an eine externe Servereinheit kann in Echtzeit und/oder zeitversetzt zur Aufzeichnung der Dokumentationseinheit erfolgen. Besonders bevorzugt kann eine jeweilige Übertragung der erfassten Datensätze in vordefinierten Zeitintervallen oder zu vordefinierten Übertragungszeiten erfolgen. Eine jeweilige Zwischenspeicherung der Daten kann dabei in externen oder internen Speichereinheiten erfolgen. Die vorgehend beschriebene Vorrichtung kann als separater oder integraler Bestandteil einer Endoskopievorrichtung oder eines Endoskopiesystems ausgebildet sein. In a preferred embodiment, the device further comprises a data transmission unit, which is designed for preferably bidirectional data exchange with an external network and/or an external server unit. The data transmission unit can have a LAN and/or WLAN interface for connection to an internal or external network, such as a hospital LAN or the Internet. The device can be designed for the acquisition of data acquisition commands from the external server unit and/or for the automated and/or non-automated transmission of recordings from the data acquisition unit to the external server unit. The transmission to an external network and/or to an external server unit can take place in real time and/or with a time delay relative to the recording of the documentation unit. Particularly preferably, the respective transmission of the acquired data records can take place at predefined time intervals or at predefined transmission times. The respective intermediate storage of the data can take place in external or internal storage units. The device described above can be designed as a separate or integral component of an endoscopy device or an endoscopy system.
Zur Vermeidung von Wiederholungen wird hierbei auf die vorgenannten Ausführungen zum erfindungsgemäßen Verfahren Bezug genommen, welche gleichermaßen als für die erfindungsgemäße Vorrichtung offenbart und beanspruchbar gelten sollen, sowie umgekehrt. To avoid repetition, reference is made here to the above-mentioned statements on the method according to the invention, which are to be considered equally as disclosed and claimable for the device according to the invention, and vice versa.
Einzelheiten, vorteilhafte Wirkungen und Details der vorliegenden Erfindung werden nachfolgend anhand der schematischen, lediglich beispielhaften Zeichnungen erläutert. Details, advantageous effects and details of the present invention are explained below with reference to the schematic, merely exemplary drawings.
Darin zeigen: Showing:
Fig.1 : eine schematische Darstellung einer bevorzugten Ausführungsform der erfindungsgemäßen Vorrichtung zur Analyse medizinischer Bilddaten; Fig.1: a schematic representation of a preferred embodiment of the device according to the invention for analyzing medical image data;
Fig. 2: ein beispielhaftes Livebild eines endoskopischen Eingriffs unter Analyse der erfassten Bilddaten; und Fig. 2: an exemplary live image of an endoscopic procedure with analysis of the acquired image data; and
Fig. 3: ein bevorzugtes Ausführungsbeispiel des erfindungsgemäßen Verfahrens als schematisch vereinfachtes Blockschaltbild. Fig. 3: a preferred embodiment of the method according to the invention as a schematically simplified block diagram.
Fig. 1 zeigt eine bevorzugte Ausführungsform der erfindungsgemäßen Vorrichtung 10 zur Analyse von erfassten medizinischen Bilddaten. Die Vorrichtung 10 umfasst zunächst eine Anschlusseinheit 1 zur selektiven Verbindung eines Bilderfassungsgeräts 2 für eine medizinische Behandlung bzw. einen medizinischen Eingriff. Hierbei handelt es sich insbesondere um ein Endoskop, weiter bevorzugt um ein Videoendoskop. Die Anschlusseinheit kann hierbei an sich bekannte Steckverbindungen aufweisen, welche zur drahtgebundenen Verbindung des Endoskops an die Vorrichtung dienen. Fig. 1 shows a preferred embodiment of the device 10 according to the invention for analyzing acquired medical image data. The device 10 initially comprises a connection unit 1 for selectively connecting an image acquisition device 2 for a medical treatment or a medical procedure. This is, in particular, an endoscope, more preferably a video endoscope. The connection unit can have known plug connections, which serve for the wired connection of the endoscope to the device.
Die Anschlusseinheit 1 kann ferner zur Anbindung von weiteren Geräten ausgebildet sein, wie beispielsweise einer Eingabeeinheit 7, beispielsweise einem Keyboard und/oder einer Maus, einer Displayeinheit 8 zur Ausgabe eines erfassten Videobildes an einen behandelnden Arzt. Hierzu kann die Anschlusseinheit 1 für den jeweiligen Anschluss und/oder die Kommunikation der Geräte 7,8 kabelgebundene oder kabellose Schnittstellen aufweisen. The connection unit 1 can also be designed to connect further devices, such as an input unit 7, for example a keyboard and/or a mouse, a display unit 8 for outputting a captured video image to a treating physician. For this purpose, the connection unit 1 can have wired or wireless interfaces for the respective connection and/or communication of the devices 7, 8.
Die Vorrichtung umfasst weiterhin eine Datenerfassungseinheit 3 zur Erfassung von wenigstens durch das Bilderfassungsgerät 2 bereitgestellten Bilddaten 3a. Zusätzlich kann die Datenerfassungseinheit 3 ausgebildet sein, Gerätedaten 3b von wenigstens dem mit der Anschlusseinheit 1 verbundenen Bilderfassungsgerät 2 zu erfassen. Die Gerätedaten 3b können dabei beispielsweise eine Geräteidentifikationsnummer, ein Gerätekennung oder dergleichen umfassen, basierend auf welchen eine Identifikation und/oder Erkennung des mit der Vorrichtung 10 verbundenen Endoskops 2 möglich ist. The device further comprises a data acquisition unit 3 for acquiring at least image data 3a provided by the image acquisition device 2. In addition, the data acquisition unit 3 can be configured to acquire device data 3b from at least the image acquisition device 2 connected to the connection unit 1. The device data 3b can comprise, for example, a device identification number, a device identifier, or the like, based on which an identification and/or recognition of the endoscope 2 connected to the device 10 is possible.
Die Datenerfassungseinheit 3 kann zusätzlich Patientendaten und/oder zum Patienten zugehörige Vitalparameter 3c erfassen. Die Patientendaten und/oder Vitalparameter 3c können dabei entweder durch entsprechende Eingabemittel 7 manuell eingegeben oder durch weitere mit der Vorrichtung verbundene Geräte automatisiert übermittelt werden. The data acquisition unit 3 can additionally acquire patient data and/or vital parameters 3c associated with the patient. The patient data and/or vital parameters 3c can either be entered manually using appropriate input means 7 or transmitted automatically by other devices connected to the device.
Die Vorrichtung umfasst weiterhin eine Recheneinheit 4, welche ausgebildet ist, eine visuelle Erfassung und Erkennung eines operativen Ereignisses in den erfassten Bilddaten 3a durchzuführen. Weiterhin ist die Recheneinheit 4 ausgebildet, eine Distanzermittlung zwischen dem erkannten operativen Ereignis 32 und einem Instrumentenende 31 a, 31 b wenigstens eines visuell in den Bilddaten 3a erfassten chirurgischen Instruments 30a, b (vgl. Fig. 2) sowie eine darauf basierende Erkennung und Zuordnung einer Instrumentenklassifikation zum erfassten Instrument durchzuführen. Die Recheneinheit 4 umfasst hierbei vorzugsweise einen internen Speicher 4a, auf welchem geeignete Softwarealgorithmen gespeichert und/oder abrufbar sind. The device further comprises a computing unit 4, which is configured to perform a visual detection and recognition of a surgical event in the acquired image data 3a. Furthermore, the computing unit 4 is configured to determine the distance between the detected surgical event 32 and an instrument end 31a, 31b of at least one surgical instrument 30a, b visually detected in the image data 3a (see Fig. 2), as well as to perform a detection and assignment of an instrument classification to the detected instrument based thereon. The computing unit 4 preferably comprises an internal memory 4a, on which suitable software algorithms are stored and/or retrievable.
Die Vorrichtung 10 umfasst vorzugsweise weiterhin eine Dokumentationseinheit 5 zur Aufzeichnung von durch die Datenerfassungseinheit 3 bereitgestellte Bilddaten 3a, Gerätedaten 3b und/oder den weiteren Patientendaten und/oder Vitalparametern 3c. Die Dokumentationseinheit 5 umfasst hierzu vorteilhaft eine interne oder externe Speichereinheit 5a, insbesondere einen nichtflüchtigen Speicher, auf welchem die zugeführten Daten abgespeichert werden können. The device 10 preferably further comprises a documentation unit 5 for recording image data 3a, device data 3b and/or the further patient data and/or vital parameters 3c provided by the data acquisition unit 3. For this purpose, the documentation unit 5 advantageously comprises an internal or external Storage unit 5a, in particular a non-volatile memory, on which the supplied data can be stored.
Die Recheneinheit 4 kann weiter vorteilhaft ausgebildet sein, die Dokumentationseinheit 5 zur Aktivierung und/oder Deaktivierung einer Aufzeichnung, und/oder zur Einstellung und/oder Anpassung von die Datenaufzeichnung beeinflussenden Aufnah- meparametern in Abhängigkeit der ermittelten und/oder zugeteilten Attribute anzusteuern. The computing unit 4 can further advantageously be designed to control the documentation unit 5 for activating and/or deactivating a recording, and/or for setting and/or adapting recording parameters influencing the data recording depending on the determined and/or assigned attributes.
Hierdurch kann im Gegensatz zu einem reinen Datenlogging aller Daten bei einer Untersuchung mit einem Endoskop eine Aufzeichnung beispielsweise nur dann aktiviert oder deaktiviert werden, wenn eine vorgegebene Instrumentenklassifikation und/oder ein vorgegebenes Attribut des chirurgischen Instruments oder eines erkannten operativen Eingriffs erfüllt oder nicht erfüllt ist. Dies kann insbesondere für das Datensammeln zum Antrainieren von Kl-Anwendungen vorteilhaft sein, da beispielsweise nur Daten aufgezeichnet werden, welche für die jeweils gewünschte Anwendung sinnvoll erscheinen. Zusätzlich oder alternativ zur vorgenannte Ausbildung kann die Recheneinheit 4 konfiguriert sein, eine manuelle Aktivierung der Dokumentationseinheit 5, insbesondere durch einen behandelnden Arzt zu ermöglichen. So könnte eine Datenaufzeichnung insbesondere dann ausgelöst werden, wenn beispielsweise Interesse an einer bestimmten Behandlungsform besteht, so dass beim nächsten verfügbaren Eingriff, der ähnlich hierzu ist, die entsprechenden Bilddaten ebenfalls gespeichert werden. In contrast to pure data logging of all data during an examination with an endoscope, this means that a recording can, for example, only be activated or deactivated if a predefined instrument classification and/or a predefined attribute of the surgical instrument or of a recognized surgical procedure is met or not met. This can be particularly advantageous for data collection for training AI applications, since, for example, only data is recorded that appears to be useful for the respective desired application. In addition to or as an alternative to the aforementioned configuration, the computing unit 4 can be configured to enable manual activation of the documentation unit 5, in particular by a treating physician. In this way, data recording could be triggered in particular if, for example, there is interest in a certain type of treatment, so that the corresponding image data is also saved for the next available procedure that is similar to this.
Die Vorrichtung 10 umfasst weiterhin vorzugsweise eine Datenübertragungseinheit 6, welche zum vorzugsweise bidirektionalen Datenaustausch mit einem externen Netzwerk und/oder einer externen Servereinheit 20 ausgebildet ist. Die Datenübertragungseinheit 6 kann hierbei eine LAN- und/oder WLAN-Schnittstelle zur Anbindung an ein internes oder externes Netzwerk, wie beispielsweise ein Krankenhaus-LAN oder das Internet aufweisen. Hierdurch kann die Vorrichtung die aufgezeichneten Daten an ein externes Netzwerk und/oder eine externe Servereinheit 20 übermitteln. Die jeweilige Übertragung kann hierbei während der tatsächlichen Aufzeichnung von Daten und somit während einer medizinischen Behandlung erfolgen. Alternativ kann eine jeweilige Übertragung auch in vordefinierten Zeiträumen erfolgen. Die Vorrichtung 10 kann weiterhin zur Erfassung von Datenerfassungsbefehlen durch die externe Servereinheit 20 und/oder zur automatisierten und/oder nicht-automatisierten Übertragung von Aufzeichnungen der Dokumentationseinheit 5 an die externe Servereinheit 20 ausgebildet sein. The device 10 further preferably comprises a data transmission unit 6, which is designed for preferably bidirectional data exchange with an external network and/or an external server unit 20. The data transmission unit 6 can have a LAN and/or WLAN interface for connection to an internal or external network, such as a hospital LAN or the Internet. This allows the device to transmit the recorded data to an external network and/or an external server unit 20. The respective transmission can take place during the actual recording of data and thus during a medical treatment. Alternatively, Each transmission can also take place at predefined time intervals. The device 10 can further be configured to capture data capture commands by the external server unit 20 and/or to transmit records from the documentation unit 5 to the external server unit 20 in an automated and/or non-automated manner.
Mit Verweis auf die Fig. 2 und 3 wird nachfolgend eine bevorzugtes Ausführungsform des erfindungsgemäßen Verfahrens beschrieben, das mit der vorgehend beschriebenen Vorrichtung 10 ausführbar ist. With reference to Figs. 2 and 3, a preferred embodiment of the method according to the invention is described below, which can be carried out with the device 10 described above.
In einem ersten Schritt 101 erfolgt eine Erfassung der von dem Endoskop 2 bereitgestellten Bilddaten. Insbesondere wird hierbei ein Livebild 40 des Endoskops erfasst, wie in Fig. 2 dargestellt, und welches beispielsweise auf einer Displayeinheit 8 der Vorrichtung 10 ausgegeben wird. In a first step 101, the image data provided by the endoscope 2 is acquired. In particular, a live image 40 of the endoscope is acquired, as shown in Fig. 2, and is output, for example, on a display unit 8 of the device 10.
In einem weiteren Schritt 102 erfolgt eine Erkennung eines operativen Ereignisses 32 in den erfassten Bilddaten. Dieser Schritt umfasst vorzugsweise zunächst eine visuelle Erfassung 102a, d.h. eine räumliche Lokalisierung eines operativen Ereignisses 32 in den Bilddaten. Dies erfolgt mittels eines entsprechenden Algorithmus softwarebasiert in den erfassten Bilddaten und kann im Livebild 40 als vorzugsweise rechteckige, rahmenartige Begrenzung 32a dargestellt bzw. ausgegeben werden. In a further step 102, an operative event 32 is detected in the acquired image data. This step preferably initially comprises a visual detection 102a, i.e., a spatial localization of an operative event 32 in the image data. This is performed using a corresponding software-based algorithm in the acquired image data and can be displayed or output in the live image 40 as a preferably rectangular, frame-like boundary 32a.
Zeitgleich und/oder anschließend erfolgt eine visuelle Erkennung 102b des operativen Ereignisses in den Bilddaten. Hierbei erfolgt mittels eines entsprechenden Algorithmus vorzugsweise ein Abgleich der erfassten Bilddaten mit gespeicherten und/oder abrufbaren Bilddaten vordefinierter operativer Ereignisse und eine darauf basierte Ereignisklassifizierung, beispielsweise in eine oder mehrere der folgenden Ereignisklassifikationen: eine Rauchentwicklung, eine farbliche oder strukturelle Gewebeveränderung, eine entstehende und/oder sich verändernde Gewebeöffnung, ein Wassergehaltveränderung des Gewebes, eine Blutentwicklung, eine Nahterstellung, eine Einbringung von Fremdmaterial in das Gewebe, insbesondere eine Metalleinbringung, beispielsweise einen Clip, und/oder einen Sprühnebel oder Gasblasen. Die erkannte Ereignisklassifikation, beispielsweise das Vorhandensein von Rauch kann in einem dem Rahmen 42 zugeordneten Textfeld A ausgegeben werden. Optional kann dieser Schritt zudem eine Erkennung und Zuordnung einer Ereignisintensität und/oder eines weiteren Ereignisattributs in einem entsprechenden Schritt 102c umfassen. Hierbei kann beispielsweise durch entsprechende Bildauswertung die Intensität des Ereignisses, beispielsweise eine Rauchstärke, klassifiziert werden und als zugehörige Information in einem dem Rahmen 32a zugeordneten Textfeld B ausgegeben werden. Simultaneously and/or subsequently, a visual recognition 102b of the surgical event in the image data takes place. Using a corresponding algorithm, the acquired image data is preferably compared with stored and/or retrievable image data of predefined surgical events and, based on this, the event is classified, for example, into one or more of the following event classifications: smoke development, a color or structural tissue change, a developing and/or changing tissue opening, a change in tissue water content, blood development, suture placement, the introduction of foreign material into the tissue, in particular the introduction of metal, for example a clip, and/or a spray mist or gas bubbles. The detected event classification, for example, the presence of smoke, can be output in a text field A assigned to frame 42. Optionally, this step can also include a detection and assignment of an event intensity and/or another event attribute in a corresponding step 102c. For example, the intensity of the event, for example, a smoke intensity, can be classified by appropriate image analysis and output as associated information in a text field B assigned to frame 32a.
In einem weiteren Schritt 103a erfolgt eine visuelle Erfassung der chirurgischen Instrumente 30a, 30b in den Bilddaten. Dieser Schritt umfasst vorzugsweise die Erfassung, d.h. eine räumliche Lokalisierung der in den Bilddaten visuell erkennbaren chirurgischen Instrumente 30a, 30b und deren jeweils zugeordneter Instrumentenenden 31 a, 31 b. Dies erfolgt mittels eines entsprechenden Algorithmus softwarebasiert durch Analyse der erfassten Bilddaten und kann im Livebild 40 als vorzugsweise rechteckige, rahmenartige Begrenzung 33a, 33b dargestellt bzw. ausgegeben werden. In a further step 103a, the surgical instruments 30a, 30b are visually detected in the image data. This step preferably comprises the detection, i.e., a spatial localization of the surgical instruments 30a, 30b visually recognizable in the image data and their respective associated instrument ends 31a, 31b. This is performed using a corresponding software-based algorithm by analyzing the acquired image data and can be displayed or output in the live image 40 as a preferably rectangular, frame-like boundary 33a, 33b.
In einem weiteren Schritt 103b erfolgt eine visuelle Erkennung der chirurgischen Instrumente 30a, 30b in den Bilddaten. Hierbei kann zunächst mittels eines entsprechenden Algorithmus ein Abgleich der erfassten Bilddaten mit gespeicherten und/oder abrufbaren Bilddaten vordefinierter chirurgischer Instrumente und deren Instrumentenenden und eine darauf basierte Erkennung eines Instrumententyps erfolgen. Der entsprechende, erkannte Instrumententyp, beispielsweise ein Haken oder ein Greifer kann dann in einem dem Rahmen 33a, 33b zugeordneten Textfeld C1 ,C2 ausgegeben werden. In a further step 103b, the surgical instruments 30a, 30b are visually recognized in the image data. A corresponding algorithm can first be used to compare the acquired image data with stored and/or retrievable image data of predefined surgical instruments and their instrument ends, and then, based on this, to recognize an instrument type. The corresponding recognized instrument type, for example, a hook or a gripper, can then be output in a text field C1, C2 assigned to the frame 33a, 33b.
Der Schritt 103b umfasst weiterhin eine Erkennung und Zuordnung einer Instrumentenklassifikation zum Instrument. Dies erfolgt erfindungsgemäß basierend auf der Erkennung des operativen Ereignisses im Vorhergehenden Schritt 102 und einer Distanzermittlung zwischen dem erkannten operativen Ereignis und einem jeweiligen Instrumentenende. Hierbei wird zunächst die jeweilige Distanz zwischen den Instrumentenenden 31 a, 31 b und dem operativen Ereignis 32 ermittelt. Die Distanzermittlung zwischen dem operativen Ereignis 32 und dem jeweiligen Instrumentenende 31 a, 31 b des erfassten Instruments erfolgt vorzugsweise mittels einer softwarebasierten Entfernungsmessung zwischen zwei Bildpunkten, insbesondere zwischen jeweiligen Mittelpunkten des Instrumentenendes 31 a, 31 b und dem erfassten Ereignis 32, und/oder basierend auf einer zusätzlichen Tiefenvermessung, welche Verfahren an sich bekannt sind. Hierbei erfolgt sodann eine Zuordnung des Instrumentenendes 31 a, 31 b, welches nächstliegend zum operativen Ereignis 32 erfasst ist, als für die Instrumentenklassifikation maßgeblich. Vorliegend ist das Instrumentenende 31 a näher am operativen Ereignis 32 als das Instrumentenende 31 b, so dass ersteres dem Ereignis 32 zugeordnet wird. Step 103b further comprises detecting and assigning an instrument classification to the instrument. According to the invention, this is done based on the detection of the operative event in the preceding step 102 and a distance determination between the detected operative event and a respective instrument end. First, the respective distance between the instrument ends 31a, 31b and the operative event 32 is determined. The distance determination between the operative event 32 and the respective instrument end 31a, 31b of the detected instrument is preferably carried out using a software-based distance measurement between two image points, in particular between the respective centers of the instrument end 31a, 31b and the detected event 32, and/or based on an additional depth measurement, which methods are known per se. The instrument end 31a, 31b, which is detected closest to the operative event 32, is then assigned as the relevant instrument classification. In this case, the instrument end 31a, 31b is closer to the operative event 32 than the instrument end 31b, so that the former is assigned to the event 32.
Basierend auf dem erkannten operativen Ereignis 32 kann das dem Ereignis nächstliegend zugeordnete Instrument 30a nunmehr klassifiziert werden. So kann beispielsweise durch die Erkennung des operativen Ereignisses als Rauchentwicklung am Gewebe darauf geschlossen werden, dass das entsprechende Instrument als Hochfrequenz- bzw. HF-Instrument zu klassifizieren ist. Hierbei können insbesondere HF- Instrumente wie HF-Fasszangen, welche sich optisch nicht oder nur kaum von Fasszangen ohne HF-Funktionalität unterscheiden, von ebensolchen unterschieden werden. Weitere Beispiele für eine Instrumentenklassifikation sind unter anderem: HF- Instrument, Nicht-HF-Instrument, Zange, Schere, Nahtinstrument, Klammernahtgerät, Biopsieinstrument, Stanze, Clip-Setzer und/oder ein Ultraschall-Gerät. Based on the detected surgical event 32, the instrument 30a most closely associated with the event can now be classified. For example, by detecting the surgical event as smoke development in the tissue, it can be concluded that the corresponding instrument is to be classified as a high-frequency or HF instrument. In particular, HF instruments such as HF grasping forceps, which are visually indistinguishable or only barely distinguishable from grasping forceps without HF functionality, can be differentiated from such instruments. Further examples of instrument classification include: HF instrument, non-HF instrument, forceps, scissors, suture instrument, stapler, biopsy instrument, punch, clip applicator, and/or an ultrasound device.
Die entsprechende Klassifizierung erfolgt hierbei vorzugsweise unter Abruf und/oder Auswertung von beispielsweise in Look-up Tabellen gespeicherten Daten. Die erkannte Instrumentenklassifikation wird den Bilddaten auch zugeordnet, d.h. in einem entsprechenden Speicher für die spätere Auswertung und/oder zu Dokumentationszwecken hinterlegt. Weiterhin kann die erkannte Instrumentenklassifikation auch im Livebild beispielsweise in einem dem Rahmen 33a zugeordneten Textfeld D ausgegeben werden. Hierdurch wird eine optimierte Instrumentenerkennung in medizinischen Bilddaten wie einem endoskopischen Livebild ermöglicht. Insbesondere kann eine Instrumentenklassifikation erfolgen, welche mittels einer rein optischen bzw. visuellen Bildauswertung nicht möglich wäre. The corresponding classification is preferably performed by retrieving and/or evaluating data stored, for example, in look-up tables. The recognized instrument classification is also assigned to the image data, i.e., stored in a corresponding memory for later evaluation and/or documentation purposes. Furthermore, the recognized instrument classification can also be output in the live image, for example, in a text field D assigned to frame 33a. This enables optimized instrument recognition in medical image data such as an endoscopic live image. In particular, an instrument classification can be performed that would not be possible using purely optical or visual image evaluation.
In einem weiteren bevorzugten Schritt 104 erfolgt ein Abspeichern der erfassten und erkannten Daten, insbesondere zu Dokumentations- und/oder Auswertungszwecken. Die erfassten und erkannten Daten, insbesondere das erkannte operative Ereignis und/oder eine erkannte Intensität des Ereignisses können neben reinen Analyse- und/oder Dokumentationszwecken auch zur Ansteuerung der Vorrichtung 10 und/oder eines mit der Vorrichtung verbundenen Geräts verwendet werden. Bei- spielsweise kann aufgrund der erkannten Ereignisintensität, wie beispielsweise die Rauchintensität, auch eine HF-Leistung eines mit der Vorrichtung verbundenen HF- Geräts angesteuert werden. So kann beispielsweise bei einer relativ hohen Ereignisintensität, beispielsweise einer sehr starken Rauchentwicklung, die Stromstärke des mit der Vorrichtung verbundenen Geräts durch eine entsprechende Ansteuerung ver- ringert werden. In a further preferred step 104, the recorded and recognized data are stored, in particular for documentation and/or evaluation purposes. The acquired and recognized data, in particular the detected operational event and/or a detected intensity of the event, can be used not only for pure analysis and/or documentation purposes but also to control the device 10 and/or a device connected to the device. For example, based on the detected event intensity, such as smoke intensity, an RF power of an RF device connected to the device can also be controlled. For example, in the case of a relatively high event intensity, such as very heavy smoke development, the current strength of the device connected to the device can be reduced by appropriate control.
Bezugszeichenliste List of reference symbols
1 Anschlusseinheit 1 connection unit
2 Bilderfassungsgerät 2 image capture device
3 Datenerfassungseinheit 3 Data acquisition unit
3a Bilddaten 3a Image data
3b Gerätedaten 3b Device data
3c Patientendaten 3c Patient data
4 Steuerungseinheit 4 Control unit
4a Speichereinheit 4a Storage unit
5 Dokumentationseinheit 5 Documentation unit
5a Speichereinheit 5a Storage unit
6 Datenübertragungseinheit 6 Data transmission unit
7 Eingabemittel 7 Input devices
8 Displayeinheit 8 Display unit
10 Vorrichtung 10 Device
20 Servereinheit 20 server units
30a, b chirurgisches Instrument 30a, b surgical instrument
31a,b Instrumentenende 31a,b Instrument end
32 operatives Ereignis 32 operational event
32a visuelle Begrenzung Ereignis 32a visual boundary event
33a, b visuelle Begrenzung Instrumentenende33a, b visual boundary of instrument end
40 Livebild Endoskop 40 Live image endoscope
101 Erfassung operatives Ereignis 101 Recording operational events
102 Erkennung operatives Ereignis 102 Detection of operational event
103a Erfassung Instrument 103a Recording Instrument
103b Erkennung Instrumentenklassifikation103b Recognition Instrument Classification
104 Abspeicherung 104 Storage
Claims
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102023123907.4A DE102023123907A1 (en) | 2023-09-05 | 2023-09-05 | Method for detecting instruments in image data and device for analyzing image data |
| DE102023123907.4 | 2023-09-05 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2025051775A1 true WO2025051775A1 (en) | 2025-03-13 |
Family
ID=92708814
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/EP2024/074669 Pending WO2025051775A1 (en) | 2023-09-05 | 2024-09-04 | Method for detecting instruments in image data, and device for analysing image data |
Country Status (2)
| Country | Link |
|---|---|
| DE (1) | DE102023123907A1 (en) |
| WO (1) | WO2025051775A1 (en) |
Citations (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP2687185A1 (en) * | 2005-05-16 | 2014-01-22 | Intuitive Surgical Operations, Inc. | Methods and system for performing 3-D tool tracking by fusion of sensor and/or camera derived data during minimally invasive robotic surgery |
| US20180271603A1 (en) | 2015-08-30 | 2018-09-27 | M.S.T. Medical Surgery Technologies Ltd | Intelligent surgical tool control system for laparoscopic surgeries |
| US20190125455A1 (en) | 2017-10-30 | 2019-05-02 | Ethicon Llc | Method of hub communication with surgical instrument systems |
| EP3505113A1 (en) | 2017-12-28 | 2019-07-03 | Ethicon LLC | Wireless pairing of a surgical device with another device within a sterile surgical field based on the usage and situational awareness of devices |
| US20190200985A1 (en) | 2017-12-28 | 2019-07-04 | Ethicon Llc | Systems for detecting proximity of surgical end effector to cancerous tissue |
| US20210142487A1 (en) | 2019-11-08 | 2021-05-13 | Sony Corporation | Surgical scene assessment based on computer vision |
| US20220165403A1 (en) * | 2020-04-05 | 2022-05-26 | Theator inc. | Time and location-based linking of captured medical information with medical records |
| US20220160441A1 (en) * | 2020-11-25 | 2022-05-26 | Aktormed Gmbh | Surgery assistance system and method for generating control signals for voice control of motor-controlled movable robot kinematics of such a surgery assistance system |
| US20220241013A1 (en) * | 2014-03-28 | 2022-08-04 | Intuitive Surgical Operations, Inc. | Quantitative three-dimensional visualization of instruments in a field of view |
| EP4235691A2 (en) * | 2019-02-21 | 2023-08-30 | Theator Inc. | Systems and methods to enable automatically populating a post-operative report of a surgical procedure |
Family Cites Families (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11596482B2 (en) * | 2019-05-23 | 2023-03-07 | Surgical Safety Technologies Inc. | System and method for surgical performance tracking and measurement |
| EP4356290A1 (en) * | 2021-06-16 | 2024-04-24 | Digital Surgery Limited | Detection of surgical states, motion profiles, and instruments |
-
2023
- 2023-09-05 DE DE102023123907.4A patent/DE102023123907A1/en active Pending
-
2024
- 2024-09-04 WO PCT/EP2024/074669 patent/WO2025051775A1/en active Pending
Patent Citations (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP2687185A1 (en) * | 2005-05-16 | 2014-01-22 | Intuitive Surgical Operations, Inc. | Methods and system for performing 3-D tool tracking by fusion of sensor and/or camera derived data during minimally invasive robotic surgery |
| US20220241013A1 (en) * | 2014-03-28 | 2022-08-04 | Intuitive Surgical Operations, Inc. | Quantitative three-dimensional visualization of instruments in a field of view |
| US20180271603A1 (en) | 2015-08-30 | 2018-09-27 | M.S.T. Medical Surgery Technologies Ltd | Intelligent surgical tool control system for laparoscopic surgeries |
| US20190125455A1 (en) | 2017-10-30 | 2019-05-02 | Ethicon Llc | Method of hub communication with surgical instrument systems |
| EP3505113A1 (en) | 2017-12-28 | 2019-07-03 | Ethicon LLC | Wireless pairing of a surgical device with another device within a sterile surgical field based on the usage and situational awareness of devices |
| US20190200985A1 (en) | 2017-12-28 | 2019-07-04 | Ethicon Llc | Systems for detecting proximity of surgical end effector to cancerous tissue |
| EP4235691A2 (en) * | 2019-02-21 | 2023-08-30 | Theator Inc. | Systems and methods to enable automatically populating a post-operative report of a surgical procedure |
| US20210142487A1 (en) | 2019-11-08 | 2021-05-13 | Sony Corporation | Surgical scene assessment based on computer vision |
| US20220165403A1 (en) * | 2020-04-05 | 2022-05-26 | Theator inc. | Time and location-based linking of captured medical information with medical records |
| US20220160441A1 (en) * | 2020-11-25 | 2022-05-26 | Aktormed Gmbh | Surgery assistance system and method for generating control signals for voice control of motor-controlled movable robot kinematics of such a surgery assistance system |
Also Published As
| Publication number | Publication date |
|---|---|
| DE102023123907A1 (en) | 2025-03-06 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE19609455C2 (en) | Face image processing system | |
| EP3332730B1 (en) | Method and tracking system for tracking a medical object | |
| DE19638738B4 (en) | Method for obtaining a diagnostic statement from signals and data of medical sensor systems | |
| DE60317359T2 (en) | METHOD, CODE AND SYSTEM FOR THE INVESTIGATION OF VERTICAL DEFINITION | |
| DE10356879A1 (en) | Determination of arbitrary cardiac phases using non-electrical signals | |
| WO2020173516A1 (en) | Method for evaluating skin lesions using artificial intelligence | |
| EP3540632B1 (en) | Method for classifying tissue samples | |
| DE4405827A1 (en) | ECG data compression in implanted monitor system | |
| DE102006012945B4 (en) | A method of virtual layer positioning in a 3D volume data set and medical imaging system | |
| DE102021101410A1 (en) | Method and system for controlling a surgical RF generator and software program product | |
| DE102004003381B4 (en) | Method for determining the position of a layer in an investigation area, in which layer a tomographic image is to be taken | |
| DE102010000483A1 (en) | Automatic result analysis using radiological images | |
| WO2025051775A1 (en) | Method for detecting instruments in image data, and device for analysing image data | |
| WO2023180558A1 (en) | System, apparatus and method for creating planning datasets for treating the tissue of a patient's retina | |
| DE102005018349B4 (en) | Method for determining the position of a patient in a magnetic resonance apparatus and a magnetic resonance device | |
| DE102022103692A1 (en) | SYSTEMS AND METHODS FOR IDENTIFICATION OF BIOPSY POSITION COORDINATES | |
| DE102006012943B4 (en) | Method for automatically evaluating an imaging data set of an object and medical imaging system | |
| EP4345754A1 (en) | Method and system for assisting evaluation of a video-assisted medical intervention procedure | |
| EP3185688B1 (en) | Apparatus and method for assessing compliance with animal welfare on an animal for slaughter | |
| DE102022126824A1 (en) | Method for superimposing overlay recording information with a live image and a corresponding device | |
| DE102020130805A1 (en) | Context-dependent control of a surgical microscope | |
| DE102020204608A1 (en) | Method for determining a temperature profile of a body part of a living being over time, as well as an electronic determination system | |
| DE102022132100B4 (en) | Methods for marking information in digital images | |
| DE102020111776A1 (en) | Method for calculating an output image and / or a sequence of output images from raw image data, image recording device, image recording system and overall system | |
| DE10254941B4 (en) | Device for building a medical database |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 24768022 Country of ref document: EP Kind code of ref document: A1 |