WO2024115724A1 - Method for marking information in digital images - Google Patents
Method for marking information in digital images Download PDFInfo
- Publication number
- WO2024115724A1 WO2024115724A1 PCT/EP2023/083903 EP2023083903W WO2024115724A1 WO 2024115724 A1 WO2024115724 A1 WO 2024115724A1 EP 2023083903 W EP2023083903 W EP 2023083903W WO 2024115724 A1 WO2024115724 A1 WO 2024115724A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- optics
- information
- landmark
- viewing area
- movable part
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
- A61B1/000094—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00043—Operational features of endoscopes provided with output arrangements
- A61B1/00045—Display arrangement
- A61B1/0005—Display arrangement combining images e.g. side-by-side, superimposed or tiled
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/63—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2048—Tracking techniques using an accelerometer or inertia sensor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2051—Electromagnetic tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/365—Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
Definitions
- the present invention relates to a method and a device for marking information in digital images of an imaging device in which at least part of the optics is movable.
- Imaging devices are used in almost all areas of daily life today. Applications range from documentation, support of visual information, to replacing direct visual perception by humans. With regard to the latter, due to the constant development in the areas of optics, sensors, as well as data transmission and processing, imaging devices in a wide variety of applications can replace direct visual access by humans. Replace people. Examples of this are remote-controlled systems, such as robot applications, or the use of endoscope systems in which small cameras, often in combination with tools, are inserted into areas inaccessible to humans, thus enabling minimally invasive interventions to be carried out.
- a fundamental problem with the application is the orientation in the viewing areas recorded by the movement of the imaging device. This affects not only spatial orientation in general but also the retrieval of certain positions or objects beyond the various viewing areas. This is particularly evident in the example of minimally invasive medical interventions.
- tissue there is a latent risk that tissue residues will be left behind in the body after the operation. This can be due to a lack of orientation, i.e. the object simply cannot be found again, and/or due to a lack of documentation.
- the object of the present invention is to at least partially overcome the disadvantages known in the prior art.
- the above object is achieved by a method according to the invention according to claim 1, a device according to claim 14 and a computer program according to claim 15.
- Preferred embodiments of the invention are the subject of the corresponding subclaims.
- the present invention discloses a method for marking information in digital images of an imaging device, in particular an endoscope system, wherein the imaging device has an optical system with an optic and an image sensor for recording a series of digital images of at least one viewing area of an extended object and at least a part of the optic is movable.
- the method according to the invention comprises recording a first digital image of a first viewing area in a first spatial position of the movable part of the optic, in which at least one first piece of information is contained, marking the first piece of information by setting at least one first landmark, determining position information of the first landmark, generating a Landmark linked first unique identifier, storing the unique identifier together with the associated position information, recording a second digital image of a second viewing area in a second spatial position of the movable part of the optics, determining the position of the first landmark in relation to the second viewing area, augmenting the first landmark onto the second digital image if the first information is contained in the second viewing area, or augmenting at least one movement instruction for guiding the movable part of the optics to a spatial position thereof in which the first information is contained in a third viewing area onto the second digital image if the first information is not contained in the second viewing area.
- Augmenting onto a digital image can take place on a suitable display unit, such as a monitor.
- An imaging device in the sense of the present invention can be any technical and/or electronic device that is suitable for recording an image of a viewing area, further processing it and/or forwarding it and displaying it on a screen, for example.
- Medical imaging devices in the sense of the present invention can be all types of endoscopes known to those skilled in the art, in particular dual endoscopes and stereo endoscopes.
- An endoscope is a mostly narrow and elongated imaging device that is suitable for insertion into a cavity or through a mostly small opening and for recording an image of a viewing area within the cavity and/or the area behind the small opening using at least one camera or at least one image sensor.
- the mobility of at least part of the optics of the imaging device in the sense of the present invention can mean the movement of the entire imaging device or of part of the imaging device, in particular in relation to the object to be viewed, provided that the movement covers an at least partially different viewing area of an extended object.
- the mobility of at least part of the optics also includes a movement of the object to be viewed or of a part of the object to be viewed in relation to the optics, provided that this movement covers an at least partially different viewing area of an extended object.
- the mobility includes in particular the possibilities for moving endoscopic devices known to those skilled in the art, in particular in the context of minimally invasive surgical interventions.
- the entire endoscope or parts of the endoscope can be moved, such as bending the endoscope tip.
- the mobility in the sense of the present invention can also be a rotation.
- a viewing area in the sense of the present invention describes the region, volume or area which is to be viewed by means of the imaging device and of which a corresponding digital image is to be generated and can correspond to the field of view of the imaging device.
- Such a viewing area in the context of medical imaging devices can be, for example, an organ, a bone, a part of a human or animal body or another area of interest for a corresponding viewing.
- Information within the meaning of the present invention is any aspect of a viewing area that can be marked by a landmark, in particular positions, structures, objects, tissues and the like.
- Augmentation in the sense of the present invention is an enrichment of the representation of digital images with any digital information. Accordingly, augmentation can represent the display of graphic elements with an information content, in particular a graphic element corresponding to a landmark or a graphic element corresponding to a movement instruction.
- a movement instruction in the sense of the present invention is information on how the imaging device or at least a part of the imaging device is to be moved in order to reach a predetermined position, in particular a position in which information associated with a landmark is contained in a viewing area.
- the movement instructions can also comprise control commands for a motorized movement of the imaging device; if these control commands are sent to a motorized imaging device and executed on it, the imaging device is guided to a position in which the corresponding marked information is in the field of view of the imaging device and is thus contained in a viewing area.
- any amount of information can be marked and any amount of landmarks can be set accordingly.
- Each landmark can then be saved under its own unique identifier. If multiple pieces of information are marked, the corresponding landmarks can be categorized and saved with the resulting assignment.
- active landmarks for example landmarks that have not yet been deleted or provided with a processing order, can be displayed, wherein the augmentation optionally displays an image of the information belonging to the landmark in addition to the number of active landmarks.
- the movable part of the optics can have inertial sensors, and the method can comprise determining position information of the spatial position of the movable part of the optics based on inertial sensor data.
- the position information of the spatial position of the movable part of the optics can furthermore also comprise the spatial position in relation to a reference point.
- the imaging device can be an endoscope system and the reference point can be the trocar.
- it can also optionally be determined how far the endoscope system is guided through the trocar and thus the absolute position of a part of the endoscope system, such as the tip of the endoscope, in relation to the reference point can be determined and used as position information in the method according to the invention.
- the trocar can comprise corresponding sensors.
- the tracking of landmarks can be carried out by means of inertial sensors, electromagnetic tracking, optical tracking, by stereo reconstruction and optional trajectory calculation, by depth determination based on artificial intelligence methods, by flow calculation based on artificial intelligence methods and/or other computer vision algorithms, whereby combinations of different or all methods are also possible.
- Inertial sensors in the sense of the present invention include in particular acceleration sensors and rotation rate sensors which together form an inertial measuring unit by means of which up to six possible kinematic degrees of freedom can be recorded. This makes it possible to determine the movement and, derived from this, also the position of the element connected to the sensors, in particular the movable part of the optics.
- the sensors can be arranged on any section of the endoscope. If the endoscope is designed to be movable, the sensors are preferably arranged on the endoscope tip.
- the movable part of the optics can be equipped with one or more field sensors and thus marked. Electromagnetic fields are generated by a field generator, which are detected by the field sensor(s). can be measured. On the basis of several field measurements, the position and orientation of the field sensor in space and thus also the orientation and position of the marked, movable part of the optics can be determined by means of a corresponding measuring and computing unit. By using several field sensors, different and/or additional instruments or objects can be marked and spatially tracked accordingly and used to mark information with landmarks.
- objects independent of the imaging device such as in the case of medical interventions, objects in the operating room and/or the patient to be treated, can also be marked with field sensors. In the latter case, for example, a movement and/or repositioning of the patient can be detected and the determination of the position of the landmarks or the imaging device can be included, or taken into account in the movement arrangements.
- a hand-eye calibration can be carried out on the software side, which recognizes how the image coordinate system is located in relation to the tracker coordinate system or to the position determined based on the inertial sensors, or in order to be able to convert the tracking coordinates or inertial sensor coordinates into image coordinates.
- the calibration at least one image of a known object can be taken. Its position can then be determined in the image using segmentation and registration methods, from which the calibration transformation can then be determined.
- stereo reconstructions it can be calculated which pixel in the left image shows the same object point as the pixel in the right image. This requires camera calibration. Based on the stereo reconstruction, a 3D coordinate can be calculated for each pixel.
- the information resulting from the stereo reconstruction can be used in combination with the above-mentioned tracking (optical, electromagnetic, inertial sensor-based) to determine the exact 3D point of the marked information and thus to find it again more easily and with greater accuracy. Accordingly, the position of the landmark, and thus the information marked with the landmark, can be determined and documented more precisely.
- the stereo reconstruction can generate a 3D point cloud, optionally plus associated color information, wherein the Stereo reconstruction can preferably be carried out in real time.
- the Stereo reconstruction can preferably be carried out in real time.
- an estimate of the camera movement can be made, which can then generate a trajectory that can be used to find information marked by landmarks or to augment corresponding information on the basis of landmarks. Accordingly, the tracking methods described above can be expanded or even replaced by the stereo reconstruction extended by trajectory calculation.
- depth can also be determined or estimated in monoscopic images.
- the stereo reconstructions can be replaced or the application can be extended to monoscopic cameras. Accordingly, the position of landmarks can be determined and documented more precisely by determining the depth.
- Optical tracking in the sense of the present invention is in particular the location of optical markers using a camera.
- corresponding markings can be arranged on the part of the imaging device to be tracked, whereby a line of sight between the camera and the located marker is required.
- corresponding markers can be arranged on sections of the endoscope that are not introduced into the work area, such as the inside of the body, and can be recorded by an external camera, such as a room camera. Since the geometry of the endoscope is known, the position of the camera and thus the field of view of the camera can be determined by tracking the corresponding markers.
- other objects in particular a patient, can also be marked and the corresponding position information can be included.
- Flow calculations in the sense of the present invention can be based on computer vision algorithms known to those skilled in the art or on corresponding algorithms of artificial intelligence.
- the calculation of an optical flow in the image can be used to track landmarks over time and as a function of movement (in relation to the object to be viewed to the imaging device, i.e. with regard to the change in the viewing area).
- the flow calculation can be used to increase the calculation speed and accuracy and/or to Adaptation to available computing power can be achieved using resolution pyramids.
- digital images of viewing areas can be assigned respective position information of the spatial position of the movable part of the optics.
- a position of a digital image of a viewing area can be assigned to an absolute position in relation to a reference point.
- the position information of the first landmark can be determined in relation to the spatial position of the movable part of the optics and/or correspond to the pixel position of the first landmark in the first digital image.
- the position information of the set landmarks can include both the spatial position of the movable part of the optics, which corresponds to a viewing area in which the corresponding information is contained, and the pixel position of the corresponding landmark in the respective digital image of the respective viewing area.
- the pixel information can be based on stereo reconstruction and/or corresponding algorithmic depth determination as described above.
- the two position components, i.e. the spatial position and the pixel position can be stored separately from one another and/or in combination with one another. In this way, absolute position values of the landmarks in relation to a reference point can be generated and also stored.
- the position of the first landmark in relation to the second viewing area can be determined by calculating the optical flow based on a series of digital images and/or by tracking the position of the movable part of the optics.
- the flow calculation can be carried out using resolution pyramids to increase the computing speed and accuracy and/or to adapt to the available computing power.
- the storage of the unique identifier together with the associated position information can also contain a description and/or categorization of the marked information.
- the description and/or categorization can be carried out via direct user inputs, for example via user inputs via corresponding interfaces.
- the description and/or categorization can be carried out on a computer-assisted Object recognition, in particular based on object recognition supported by artificial intelligence.
- the user can be shown an example of a description and/or categorization, which the user can then reject or confirm by making suitable entries.
- suggestions for information to be marked can also be made to the user by means of object recognition, which the user can then reject or accept. By accepting, a corresponding landmark is set and the method according to the invention is continued.
- an artificial intelligence algorithm can be used to perform a segmentation of a digital image, in particular an endoscopic image.
- segmentation the entirety of an object provided with a landmark by the user input can be recognized and used as a basis for further method steps. Accordingly, after selecting the landmark, the name of the corresponding object can be automatically suggested to the user. For this purpose, the predicted class of the pixel that was selected as a landmark is used.
- the landmark can then be associated with and stored with corresponding categorization and/or object information.
- the segmentation can also be used to mark an object in its entirety so that an area landmark can be created. Accordingly, augmenting movement arrangements can be determined so that the entire object is guided into the field of view of the imaging device.
- segmentation is carried out using a U-Net structure of a convolutional neural network (CNN).
- CNN convolutional neural network
- the at least one landmark can be deleted and/or the associated augmentation can be prevented.
- the setting, deletion and/or prevention of the augmentation of the at least one landmark can be carried out by recognizing user inputs and/or by automatic object recognition.
- Suitable user inputs in the sense of the present invention can be made via keyboard, foot switch, joystick, voice recognition or gesture movement with an instrument in the field of view of a camera, in particular in the field of view of the imaging device.
- the selection of information for marking or the selection of already marked information can be related to the center of the viewing area or can be freely selected in the viewing area, wherein in preferred embodiments a marking element, such as a crosshair, is augmented in the image.
- information or a landmark located in the area of the marking element can be set by the user input or selected for further processing such as deletion or categorization.
- information or a landmark located in the area of the marking element can be set by the user input or selected for further processing such as deletion or categorization.
- instruments and/or tools introduced into the work area, in particular their tips can also be used as the starting point for gesture control and the imaging device, such as the endoscope camera, can be used as a means of capturing the gesture.
- the user inputs may include inputs via user interfaces, acoustic signals and/or direct gesture movements with an instrument in the viewing area or indirect gesture movements by moving the movable part of the optics.
- landmarks can be automatically deleted, suggested for deletion, deactivated or suggested for deactivation if the associated object has been removed from the work area.
- landmarks that are associated with objects to be removed can be treated accordingly if the respective objects have been removed from the work area.
- Corresponding recognition can be carried out via corresponding computer-based object recognition.
- Active landmarks in the sense of the present invention are information markings that are provided with at least one further instruction that describes what is to be done with the corresponding marked information.
- an object can be marked so that it is to be removed from the work area.
- deactivated landmarks are those for which the further instruction has already been carried out.
- landmarks can be provided with validity parameters, such as a validity period, object match or the like. In the event of deviations from the validity parameters, corresponding Information can be displayed in the database and/or augmented in digital images.
- digital images of corresponding viewing areas that are separated in time can also be compared with one another. If significant changes, i.e. changes that are above a predefined threshold value, are detected, corresponding information, such as a warning, can be augmented in digital images.
- digital images of different viewing areas can be combined to form a composite image by means of "stitching", i.e. creating a large digital image from various smaller digital images that show sections of the extended object.
- the digital images can be combined using overlapping areas of the individual digital images and/or based on the position or movement of the image display device.
- viewing areas of the extended object in positions of the movable part of the optics in which no or inadequate digital images were recorded can be replaced in the composite image by placeholder images in the corresponding position.
- These placeholder images can be identified as such in the composite image, for example by displaying no content, a neutral color tone or the like. Augmentations can also be displayed in placeholder images if necessary and displayed across image boundaries.
- the present invention is further directed to a device comprising an imaging device, in particular an endoscope system, wherein the imaging device has an optical system with an optics and an image sensor for recording a series of digital images of at least one viewing area of an extended object and at least a part of the optics is movable, and a control unit, wherein the device is configured to carry out the methods described above.
- an imaging device in particular an endoscope system
- the imaging device has an optical system with an optics and an image sensor for recording a series of digital images of at least one viewing area of an extended object and at least a part of the optics is movable
- a control unit wherein the device is configured to carry out the methods described above.
- the controller is a computer system configured to perform one or more steps of one or more methods described or illustrated herein.
- one or more computer systems provide functionality described or illustrated herein.
- an execution on one or more computer systems executing software performs one or more steps of one or more methods described or illustrated herein or provides functionality described or illustrated herein.
- the controller may include a storage device for data or instructions.
- the storage device may include a hard disk drive (HDD), a floppy disk drive, flash memory, an optical disk, a magneto-optical disk, a magnetic tape, or a universal serial bus (USB) drive, or a combination of two or more of these.
- HDD hard disk drive
- floppy disk drive flash memory
- USB universal serial bus
- the storage device may include removable or non-removable (or fixed) media, where appropriate.
- the storage device may be located internally or externally of the computer system.
- the storage device is non-volatile solid state memory.
- the storage device includes read only memory (ROM).
- ROM read only memory
- the storage device may include one or more storage controllers that facilitate communication between the processor and the storage device. Further, the storage device may include one or more storage devices. The controller may further be directly or indirectly connected to a display device.
- the present invention is further directed to a computer program, wherein the computer program comprises instructions which, when the program is executed by a computer, cause the computer to carry out the method described above.
- a reference in the appended claims to a method or apparatus or component of an apparatus or system being adapted, arranged, capable, configured, enabled, operable, or ready to perform a particular function further includes that apparatus, system, or component, whether or not it or that particular function is enabled, is turned on or enabled as long as that device, system, or component is adapted, arranged, capable, configured, enabled, operable, or ready to operate.
- this disclosure describes or illustrates certain embodiments as providing certain advantages, certain embodiments may provide none, some, or all of these advantages.
- Fig. 1 shows schematically the sequence of the method according to the invention.
- Fig. 2 shows schematically a memory entry of the method according to the invention.
- Fig. 3 shows the method for augmentation according to an embodiment.
- the present invention also aims to enable a user, for example a doctor performing a minimally invasive operation, to set intraoperative landmarks.
- These landmarks mark information, such as certain objects that the doctor wants to remove during the operation.
- a list of landmarks that the doctor wants to remove is stored.
- the position of the landmarks is maintained by optical tracking and/or 3D positioning according to the camera and object movement, even if the object leaves the camera's field of view.
- Figure 1 shows a schematic representation of the method according to the invention.
- digital images of a viewing area of an extended object are recorded using an imaging device, in particular a medical imaging device such as an endoscope system.
- Digital images can be recorded in the form of irregularly recorded individual images or continuously, in particular as a video stream.
- At least one digital image is displayed to a user of the method, such as a doctor during a minimally invasive operation, via a suitable display device.
- the user of the method can mark information that is contained in a (current) viewing area and thus in a (currently) displayed digital image.
- the position of the landmark is determined via a control unit.
- This position determination can be carried out based on the pixel information in the digital image, based on absolute or relative position information of the imaging device, for example based on inertial sensor data, possibly in relation to a reference point.
- the position information is stored together with a (dynamically) generated, unique identifier assigned to the landmark in a suitable storage form, in particular a database.
- the optics of the imaging device or, depending on the system used, at least the movable part of the optics is moved by the user, whereby a digital image is recorded from a different position of the imaging device and thus at least a partially different viewing area.
- the position of the landmark is determined in relation to the current, or currently displayed, viewing area.
- the marked information is contained in the current viewing area, i.e. in the field of view of the imaging device in its current position, information associated with the landmark is augmented onto the image.
- the marked information is not contained in the current viewing area, i.e. in the field of view of the imaging device in its current position, one of the movement instructions is augmented onto the image. augmented. This movement instruction gives the user of the procedure the necessary information on how to move the imaging device in order to bring the marked information back into the field of view of the imaging device.
- Figure 2 shows schematically which information assigned to a landmark can be stored in which form.
- Figure 2a shows a data set as it can be generated in the process described in connection with Figure 3.
- Different landmarks are assigned unique identifiers (landmarks D) and these are shown with the corresponding coordinates in a digital image (image coordinates) of a viewing area, which in turn is described via the position of the imaging device (inertial sensor data).
- FIG 2b further information can be stored.
- a unique identifier assigned to the landmark, position information, category assignment, associated task and a status can be stored.
- the position information depends on the system-specific, available information, for example whether a system with inertial sensors is used and is shown purely as an example in the figure.
- the associated task and the status depend on the respective application and are shown purely as an example in Figure 2.
- Figure 3 shows a specific embodiment of the present invention in which a user of an endoscopic system, for example a surgeon, is enabled to set landmarks intraoperatively. These landmarks mark, for example, objects that the surgeon wants to remove during the operation. A list of landmarks that the surgeon wants to remove is stored. The position of the landmarks is tracked by optical tracking and/or 3D positioning according to the camera and object movement, even if the object leaves the camera's field of view.
- a combination of inertial sensor data and optical tracking is used to track a set landmark.
- This example is based on typical endoscopic surgical equipment including an endoscope and camera, assuming a fixed trocar point and a 0° optic.
- the user sets a landmark at the center of the image.
- the landmark can be set as described in detail above.
- the inertial sensor position and the current live Image saved with the coordinate of the image center.
- the saved live image is labeled "0"
- the coordinate of the image center is (x_0, y_0)
- the inertial sensor data is R_0.
- the subsequent live image "1" shown in Figure 3b is calculated with the saved image "0" using an optical flow algorithm. This calculates the shift of the image center and determines a new position (x_1, y_1) of the set landmark. This new position is displayed in the image. Analogously, an optical flow calculation of the images N+1 and N takes place for all subsequent frames, so that the coordinates (x_N+1, y_N+1) are determined from the previous coordinates (x_N, y_N) and the calculated flow.
- the inertial sensor data from the camera is used.
- the camera basically has 6 degrees of freedom (3 translational and 3 rotational degrees of freedom). Assuming a fixed trocar point, only 3 rotational degrees of freedom and one translational degree of freedom (in-out) are variable. The inertial sensor measures the 3 rotational degrees of freedom.
- the coordinate of the landmark does not change during the selection process with a (fictitious) movement along the in-out axis.
- the object belonging to the landmark lies in the extension of the endoscope.
- the direction of the landmark is calculated and displayed by calculating the inertial sensor data.
- the current image is compared with image 0 and/or image N using an optical flow method (image 1 to image N-1 can be discarded if necessary, for example to save storage space) and an attempt is made to calculate the landmark coordinate. If this is successful, If this is displayed, the procedure is as per description b). If this is not successful, the procedure is as per description d).
- the user has the option of deleting the set landmark or, if necessary, setting additional landmarks by means of gesture recognition, pressing a button, a foot pedal, etc.
- Gesture control is a good option for setting or deleting landmarks.
- the doctor moves the inserted instruments so that the instrument tips follow a predefined movement trajectory.
- the endoscope camera captures the image.
- An artificial intelligence algorithm recognizes the instrument tip (a detection model that predicts a bounding box in the image is particularly suitable here) and records the movement of the instrument tip over a number of consecutive frames. If the movement corresponds to the predefined trajectory, the setting or deletion of the landmark is activated, for example.
- trajectories that do not usually occur in a normal laparoscopic procedure are particularly suitable. For example, a "figure 8" movement can be defined to set a landmark and a circular movement can be used to delete the set landmark.
- Opening and closing the jaw can also support gesture control, with a Kl model able to perform a binary classification. It is also conceivable that several instruments perform a gesture together.
- a reference in the appended claims to a method or apparatus or component of an apparatus or system being adapted, arranged, capable, configured, enabled, operable, or ready to perform a particular function further includes that apparatus, system, or component, regardless of whether it or that particular function is activated, enabled, or enabled, as long as that device, system, or component is adapted, arranged, capable, configured, enabled, operable, or ready to operate.
- this disclosure describes or illustrates certain embodiments as providing certain advantages, certain embodiments may provide none, some, or all of those advantages.
- a method for marking information in digital images of an imaging device in particular an endoscope system, wherein the imaging device has an optical system with an optic and an image sensor for recording a series of digital images of at least one viewing area of an extended object and at least a part of the optic is movable, comprising marking information in a digital image, determining and storing position information of the marked information and augmenting the landmark or movement instruction corresponding to the marking on subsequent digital images.
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Surgery (AREA)
- Biomedical Technology (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Heart & Thoracic Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Pathology (AREA)
- Optics & Photonics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Radiology & Medical Imaging (AREA)
- Physics & Mathematics (AREA)
- Veterinary Medicine (AREA)
- Signal Processing (AREA)
- Business, Economics & Management (AREA)
- General Business, Economics & Management (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Endoscopes (AREA)
Abstract
Description
Verfahren zur Markierung von Information in digitalen Bildern Method for marking information in digital images
Technisches Gebiet Technical area
Die vorliegende Erfindung betrifft ein Verfahren sowie eine Vorrichtung zur Markierung von Information in digitalen Bildern einer Bildgebungsvorrichtung bei der wenigstens ein Teil der Optik bewegbar ist. The present invention relates to a method and a device for marking information in digital images of an imaging device in which at least part of the optics is movable.
Hintergrund Background
Bildgebungsvorrichtungen werden heutzutage in nahezu allen Bereichen des täglichen Lebens eingesetzt. Anwendungen gehen hier von der Dokumentation, der Unterstützung der visuellen Information, bis hin zum Ersatz der direkten visuellen Wahrnehmung durch den Menschen. In Bezug auf letzteres können aufgrund der stetigen Weiterentwicklung in den Bereichen der Optik, der Sensorik, sowie der Datenleitung und -Verarbeitung, Bildgebungsvorrichtungen in verschiedensten Anwendungen den direkten visuellen Zugang durch den Menschen ersetzen. Beispiele hierfür sind ferngesteuerte Systeme, wie zum Beispiel Roboteranwendungen, oder aber auch der Einsatz von Endoskopsystemen, bei denen kleine Kameras, oft auch in Kombination mit Werkzeugen, in für den Menschen nicht zugängliche Bereiche eingeführt werden und so minimalinvasive Eingriffe durchgeführt werden können.Imaging devices are used in almost all areas of daily life today. Applications range from documentation, support of visual information, to replacing direct visual perception by humans. With regard to the latter, due to the constant development in the areas of optics, sensors, as well as data transmission and processing, imaging devices in a wide variety of applications can replace direct visual access by humans. Replace people. Examples of this are remote-controlled systems, such as robot applications, or the use of endoscope systems in which small cameras, often in combination with tools, are inserted into areas inaccessible to humans, thus enabling minimally invasive interventions to be carried out.
Durch Verwendung wenigstens teilweise bewegbarer Optiken können verschiedene Betrachtungsbereiche eines ausgedehnten Gegenstandes erfasst, bzw. betrachtet werden. By using at least partially movable optics, different viewing areas of an extended object can be captured or viewed.
Problematische bei der Anwendung ist grundsätzlich die Orientierung in den durch die Bewegung der Bildgebungsvorrichtung erfassten Betrachtungsbereichen. Dies betrifft nicht nur die räumliche Orientierung im Allgemeinen sondern auch das Widerauffinden bestimmter Positionen oder Gegenstände über die verschiedenen Betrachtungsbereiche hinaus. Dies zeigt sich in besonders anschaulicher Art und Weise am Beispiel von minimalinvasiven medizinischen Eingriffen. Hier gibt es aktuell keine Kontrolle darüber, wie viele Objekte in den Körper des Patienten eingebracht wurden und wie viele Objekte den Körper (wieder) verlassen. Insbesondere beim Verkleinern von Gewebe besteht die latente Gefahr, dass Gewebereste nach Beendigung der Operation im Körper zurückgelassen werden. Dies kann durch mangelnde Orientierung, d.h. das Objekt kann schlichtweg nicht wieder aufgefunden werden, und/oder auch durch mangelnde Dokumentation bedingt sein. A fundamental problem with the application is the orientation in the viewing areas recorded by the movement of the imaging device. This affects not only spatial orientation in general but also the retrieval of certain positions or objects beyond the various viewing areas. This is particularly evident in the example of minimally invasive medical interventions. Here, there is currently no control over how many objects have been introduced into the patient's body and how many objects leave the body (again). When reducing tissue in particular, there is a latent risk that tissue residues will be left behind in the body after the operation. This can be due to a lack of orientation, i.e. the object simply cannot be found again, and/or due to a lack of documentation.
Zusammenfassung der Erfindung Summary of the invention
Aufgabe der vorliegenden Erfindung ist es, die im Stand der Technik bekannten Nachteile wenigstens teilweise zu überwinden. Die vorstehende Aufgabe wird durch ein erfindungsgemäßes Verfahren gemäß Anspruch 1 , eine Vorrichtung gemäß Anspruch 14 sowie durch ein Computerprogramm gemäß Anspruch 15 gelöst. Bevorzugte Ausgestaltungsformen der Erfindung sind Gegenstand der entsprechenden Unteransprüche. The object of the present invention is to at least partially overcome the disadvantages known in the prior art. The above object is achieved by a method according to the invention according to claim 1, a device according to claim 14 and a computer program according to claim 15. Preferred embodiments of the invention are the subject of the corresponding subclaims.
Entsprechend offenbart die vorliegende Erfindung ein Verfahren zur Markierung von Information in digitalen Bildern einer Bildgebungsvorrichtung, insbesondere eines Endoskopsystems, wobei die Bildgebungsvorrichtung ein optisches System mit einer Optik und einem Bildsensor zum Aufnehmen einer Serie von digitalen Bildern wenigstens eines Betrachtungsbereiches eines ausgedehnten Gegenstandes aufweist und wenigstens ein Teil der Optik bewegbar ist. Das erfindungsgemäße Verfahren umfasst das Aufnehmen eines ersten digitalen Bildes eines ersten Betrachtungsbereiches in einer ersten räumlichen Position des bewegbaren Teils der Optik, in dem wenigstens eine erste Information enthalten ist, das Markieren der ersten Information durch setzen wenigstens einer ersten Landmarke, das Bestimmen von Positionsinformationen der ersten Landmarke, das Generieren einer mit der ersten Landmarke verknüpften ersten eindeutigen Kennung, das Speichern der eindeutigen Kennung zusammen mit den zugehörigen Positionsinformationen, das Aufnehmen eines zweiten digitalen Bildes eines zweiten Betrachtungsbereiches in einer zweiten räumlichen Position des bewegbaren Teils der Optik, das Bestimmen der Position der ersten Landmarke in Bezug auf den zweiten Betrachtungsbereich, das Augmentieren der ersten Landmarke auf das zweite digitale Bild, wenn die erste Information in dem zweiten Betrachtungsbereich enthalten ist, oder das Augmentieren von wenigstens einer Bewegungsanweisung zur Hinführung des bewegbaren Teils der Optik zu einer räumlichen Position desselben, in der die erste Information in einem dritten Betrachtungsbereich enthalten ist, auf das zweite digitale Bild, wenn die erste Information in dem zweiten Betrachtungsbereich nicht enthalten ist. Das Augmentieren auf ein digitales Bild kann auf einer geeigneten Anzeigeeinheit, wie zum Beispiel einem Monitor, erfolgen. Accordingly, the present invention discloses a method for marking information in digital images of an imaging device, in particular an endoscope system, wherein the imaging device has an optical system with an optic and an image sensor for recording a series of digital images of at least one viewing area of an extended object and at least a part of the optic is movable. The method according to the invention comprises recording a first digital image of a first viewing area in a first spatial position of the movable part of the optic, in which at least one first piece of information is contained, marking the first piece of information by setting at least one first landmark, determining position information of the first landmark, generating a Landmark linked first unique identifier, storing the unique identifier together with the associated position information, recording a second digital image of a second viewing area in a second spatial position of the movable part of the optics, determining the position of the first landmark in relation to the second viewing area, augmenting the first landmark onto the second digital image if the first information is contained in the second viewing area, or augmenting at least one movement instruction for guiding the movable part of the optics to a spatial position thereof in which the first information is contained in a third viewing area onto the second digital image if the first information is not contained in the second viewing area. Augmenting onto a digital image can take place on a suitable display unit, such as a monitor.
Eine Bildgebungsvorrichtung im Sinne der vorliegenden Erfindung kann jede technische und/oder elektronische Vorrichtung sein, welche geeignet ist, ein Bild eines Betrachtungsbereiches aufzunehmen, weiterzuverarbeiten und/oder weiterzuleiten und beispielsweise auf einem Bildschirm anzuzeigen. Medizinische Bildgebungsvorrichtungen im Sinne der vorliegenden Erfindung können alle dem Fachmann bekannten Arten von Endoskopen, insbesondere Dual-Endoskope und Stereo-Endoskope sein. Ein Endoskop ist dabei eine zumeist schmale und länglich ausgebildete Bildgebungsvorrichtung, welche geeignet ist, diese in einen Hohlraum oder durch eine zumeist kleine Öffnung einzuführen und innerhalb des Hohlraums und/oder des hinter der kleinen Öffnung liegenden Bereiches ein Bild von einem Betrachtungsbereich mittels wenigstens einer Kamera oder wenigstens eines Bildsensors aufzunehmen. An imaging device in the sense of the present invention can be any technical and/or electronic device that is suitable for recording an image of a viewing area, further processing it and/or forwarding it and displaying it on a screen, for example. Medical imaging devices in the sense of the present invention can be all types of endoscopes known to those skilled in the art, in particular dual endoscopes and stereo endoscopes. An endoscope is a mostly narrow and elongated imaging device that is suitable for insertion into a cavity or through a mostly small opening and for recording an image of a viewing area within the cavity and/or the area behind the small opening using at least one camera or at least one image sensor.
Die Bewegbarkeit wenigstens eines Teils der Optik der Bildgebungsvorrichtung im Sinne der vorliegenden Erfindung kann die Bewegung der gesamten Bildgebungsvorrichtung oder eines Teils der Bildgebungsvorrichtung, insbesondere in Bezug auf den zu betrachtenden Gegenstand, bedeuten, sofern durch die Bewegung ein wenigstens teilweise anderer Betrachtungsbereich eines ausgedehnten Gegenstandes erfasst wird. Entsprechend umfasst die Bewegbarkeit wenigstens eines Teils der Optik auch eine Bewegung des zu betrachtenden Gegenstands oder eines Teiles des zu betrachtenden Gegenstands in Bezug auf die Optik, unter der Voraussetzung, dass durch diese Bewegung ein wenigstens teilweise anderer Betrachtungsbereich eines ausgedehnten Gegenstandes erfasst wird. Die Bewegbarkeit umfasst insbesondere die dem Fachmann bekannten Möglichkeiten der Bewegung endoskopischer Vorrichtungen, insbesondere im Kontext minimalinvasiver chirurgischer Eingriffe. Hierbei kann insbesondere das gesamte Endoskop bewegt werden oder auch Teile des Endoskops, wie beispielsweise eine Abwinkelung der Endoskopspitze. Die Bewegbarkeit im Sinne der vorliegenden Erfindung kann insbesondere auch eine Drehung sein. The mobility of at least part of the optics of the imaging device in the sense of the present invention can mean the movement of the entire imaging device or of part of the imaging device, in particular in relation to the object to be viewed, provided that the movement covers an at least partially different viewing area of an extended object. Accordingly, the mobility of at least part of the optics also includes a movement of the object to be viewed or of a part of the object to be viewed in relation to the optics, provided that this movement covers an at least partially different viewing area of an extended object. The mobility includes in particular the possibilities for moving endoscopic devices known to those skilled in the art, in particular in the context of minimally invasive surgical interventions. In particular, the entire endoscope or parts of the endoscope can be moved, such as bending the endoscope tip. The mobility in the sense of the present invention can also be a rotation.
Ein Betrachtungsbereich im Sinne der vorliegenden Erfindung beschreibt den Bereich, das Volumen oder das Areal, welcher oder welches mittels der Bildgebungsvorrichtung betrachtet und von welcher oder welchem ein entsprechendes digitales Bild erzeugt werden soll und kann dem Blickfeld der Bildgebungsvorrichtung entsprechen. Ein solcher Betrachtungsbereich im Kontext medizinischer Bildgebungsvorrichtungen kann dabei beispielsweise ein Organ, ein Knochen, ein Teilbereich eines menschlichen oder tierischen Körpers oder ein weiterer Bereich von Interesse für eine entsprechende Betrachtung sein. A viewing area in the sense of the present invention describes the region, volume or area which is to be viewed by means of the imaging device and of which a corresponding digital image is to be generated and can correspond to the field of view of the imaging device. Such a viewing area in the context of medical imaging devices can be, for example, an organ, a bone, a part of a human or animal body or another area of interest for a corresponding viewing.
Eine Information im Sinne der vorliegenden Erfindung ist jedweder durch eine Landmarke markierbarer Aspekt eines Betrachtungsbereiches, insbesondere Positionen, Strukturen, Gegenstände, Gewebe und dergleichen. Information within the meaning of the present invention is any aspect of a viewing area that can be marked by a landmark, in particular positions, structures, objects, tissues and the like.
Augmentieren im Sinne der vorliegenden Erfindung ist ein Anreichern der Darstellung von digitalen Bildern mit jedweden digitalen Informationen. Entsprechend kann das Augmentieren das Einblenden von graphischen Elementen mit einem Informationsgehalt, insbesondere eines einer Landmarke entsprechenden graphischen Elements oder eines einer Bewegungsanweisung entsprechenden graphischen Elements, darstellen. Augmentation in the sense of the present invention is an enrichment of the representation of digital images with any digital information. Accordingly, augmentation can represent the display of graphic elements with an information content, in particular a graphic element corresponding to a landmark or a graphic element corresponding to a movement instruction.
Eine Bewegungsanweisung im Sinne der vorliegenden Erfindung sind Angaben wie die Bildgebungsvorrichtung oder wenigstens ein Teil der Bildgebungsvorrichtung zu bewegen ist, um eine vorbestimmte Position, insbesondere eine Position in der eine mit einer Landmarke verbundene Information in einem Betrachtungsbereich enthalten ist, zu erreichen ist. Des Weiteren können die Bewegungsanweisungen auch Steuerbefehle für eine motorische Bewegung der Bildgebungsvorrichtung aufweisen; wenn diese Steuerbefehle an eine motorisierte Bildgebungsvorrichtung gesendet und auf dieser ausgeführt werden, wird die Bildgebungsvorrichtung in eine Position geführt, in der die entsprechende markierte Information im Blickfeld der Bildgebungsvorrichtung ist und damit im einem Betrachtungsbereich enthalten ist. A movement instruction in the sense of the present invention is information on how the imaging device or at least a part of the imaging device is to be moved in order to reach a predetermined position, in particular a position in which information associated with a landmark is contained in a viewing area. Furthermore, the movement instructions can also comprise control commands for a motorized movement of the imaging device; if these control commands are sent to a motorized imaging device and executed on it, the imaging device is guided to a position in which the corresponding marked information is in the field of view of the imaging device and is thus contained in a viewing area.
In Ausführungsformen des erfindungsgemäßen Verfahrens können beliebig viele Informationen markiert und entsprechend beliebig viele Landmarken gesetzt werden. Jede Landmarke kann dann unter einer eigenen eindeutigen Kennung gespeichert werden. Wenn mehrere Informationen markiert werden, können die entsprechenden Landmarken kategorisiert und mit der daraus resultierenden Zuordnung gespeichert werden. In Ausführungsformen des erfindungsgemäßen Verfahrens können aktive Landmarken, also zum Beispiel Landmarken die noch nicht gelöscht oder mit einem Bearbeitungsauftrag versehen sind, angezeigt werden, wobei die Augmentierung neben der Anzahl von aktiven Landmarken auch fakultativ ein Bild der zur Landmarke gehörenden Information anzeigt. In embodiments of the method according to the invention, any amount of information can be marked and any amount of landmarks can be set accordingly. Each landmark can then be saved under its own unique identifier. If multiple pieces of information are marked, the corresponding landmarks can be categorized and saved with the resulting assignment. In embodiments of the method according to the invention, active landmarks, for example landmarks that have not yet been deleted or provided with a processing order, can be displayed, wherein the augmentation optionally displays an image of the information belonging to the landmark in addition to the number of active landmarks.
In Ausführungsformen des erfindungsgemäßen Verfahrens kann der bewegliche Teil der Optik Inertialsensoren aufweisen, und das Verfahren das Bestimmen von Positionsinformationen der räumlichen Position des bewegbaren Teils der Optik basierend auf Inertialsensorda- ten umfassen. Die Positionsinformationen der räumlichen Position des bewegbaren Teils der Optik können des Weiteren auch die räumliche Position in Bezug auf einen Referenzpunkt umfassen. In einer bevorzugten Ausführungsform kann die Bildgebungsvorrichtung ein Endoskopsystem und der Referenzpunkt der Trokar sein. Hierbei kann optional auch bestimmt werden, wie weit das Endoskopsystem durch den Trokar geführt wird und so die absolute Position eines Teils des Endoskopsystems, wie zum Beispiel der Spitze des Endoskops, in Bezug auf den Referenzpunkt bestimmt werden und als Positionsinformation in dem erfindungsgemäßen Verfahren verwendet werden. Hierbei kann der Trokar entsprechende Sensoren aufweisen. In embodiments of the method according to the invention, the movable part of the optics can have inertial sensors, and the method can comprise determining position information of the spatial position of the movable part of the optics based on inertial sensor data. The position information of the spatial position of the movable part of the optics can furthermore also comprise the spatial position in relation to a reference point. In a preferred embodiment, the imaging device can be an endoscope system and the reference point can be the trocar. In this case, it can also optionally be determined how far the endoscope system is guided through the trocar and thus the absolute position of a part of the endoscope system, such as the tip of the endoscope, in relation to the reference point can be determined and used as position information in the method according to the invention. In this case, the trocar can comprise corresponding sensors.
In Ausführungsformen des erfindungsgemäßen Verfahrens kann das Nachführen von Landmarken mittels Inertialsensoren, elektromagnetischem Tracking, optischem Tracking, durch Stereorekonstruktion und optionaler Trajektorienberechnung, durch Tiefenbestimmung basierend auf Verfahren der künstlichen Intelligenz, durch Flussberechnung basierend auf Verfahren der künstlichen Intelligenz und/oder weiterer Computervision-Algorithmen erfolgen, wobei auch Kombinationen verschiedener oder aller Verfahren möglich sind. In embodiments of the method according to the invention, the tracking of landmarks can be carried out by means of inertial sensors, electromagnetic tracking, optical tracking, by stereo reconstruction and optional trajectory calculation, by depth determination based on artificial intelligence methods, by flow calculation based on artificial intelligence methods and/or other computer vision algorithms, whereby combinations of different or all methods are also possible.
Inertialsensoren im Sinne der vorliegenden Erfindung umfassen insbesondere Beschleunigungssensoren und Drehratensensoren die zusammen eine inertiale Messeinheit bilden, mittels derer bis zu sechs mögliche kinematische Freiheitsgrade erfasst werden können. Dadurch kann eine Bestimmung der Bewegung und, daraus abgeleitet auch eine Bestimmung der Position des mit den Sensoren verbundenen Elementes, insbesondere des bewegbaren Teils der Optik, erfolgen. Im Falle eines starren Endoskops, können die Sensoren an jedwedem Abschnitt des Endoskops angeordnet sein. Wenn das Endoskop in sich beweglich ausgeführt ist, sind die Sensoren bevorzugt an der Endoskopspitze angeordnet. Inertial sensors in the sense of the present invention include in particular acceleration sensors and rotation rate sensors which together form an inertial measuring unit by means of which up to six possible kinematic degrees of freedom can be recorded. This makes it possible to determine the movement and, derived from this, also the position of the element connected to the sensors, in particular the movable part of the optics. In the case of a rigid endoscope, the sensors can be arranged on any section of the endoscope. If the endoscope is designed to be movable, the sensors are preferably arranged on the endoscope tip.
Für elektromagnetisches Tracking kann der bewegbare Teil der Optik mit einem oder mehreren Feldsensoren ausgestattet und somit markiert werden. Mittels eines Feldgenerators werden elektromagnetische Felder erzeugt, welche von dem oder den Feldsensor(en) gemessen werden können. Auf der Basis mehrerer Feldmessungen können die Lage und die Ausrichtung des Feldsensors im Raum und damit auch die Ausrichtung und die Lage des markierten, bewegbaren Teils der Optik mittels einer entsprechenden Mess- und Recheneinheit bestimmt werden. Durch Verwendung mehrerer Feldsensoren können verschiede und/oder zusätzliche Instrumente oder Gegenstände markiert und entsprechen räumlich nachverfolgt und zur Markierung von Informationen mit Landmarken verwendet werden. In weiteren Ausführungsformen können auch von der Bildgebungsvorrichtung unabhängige Gegenstände, wie beispielsweise im Falle medizinischer Eingriffe, Gegenstände im Operationssaal und/oder der zu behandelnde Patient mit Feldsensoren markiert werden. Im letzteren Fall kann beispielsweise eine Bewegung und/oder Umlagerung des Pateienten erkannt und die Bestimmung der Position der Landmarken oder der Bildgebungsvorrichtung mit einbezogen werden, beziehungsweise in den Bewegungsanordnungen berücksichtig werden. For electromagnetic tracking, the movable part of the optics can be equipped with one or more field sensors and thus marked. Electromagnetic fields are generated by a field generator, which are detected by the field sensor(s). can be measured. On the basis of several field measurements, the position and orientation of the field sensor in space and thus also the orientation and position of the marked, movable part of the optics can be determined by means of a corresponding measuring and computing unit. By using several field sensors, different and/or additional instruments or objects can be marked and spatially tracked accordingly and used to mark information with landmarks. In further embodiments, objects independent of the imaging device, such as in the case of medical interventions, objects in the operating room and/or the patient to be treated, can also be marked with field sensors. In the latter case, for example, a movement and/or repositioning of the patient can be detected and the determination of the position of the landmarks or the imaging device can be included, or taken into account in the movement arrangements.
In bevorzugten Ausführungsformen der Verwendung von elektromagnetischem Tracking und/oder Inertialsensoren kann softwareseitig eine Hand-Auge-Kalibrierung durchgeführt werden, die erkennt wie das Bildkoordinatensystem zum Trackerkoordinatensystem bzw. zu der basierend auf den Inertialsensoren bestimmten Position liegt, beziehungsweise um die Trackingkoordinaten oder Inertialsensorkoordinaten in Bildkoordinaten umrechnen zu können. Für die Kalibrierung kann wenigstens eine Aufnahme eines bekannten Objektes gemacht werden. Dessen Lage kann dann im Bild mit Segmentierungs- und Registrierungsverfahren ermittelt werden, woraus sich anschließend die Kalibrierungstransformation bestimmen lässt. In preferred embodiments of the use of electromagnetic tracking and/or inertial sensors, a hand-eye calibration can be carried out on the software side, which recognizes how the image coordinate system is located in relation to the tracker coordinate system or to the position determined based on the inertial sensors, or in order to be able to convert the tracking coordinates or inertial sensor coordinates into image coordinates. For the calibration, at least one image of a known object can be taken. Its position can then be determined in the image using segmentation and registration methods, from which the calibration transformation can then be determined.
Für Stereorekonstruktionen kann berechnet werden, welcher Pixel im linken Bild denselben Objektpunkt zeigt wie der Pixel im rechten Bild. Dabei ist eine Kamerakalibrierung notwendig. Basierend auf der Stereorekonstruktion kann für jedes Pixel eine 3D Koordinate berechnet werden. For stereo reconstructions, it can be calculated which pixel in the left image shows the same object point as the pixel in the right image. This requires camera calibration. Based on the stereo reconstruction, a 3D coordinate can be calculated for each pixel.
In bevorzugten Ausführungsformen kann die aus der Stereorekonstruktion resultierende Information in Kombination mit dem oben genannten Tracking (optisch, elektromagnetisch, inertialsensorbasiert) verwendet werden, um den exakten 3D Punkt der markierten Information zu bestimmen und diesen somit vereinfacht und mit höherer Genauigkeit wieder aufzufinden. Entsprechend kann die Position der Landmarke, und somit die mit der Landmarke markierte Information genauer bestimmt und dokumentiert werden. In preferred embodiments, the information resulting from the stereo reconstruction can be used in combination with the above-mentioned tracking (optical, electromagnetic, inertial sensor-based) to determine the exact 3D point of the marked information and thus to find it again more easily and with greater accuracy. Accordingly, the position of the landmark, and thus the information marked with the landmark, can be determined and documented more precisely.
In bevorzugten Ausführungsformen kann durch die Stereorekonstruktion eine 3D Punktwolke, optional zuzüglich zugehöriger Farbinformationen erzeugt werden, wobei die Stereorekonstruktion vorzugsweise in Echtzeit erfolgen kann. Durch eine Fusion zweier zeitlich aufeinanderfolgender Punktwolken kann eine Schätzung der Kamerabewegung erfolgen, wodurch eine Trajektorie erzeugt werden kann, welche wiederum verwendet werden kann, um mittels Landmarken markierte Informationen wiederzufinden, beziehungsweise auf Grundlage derer entsprechende Informationen augmentiert werden können. Entsprechend können durch die um Trajektorienberechnung erweiterte Stereorekonstruktion die vorstehend beschriebenen Trackingverfahren erweitert oder gar substituiert werden. In preferred embodiments, the stereo reconstruction can generate a 3D point cloud, optionally plus associated color information, wherein the Stereo reconstruction can preferably be carried out in real time. By fusing two point clouds that follow one another in time, an estimate of the camera movement can be made, which can then generate a trajectory that can be used to find information marked by landmarks or to augment corresponding information on the basis of landmarks. Accordingly, the tracking methods described above can be expanded or even replaced by the stereo reconstruction extended by trajectory calculation.
In bevorzugten Ausführungsformen kann - ähnlich der Stereorekonstruktion - auch in mono- skopischen Bildern die Tiefe bestimmt beziehungsweise geschätzt werden. Durch Anwendung entsprechender, vorzugsweise auf künstlicher Intelligenz basierender mathematischer Verfahren, können die Stereorekonstruktionen ersetzt bzw. die Anwendung auf monoskopi- sche Kameras erweitert werden. Entsprechend kann durch die Tiefenbestimmung die Position von Landmarken genauer bestimmt und dokumentiert werden. In preferred embodiments, similar to stereo reconstruction, depth can also be determined or estimated in monoscopic images. By applying appropriate mathematical methods, preferably based on artificial intelligence, the stereo reconstructions can be replaced or the application can be extended to monoscopic cameras. Accordingly, the position of landmarks can be determined and documented more precisely by determining the depth.
Optisches Tracking im Sinne der vorliegenden Erfindung ist insbesondere das Orten optischer Marker mittels einer Kamera. Hier können entsprechende Markierungen (Marker) an dem nachzuverfolgenden Teil der Bildgebungsvorrichtung angeordnet werden, wobei eine Sichtlinie zwischen der Kamera und dem georteten Marker erforderlich ist. Bei der Verwendung starrer Endoskope können entsprechende Marker an Abschnitten des Endoskops, die nicht in den Arbeitsbereich, wie beispielsweise dem Körperinneren, eingebracht werden, angeordnet werden und von einer externen Kamera, wie beispielsweise einer Raumkamera erfasst werden. Da die Geometrie des Endoskops bekannt ist, kann über Tracking der entsprechenden Marker die Position der Kamera und damit das Blickfeld der Kamera bestimmt werden. Hierbei können in bevorzugten Ausführungsformen auch weitere Objekte, insbesondere auch ein Patient, markiert werden, und die entsprechenden Positionsinformationen miteinbezogen werden. Optical tracking in the sense of the present invention is in particular the location of optical markers using a camera. Here, corresponding markings (markers) can be arranged on the part of the imaging device to be tracked, whereby a line of sight between the camera and the located marker is required. When using rigid endoscopes, corresponding markers can be arranged on sections of the endoscope that are not introduced into the work area, such as the inside of the body, and can be recorded by an external camera, such as a room camera. Since the geometry of the endoscope is known, the position of the camera and thus the field of view of the camera can be determined by tracking the corresponding markers. In preferred embodiments, other objects, in particular a patient, can also be marked and the corresponding position information can be included.
Für Flussberechnungen im Sinne der vorliegenden Erfindung können auf dem Fachmann bekannten computervision Algorithmen oder auch auf entsprechenden Algorithmen der künstlichen Intelligenz beruhen. Das Berechnen eines optischen Flusses im Bild kann verwendet werden, um Landmarken zeitlich und in Abhängig der Bewegung (im Verhältnis des zu betrachtenden Gegenstands zur Bildgebungsvorrichtung, also hinsichtlich der Veränderung des Betrachtungsbereiches) zu verfolgen. In bevorzugten Ausführungsformen können die Flussberechnung zur Steigerung der Rechengeschwindigkeit und Genauigkeit und/oder zur Anpassung an zur Verfügung stehende Rechenleistung durch Auflösungspyramiden durchgeführt werden. Flow calculations in the sense of the present invention can be based on computer vision algorithms known to those skilled in the art or on corresponding algorithms of artificial intelligence. The calculation of an optical flow in the image can be used to track landmarks over time and as a function of movement (in relation to the object to be viewed to the imaging device, i.e. with regard to the change in the viewing area). In preferred embodiments, the flow calculation can be used to increase the calculation speed and accuracy and/or to Adaptation to available computing power can be achieved using resolution pyramids.
In einer Ausführungsform des erfindungsgemäßen Verfahrens können digitalen Bildern von Betrachtungsbereichen jeweilige Positionsinformationen der räumlichen Position des bewegbaren Teils der Optik zugeordnet werden. So kann beispielsweise eine Position eines digitalen Bildes eines Betrachtungsbereichs einer absoluten Position in Bezug auf einen Referenzpunkt zugeordnet werden. In one embodiment of the method according to the invention, digital images of viewing areas can be assigned respective position information of the spatial position of the movable part of the optics. For example, a position of a digital image of a viewing area can be assigned to an absolute position in relation to a reference point.
In Ausführungsformen des erfindungsgemäßen Verfahrens kann die Positionsinformation der ersten Landmarke in Bezug auf die räumliche Position des bewegbaren Teils der Optik bestimmt werden und/oder der Pixelposition der ersten Landmarke im ersten digitalen Bild entsprechen. In bevorzugten Ausführungsformen können die Positionsinformationen der gesetzten Landmarken sowohl die räumliche Position des bewegbaren Teils der Optik, die einem Betrachtungsbereich entspricht in dem die entsprechende Information enthalten ist, umfassen, als auch die Pixelposition der entsprechenden Landmarke im jeweiligen digitalen Bild des jeweiligen Betrachtungsbereichs. Hierbei kann die Pixelinformation wie vorstehend beschrieben basierend auf Stereorekonstruktion und/oder entsprechender algorithmischer Tiefenbestimmung erfolgen. Die beiden Positionsbestandteile, also die räumliche Position und die Pixelposition, können getrennt voneinander und/ oder auch in Kombination miteinander gespeichert werden. Auf diese Weise können absolute Positionswerte der Landmarken in Bezug auf einen Referenzpunkt generiert und auch gespeichert werden. In embodiments of the method according to the invention, the position information of the first landmark can be determined in relation to the spatial position of the movable part of the optics and/or correspond to the pixel position of the first landmark in the first digital image. In preferred embodiments, the position information of the set landmarks can include both the spatial position of the movable part of the optics, which corresponds to a viewing area in which the corresponding information is contained, and the pixel position of the corresponding landmark in the respective digital image of the respective viewing area. In this case, the pixel information can be based on stereo reconstruction and/or corresponding algorithmic depth determination as described above. The two position components, i.e. the spatial position and the pixel position, can be stored separately from one another and/or in combination with one another. In this way, absolute position values of the landmarks in relation to a reference point can be generated and also stored.
In Ausführungsformen des erfindungsgemäßen Verfahrens kann die Bestimmung der Position der ersten Landmarke in Bezug auf den zweiten Betrachtungsbereich über die Berechnung des optischen Flusses basierend auf einer Serie von digitalen Bildern und/oder über die Nachverfolgung der Position des bewegbaren Teils der Optik erfolgen. In bevorzugten Ausführungsformen kann die Flussberechnung zur Steigerung der Rechengeschwindigkeit und Genauigkeit und/oder zur Anpassung an zur Verfügung stehende Rechenleistung durch Auflösungspyramiden durchgeführt werden. In embodiments of the method according to the invention, the position of the first landmark in relation to the second viewing area can be determined by calculating the optical flow based on a series of digital images and/or by tracking the position of the movable part of the optics. In preferred embodiments, the flow calculation can be carried out using resolution pyramids to increase the computing speed and accuracy and/or to adapt to the available computing power.
In weiteren Ausführungsformen des erfindungsgemäßen Verfahrens kann das Speichern der eindeutigen Kennung zusammen mit den zugehörigen Positionsinformationen auch eine Beschreibung und/oder Kategorisierung der markierten Information enthalten. Die Beschreibung und/oder Kategorisierung kann über direkte Benutzereingaben, beispielsweise über Benutzereingaben über entsprechende Schnittstellen erfolgen. In bevorzugten Ausführungsformen kann die Beschreibung und/oder Kategorisierung auf einer computergestützten Objekterkennung, insbesondere auf einer durch künstliche Intelligenz gestützten Objekterkennung erfolgen. Hierbei kann dem Benutzer nach dem Setzen einer Landmarke zum Markieren einer Information ein Beispiel für eine Beschreibung und/oder Kategorisierung dargestellt werden, die der Benutzer dann durch geeignete Eingaben ablehnen oder bestätigen kann. In bevorzugten Ausführungsformen können dem Benutzer auch mittels Objekterkennung Vorschläge für zu markierende Informationen gemacht werden, die der Benutzer dann ablehnen oder annehmen kann. Durch Annahme wird eine entsprechende Landmarke gesetzt und das erfindungsgemäße Verfahren fortgesetzt. In further embodiments of the method according to the invention, the storage of the unique identifier together with the associated position information can also contain a description and/or categorization of the marked information. The description and/or categorization can be carried out via direct user inputs, for example via user inputs via corresponding interfaces. In preferred embodiments, the description and/or categorization can be carried out on a computer-assisted Object recognition, in particular based on object recognition supported by artificial intelligence. Here, after setting a landmark to mark information, the user can be shown an example of a description and/or categorization, which the user can then reject or confirm by making suitable entries. In preferred embodiments, suggestions for information to be marked can also be made to the user by means of object recognition, which the user can then reject or accept. By accepting, a corresponding landmark is set and the method according to the invention is continued.
In bevorzugten Ausführungsformen kann ein künstlicher Intelligenzalgorithmus kann verwendet werden, um eine Segmentierung eines digitalen Bildes, insbesondere eines endoskopischen Bildes durchzuführen. Durch Segmentierung kann die Gesamtheit eines durch die Benutzereingabe mit einer Landmarke versehenen Objekts erkannt werden und weiteren Verfahrensschritten zugrunde gelegt werden. Entsprechend kann dem Benutzer nach Selektion der Landmarke automatisch die Bezeichnung des entsprechend Objekts vorgeschlagen werden. Hierzu wird die vorgesagte Klasse des Pixels, der als Landmarke ausgewählt wurde, verwendet. Die Landmarke kann dann mit entsprechenden Kategorisierungs- und/oder Objektinformationen assoziiert und gespeichert werden. Alternativ oder in Ergänzung dazu kann durch die Segmentierung auch eine Markierung eines Objekts in seiner Gesamtheit erfolgen, so dass eine Flächenlandmarke erstellt werden kann. Entsprechend können Augmentieren- den von Bewegungsanordnungen so bestimmt werden, dass das gesamte Objekt in das Blickfeld der Bildgebungsvorrichtung geführt wird. Hierbei sind auch Kombinationen von punktuellen Landmarken, die der eigentlichen Benutzereingabe entsprechen, und Flächenlandmarken, die dem Segmentierungsergebnis entsprechen, möglich. In bevorzugten Ausführungsformen erfolgt eine Segmentierung mit einer U-Net-Struktur eines convolutional neural networks (CNN). Durch diese Objekterkennung können Objekte in einem Bild klassifizieren und gleichzeitig ihre Position bestimmen. In preferred embodiments, an artificial intelligence algorithm can be used to perform a segmentation of a digital image, in particular an endoscopic image. Through segmentation, the entirety of an object provided with a landmark by the user input can be recognized and used as a basis for further method steps. Accordingly, after selecting the landmark, the name of the corresponding object can be automatically suggested to the user. For this purpose, the predicted class of the pixel that was selected as a landmark is used. The landmark can then be associated with and stored with corresponding categorization and/or object information. Alternatively or in addition to this, the segmentation can also be used to mark an object in its entirety so that an area landmark can be created. Accordingly, augmenting movement arrangements can be determined so that the entire object is guided into the field of view of the imaging device. Combinations of point landmarks that correspond to the actual user input and area landmarks that correspond to the segmentation result are also possible. In preferred embodiments, segmentation is carried out using a U-Net structure of a convolutional neural network (CNN). This object detection allows objects in an image to be classified and their position to be determined at the same time.
In weiteren Ausführungsformen des erfindungsgemäßen Verfahrens kann die wenigstens eine Landmarke gelöscht und/oder die zugehörige Augmentierung unterbunden werden. In further embodiments of the method according to the invention, the at least one landmark can be deleted and/or the associated augmentation can be prevented.
In einer weiteren Ausführungsform des erfindungsgemäßen Verfahrens kann das Setzen, Löschen und/oder Unterbinden der Augmentierung der wenigstens einen Landmarke durch erkennen von Benutzereingaben und/oder durch automatische Objekterkennung erfolgen. Geeignete Benutzereingaben im Sinne der vorliegenden Erfindung können über Tastatur, Fußschalter, Joystick, Spracherkennung oder auch Gestenbewegung mit einem Instrument im Blickfeld einer Kamera, insbesondere im Blickfeld der Bildgebungsvorrichtung ausgelöst werden. Die Auswahl von Informationen zur Markierung oder die Auswahl von bereits markierten Informationen kann auf die Mitte des Betrachtungsbereiches bezogen sein oder im Betrachtungsbereich frei wählbar sein, wobei in bevorzugten Ausführungsformen ein Markierungselement, wie beispielsweise ein Fadenkreuz, in das Bild augmentiert wird. In bevorzugten Ausführungsformen kann durch die Benutzereingabe eine in dem Bereich des Markierungselements befindliche Information oder Landmarke gesetzt, beziehungsweise zur weiteren Bearbeitung wie etwa Löschen oder Kategorisieren, ausgewählt werden. In weiteren, bevorzugten Ausführungsformen, insbesondere im Kontext minimalinvasiver, endoskopbasierter Eingriffe, können auch in den Arbeitsbereich eingebrachte Instrumente und/oder Werkzeuge, insbesondere deren Spitze, als Ausgangspunkt der Gestensteuerung verwendet werden und die Bildgebungsvorrichtung, wie zum Beispiel die Endoskopkamera als Mittel zur Erfassung der Geste verwendet werden. In a further embodiment of the method according to the invention, the setting, deletion and/or prevention of the augmentation of the at least one landmark can be carried out by recognizing user inputs and/or by automatic object recognition. Suitable user inputs in the sense of the present invention can be made via keyboard, foot switch, joystick, voice recognition or gesture movement with an instrument in the field of view of a camera, in particular in the field of view of the imaging device. The selection of information for marking or the selection of already marked information can be related to the center of the viewing area or can be freely selected in the viewing area, wherein in preferred embodiments a marking element, such as a crosshair, is augmented in the image. In preferred embodiments, information or a landmark located in the area of the marking element can be set by the user input or selected for further processing such as deletion or categorization. In further preferred embodiments, in particular in the context of minimally invasive, endoscope-based interventions, instruments and/or tools introduced into the work area, in particular their tips, can also be used as the starting point for gesture control and the imaging device, such as the endoscope camera, can be used as a means of capturing the gesture.
In Ausführungsformen des erfindungsgemäßen Verfahrens können die Benutzereingaben Eingaben über Benutzerschnittstellen, akustische Signale und/oder direkte Gestenbewegungen mit einem Instrument im Betrachtungsbereich oder indirekte Gestenbewegungen durch Bewegung des bewegbaren Teils der Optik umfassen. In embodiments of the method according to the invention, the user inputs may include inputs via user interfaces, acoustic signals and/or direct gesture movements with an instrument in the viewing area or indirect gesture movements by moving the movable part of the optics.
In Ausführungsformen des erfindungsgemäßen Verfahrens können Landmarken automatisch gelöscht, zur Löschung vorgeschlagen, deaktiviert oder zur Deaktivierung vorgeschlagen werden, wenn das zugeordnete Objekt aus dem Arbeitsbereich entfernt wurde. Beispielsweise können im Kontext minimalinvasiver medizinischer Eingriffe Landmarken die zu entfernenden Objekten zugeordnet sind entsprechend behandelt werden, wenn die jeweiligen Objekte aus dem Arbeitsbereich entfernt wurden. Eine entsprechende Erkennung kann über entsprechende computerbasierte Objekterkennung erfolgen. In embodiments of the method according to the invention, landmarks can be automatically deleted, suggested for deletion, deactivated or suggested for deactivation if the associated object has been removed from the work area. For example, in the context of minimally invasive medical interventions, landmarks that are associated with objects to be removed can be treated accordingly if the respective objects have been removed from the work area. Corresponding recognition can be carried out via corresponding computer-based object recognition.
Aktive Landmarken im Sinne der vorliegenden Erfindung sind Informationsmarkierungen, die in mit wenigstens einer weitergehenden Anweisung versehen sind, die beschreibt, was mit der entsprechenden markierten Information gemacht werden soll. Beispielsweise kann ein Objekt so markiert werden, dass es aus dem Arbeitsbereich entfernt werden soll. Entsprechend sind deaktivierte Landmarken solche, bei denen die weitergehende Anweisung bereits durchgeführt wurde. Des Weiteren können Landmarken mit Gültigkeitsparametern, wie beispielsweise einer Gültigkeitsdauer, Objektübereinstimmung oder dergleichen versehen werden. Bei Abweichungen von den Gültigkeitsparametern können entsprechende Informationen in der Datenbank angezeigt werden und/oder auch in digitalen Bildern aug- mentiert werden. Active landmarks in the sense of the present invention are information markings that are provided with at least one further instruction that describes what is to be done with the corresponding marked information. For example, an object can be marked so that it is to be removed from the work area. Accordingly, deactivated landmarks are those for which the further instruction has already been carried out. Furthermore, landmarks can be provided with validity parameters, such as a validity period, object match or the like. In the event of deviations from the validity parameters, corresponding Information can be displayed in the database and/or augmented in digital images.
In Ausführungsformen des erfinderischen Verfahrens können auch zeitlich auseinanderliegende digitale Bilder sich entsprechender Betrachtungsbereiche miteinander verglichen werden. Wenn hierbei signifikante, d.h. über einem vordefinierten Schwellenwert liegende Veränderungen erkannt werden, können entsprechende Angaben, wie beispielsweise eine Warnung, in digitalen Bildern augmentiert werden. In embodiments of the inventive method, digital images of corresponding viewing areas that are separated in time can also be compared with one another. If significant changes, i.e. changes that are above a predefined threshold value, are detected, corresponding information, such as a warning, can be augmented in digital images.
In Ausführungsformen des erfindungsgemäßen Verfahrens können digitale Bilder verschiedener Betrachtungsbereiche mittels „Stitching“, also dem Erstellen eines großen digitalen Bildes aus verschiedenen kleineren digitalen Bildern, die Ausschnitte des ausgedehnten Gegenstandes zeigen, zu einem zusammengesetzten Bild zusammengefügt werden. Das Aneinanderfügen der digitalen Bilder kann hierbei über Überlappungsbereiche der einzelnen digitalen Bilder und/oder basierend auf der Position bzw. der Bewegung der Bildwiedergabevorrichtung erfolgen. In bevorzugten Ausführungsformen können Betrachtungsbereiche des ausgedehnten Gegenstandes in Positionen des bewegbaren Teils der Optik, in denen keine oder mangelhafte digitale Bilder aufgenommen wurden, in dem zusammengesetzten Bild durch Platzhalterbilder in entsprechender Position ersetzt werden. Diese Platzhalterbilder können in dem zusammengefügten Bild als solche gekennzeichnet werden, beispielsweise dadurch, dass kein Inhalt, ein neutraler Farbton oder ähnliches angezeigt werden. Augmen- tierungen können gegebenenfalls auch in Platzhalterbildern angezeigt und über Bildgrenzen hinweg angezeigt werden. In embodiments of the method according to the invention, digital images of different viewing areas can be combined to form a composite image by means of "stitching", i.e. creating a large digital image from various smaller digital images that show sections of the extended object. The digital images can be combined using overlapping areas of the individual digital images and/or based on the position or movement of the image display device. In preferred embodiments, viewing areas of the extended object in positions of the movable part of the optics in which no or inadequate digital images were recorded can be replaced in the composite image by placeholder images in the corresponding position. These placeholder images can be identified as such in the composite image, for example by displaying no content, a neutral color tone or the like. Augmentations can also be displayed in placeholder images if necessary and displayed across image boundaries.
Die vorliegende Erfindung ist des Weiteren auf eine Vorrichtung umfassend eine Bildge- bungsvorrichtung, insbesondere eines Endoskopsystems, wobei die Bildgebungsvorrichtung ein optisches System mit einer Optik und einem Bildsensor zum Aufnehmen einer Serie von digitalen Bildern wenigstens eines Betrachtungsbereiches eines ausgedehnten Gegenstandes aufweist und wenigstens ein Teil der Optik bewegbar ist, und eine Steuereinheit gerichtet, wobei die Vorrichtung konfiguriert ist um die vorstehend beschriebenen Verfahren gemäß auszuführen. The present invention is further directed to a device comprising an imaging device, in particular an endoscope system, wherein the imaging device has an optical system with an optics and an image sensor for recording a series of digital images of at least one viewing area of an extended object and at least a part of the optics is movable, and a control unit, wherein the device is configured to carry out the methods described above.
In bestimmten Ausführungsformen ist die Steuereinheit ein Computersystem, das konfiguriert ist, um einen oder mehrere Schritte eines oder mehrerer hierin beschriebener oder veranschaulichter Verfahren durchzuführen. In bestimmten Ausführungsformen stellen ein oder mehrere Computersysteme hierin beschriebene oder veranschaulichte Funktionalität bereit. In bestimmten Ausführungsformen führt eine auf einem oder mehreren Computersystemen ausgeführte Software einen oder mehrere Schritte eines oder mehrerer hierin beschriebener oder veranschaulichter Verfahren durch oder stellt hierin beschriebene oder veranschaulichte Funktionalität bereit. Die Steuereinheit kann eine Speichereinrichtung für Daten oder Befehle umfassen. Zum Beispiel und nicht beschränkend kann die Speichereinrichtung ein Festplattenlaufwerk (HDD), ein Diskettenlaufwerk, einen Flash-Speicher, eine optische Platte, eine magnetooptische Diskette, ein Magnetband oder ein Universal-Serial-Bus(USB)- Laufwerk oder eine Kombination von zwei oder mehr von diesen umfassen. Die Speichereinrichtung kann entfernbare oder nicht entfernbare (oder feste) Datenträger umfassen, wo angemessen. Die Speichereinrichtung kann innerhalb oder außerhalb des Computersystems befindlich sein. In bestimmten Ausführungsformen ist die Speichereinrichtung ein nichtflüchtiger Festkörperspeicher. In bestimmten Ausführungsformen umfasst die Speichereinrichtung einen Festwertspeicher (ROM). Die Speichereinrichtung kann eine oder mehrere Speicherungssteuereinheiten umfassen, die die Kommunikation zwischen dem Prozessor und der Speichereinrichtung erleichtern. Ferner, kann die Speichereinrichtung eine oder mehrere Speichereinrichtungen umfassen. Die Steuereinheit kann ferner direkt oder indirekt mit einer Anzeigeeinheit verbunden sein. In certain embodiments, the controller is a computer system configured to perform one or more steps of one or more methods described or illustrated herein. In certain embodiments, one or more computer systems provide functionality described or illustrated herein. In certain embodiments, an execution on one or more computer systems executing software performs one or more steps of one or more methods described or illustrated herein or provides functionality described or illustrated herein. The controller may include a storage device for data or instructions. For example, and not by way of limitation, the storage device may include a hard disk drive (HDD), a floppy disk drive, flash memory, an optical disk, a magneto-optical disk, a magnetic tape, or a universal serial bus (USB) drive, or a combination of two or more of these. The storage device may include removable or non-removable (or fixed) media, where appropriate. The storage device may be located internally or externally of the computer system. In certain embodiments, the storage device is non-volatile solid state memory. In certain embodiments, the storage device includes read only memory (ROM). The storage device may include one or more storage controllers that facilitate communication between the processor and the storage device. Further, the storage device may include one or more storage devices. The controller may further be directly or indirectly connected to a display device.
Die vorliegende Erfindung ist des Weiteren auf ein Computerprogramm gerichtet, wobei das Computerprogramm Befehle aufweist, die bei der Ausführung des Programms durch einen Computer diesen veranlassen, das vorstehend beschriebene Verfahren auszuführen. The present invention is further directed to a computer program, wherein the computer program comprises instructions which, when the program is executed by a computer, cause the computer to carry out the method described above.
Der Umfang dieser Offenbarung schließt alle Änderungen, Ersetzungen, Variationen, Abwandlungen und Modifikationen an den hierin beschriebenen oder veranschaulichten Ausführungsbeispielen ein, die ein durchschnittlicher Fachmann begreifen würde. Der Schutzumfang dieser Offenbarung ist nicht auf die hierin beschriebenen oder veranschaulichten Ausführungsbeispiele beschränkt. Obwohl diese Offenbarung jeweilige Ausführungsformen hierin als bestimmte Komponenten, Elemente, Merkmale, Funktionen, Operationen oder Schritte umfassend beschreibt und veranschaulicht, können zudem beliebige dieser Ausführungsformen beliebige Kombinationen oder Permutationen beliebiger Komponenten, Elemente, Merkmale, Funktionen, Operationen oder Schritte, die irgendwo hierin beschrieben oder veranschaulicht sind, umfassen, die ein durchschnittlicher Fachmann begreifen würde. Ein Verweis in den angehängten Patentansprüchen darauf, dass ein Verfahren oder eine Vorrichtung oder eine Komponente einer Vorrichtung oder ein System zum Durchführen einer bestimmten Funktion angepasst, eingerichtet, fähig, konfiguriert, befähigt, betriebsfähig oder betriebsbereit ist, schließt des Weiteren dieses Gerät, dieses System oder diese Komponente ein, unabhängig davon, ob es/sie oder diese bestimmte Funktion aktiviert, eingeschaltet oder freigegeben ist, solange dieses Gerät, dieses System oder diese Komponente dazu angepasst, eingerichtet, fähig, konfiguriert, befähigt, betriebsfähig oder betriebsbereit ist. Obwohl diese Offenbarung bestimmte Ausführungsformen als bestimmte Vorteile bereitstellend beschreibt oder veranschaulicht, können zudem bestimmte Ausführungsformen keine, einige oder alle diese Vorteile bereitstellen. The scope of this disclosure includes all changes, substitutions, variations, alterations, and modifications to the embodiments described or illustrated herein that one of ordinary skill in the art would understand. The scope of this disclosure is not limited to the embodiments described or illustrated herein. In addition, although this disclosure describes and illustrates respective embodiments herein as comprising particular components, elements, features, functions, operations, or steps, any of these embodiments may include any combination or permutation of any components, elements, features, functions, operations, or steps described or illustrated anywhere herein that one of ordinary skill in the art would understand. A reference in the appended claims to a method or apparatus or component of an apparatus or system being adapted, arranged, capable, configured, enabled, operable, or ready to perform a particular function further includes that apparatus, system, or component, whether or not it or that particular function is enabled, is turned on or enabled as long as that device, system, or component is adapted, arranged, capable, configured, enabled, operable, or ready to operate. In addition, although this disclosure describes or illustrates certain embodiments as providing certain advantages, certain embodiments may provide none, some, or all of these advantages.
Kurzbeschreibung der Abbildungen Short description of the figures
Fig. 1 zeigt schematisch den Ablauf des erfindungsgemäßen Verfahrens. Fig. 1 shows schematically the sequence of the method according to the invention.
Fig. 2 zeigt schematisch einen Speichereintrag des erfindungsgemäßen Verfahrens. Fig. 2 shows schematically a memory entry of the method according to the invention.
Fig. 3 zeigt das Verfahren zur Augmentierung gemäß eines Ausführungsbeispiels. Fig. 3 shows the method for augmentation according to an embodiment.
Die beiliegenden Zeichnungen veranschaulichen beispielhafte Ausführungsformen der Erfindung und dienen der beispielhaften Erläuterung der Grundsätze der Erfindung The accompanying drawings illustrate exemplary embodiments of the invention and serve to explain the principles of the invention by way of example
Detaillierte Beschreibung Detailed description
Die vorliegende Erfindung wird nun mit Bezugnahme auf die beiliegenden Zeichnungen näher beschrieben. Das Verfahren kann jedoch in vielen verschiedenen Formen verkörpert werden und sollte nicht auf die hier dargelegten Ausführungsformen beschränkt ausgelegt werden. Es sei angemerkt, dass die Figuren zur Veranschaulichung der allgemeinen Merkmale der in gewissen Ausführungsformen genutzten Verfahren vorgesehen sind. Diese Figuren geben jedoch die exakte Struktur oder das exakte Leistungsmerkmal einer gegebenen Ausführungsform möglicherweise nicht exakt wieder. Zudem bezeichnen gleiche Bezugszeichen in den Figuren entsprechende Teile über die verschiedenen Ansichten oder Ausführungsformen hinweg. The present invention will now be described in more detail with reference to the accompanying drawings. The method may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. It should be noted that the figures are intended to illustrate the general features of the methods utilized in certain embodiments. However, these figures may not precisely depict the exact structure or performance of a given embodiment. In addition, like reference numerals in the figures designate corresponding parts throughout the different views or embodiments.
Die vorliegende Erfindung zielt auch darauf ab, es einem Nutzer, beispielsweise einem Arzt der eine minimalinvasive Operation durchführt, zu ermöglichen intraoperative Landmarken zu setzen. Diese Landmarken markieren Informationen, wie zum Beispiel bestimmte Objekte, die der Arzt im Laufe der Operation entfernen möchte. Es wird beispielsweise eine Liste von Landmarken gespeichert, die der Arzt entfernen möchte. Die Position der Landmarken wird durch optisches Tracking und/oder 3D-Positionsbestimmung entsprechend der Kamera und Objektbewegung mitgeführt, auch wenn das Objekt den Sichtbereich der Kamera verlässt. Abbildung 1 zeigt hierbei eine schematische Darstellung des erfindungsgemäßen Verfahrens. Erfindungsgemäß werden mittels einer Bildgebungsvorrichtung, insbesondere einer medizinischen Bildgebungsvorrichtung wie ein Endoskopsystem, digitale Bilder eines Betrachtungsbereiches eines ausgedehnten Gegenstandes aufgenommen. Über Bewegung wenigstens von Teilen der Optik der Bildgebungsvorrichtung können verschiedene Betrachtungsbereiche erfasst und damit unterschiedliche Bereiche des ausgedehnten Gegenstandes in Form digitaler Bilder aufgenommen werden. Die Aufnahme digitaler Bilder kann in Form von unregelmäßig aufgenommenen Einzelbildern oder auch kontinuierlich, insbesondere als Video-Stream erfolgen. Wenigstens ein digitales Bild wird über eine geeignete Anzeigevorrichtung einem Benutzer des Verfahrens, wie einem Arzt während einer minimalinvasiven Operation, angezeigt werden. Mittels geeigneter Benutzereingaben, wie vorstehend im Detail beschrieben, kann der Benutzer des Verfahrens eine Information die in einem (aktuellen) Betrachtungsbereich und damit in einem (aktuell) dargestellten digitalen Bild enthalten ist markieren. Wenn die Markierung einer Information vorgenommen wird und entsprechend eine Landmarke gesetzt wird, wird über eine Steuereinheit die Position der Landmarke ermittelt. Diese Positionsermittlung kann basierend auf der Pixelinformation im digitalen Bild, basierend auf absoluten oder relativen Positionsinformationen der Bildgebungsvorrichtung, beispielsweise basierend auf Intertialsensordaten, gegebenenfalls in Bezug auf einen Referenzpunkt, erfolgen. Die Positionsinformationen werden zusammen mit einer (dynamisch) generierten, eindeutigen, der Landmarke zugeordneten Kennung in einer geeigneten Speicherform, insbesondere einer Datenbank gespeichert. The present invention also aims to enable a user, for example a doctor performing a minimally invasive operation, to set intraoperative landmarks. These landmarks mark information, such as certain objects that the doctor wants to remove during the operation. For example, a list of landmarks that the doctor wants to remove is stored. The position of the landmarks is maintained by optical tracking and/or 3D positioning according to the camera and object movement, even if the object leaves the camera's field of view. Figure 1 shows a schematic representation of the method according to the invention. According to the invention, digital images of a viewing area of an extended object are recorded using an imaging device, in particular a medical imaging device such as an endoscope system. By moving at least parts of the optics of the imaging device, different viewing areas can be recorded and thus different areas of the extended object can be recorded in the form of digital images. Digital images can be recorded in the form of irregularly recorded individual images or continuously, in particular as a video stream. At least one digital image is displayed to a user of the method, such as a doctor during a minimally invasive operation, via a suitable display device. Using suitable user inputs, as described in detail above, the user of the method can mark information that is contained in a (current) viewing area and thus in a (currently) displayed digital image. When information is marked and a landmark is set accordingly, the position of the landmark is determined via a control unit. This position determination can be carried out based on the pixel information in the digital image, based on absolute or relative position information of the imaging device, for example based on inertial sensor data, possibly in relation to a reference point. The position information is stored together with a (dynamically) generated, unique identifier assigned to the landmark in a suitable storage form, in particular a database.
Im Laufe der Anwendung des Verfahrens wird die Optik der Bildgebungsvorrichtung beziehungsweise, je nach verwendetem System, wenigstens der bewegbare Teil der Optik durch den Benutzer bewegt, wodurch ein digitales Bild aus einer anderen Position der Bildgebungsvorrichtung und somit zumindest eines teilweise unterschiedlichen Betrachtungsbereichs aufgenommen. Basierend auf den verfügbaren Positionsinformationen der Bildgebungsvorrichtung und/oder über optische Flussanalysen aufeinanderfolgender digitaler Bilder wird die Position der Landmarke in Bezug auf den aktuellen, oder aktuell dargestellten, Betrachtungsbereich ermittelt. During the application of the method, the optics of the imaging device or, depending on the system used, at least the movable part of the optics is moved by the user, whereby a digital image is recorded from a different position of the imaging device and thus at least a partially different viewing area. Based on the available position information of the imaging device and/or via optical flow analyses of successive digital images, the position of the landmark is determined in relation to the current, or currently displayed, viewing area.
Wenn die markierte Information im aktuellen Betrachtungsbereich, also im Blickfeld der Bildgebungsvorrichtung in ihrer aktuellen Position enthalten ist, wird eine der Landmarke zugeordnete Information auf das Bild augmentiert. Alternativ, wenn die markierte Information im aktuellen Betrachtungsbereich, also im Blickfeld der Bildgebungsvorrichtung in ihrer aktuellen Position nicht enthalten ist, wird eine der Bewegungsanweisungen auf das Bild augmentiert. Diese Bewegungsanweisung gibt dem Benutzer des Verfahrens die nötigen Informationen wie die Bildgebungsvorrichtung bewegt werden muss, um die markierte Information wieder in das Blickfeld der Bildgebungsvorrichtung zu bringen. If the marked information is contained in the current viewing area, i.e. in the field of view of the imaging device in its current position, information associated with the landmark is augmented onto the image. Alternatively, if the marked information is not contained in the current viewing area, i.e. in the field of view of the imaging device in its current position, one of the movement instructions is augmented onto the image. augmented. This movement instruction gives the user of the procedure the necessary information on how to move the imaging device in order to bring the marked information back into the field of view of the imaging device.
Abbildung 2 zeigt schematisch, welche einer Landmarke zugeordneten Informationen in welcher Form gespeichert werden können. Hier zeigt Abbildung 2a einen Datensatz wie er in dem im Zusammenhang mit Abbildung 3 beschriebenen Verfahren erzeugt werden kann. Verschiedenen Landmarken werden eindeutige Kennungen (Landmarken D) zugeordnet und diese mit den entsprechenden Koordinaten in einem digitalen Bild (Bildkoordinaten) eines Betrachtungsbereiches, der wiederum über die Position der Bildgebungsvorrichtung (Inertialsensordaten) beschrieben wird. Wie in Abbildung 2b gezeigt, können weitere Informationen gespeichert werden. Hierbei kann beispielsweise eine der Landmarke zugeordnete eindeutige Kennung, Positionsinformation, Kategoriezuordnung, assoziierte Aufgabe und ein Status gespeichert werden. Grundsätzlich ist die Positionsinformation hierbei abhängig von den systemspezifischen, verfügbaren Informationen, also beispielsweise ob ein System mit Inertialsensoren verwendet wird und ist entsprechend in der Abbildung rein exemplarisch dargestellt. Gleichermaßen sind die assoziierte Aufgabe und der Status von der jeweiligen Anwendung abhängig und entsprechend in Abbildung 2 rein exemplarisch. Figure 2 shows schematically which information assigned to a landmark can be stored in which form. Here, Figure 2a shows a data set as it can be generated in the process described in connection with Figure 3. Different landmarks are assigned unique identifiers (landmarks D) and these are shown with the corresponding coordinates in a digital image (image coordinates) of a viewing area, which in turn is described via the position of the imaging device (inertial sensor data). As shown in Figure 2b, further information can be stored. For example, a unique identifier assigned to the landmark, position information, category assignment, associated task and a status can be stored. Basically, the position information depends on the system-specific, available information, for example whether a system with inertial sensors is used and is shown purely as an example in the figure. Likewise, the associated task and the status depend on the respective application and are shown purely as an example in Figure 2.
Abbildung 3 zeigt ein spezifisches Ausführungsbeispiel der vorliegenden Erfindung, in dem es einem Anwender eines endoskopischen Systems, beispielsweise einem operierenden Arzt, ermöglicht wird, intraoperativ Landmarken zu setzen. Diese Landmarken markieren beispielsweise Objekte, die der Arzt im Laufe der Operation entfernen möchte. Es wird eine Liste von Landmarken gespeichert, die der Arzt entfernen möchte. Die Position der Landmarken wird durch optisches Tracking und/oder 3D-Positionsbestimmung entsprechend der Kamera- und Objektbewegung mitgeführt, auch wenn das Objekt den Sichtbereich der Kamera verlässt. Figure 3 shows a specific embodiment of the present invention in which a user of an endoscopic system, for example a surgeon, is enabled to set landmarks intraoperatively. These landmarks mark, for example, objects that the surgeon wants to remove during the operation. A list of landmarks that the surgeon wants to remove is stored. The position of the landmarks is tracked by optical tracking and/or 3D positioning according to the camera and object movement, even if the object leaves the camera's field of view.
In diesem Ausführungsbeispiel, basierend auf einem minimalinvasiven medizinischen Eingriff, wird eine Kombination von Inertialsensordaten und optisches Tracking zur Nachverfolgung einer gesetzten Landmarke verwendet. Zugrunde gelegt wird in diesem Beispiel eine typische endoskopische OP-Ausstattung inklusive Endoskop und Kamera, wobei ein fixer Trokarpunkt und eine 0°-Optik angenommen wird. In this embodiment, based on a minimally invasive medical procedure, a combination of inertial sensor data and optical tracking is used to track a set landmark. This example is based on typical endoscopic surgical equipment including an endoscope and camera, assuming a fixed trocar point and a 0° optic.
In einem in Abbildung 3a dargestellten aktuellen Livebild setzt der Anwender eine Landmarke auf den Bildmittelpunkt. Das Setzten der Landmarke kann hierbei wie vorstehend im Detail beschrieben erfolgen. Intern wird die Inertialsensorposition sowie das aktuelle Live- Bild mit der Koordinate des Bildzentrums gespeichert. Das gespeicherte Live-Bild erhält die Bezeichnung „0“, die Koordinate des Bildzentrums ist (x_0, y_0), die Inertialsensordaten sind R_0. In a current live image shown in Figure 3a, the user sets a landmark at the center of the image. The landmark can be set as described in detail above. Internally, the inertial sensor position and the current live Image saved with the coordinate of the image center. The saved live image is labeled "0", the coordinate of the image center is (x_0, y_0), the inertial sensor data is R_0.
Das nachfolgende, in Abbildung 3b dargestellte Live-Bild „1“ wird mit dem gespeicherten Bild „0“ mit einem Optical-Flow-Algorithmus verrechnet. Dadurch wird die Verschiebung des Bildmittelpunkts berechnet und eine neue Position (x_1 ,y_1) der gesetzten Landmarke bestimmt. Diese neue Position wird im Bild angezeigt. Analog findet für alle nachfolgenden Frames eine Optical-Flow-Verrechnung der Bilder N+1 und N statt, sodass jeweils die Koordinaten (x_N+1 , y_N+1) aus den Vorgängerkoordinaten (x_N, y_N) und dem berechneten Fluss bestimmt werden. The subsequent live image "1" shown in Figure 3b is calculated with the saved image "0" using an optical flow algorithm. This calculates the shift of the image center and determines a new position (x_1, y_1) of the set landmark. This new position is displayed in the image. Analogously, an optical flow calculation of the images N+1 and N takes place for all subsequent frames, so that the coordinates (x_N+1, y_N+1) are determined from the previous coordinates (x_N, y_N) and the calculated flow.
Nach einer gewissen Anzahl von Frames N=M ist eine Berechnung des Optical-Flows nicht mehr möglich. Dies kann bspw. auftreten, wenn das zur Landmarke gehörende Objekt durch weitergehende Bewegung der Bildgebungsvorrichtung den Bildbereich verlässt oder verdeckt wird. Auch eine zu schnelle Bewegung des Endoskops kann dazu führen, dass der Fluss nicht bestimmt werden kann. In diesem Fall wird auf die Inertialsensordaten der Kamera zurückgegriffen. Grundsätzlich hat die Kamera als starrer Körper 6 Freiheitsgrade (3 Translations - und 3 Rotationsfreiheitsgrade). Unter der Annahme eines fixen Trokarpunkts sind lediglich 3 Rotationsfreiheitsgrade und ein Translationsfreiheitsgrad (rein-raus) variabel. Der Inertialsensor misst die 3 Rotationsfreiheitsgrade. Da sich die gesetzte Landmarke im Bildzentrum befindet und eine 0° Optik beschrieben ist, ändert sich die Koordinate der Landmarke während des Auswahlvorgangs nicht bei einer (fiktiven) Bewegung entlang der rein- raus-Achse. Anders formuliert liegt das zur Landmarke gehörende Objekt in der Verlängerung des Endoskops. After a certain number of frames N=M, it is no longer possible to calculate the optical flow. This can occur, for example, if the object belonging to the landmark leaves the image area or is obscured by further movement of the imaging device. If the endoscope moves too quickly, the flow cannot be determined. In this case, the inertial sensor data from the camera is used. As a rigid body, the camera basically has 6 degrees of freedom (3 translational and 3 rotational degrees of freedom). Assuming a fixed trocar point, only 3 rotational degrees of freedom and one translational degree of freedom (in-out) are variable. The inertial sensor measures the 3 rotational degrees of freedom. Since the set landmark is in the center of the image and a 0° optic is described, the coordinate of the landmark does not change during the selection process with a (fictitious) movement along the in-out axis. In other words, the object belonging to the landmark lies in the extension of the endoscope.
Entsprechend kann durch Verrechnung der aktuellen Inertialsensordaten R_M und der anfänglichen Inertialsensordaten R_0 die Richtung (nicht jedoch der Abstand) ausgerechnet werden, in der die gesetzte Landmarke relativ zum Bildmittelpunkt liegt. Diese Richtung wird wie in Abbildung 3c gezeigt im Bild eingeblendet. Accordingly, by calculating the current inertial sensor data R_M and the initial inertial sensor data R_0, the direction (but not the distance) in which the set landmark lies relative to the image center can be calculated. This direction is displayed in the image as shown in Figure 3c.
In jedem nachfolgenden Frame M+1 , M+2, ... wird einerseits über die Verrechnung der Inertialsensordaten die Richtung der Landmarke berechnet und eingeblendet. Andererseits wird das jeweils aktuelle Bild mit Bild 0 und/oder Bild N mit einem Optical-Flow-Verfahren verglichen (Bild 1 bis Bild N-1 können gegebenenfalls, beispielsweise um Speicherplatz zu sparen, verworfen werden) und versucht, die Landmarkenkoordinate zu berechnen. Gelingt dies, wird dies angezeigt und es wird entsprechend Beschreibung b) verfahren, gelingt dies nicht, wird entsprechend Beschreibung d) weiter verfahren. In each subsequent frame M+1, M+2, ..., the direction of the landmark is calculated and displayed by calculating the inertial sensor data. On the other hand, the current image is compared with image 0 and/or image N using an optical flow method (image 1 to image N-1 can be discarded if necessary, for example to save storage space) and an attempt is made to calculate the landmark coordinate. If this is successful, If this is displayed, the procedure is as per description b). If this is not successful, the procedure is as per description d).
Wie vorstehend im Detail ausgeführt hat der Anwender die Möglichkeit durch Gestenerkennung, Drücken eines Knopfes, eines Fußpedals, etc. die gesetzte Landmarke zu löschen ober ggfs. weitere Landmarken zu setzen. As explained in detail above, the user has the option of deleting the set landmark or, if necessary, setting additional landmarks by means of gesture recognition, pressing a button, a foot pedal, etc.
Zum Setzen oder Löschen von Landmarken bietet sich eine Gestensteuerung an. Hierbei bewegt der Arzt die eingebrachten Instrumente so, dass die Instrumentenspitzen eine vorab definierte Bewegungstrajektorie durchführen. Die Endoskopkamera erfasst das Bild. Ein künstlicher Intelligenzalgorithmus erkennt die Instrumentenspitze (hierbei bietet sich insbesondere ein Detektionsmodell an, das eine Bounding Box im Bild vorhersagt) und erfasst die Bewegung der Instrumentenspitze über eine Anzahl von aufeinanderfolgenden Frames. Entspricht die Bewegung der vorab definierten Trajektorie, wird bspw. das Setzen oder Löschen der Landmarke aktiviert. Insbesondere eignen sich definierte Trajektorien, die nicht üblicherweise in einem normalen laparoskopischen Eingriff vorkommen. Beispielsweise kann eine „8“-Bewegung zum Setzen einer Landmarke definiert werden und eine Kreisbewegung um die gesetzte Landmarke zu löschen verwendet werden. Gesture control is a good option for setting or deleting landmarks. The doctor moves the inserted instruments so that the instrument tips follow a predefined movement trajectory. The endoscope camera captures the image. An artificial intelligence algorithm recognizes the instrument tip (a detection model that predicts a bounding box in the image is particularly suitable here) and records the movement of the instrument tip over a number of consecutive frames. If the movement corresponds to the predefined trajectory, the setting or deletion of the landmark is activated, for example. Defined trajectories that do not usually occur in a normal laparoscopic procedure are particularly suitable. For example, a "figure 8" movement can be defined to set a landmark and a circular movement can be used to delete the set landmark.
Das Öffnen und Schließen des Maulteils kann ebenfalls die Gestensteuerung unterstützen, hierbei kann ein Kl-Modell eine binäre Klassifikation durchführen. Denkbar ist auch, dass mehrere Instrumente gemeinsam eine Geste durchführen. Opening and closing the jaw can also support gesture control, with a Kl model able to perform a binary classification. It is also conceivable that several instruments perform a gesture together.
Der Umfang dieser Offenbarung schließt alle Änderungen, Ersetzungen, Variationen, Abwandlungen und Modifikationen an den hierin beschriebenen oder veranschaulichten Ausführungsbeispielen ein, die ein durchschnittlicher Fachmann begreifen würde. Der Schutzumfang dieser Offenbarung ist nicht auf die hierin beschriebenen oder veranschaulichten Ausführungsbeispiele beschränkt. Obwohl diese Offenbarung jeweilige Ausführungsformen hierin als bestimmte Komponenten, Elemente, Merkmale, Funktionen, Operationen oder Schritte umfassend beschreibt und veranschaulicht, können zudem beliebige dieser Ausführungsformen beliebige Kombinationen oder Permutationen beliebiger Komponenten, Elemente, Merkmale, Funktionen, Operationen oder Schritte, die irgendwo hierin beschrieben oder veranschaulicht sind, umfassen, die ein durchschnittlicher Fachmann begreifen würde. Ein Verweis in den angehängten Patentansprüchen darauf, dass ein Verfahren oder eine Vorrichtung oder eine Komponente einer Vorrichtung oder ein System zum Durchführen einer bestimmten Funktion angepasst, eingerichtet, fähig, konfiguriert, befähigt, betriebsfähig oder betriebsbereit ist, schließt des Weiteren dieses Gerät, dieses System oder diese Komponente ein, unabhängig davon, ob es/sie oder diese bestimmte Funktion aktiviert, eingeschaltet oder freigegeben ist, solange dieses Gerät, dieses System oder diese Komponente dazu angepasst, eingerichtet, fähig, konfiguriert, befähigt, betriebsfähig oder betriebsbereit ist. Obwohl diese Offenbarung bestimmte Ausführungsformen als bestimmte Vorteile bereitstellend beschreibt oder veranschaulicht, können zudem bestimmte Ausführungsformen keine, einige oder alle diese Vorteile bereitstellen. The scope of this disclosure includes all changes, substitutions, variations, alterations, and modifications to the embodiments described or illustrated herein that one of ordinary skill in the art would understand. The scope of this disclosure is not limited to the embodiments described or illustrated herein. In addition, although this disclosure describes and illustrates respective embodiments herein as comprising particular components, elements, features, functions, operations, or steps, any of these embodiments may include any combination or permutation of any components, elements, features, functions, operations, or steps described or illustrated anywhere herein that one of ordinary skill in the art would understand. A reference in the appended claims to a method or apparatus or component of an apparatus or system being adapted, arranged, capable, configured, enabled, operable, or ready to perform a particular function further includes that apparatus, system, or component, regardless of whether it or that particular function is activated, enabled, or enabled, as long as that device, system, or component is adapted, arranged, capable, configured, enabled, operable, or ready to operate. In addition, although this disclosure describes or illustrates certain embodiments as providing certain advantages, certain embodiments may provide none, some, or all of those advantages.
Ein Verfahren zur Markierung von Information in digitalen Bildern einer Bildgebungsvorrich- tung, insbesondere eines Endoskopsystems, wobei die Bildgebungsvorrichtung ein optisches System mit einer Optik und einem Bildsensor zum Aufnehmen einer Serie von digitalen Bil- dern wenigstens eines Betrachtungsbereiches eines ausgedehnten Gegenstandes aufweist und wenigstens ein Teil der Optik bewegbar ist, umfassend das Markieren von Informationen in einem digitalen Bild, Bestimmen und Speichern von Positionsinformationen der markierten Informationen und Augmentieren der Markierung entsprechenden Landmarke oder Bewegungsanweisung auf nachfolgenden digitalen Bildern. A method for marking information in digital images of an imaging device, in particular an endoscope system, wherein the imaging device has an optical system with an optic and an image sensor for recording a series of digital images of at least one viewing area of an extended object and at least a part of the optic is movable, comprising marking information in a digital image, determining and storing position information of the marked information and augmenting the landmark or movement instruction corresponding to the marking on subsequent digital images.
Claims
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102022132100.2A DE102022132100B4 (en) | 2022-12-02 | 2022-12-02 | Methods for marking information in digital images |
| DE102022132100.2 | 2022-12-02 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2024115724A1 true WO2024115724A1 (en) | 2024-06-06 |
Family
ID=89076077
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/EP2023/083903 Ceased WO2024115724A1 (en) | 2022-12-02 | 2023-12-01 | Method for marking information in digital images |
Country Status (2)
| Country | Link |
|---|---|
| DE (1) | DE102022132100B4 (en) |
| WO (1) | WO2024115724A1 (en) |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2018046092A1 (en) * | 2016-09-09 | 2018-03-15 | Siemens Aktiengesellschaft | Method for operating an endoscope, and endoscope |
| US20200078133A1 (en) * | 2017-05-09 | 2020-03-12 | Brainlab Ag | Generation of augmented reality image of a medical device |
| US20200387706A1 (en) * | 2019-06-04 | 2020-12-10 | Magentiq Eye Ltd | Systems and methods for processing colon images and videos |
-
2022
- 2022-12-02 DE DE102022132100.2A patent/DE102022132100B4/en active Active
-
2023
- 2023-12-01 WO PCT/EP2023/083903 patent/WO2024115724A1/en not_active Ceased
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2018046092A1 (en) * | 2016-09-09 | 2018-03-15 | Siemens Aktiengesellschaft | Method for operating an endoscope, and endoscope |
| US20200078133A1 (en) * | 2017-05-09 | 2020-03-12 | Brainlab Ag | Generation of augmented reality image of a medical device |
| US20200387706A1 (en) * | 2019-06-04 | 2020-12-10 | Magentiq Eye Ltd | Systems and methods for processing colon images and videos |
Also Published As
| Publication number | Publication date |
|---|---|
| DE102022132100A1 (en) | 2024-06-13 |
| DE102022132100B4 (en) | 2025-01-02 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| EP2449997B1 (en) | Medical workstation | |
| EP3363358B1 (en) | Device for determining and retrieving a reference point during a surgical operation | |
| EP3330922B1 (en) | Method and device for representing an object | |
| EP2672915A1 (en) | Endoscopic image processing system having means which generate geometric measurement information in the detection range of an optical digital camera | |
| EP4213755B1 (en) | Surgical assistance system | |
| EP2632382B2 (en) | Navigating attachment for optical devices in medicine, and method | |
| DE102005030646A1 (en) | Method for contour visualization of regions of interest in 2D fluoroscopic images | |
| DE102014218558A1 (en) | User interface and method for automated positioning of an examination table relative to a medical imaging system | |
| DE4417944A1 (en) | Process for correlating different coordinate systems in computer-assisted, stereotactic surgery | |
| WO1994003100A1 (en) | Process for imaging the interior of bodies | |
| EP3626176B1 (en) | Method for supporting a user, computer program product, data carrier and imaging system | |
| WO2008058520A2 (en) | Apparatus for supplying images to an operator | |
| EP3598948B1 (en) | Imaging system and method for generating a stereoscopic representation, computer program and data memory | |
| DE102014102425B4 (en) | Microscope system and microscopy method using digital markers | |
| DE102012205165A1 (en) | Medical system with a position detection device for detecting the position and orientation of an instrument | |
| DE102008045276A1 (en) | Medical system i.e. angiography system, controlling method for use during invasive angiography, involves correlating display of projection images and display of volume images with each other automatically | |
| DE102020200959A1 (en) | Recording of a panorama data set of an examination subject by means of a movable medical X-ray device | |
| DE102022132100B4 (en) | Methods for marking information in digital images | |
| EP2441410A1 (en) | Method for producing a medical image and medical workplace | |
| DE102020215559A1 (en) | Method for operating a visualization system in a surgical application and visualization system for a surgical application | |
| DE10235795B4 (en) | Medical device | |
| WO2022073784A1 (en) | Surgical assistance system and display method | |
| DE102009042712B4 (en) | Replay system and method for replaying an operations environment | |
| DE102025125044A1 (en) | Laparoscopy system | |
| DE102023101953A1 (en) | Surgical assistance system and method for data visualization for a surgical procedure |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 23817714 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 23817714 Country of ref document: EP Kind code of ref document: A1 |