WO2025009009A1 - 画像処理装置、画像処理方法および画像処理プログラム - Google Patents
画像処理装置、画像処理方法および画像処理プログラム Download PDFInfo
- Publication number
- WO2025009009A1 WO2025009009A1 PCT/JP2023/024564 JP2023024564W WO2025009009A1 WO 2025009009 A1 WO2025009009 A1 WO 2025009009A1 JP 2023024564 W JP2023024564 W JP 2023024564W WO 2025009009 A1 WO2025009009 A1 WO 2025009009A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- dimensional
- processor
- image processing
- boundary information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/045—Control thereof
Definitions
- the present invention relates to an image processing device, an image processing method, and an image processing program.
- Patent Documents 1 and 2 Systems for supporting endoscopic surgery are known in the past (see, for example, Patent Documents 1 and 2).
- Patent Document 1 an image showing the tip of a treatment tool and the distance from the tip of the treatment tool to the cutting site are synthesized into a three-dimensional image of the organ, and the synthesized three-dimensional image is displayed.
- Patent Document 2 the shape of a tubular organ such as the large intestine is calculated from a three-dimensional image, the shape of an endoscope is calculated, and the observation position of the endoscope within the organ is estimated based on the correspondence between the shape of the endoscope and the shape of the organ.
- Patent Documents 1 and 2 three-dimensional images are used that are acquired using a three-dimensional diagnostic imaging device such as a CT device or an MRI device. Therefore, an examination using a three-dimensional diagnostic imaging device is required before endoscopic surgery.
- the present invention has been made in consideration of the above-mentioned circumstances, and aims to provide an image processing device, an image processing method, and an image processing program that can generate information necessary to support surgery without requiring a three-dimensional image diagnostic device such as a CT device or an MRI device.
- One aspect of the present invention is an image processing device that processes images captured by an endoscope, the image processing device including a processor, which generates a three-dimensional image of a subject from a first image, associates the position of boundary information of a lesion contained in a second image with a second image, and associates the position of the boundary information associated with the second image with the three-dimensional image, the first image and the second image being two-dimensional images of the subject captured by an endoscope, and the first image being an image captured prior to capturing the second image.
- Another aspect of the present invention is an image processing method for processing an image captured by an endoscope, the image processing method including generating a three-dimensional image of a subject from a first image, associating a position of boundary information of a lesion contained in a second image with a second image, and associating the position of the boundary information associated with the second image with the three-dimensional image, the first image and the second image being two-dimensional images of the subject captured by an endoscope, and the first image being an image captured prior to capturing the second image.
- Another aspect of the present invention is an image processing program that causes a processor to execute an image processing method for processing an image captured by an endoscope, the image processing method including generating a three-dimensional image of the subject from a first image, associating a position of boundary information of a lesion contained in the second image with a second image, and associating the position of the boundary information associated with the second image with the three-dimensional image, the first image and the second image being two-dimensional images of the subject captured by an endoscope, and the first image being an image captured prior to capturing the second image.
- the present invention has the advantage of being able to generate the information necessary to assist with surgery without the need for a three-dimensional imaging diagnostic device such as a CT or MRI device.
- FIG. 1 is an overall configuration diagram of an endoscope system according to a first embodiment.
- 3 is a flowchart of an image processing method according to the first embodiment.
- 2B is a flowchart illustrating an example of step S6 in the image processing method of FIG. 2A.
- 2B is a flowchart illustrating another example of step S6 in the image processing method of FIG. 2A.
- FIG. 1 is a diagram illustrating the procedure for ESD of the stomach.
- FIG. 2 shows the first image in a time series.
- FIG. 2 shows a three-dimensional image generated from a first image in a time series.
- FIG. 13 is a diagram showing a three-dimensional image associated with boundary information. 13 is a diagram illustrating boundary information associated with a second image.
- FIG. 13 is a diagram showing a third image including a treatment tool.
- FIG. 13 is a diagram showing a third image for explaining an example of support information.
- FIG. 13 is a diagram showing an example of a third image of a near field of view.
- FIG. 4 is a diagram showing an example of navigation information and a composite image.
- 10 is a flowchart of an image processing method according to a second embodiment.
- 8 is a flowchart illustrating a first example of steps S15 and S16 in the image processing method of FIG. 7.
- FIG. 8B is a diagram for explaining image processing in FIG. 8A.
- 8 is a flowchart illustrating a second example of steps S15 and S16 in the image processing method of FIG. 7.
- FIG. 9B is a diagram for explaining image processing in FIG. 9A.
- FIG. 8 is a flowchart illustrating a third example of steps S15 and S16 in the image processing method of FIG. 7.
- FIG. 10B is a diagram for explaining image processing in FIG. 10A.
- 13 is a flowchart of an image processing method according to a third embodiment.
- FIG. 11 is a diagram showing an example of progress information.
- FIG. 11 is a diagram showing another example of the progress information.
- FIG. 11 is a diagram showing another example of the progress information.
- FIG. 11 is a diagram showing another example of the progress information.
- an image processing device 1 is applied to an endoscope system 100 .
- the endoscope system 100 includes an endoscope 2, an image processing device 1 that processes images captured by the endoscope 2, and a display device 3.
- the endoscope 2 is a typical monocular endoscope, and has a channel (not shown) into which the treatment tool 4 is inserted.
- the endoscope 2 has a two-dimensional camera 2a at its tip, which includes an image sensor and an objective lens.
- the two-dimensional image of the subject taken by the camera 2a is input from the endoscope 2 through the image processing device 1 to the display device 3, and is displayed on the display device 3.
- the image processing device 1 generates support information for supporting the surgeon in appropriately operating the treatment tool 4 from two-dimensional images captured by the endoscope 2 before and during endoscopic surgery, and outputs the support information.
- the image processing device 1 includes a processor 11 such as a central processing unit, a memory 12 such as a RAM (Random Access Memory), a storage unit 13, and a user interface 14.
- the storage unit 13 is a computer-readable non-transitory recording medium such as a hard disk drive or a ROM (read-only memory).
- the storage unit 13 stores an image processing program 13a for causing the processor 11 to execute an image processing method described below.
- the storage unit 13 also stores data necessary for image processing, such as optical design data for the endoscope 2.
- the user interface 14 has input devices such as a mouse, a keyboard, a touch panel, etc. A user such as an operator can input information to the image processing device 1 through the user interface 14 by operating the input devices.
- the image processing method of this embodiment includes a step S1 of acquiring a first image A of a subject S, a step S2 of generating a three-dimensional (3D) image D of the subject S from the first image A, a step S3 of matching the position of boundary information E of the lesion T to a second image B of the subject S, a step S4 of matching the position of the boundary information E to the 3D image D, a step S5 of receiving a third image C of the subject S, a step S6 of calculating the position of the treatment tool 4 in the 3D image D based on the third image C, a step S7 of determining the positional relationship between the treatment tool 4 and the boundary information E, and a step S8 of outputting support information according to the determination result. Steps S1 and S2 are performed before the endoscopic surgery, and steps S3 to S8 are performed during the endoscopic surgery.
- FIG. 3 illustrates a general procedure for ESD (endoscopic submucosal dissection) of a stomach (subject) S, which is an example of an endoscopic surgery to which the image processing method is applied.
- ESD endoscopic submucosal dissection
- markings M indicating the area to be resected are made around the lesion T (Step I).
- multiple dot-shaped markings M are made in a circular arrangement.
- a drug U is locally injected into the submucosa to elevate the lesion T (Step II), the mucosa is incised along the outside of the markings M with a treatment tool 4 such as a knife (Step III), and the lesion T is dissected (Step IV).
- the local injection, incision, and dissection are repeated multiple times until the entire lesion T is dissected.
- the processor 11 acquires time-series two-dimensional images of the stomach S as the first image A (step S1).
- the first image A is an image taken by the endoscope 2 during the endoscopic examination.
- an image during the endoscopic examination is stored in the memory unit 13, and the processor 11 acquires the first image A by reading out the first image A from the memory unit 13.
- the endoscope 2 used during the endoscopic examination may be the same as the endoscope 2 used in the endoscopic surgery, or it may be different.
- the processor 11 generates a 3D image D of the stomach S from the time-series first images A using a known 3D reconstruction technique such as SLAM (Simultaneous Localization and Mapping) or SfM (Structure from Motion) (step S2).
- SLAM Simultaneous Localization and Mapping
- SfM Structure from Motion
- the position in the 3D image D of the camera 2a corresponding to each first image A is calculated.
- the position of the camera 2a may be stored in the memory unit 13 for use in step S6 described below.
- the processor 11 After the start of surgery, the processor 11 generates boundary information E on the second image B, calculates the position of the boundary information E on the second image B, and associates the calculated position with the second image B (step S3).
- the second image B is a two-dimensional image of the stomach S captured by the endoscope 2 during surgery.
- the boundary information E is information that indicates the position of the boundary of the lesion T that is to be resected.
- the processor 11 generates an incision line along the boundary of the lesion T as boundary information E based on a user's input.
- the user uses the user interface 14 to mark the incision line E surrounding the row of markings M on the second image B of a wide field of view including the entire lesion T and markings M.
- the processor 11 captures the second image B on which the incision line E is marked, and calculates the position of the incision line E in the second image B.
- the processor 11 may use other methods to generate the boundary information E. For example, the processor 11 may detect markings M from the wide-field second image B and generate a sequence of the markings M as the boundary information.
- the processor 11 outputs support information according to the determination result of step S7 (step S8).
- the support information is information that supports the surgeon in operating the treatment tool 4 so that the position or movement direction of the treatment tool 4 is appropriate for the incision line E. Based on the support information, the surgeon can recognize whether the operation of the treatment tool 4 is appropriate for the incision line E.
- an example of support information is a warning indicating that the tip 4a is inside the incision line E. If the tip 4a is inside the incision line E, the processor 11 causes the display device 3 to display a warning F or causes the speaker to output a warning sound. In FIG. 5C, a frame indicating the warning F is displayed on the edge of the third image C. On the other hand, if the tip 4a is outside the incision line E, the processor 11 does not output a warning (see FIG. 5B). Based on the warning output, the surgeon recognizes that the tip 4a is inside the incision line E and corrects the position of the tip 4a in a direction away from the lesion T.
- the 3D image D is generated from a two-dimensional first image A captured by a general monocular endoscope 2 prior to endoscopic surgery. Therefore, there is no need for examination with a three-dimensional image diagnostic device such as a CT device or MRI device prior to endoscopic surgery. Furthermore, there is no need to use a special endoscope for endoscopic examination.
- the current positions of the camera 2a and the tip 4a during endoscopic surgery in the 3D image D are calculated using the two-dimensional second image B. That is, no sensor is required for detecting the positions of the camera 2a and the treatment tool 4. Therefore, the above image processing method can be realized using a general endoscope 2 and a general treatment tool 4 in endoscopic surgery.
- a technique for detecting the current positions of an endoscope and a treatment tool inside a body using sensors mounted on the endoscope and the treatment tool, respectively for example, JP 2013-202313 A and JP 2014-230612 A. This technique cannot be applied to general endoscopes and general treatment tools that are not equipped with sensors.
- the processor 11 may correct the shift in the position of the treatment tool 4 in the third image C due to distortion aberration of the third image C, and calculate the position of the tip 4a in the 3D image D using the corrected position of the treatment tool 4.
- FIG. 2C shows an example of step S6 including correction of the position of the treatment tool 4.
- the processor 11 calculates an offset amount of each position in the third image C caused by the distortion aberration based on the distortion correction coefficient and the optical design data of the endoscope 2, and generates a conversion table based on the offset amount (step S65).
- the conversion table is a table that converts each position in the third image C into a corrected position.
- Step S65 may be executed at any timing before step S63, or the conversion table may be stored in advance in the storage unit 13.
- the processor 11 calculates the corrected position of the treatment tool 4 using a conversion table from the position of the treatment tool 4 detected in step S61 (step S66), and calculates the relative position between the camera 2a and the tip 4a based on the corrected position of the treatment tool 4 (step S62). According to this configuration, the calculation of the position of the tip 4a in the 3D image D and the determination of the positional relationship between the treatment tool 4 and the incision line E can be performed with higher accuracy.
- an image processing apparatus, an image processing method, and an image processing program according to a second embodiment of the present invention will be described.
- This embodiment differs from the first embodiment in that the image processing device 1 provides the surgeon during surgery with navigation information for navigating the direction of incision by the treatment tool 4.
- configurations different from the first embodiment will be described, and configurations common to the first embodiment will be denoted by the same reference numerals and description thereof will be omitted.
- the image processing device 1 of this embodiment is applied to an endoscope system 100, similar to the first embodiment, and includes a processor 11, a memory 12, a storage unit 13, and a user interface .
- the mucosa is incised along the outside of the row of markings M.
- the surgeon brings the tip of the endoscope 2 close to the mucosa to observe the incised area under magnification. Therefore, as shown in FIG. 6A, the field of view of the third image C during the incision is narrow, and there may be only one or two markings M in the third image C, or no markings M at all. In such cases, the surgeon may not know the direction in which to make the incision.
- FIG. 7 shows an image processing method according to this embodiment executed by the processor 11.
- the image processing method includes steps S1, S2, S13 of associating the position of boundary information E of the lesion T with a second image B of the subject S, S14 of receiving a third image C of the subject S, S15 of associating the position of the boundary information E with the third image C, S16 of calculating the position of the boundary information E outside the field of view of the third image C, S17 of generating navigation information G, and S18 of outputting the third image C together with the navigation information G.
- Steps S1 and S2 are as described in the first embodiment, and are performed before surgery using the first image A obtained during endoscopic examination.
- Steps S13 to S18 are performed during ESD surgery.
- the second image B is a wide-field image that includes the entire lesion T and markings M.
- the processor 11 detects the multiple markings M arranged in a ring shape in the second image B as boundary information E, for example using a known image recognition technique, and calculates the position of each marking M in the second image B (step S13).
- the processor 11 may determine the second image B in which the markings M are detected, based on input from a user, for example a surgeon.
- the processor 11 receives in real time the image input from the endoscope 2 to the image processing device 1 as the third image C (step S14), and executes steps S15 to S18 using the current third image C.
- the processor 11 receives in real time the image input from the endoscope 2 to the image processing device 1 as the third image C (step S14), and executes steps S15 to S18 using the current third image C.
- the surgeon brings the tip of the endoscope 2 close to the marking M and observes the incision in a magnified manner.
- the third image C is an image with a close-up field of view narrower than the field of view of the second image B.
- the processor 11 associates the position of the marking M in the second image B with the third image C via the 3D image D (step S15), and calculates the position of the marking Mout outside the field of view (near field of view) of the third image C (step S16).
- the processor 11 associates the position of the boundary information E in the second image B with the 3D image D (S152, S152). Specifically, the processor 11 performs matching between the second image B and the 3D image D, and calculates the position of the second image B in the 3D image D (step S151). Next, the processor 11 projects the marking M detected in step S13 onto the 3D image D based on the position calculated in step S151, and calculates the position of the marking M in the 3D image D (step S152).
- the processor 11 associates the position of the third image C with the 3D image D. Specifically, the processor 11 performs matching between the third image C and the 3D image D, and calculates the position of the third image C in the 3D image D (step S153). Through steps S151, S152, and S153, the position of the boundary information E is associated with the third image C on the 3D image D. Next, the processor 11 identifies a marking Mout that is located outside the near field of view of the third image C and adjacent to the near field of view based on the position of the marking M calculated in steps S152 and S153 and the position of the third image C (step S16).
- steps S15 and S16 show a second example of steps S15 and S16.
- the processor 11 associates the position of the boundary information E in the second image B with the 3D image D (S152, S152).
- the processor 11 associates the position of the third image C with the 3D image D' to which the marking M is projected and the position of the boundary information E is associated (step S154).
- the processor 11 performs matching between the third image C and the 3D image D', and calculates the position of the third image C in the 3D image D'.
- the position of the boundary information E is associated with the third image C on the 3D image D'.
- the processor 11 specifies the marking Mout based on the position of the marking M and the position of the third image C calculated in steps S152 and S154 (step S16).
- the processor 11 associates the position of the third image C with the second image B via the 3D image D. Specifically, the processor 11 performs steps S151 and S153 in the same manner as in the first example. By steps S151 and S153, the position of the boundary information E is associated with the third image C.
- the processor 11 calculates the position of the third image C in the second image B based on the positions of the images B and C calculated in steps S151 and S153 (step S155).
- the processor 11 identifies the marking Mout based on the position of the marking M and the position of the third image C calculated in steps S13 and S155 (step S16).
- the matching in steps S151, S153, and S154 may be performed based on landmarks, which are characteristic points in each of images B, C, and D.
- processor 11 may detect the position, type, and feature amount of one or more landmarks in each of images B, C, and D, create a proximity graph from the landmarks for each of images B, C, and D, and perform matching between the images using the proximity graph.
- the processor 11 Following step S16, the processor 11 generates navigation information G (step S17) and outputs the third image C together with the navigation information G to the display device 3 for display (step S18).
- the navigation information G is a display indicating the position or direction of the marking Mout calculated in step S16, for example, a display such as an arrow pointing toward the marking Mout, or a display positioned at the position of the marking Mout.
- the processor 11 may generate a composite image H in which the navigation information G is composited outside the third image C, and display the composite image H on the display device 3.
- the display G indicating the direction is positioned between the marking M in the third image C and the marking Mout.
- the surgeon can grasp boundary information E outside the field of view of the third image C based on navigation information G outside the third image C, and recognize the direction in which the incision should be made.
- the above image processing method can be realized using a general endoscope 2 and a general treatment tool 4 in endoscopic surgery.
- an image processing apparatus, an image processing method, and an image processing program according to a third embodiment of the present invention will be described.
- This embodiment differs from the first embodiment in that the image processing device 1 provides the surgeon with progress information during surgery that indicates the progress of treatment by the treatment tool 4.
- configurations different from the first embodiment will be described, and configurations common to the first embodiment will be denoted by the same reference numerals and description thereof will be omitted.
- the image processing device 1 of this embodiment is applied to an endoscope system 100, similar to the first embodiment, and includes a processor 11, a memory 12, a storage unit 13, and a user interface .
- the resection of the lesion T is carried out in stages by repeatedly performing local injection of drugs, incision of the mucosa, and dissection of the lesion T. It can be difficult for an inexperienced surgeon to judge the timing to move from incision to dissection. Furthermore, the larger the lesion T, the more difficult it is for the surgeon to grasp the progress of the procedure.
- FIG. 11 shows an image processing method according to this embodiment executed by the processor 11.
- the image processing method includes steps S1, S2, S23 of associating the position of boundary information E of the lesion T with a second image B of the subject S, S24 of associating the position of the boundary information E with the 3D image D, S25 of receiving a third image C of the subject S, S26 of determining whether the treatment tool 4 in the third image C is performing treatment, S27 of calculating the position of the treatment tool 4 in the 3D image D based on the third image C, S28 of determining the progress of the treatment, S29 of generating progress information I, and S30 of outputting the third image C together with the progress information I.
- Steps S1 and S2 are as described in the first embodiment, and are performed before surgery using the first image A obtained during endoscopic examination.
- Steps S23 to S30 are performed during ESD surgery.
- Steps S23 and S24 are the same as steps S3 and S4, respectively, in the first embodiment.
- the boundary information E is an incision line to be incised by the treatment tool 4.
- the processor 11 receives the third image C input from the endoscope 2 to the image processing device 1 in real time (step S25), and executes steps S26 to S30 using the current third image C.
- the processor 11 determines whether or not the treatment tool 4 is performing treatment based on at least the position of the treatment tool 4 in the third image C (step S26). For example, if the treatment tool 4 is an energy device such as an electric scalpel, the mucosa is incised only when power is supplied to the treatment tool 4 and the treatment tool 4 is in contact with the mucosa. The processor 11 determines that treatment is being performed when the treatment tool 4 is in contact with the mucosa and power is being supplied to the treatment tool 4. Therefore, the processor 11 may obtain information indicating whether the treatment tool 4 is in contact with the mucosa and information indicating whether power is being supplied to the treatment tool 4 in step S26, as necessary.
- step S26 If it is determined that the treatment tool 4 is not performing treatment (NO in step S26), the processor 11 then proceeds to step S28.
- the processor 11 calculates the position of the tip 4a in the third image C at that time based on the third image C (step S27). The calculation of the tip 4a in the 3D image D is performed in the same manner as in step S6 in the first embodiment.
- the processor 11 may calculate the position of the tip 4a using other methods. For example, the processor 11 may detect the treatment tool 4 in the third image C using a known image recognition technology, and calculate the position of the tip 4a in the 3D image D by matching between the third image C and the 3D image D.
- processor 11 determines the progress of the treatment based on the position of incision line E associated with 3D image D in step S23 and the position of tip 4a calculated in step S27 (step S28). For example, processor 11 stores the position of tip 4a calculated in step S23, thereby obtaining information on the position of the already incised part. Processor 11 determines the part of incision line E that has already been incised based on a comparison between the stored position of tip 4a and the position of incision line E.
- the processor 11 generates progress information I indicating the progress of the incision (step S29).
- an example of the progress information I is a figure representing an incision line E.
- the progress information may be a 3D image D in which the figure I is superimposed on the position of the incision line E.
- a part that has already been incised and a part that has not yet been incised are displayed in different modes (e.g., in different colors).
- Fig. 12A in order to indicate the difference in the modes, the part that has been incised is shown with a solid line, and the part that has not yet been incised is shown with a dotted line.
- the 3D image D including the figure I may be divided into multiple regions D1, D2.
- the processor 11 selects one region including the position of the tip 4a from the multiple regions D1, D2, and displays the selected region so that it can be distinguished from the other regions.
- the landscape-oriented 3D image D is divided into a left region D1 and a right region D2, and a frame is added to the selected left region D1.
- another example of the progress information I is a display including a numerical value of the ratio of the length of the incised portion to the total length of the incision line E.
- another example of the progress information I is a progress bar.
- the processor 11 outputs the third image C together with the progress information I to the display device 3 for display (step S30). For example, as shown in Figures 12A to 12D, the progress information I is displayed on the display device 3 alongside the third image C.
- the surgeon can know the progress of the incision based on the progress information I. This allows the surgeon to smoothly proceed with the treatment by determining the timing to proceed to the next step, such as dissection, and thus allows the surgeon to perform appropriate treatment.
- the above image processing method can be realized using a general endoscope 2 and a general treatment tool 4 in endoscopic surgery.
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Biomedical Technology (AREA)
- Optics & Photonics (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Biophysics (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Endoscopes (AREA)
Abstract
画像処理装置は、プロセッサを備える。プロセッサは、第1画像から被検体の3次元画像を生成し(S2)、第2画像に含まれる病変部の境界情報の位置を第2画像に対応付け(S3)、第2画像に対応付けられた境界情報の位置を3次元画像に対応付ける(S4)。第1画像および第2画像は、内視鏡によって撮影された被検体の2次元画像であり、第1画像は、第2画像の撮影に先立って撮影された画像である。
Description
本発明は、画像処理装置、画像処理方法および画像処理プログラムに関するものである。
従来、内視鏡手術を支援するシステムが知られている(例えば、特許文献1,2参照。)。特許文献1において、処置具の先端を示す画像と処置具の先端から切削部位までの距離とが臓器の3次元画像に合成され、合成された3次元画像が表示される。特許文献2において、大腸等の管腔の臓器の形状が3次元画像から算出され、内視鏡の形状が算出され、内視鏡の形状と臓器の形状との対応関係に基づいて臓器内の内視鏡の観察位置が推定される。
特許文献1,2において、CT装置またはMRI装置等のような3次元画像診断装置を用いて取得された3次元画像が使用される。したがって、内視鏡手術の前に、3次元画像診断装置を使用した検査が必要となる。
本発明は、上述した事情に鑑みてなされたものであって、CT装置またはMRI装置のような3次元画像診断装置を必要とすることなく、手術の支援に必要な情報を生成することができる画像処理装置、画像処理方法および画像処理プログラムを提供することを目的とする。
本発明の一態様は、内視鏡によって撮影された画像を処理する画像処理装置であって、プロセッサを備え、該プロセッサが、第1画像から被検体の3次元画像を生成し、第2画像に該第2画像に含まれる病変部の境界情報の位置を対応付け、前記第2画像に対応付けられた前記境界情報の位置を前記3次元画像に対応付け、前記第1画像および前記第2画像は、内視鏡によって撮影された前記被検体の2次元画像であり、前記第1画像は、前記第2画像の撮影に先立って撮影された画像である、画像処理装置である。
本発明の他の態様は、内視鏡によって撮影された画像を処理する画像処理方法であって、第1画像から被検体の3次元画像を生成すること、第2画像に該第2画像に含まれる病変部の境界情報の位置を対応付けること、および、前記第2画像に対応付けられた前記境界情報の位置を前記3次元画像に対応付けること、を含み、前記第1画像および前記第2画像は、内視鏡によって撮影された前記被検体の2次元画像であり、前記第1画像は、前記第2画像の撮影に先立って撮影された画像である、画像処理方法である。
本発明の他の態様は、内視鏡によって撮影された画像を処理する画像処理方法をプロセッサに実行させる画像処理プログラムであって、前記画像処理方法が、第1画像から被検体の3次元画像を生成すること、第2画像に該第2画像に含まれる病変部の境界情報の位置を対応付けること、および、前記第2画像に対応付けられた前記境界情報の位置を前記3次元画像に対応付けること、を含み、前記第1画像および前記第2画像は、内視鏡によって撮影された前記被検体の2次元画像であり、前記第1画像は、前記第2画像の撮影に先立って撮影された画像である、画像処理プログラムである。
本発明によれば、CT装置またはMRI装置のような3次元画像診断装置を必要とすることなく、手術の支援に必要な情報を生成することができるという効果を奏する。
(第1実施形態)
本発明の第1実施形態に係る画像処理装置、画像処理方法および画像処理プログラムについて図面を参照して説明する。
図1に示されるように、本実施形態に係る画像処理装置1は、内視鏡システム100に適用される。
内視鏡システム100は、内視鏡2と、内視鏡2によって撮影された画像を処理する画像処理装置1と、表示装置3と、を備える。
本発明の第1実施形態に係る画像処理装置、画像処理方法および画像処理プログラムについて図面を参照して説明する。
図1に示されるように、本実施形態に係る画像処理装置1は、内視鏡システム100に適用される。
内視鏡システム100は、内視鏡2と、内視鏡2によって撮影された画像を処理する画像処理装置1と、表示装置3と、を備える。
内視鏡2は、一般的な単眼の内視鏡であり、処置具4が挿入されるチャネル(図示略)を有する。内視鏡2は、撮像素子および対物レンズ等を含む2次元のカメラ2aをその先端に有する。カメラ2aによって撮影された被検体の2次元画像は、内視鏡2から画像処理装置1を通して表示装置3に入力され、表示装置3に表示される。
画像処理装置1は、内視鏡手術の前および最中に内視鏡2によって撮影された2次元画像から、術者による処置具4の適切な操作を支援するための支援情報を生成し、支援情報を出力する。
具体的には、画像処理装置1は、中央演算処理装置のようなプロセッサ11と、RAM(Random Access Memory)のようなメモリ12と、記憶部13と、ユーザインタフェース14と、を備える。
具体的には、画像処理装置1は、中央演算処理装置のようなプロセッサ11と、RAM(Random Access Memory)のようなメモリ12と、記憶部13と、ユーザインタフェース14と、を備える。
記憶部13は、例えばハードディスクドライブまたはROM(read-only memory)のような、コンピュータ読み取り可能な非一時的な記録媒体である。記憶部13は、後述する画像処理方法をプロセッサ11に実行させるための画像処理プログラム13aを記憶している。また、記憶部13は、内視鏡2の光学設計データ等の画像処理に必要なデータを記憶している。
ユーザインタフェース14は、マウス、キーボードおよびタッチパネル等の入力デバイスを有する。術者等のユーザは、入力デバイスを操作することによって、ユーザインタフェース14を通して画像処理装置1に情報を入力することができる。
ユーザインタフェース14は、マウス、キーボードおよびタッチパネル等の入力デバイスを有する。術者等のユーザは、入力デバイスを操作することによって、ユーザインタフェース14を通して画像処理装置1に情報を入力することができる。
次に、プロセッサ11が実行する画像処理方法について説明する。
図2Aに示されるように、本実施形態に係る画像処理方法は、被検体Sの第1画像Aを取得するステップS1と、第1画像Aから被検体Sの3次元(3D)画像Dを生成するステップS2と、病変部Tの境界情報Eの位置を被検体Sの第2画像Bに対応付けるステップS3と、境界情報Eの位置を3D画像Dに対応付けるステップS4と、被検体Sの第3画像Cを受信するステップS5と、第3画像Cに基づいて処置具4の3D画像D内での位置を算出するステップS6と、処置具4と境界情報Eとの間の位置関係を判定するステップS7と、判定結果に応じた支援情報を出力するステップS8と、を含む。
ステップS1,S2は内視鏡手術前に実行され、ステップS3~S8は内視鏡手術中に実行される。
図2Aに示されるように、本実施形態に係る画像処理方法は、被検体Sの第1画像Aを取得するステップS1と、第1画像Aから被検体Sの3次元(3D)画像Dを生成するステップS2と、病変部Tの境界情報Eの位置を被検体Sの第2画像Bに対応付けるステップS3と、境界情報Eの位置を3D画像Dに対応付けるステップS4と、被検体Sの第3画像Cを受信するステップS5と、第3画像Cに基づいて処置具4の3D画像D内での位置を算出するステップS6と、処置具4と境界情報Eとの間の位置関係を判定するステップS7と、判定結果に応じた支援情報を出力するステップS8と、を含む。
ステップS1,S2は内視鏡手術前に実行され、ステップS3~S8は内視鏡手術中に実行される。
図3は、画像処理方法が適用される内視鏡手術の一例である胃(被検体)SのESD(内視鏡的粘膜下層剥離術)の一般的な手順を説明している。
ESDにおいて、病変部Tの周囲に、切除すべき範囲を示すマーキングMが付される((ステップI)。図3において、環状に配列する複数のドット状のマーキングMが付されている。次に、病変部Tを隆起させるために粘膜下層に薬剤Uが局所的に注入され(ステップII)、マーキングMの外側に沿って粘膜がナイフ等の処置具4によって切開され(ステップIII)、病変部Tが剥離される(ステップIV)。局注、切開および剥離は、病変部Tの全部が剥離されるまで複数回繰り返される。
ESDにおいて、病変部Tの周囲に、切除すべき範囲を示すマーキングMが付される((ステップI)。図3において、環状に配列する複数のドット状のマーキングMが付されている。次に、病変部Tを隆起させるために粘膜下層に薬剤Uが局所的に注入され(ステップII)、マーキングMの外側に沿って粘膜がナイフ等の処置具4によって切開され(ステップIII)、病変部Tが剥離される(ステップIV)。局注、切開および剥離は、病変部Tの全部が剥離されるまで複数回繰り返される。
図4Aに示されるように、プロセッサ11は、胃Sの時系列の2次元画像を第1画像Aとして取得する(ステップS1)。一般に、ESDの手術に先立ち、胃Sの内視鏡検査が行われる。第1画像Aは、内視鏡検査時に内視鏡2によって撮影された画像である。例えば、内視鏡検査時の画像が記憶部13に記憶され、プロセッサ11は、記憶部13から第1画像Aを読み出すことによって第1画像Aを取得する。内視鏡検査時に使用される内視鏡2は、内視鏡手術において使用される内視鏡2と同一であってもよく、異なっていてもよい。
次に、図4Bに示されるように、プロセッサ11は、SLAM(Simultaneous Localization and Mapping)またはSfM(Structure from Motion)等の公知の3次元再構成技術を使用して、時系列の第1画像Aから胃Sの3D画像Dを生成する(ステップS2)。3D画像Dの3次元再構成の処理において、各第1画像Aに対応するカメラ2aの3D画像D内での位置が算出される。カメラ2aの位置は、後述するステップS6において使用するために記憶部13に記憶されてもよい。
手術開始後、プロセッサ11は、第2画像B上に境界情報Eを生成し、第2画像B上での境界情報Eの位置を算出し、算出された位置を第2画像Bに対応付ける(ステップS3)。第2画像Bは、手術中に内視鏡2によって撮影される胃Sの2次元画像である。境界情報Eは、切除対象である病変部Tの境界の位置を示す情報である。
例えば、図5Aに示されるように、プロセッサ11は、ユーザの入力に基づいて、病変部Tの境界に沿う切開ラインを境界情報Eとして生成する。ユーザは、ユーザインタフェース14を使用して、病変部TおよびマーキングMの全体を含む広視野の第2画像B上に、マーキングMの列を囲む切開ラインEをマーキングする。プロセッサ11は、切開ラインEがマーキングされた第2画像Bを取り込み、第2画像B内での切開ラインEの位置を算出する。
プロセッサ11は、他の方法によって境界情報Eを生成してもよい。例えば、プロセッサ11は、広視野の第2画像BからマーキングMを検出し、マーキングMの列を境界情報として生成してもよい。
プロセッサ11は、他の方法によって境界情報Eを生成してもよい。例えば、プロセッサ11は、広視野の第2画像BからマーキングMを検出し、マーキングMの列を境界情報として生成してもよい。
次に、図4Cに示されるように、プロセッサ11は、第2画像Bに対応付けられた境界情報Eの位置を3D画像Dに対応付ける(ステップS4)。例えば、プロセッサ11は、第2画像Bと3D画像Dとの間のマッチングを行い、3D画像D内での切開ラインEの位置を算出する。
ステップS4の後、プロセッサ11は、内視鏡2から画像処理装置1に入力される画像を第3画像Cとしてリアルタイムに受信する(ステップS5)。したがって、第3画像Cは、第2画像Bの後に内視鏡2によって撮影された2次元画像である。プロセッサ11は、現在の第3画像Cを用いてステップS6~S8を実行する。
ステップS4の後、プロセッサ11は、内視鏡2から画像処理装置1に入力される画像を第3画像Cとしてリアルタイムに受信する(ステップS5)。したがって、第3画像Cは、第2画像Bの後に内視鏡2によって撮影された2次元画像である。プロセッサ11は、現在の第3画像Cを用いてステップS6~S8を実行する。
図5Bに示されるように、粘膜の切開が開始されると、処置具4が内視鏡2の視野内に配置される。プロセッサ11は、処置具4とカメラ2aとの間の相対位置が一定であるという特性に基づき、第3画像Cを使用して処置具4の先端4aの3D画像D内の位置を算出する(ステップS6)。
図2Bは、ステップS6の具体例を示している。
処置中、処置具4は内視鏡2と一体的に移動する。したがって、第3画像C内の背景領域(処置具4以外の領域)は複数の第3画像C間で移動するが、処置具4は、複数の第3画像C間で移動しない。プロセッサ11は、時系列の少なくとも2つの第3画像C間で静止している静止領域を処置具4として検出する(ステップS61)。
処置中、処置具4は内視鏡2と一体的に移動する。したがって、第3画像C内の背景領域(処置具4以外の領域)は複数の第3画像C間で移動するが、処置具4は、複数の第3画像C間で移動しない。プロセッサ11は、時系列の少なくとも2つの第3画像C間で静止している静止領域を処置具4として検出する(ステップS61)。
次に、プロセッサ11は、第3画像C内の処置具4の位置および内視鏡2の光学設計データに基づき、カメラ2aと先端4aとの間の相対位置を算出する(ステップS62)。
次に、プロセッサ11は、第3画像Cに基づいて、3D画像D内での現在のカメラ2aの位置を算出する(ステップS63)。例えば、プロセッサ11は、第3画像Cと3D画像Dとの間のマッチングを行うことによって3D画像D内での第3画像Cの位置を算出し、第3画像Cの位置から3D画像D内でのカメラ2aを算出する。プロセッサ11は、ステップS2において算出されたカメラ2aの位置を用いて、3D画像D内でのカメラ2aの位置を算出してもよい。
次に、プロセッサ11は、ステップS61,S62において算出された相対位置およびカメラ2aの位置に基づいて、3D画像D内での先端4aの位置を算出する(ステップS64)。
次に、プロセッサ11は、第3画像Cに基づいて、3D画像D内での現在のカメラ2aの位置を算出する(ステップS63)。例えば、プロセッサ11は、第3画像Cと3D画像Dとの間のマッチングを行うことによって3D画像D内での第3画像Cの位置を算出し、第3画像Cの位置から3D画像D内でのカメラ2aを算出する。プロセッサ11は、ステップS2において算出されたカメラ2aの位置を用いて、3D画像D内でのカメラ2aの位置を算出してもよい。
次に、プロセッサ11は、ステップS61,S62において算出された相対位置およびカメラ2aの位置に基づいて、3D画像D内での先端4aの位置を算出する(ステップS64)。
次に、プロセッサ11は、ステップS4において3D画像Dに対応付けられた境界情報Eの位置と、ステップS6において算出された先端4aの位置とに基づいて、切開ラインEに対する処置具4の位置が適切であるか否か、例えば、先端4aが切開ラインEの外側にあるか内側にあるか、を判定する(ステップS7)。
次に、プロセッサ11は、ステップS7の判定結果に応じて支援情報を出力する(ステップS8)。支援情報は、処置具4の位置または移動方向が切開ラインEに対して適切となるように、術者による処置具4の操作を支援する情報である。術者は、支援情報に基づいて、処置具4の操作が切開ラインEに対して適切であるか否かを認識することができる。
図5Cに示されるように、支援情報の一例は、先端4aが切開ラインEの内側にあることを示す警告である。先端4aが切開ラインEの内側にある場合、プロセッサ11は、警告Fを表示装置3に表示させるか、または、警告音をスピーカから出力させる。図5Cにおいて、警告Fを示すフレームが第3画像Cの縁に表示される。一方、先端4aが切開ラインEの外側にある場合、プロセッサ11は、警告を出力しない(図5B参照。)。術者は、警告が出力されたことに基づいて先端4aが切開ラインEの内側に入っていることを認識し、病変部Tから離れる方向に先端4aの位置を修正する。
ESDにおいて、病変部Tの全体を確実に切除するために、病変部Tの境界の外側を切開することが重要である。しかし、一般的に、胃の病変部Tの境界は不明瞭であることが多い。また、切開時には、切開部分を拡大観察するため第3画像Cの視野は狭く、マーキングMまたは病変部Tに対する先端4aの位置を第3画像Cのみに基づいて認識することが難しいことがある。
本実施形態によれば、切開ラインEに対する処置具4の位置が判定され、切開ラインEに対して処置具4が不適切な位置に配置されているとき、例えば、先端4aが切開ラインE内に位置するとき、そのことが警告のような支援情報Fによって術者に報知される。これにより、切開ラインEの外側を確実に切開するように、術者による処置具4の操作を支援することができる。
また、本実施形態によれば、3D画像Dは、内視鏡手術に先立って一般的な単眼の内視鏡2によって撮影された2次元の第1画像Aから生成される。したがって、内視鏡手術前のCT装置またはMRI装置等の3次元画像診断装置の検査が不要である。また、内視鏡検査において、特殊な内視鏡の使用も不要である。
また、本実施形態によれば、内視鏡手術中のカメラ2aおよび先端4aの3D画像D内での現在の位置は、2次元の第2画像Bを用いて算出される。すなわち、カメラ2aおよび処置具4の位置を検出するためのセンサは不要である。したがって、内視鏡手術において一般的な内視鏡2および一般的な処置具4を使用して、上記の画像処理方法を実現することができる。
従来、内視鏡および処置具のそれぞれに搭載されたセンサを使用して、体内での内視鏡および処置具の現在の位置を検出する技術が知られている(例えば、特開2013-202313号公報および特開2014-230612号公報)。この技術は、センサが搭載されていない一般的な内視鏡および一般的な処置具に適用することができない。
従来、内視鏡および処置具のそれぞれに搭載されたセンサを使用して、体内での内視鏡および処置具の現在の位置を検出する技術が知られている(例えば、特開2013-202313号公報および特開2014-230612号公報)。この技術は、センサが搭載されていない一般的な内視鏡および一般的な処置具に適用することができない。
本実施形態において、プロセッサ11は、第3画像Cの歪曲収差に因る第3画像C内の処置具4の位置のずれを補正し、処置具4の補正された位置を用いて3D画像D内での先端4aの位置を算出してもよい。
図2Cは、処置具4の位置の補正を含むステップS6の一例を示している。
プロセッサ11は、歪曲収差の補正係数および内視鏡2の光学設計データに基づいて歪曲収差に因る第3画像Cの各位置のオフセット量を算出し、オフセット量に基づいて変換テーブルを生成する(ステップS65)。変換テーブルは、第3画像C内の各位置を補正された位置へ変換するテーブルである。ステップS65は、ステップS63の前の任意のタイミングで実行されてもよく、変換テーブルが記憶部13に予め記憶されていてもよい。
図2Cは、処置具4の位置の補正を含むステップS6の一例を示している。
プロセッサ11は、歪曲収差の補正係数および内視鏡2の光学設計データに基づいて歪曲収差に因る第3画像Cの各位置のオフセット量を算出し、オフセット量に基づいて変換テーブルを生成する(ステップS65)。変換テーブルは、第3画像C内の各位置を補正された位置へ変換するテーブルである。ステップS65は、ステップS63の前の任意のタイミングで実行されてもよく、変換テーブルが記憶部13に予め記憶されていてもよい。
プロセッサ11は、ステップS61において検出された処置具4の位置から、変換テーブルを用いて処置具4の補正された位置を算出し(ステップS66)、補正された処置具4の位置に基づき、カメラ2aと先端4aとの間の相対位置を算出する(ステップS62)。
この構成によれば、3D画像D内での先端4aの位置の算出および処置具4と切開ラインEとの間の位置関係の判定を、より高い精度で行うことができる。
この構成によれば、3D画像D内での先端4aの位置の算出および処置具4と切開ラインEとの間の位置関係の判定を、より高い精度で行うことができる。
(第2実施形態)
次に、本発明の第2実施形態に係る画像処理装置、画像処理方法および画像処理プログラムについて説明する。
本実施形態は、画像処理装置1が、処置具4による切開の方向をナビゲートするナビゲーション情報を手術中に術者に提供する点において、第1実施形態と異なる。本実施形態において、第1実施形態と異なる構成について説明し、第1実施形態と共通する構成については同一の符号を付して説明を省略する。
本実施形態に画像処理装置1は、第1実施形態と同様、内視鏡システム100に適用され、プロセッサ11、メモリ12、記憶部13およびユーザインタフェース14を備える。
次に、本発明の第2実施形態に係る画像処理装置、画像処理方法および画像処理プログラムについて説明する。
本実施形態は、画像処理装置1が、処置具4による切開の方向をナビゲートするナビゲーション情報を手術中に術者に提供する点において、第1実施形態と異なる。本実施形態において、第1実施形態と異なる構成について説明し、第1実施形態と共通する構成については同一の符号を付して説明を省略する。
本実施形態に画像処理装置1は、第1実施形態と同様、内視鏡システム100に適用され、プロセッサ11、メモリ12、記憶部13およびユーザインタフェース14を備える。
前述したように、胃のESDにおいて、間隔を空けて配列する複数のマーキングMが付され、その後、マーキングMの列の外側に沿って粘膜が切開される。切開時、術者は、切開部分を拡大観察するために内視鏡2の先端を粘膜に近接させる。したがって、図6Aに示されるように、切開時の第3画像Cの視野は狭く、第3画像C内にマーキングMが1つまたは2つしかない、または、マーキングMが1つもないことがある。このような場合、術者は、切開すべき方向が分からなくなることがある。
図7は、プロセッサ11が実行する本実施形態に係る画像処理方法を示している。
画像処理方法は、ステップS1と、ステップS2と、病変部Tの境界情報Eの位置を被検体Sの第2画像Bに対応付けるステップS13と、被検体Sの第3画像Cを受信するステップS14と、境界情報Eの位置を第3画像Cに対応付けるステップS15と、第3画像Cの視野の外側の境界情報Eの位置を算出するステップS16と、ナビゲーション情報Gを生成するステップS17と、第3画像Cをナビゲーション情報Gと一緒に出力するステップS18と、を含む。
ステップS1,S2は、第1実施形態において説明した通りであり、内視鏡検査時の第1画像Aを使用して手術前に実行される。ステップS13~S18は、ESDの手術中に実行される。
画像処理方法は、ステップS1と、ステップS2と、病変部Tの境界情報Eの位置を被検体Sの第2画像Bに対応付けるステップS13と、被検体Sの第3画像Cを受信するステップS14と、境界情報Eの位置を第3画像Cに対応付けるステップS15と、第3画像Cの視野の外側の境界情報Eの位置を算出するステップS16と、ナビゲーション情報Gを生成するステップS17と、第3画像Cをナビゲーション情報Gと一緒に出力するステップS18と、を含む。
ステップS1,S2は、第1実施形態において説明した通りであり、内視鏡検査時の第1画像Aを使用して手術前に実行される。ステップS13~S18は、ESDの手術中に実行される。
第2画像Bは、病変部TおよびマーキングMの全体を含む広視野の画像である。プロセッサ11は、例えば公知の画像認識技術等を使用して、第2画像B内の環状に配列する複数のマーキングMを境界情報Eとして検出し、第2画像B内での各マーキングMの位置を算出する(ステップS13)。プロセッサ11は、マーキングMを検出する第2画像Bを、例えば術者等のユーザの入力に基づいて決定してもよい。
ステップS13の後、プロセッサ11は、内視鏡2から画像処理装置1に入力される画像を第3画像Cとしてリアルタイムに受信し(ステップS14)、現在の第3画像Cを用いてステップS15~S18を実行する。粘膜の切開時、術者は、内視鏡2の先端をマーキングMに近付け、切開部分を拡大観察する。第3画像Cは、第2画像Bの視野よりも狭い近接視野の画像である。
プロセッサ11は、3D画像Dを介して、第2画像B内のマーキングMの位置を第3画像Cに対応付け(ステップS15)、第3画像Cの視野(近接視野)の外側のマーキングMoutの位置を算出する(ステップS16)。
図8Aおよび図8Bは、ステップS15,S16の第1の例を示している。
プロセッサ11は、第2画像B内の境界情報Eの位置を3D画像Dに対応付ける(S152,S152)。具体的には、プロセッサ11は、第2画像Bと3D画像Dとの間のマッチングを行い、3D画像D内の第2画像Bの位置を算出する(ステップS151)。次に、プロセッサ11は、ステップS151において算出された位置に基づいて、ステップS13において検出されたマーキングMを3D画像D上に投影し、3D画像D内のマーキングMの位置を算出する(ステップS152)。
プロセッサ11は、第2画像B内の境界情報Eの位置を3D画像Dに対応付ける(S152,S152)。具体的には、プロセッサ11は、第2画像Bと3D画像Dとの間のマッチングを行い、3D画像D内の第2画像Bの位置を算出する(ステップS151)。次に、プロセッサ11は、ステップS151において算出された位置に基づいて、ステップS13において検出されたマーキングMを3D画像D上に投影し、3D画像D内のマーキングMの位置を算出する(ステップS152)。
次に、プロセッサ11は、第3画像Cの位置を3D画像Dに対応付ける。具体的には、プロセッサ11は、第3画像Cと3D画像Dとの間のマッチングを行い、3D画像D内の第3画像Cの位置を算出する(ステップS153)。ステップS151,S152,S153により、3D画像D上において、境界情報Eの位置が第3画像Cに対応付けられる。
次に、プロセッサ11は、ステップS152,S153において算出されたマーキングMの位置および第3画像Cの位置に基づいて、第3画像Cの近接視野の外側に位置し近接視野に隣接するマーキングMoutを特定する(ステップS16)。
次に、プロセッサ11は、ステップS152,S153において算出されたマーキングMの位置および第3画像Cの位置に基づいて、第3画像Cの近接視野の外側に位置し近接視野に隣接するマーキングMoutを特定する(ステップS16)。
図9Aおよび図9Bは、ステップS15,S16の第2の例を示している。
プロセッサ11は、第1の例と同様に、第2画像B内の境界情報Eの位置を3D画像Dに対応付ける(S152,S152)。
次に、プロセッサ11は、第3画像Cの位置を、マーキングMが投影され境界情報Eの位置が対応付けられた3D画像D’に対応付ける(ステップS154)。具体的には、プロセッサ11は、第3画像Cと3D画像D’との間のマッチングを行い、3D画像D’内の第3画像Cの位置を算出する。ステップS151,S152,S154により、3D画像D’上において、境界情報Eの位置が第3画像Cに対応付けられる
次に、プロセッサ11は、ステップS152,S154において算出されたマーキングMの位置および第3画像Cの位置に基づいて、マーキングMoutを特定する(ステップS16)。
プロセッサ11は、第1の例と同様に、第2画像B内の境界情報Eの位置を3D画像Dに対応付ける(S152,S152)。
次に、プロセッサ11は、第3画像Cの位置を、マーキングMが投影され境界情報Eの位置が対応付けられた3D画像D’に対応付ける(ステップS154)。具体的には、プロセッサ11は、第3画像Cと3D画像D’との間のマッチングを行い、3D画像D’内の第3画像Cの位置を算出する。ステップS151,S152,S154により、3D画像D’上において、境界情報Eの位置が第3画像Cに対応付けられる
次に、プロセッサ11は、ステップS152,S154において算出されたマーキングMの位置および第3画像Cの位置に基づいて、マーキングMoutを特定する(ステップS16)。
図10Aおよび図10Bは、ステップS15,S16の第3の例を示している。
プロセッサ11は、3D画像Dを介して第3画像Cの位置を第2画像Bに対応付ける。具体的には、プロセッサ11は、第1の例と同様に、ステップS151およびステップS153を行う。ステップS151,S153により、境界情報Eの位置が第3画像Cに対応付けられる。
次に、プロセッサ11は、ステップS151,S153おいて算出された画像B,Cの位置に基づいて、第2画像B内の第3画像Cの位置を算出する(ステップS155)。
次に、プロセッサ11は、ステップS13,S155において算出されたマーキングMの位置および第3画像Cの位置に基づいて、マーキングMoutを特定する(ステップS16)。
プロセッサ11は、3D画像Dを介して第3画像Cの位置を第2画像Bに対応付ける。具体的には、プロセッサ11は、第1の例と同様に、ステップS151およびステップS153を行う。ステップS151,S153により、境界情報Eの位置が第3画像Cに対応付けられる。
次に、プロセッサ11は、ステップS151,S153おいて算出された画像B,Cの位置に基づいて、第2画像B内の第3画像Cの位置を算出する(ステップS155)。
次に、プロセッサ11は、ステップS13,S155において算出されたマーキングMの位置および第3画像Cの位置に基づいて、マーキングMoutを特定する(ステップS16)。
ステップS151,S153,S154のマッチングは、各画像B,C,D内の特徴点であるランドマークに基づいて行われてもよい。例えば、プロセッサ11は、各画像B,C,Dから1以上のランドマークの位置、種類および特徴量を検出し、各画像B,C,Dについてランドマークから近接グラフを作成し、近接グラフを用いて画像間のマッチングを行ってもよい。
ステップS16に続き、プロセッサ11は、ナビゲーション情報Gを生成し(ステップS17)、第3画像Cをナビゲーション情報Gと一緒に表示装置3に出力し表示させる(ステップS18)。ナビゲーション情報Gは、ステップS16において算出されたマーキングMoutの位置または方向を示す表示であり、例えば、矢印のようなマーキングMoutの方を向く表示、または、マーキングMoutの位置に配置される表示である。図6Bに示されるように、プロセッサ11は、第3画像Cの外側にナビゲーション情報Gが合成された合成画像Hを生成し、合成画像Hを表示装置3に表示させてもよい。図6Bにおいて、方向を示す表示Gは、第3画像C内のマーキングMと、マーキングMoutと、の間に配置されている。
図6Aに示されるように、第3画像C内のマーキングMが2つのみである場合、術者は、左のマーキングMから右のマーキングMまで切開した後、どちらの方向に向かって切開を進めるべきかを、第3画像Cのみから判断することは難しい。
本実施形態によれば、術者は、第3画像Cの外側のナビゲーション情報Gに基づき、第3画像Cの視野の外側の境界情報Eを把握し、切開すべき方向を認識することができる。
本実施形態によれば、術者は、第3画像Cの外側のナビゲーション情報Gに基づき、第3画像Cの視野の外側の境界情報Eを把握し、切開すべき方向を認識することができる。
また、第1実施形態と同様に、本実施形態によれば、内視鏡手術前のCT装置またはMRI装置等の3次元画像診断装置の検査が不要であると共に、内視鏡検査において、特殊な内視鏡の使用も不要である。また、本実施形態によれば、内視鏡手術において一般的な内視鏡2および一般的な処置具4を使用して、上記の画像処理方法を実現することができる。
(第3実施形態)
次に、本発明の第3実施形態に係る画像処理装置、画像処理方法および画像処理プログラムについて説明する。
本実施形態は、画像処理装置1が、処置具4による処置の進捗を表す進捗情報を手術中に術者に提供する点において、第1実施形態と異なる。本実施形態において、第1実施形態と異なる構成について説明し、第1実施形態と共通する構成については同一の符号を付して説明を省略する。
本実施形態に画像処理装置1は、第1実施形態と同様、内視鏡システム100に適用され、プロセッサ11、メモリ12、記憶部13およびユーザインタフェース14を備える。
次に、本発明の第3実施形態に係る画像処理装置、画像処理方法および画像処理プログラムについて説明する。
本実施形態は、画像処理装置1が、処置具4による処置の進捗を表す進捗情報を手術中に術者に提供する点において、第1実施形態と異なる。本実施形態において、第1実施形態と異なる構成について説明し、第1実施形態と共通する構成については同一の符号を付して説明を省略する。
本実施形態に画像処理装置1は、第1実施形態と同様、内視鏡システム100に適用され、プロセッサ11、メモリ12、記憶部13およびユーザインタフェース14を備える。
前述したように、胃のESDにおいて、薬剤の局注、粘膜の切開および病変部Tの剥離の繰り返しによって、病変部Tの切除が段階的に進められる。熟練していない術者にとって、切開から剥離に進むタイミングの判断が難しいことがある。また、病変部Tが大きい程、術者は、処置の進捗を把握することが困難になる。
図11は、プロセッサ11が実行する本実施形態に係る画像処理方法を示している。
画像処理方法は、ステップS1と、ステップS2と、病変部Tの境界情報Eの位置を被検体Sの第2画像Bに対応付けるステップS23と、境界情報Eの位置を3D画像Dに対応付けるステップS24と、被検体Sの第3画像Cを受信するステップS25と、第3画像C内の処置具4が処置を行っているか否かを判定するステップS26と、第3画像Cに基づいて処置具4の3D画像D内での位置を算出するステップS27と、処置の進捗を判定するステップS28と、進捗情報Iを生成するステップS29と、第3画像Cを進捗情報Iと一緒に出力するステップS30と、を含む。
ステップS1,S2は、第1実施形態において説明した通りであり、内視鏡検査時の第1画像Aを使用して手術前に実行される。ステップS23~S30は、ESDの手術中に実行される。
画像処理方法は、ステップS1と、ステップS2と、病変部Tの境界情報Eの位置を被検体Sの第2画像Bに対応付けるステップS23と、境界情報Eの位置を3D画像Dに対応付けるステップS24と、被検体Sの第3画像Cを受信するステップS25と、第3画像C内の処置具4が処置を行っているか否かを判定するステップS26と、第3画像Cに基づいて処置具4の3D画像D内での位置を算出するステップS27と、処置の進捗を判定するステップS28と、進捗情報Iを生成するステップS29と、第3画像Cを進捗情報Iと一緒に出力するステップS30と、を含む。
ステップS1,S2は、第1実施形態において説明した通りであり、内視鏡検査時の第1画像Aを使用して手術前に実行される。ステップS23~S30は、ESDの手術中に実行される。
ステップS23,S24は、第1実施形態のステップS3,S4とそれぞれ同一である。境界情報Eは、処置具4によって切開すべき切開ラインである。
ステップS24の後、プロセッサ11は、内視鏡2から画像処理装置1に入力される第3画像Cをリアルタイムに受信し(ステップS25)、現在の第3画像Cを用いてステップS26~S30を実行する。
ステップS24の後、プロセッサ11は、内視鏡2から画像処理装置1に入力される第3画像Cをリアルタイムに受信し(ステップS25)、現在の第3画像Cを用いてステップS26~S30を実行する。
プロセッサ11は、少なくとも、第3画像C内の処置具4の位置に基づいて、処置具4が処置を行っているいか否かを判定する(ステップS26)。例えば、処置具4が電気メスのようなエネルギデバイスである場合、処置具4に電力が供給されかつ処置具4が粘膜に接触しているときのみ、粘膜が切開される。プロセッサ11は、処置具4が粘膜に接触し、かつ、処置具4に電力が供給されているときに、処置が行われていると判定する。したがって、プロセッサ11は、必要に応じて、処置具4が粘膜に接触しているか否かの情報と、処置具4に電力が供給されているか否かを示す情報と、ステップS26において取得してもよい。
処置具4が処置を行っていないと判定された場合(ステップS26のNO)、プロセッサ11は、次にステップS28に進む。
処置具4が処置を行っていると判定された場合(ステップS26のYES)、プロセッサ11は、そのときの先端4aの第3画像C内での位置を第3画像Cに基づいて算出する(ステップS27)。3D画像D内での先端4aの算出は、第1実施形態のステップS6と同様に行われる。プロセッサ11は、他の方法を用いて先端4aの位置を算出してもよい。例えば、プロセッサ11は、公知の画像認識技術を使用して第3画像C内の処置具4を検出し、第3画像Cと3D画像Dとの間のマッチングによって3D画像D内の先端4aの位置を算出してもよい。
処置具4が処置を行っていると判定された場合(ステップS26のYES)、プロセッサ11は、そのときの先端4aの第3画像C内での位置を第3画像Cに基づいて算出する(ステップS27)。3D画像D内での先端4aの算出は、第1実施形態のステップS6と同様に行われる。プロセッサ11は、他の方法を用いて先端4aの位置を算出してもよい。例えば、プロセッサ11は、公知の画像認識技術を使用して第3画像C内の処置具4を検出し、第3画像Cと3D画像Dとの間のマッチングによって3D画像D内の先端4aの位置を算出してもよい。
次に、プロセッサ11は、ステップS23において3D画像Dに対応付けられた切開ラインEの位置と、ステップS27において算出された先端4aの位置と、に基づいて、処置の進捗を判定する(ステップS28)。例えば、プロセッサ11は、ステップS23において算出された先端4aの位置を蓄積し、それにより、既に切開された位置の情報を得る。プロセッサ11は、蓄積された先端4aの位置と切開ラインEの位置との対比に基づいて、切開ラインEの内、既に切開された部分を判定する。
次に、プロセッサ11は、切開の進捗を表す進捗情報Iを生成する(ステップS29)。
図12Aに示されるように、進捗情報Iの一例は、切開ラインEを表す図形である。進捗情報は、切開ラインEの位置に図形Iが重畳された3D画像Dであってもよい。図形Iにおいて、すでに切開された部分と、まだ切開されていない部分とが、相互に異なる態様で(例えば、異なる色で)表示される。図12Aにおいて、態様の違いを表すために、切開された部分は実線で示され、切開されていない部分は点線で示されている。
図12Aに示されるように、進捗情報Iの一例は、切開ラインEを表す図形である。進捗情報は、切開ラインEの位置に図形Iが重畳された3D画像Dであってもよい。図形Iにおいて、すでに切開された部分と、まだ切開されていない部分とが、相互に異なる態様で(例えば、異なる色で)表示される。図12Aにおいて、態様の違いを表すために、切開された部分は実線で示され、切開されていない部分は点線で示されている。
図12Bに示されるように、図形Iを含む3D画像Dは、複数の領域D1,D2に分割されてもよい。この場合、プロセッサ11は、複数の領域D1,D2の中から、先端4aの位置を含む1つの領域を選択し、選択された領域を他の領域とは識別可能に表示する。図12Bにおいて、横長の3D画像Dが左領域D1と右領域D2とに分割され、選択されている左領域D1に枠が付される。この構成によれば、大きい病変部T等の場合に、術者は、第3画像Cと図形Iにおける現在の切開位置とを容易に比較することができる。
図12Cに示されるように、進捗情報Iの他の例は、切開ラインEの全長に対する、切開された部分の長さの比率の数値を含む表示である。
図12Dに示されるように、進捗情報Iの他の例は、プログレスバーである。
次に、プロセッサ11は、第3画像Cを進捗情報Iと一緒に表示装置3に出力し表示させする(ステップS30)。例えば、図12A~図12Dに示されるように、進捗情報Iは、第3画像Cと並んで表示装置3に表示される。
図12Dに示されるように、進捗情報Iの他の例は、プログレスバーである。
次に、プロセッサ11は、第3画像Cを進捗情報Iと一緒に表示装置3に出力し表示させする(ステップS30)。例えば、図12A~図12Dに示されるように、進捗情報Iは、第3画像Cと並んで表示装置3に表示される。
前述したように、ESDの手術中、近接視野の第3画像Cのみに基づいて処置の進捗を把握することが難しい。
本実施形態によれば、術者は、進捗情報Iに基づいて切開の進捗を知ることができる。これにより、術者は、剥離等の次の手順に進むタイミングを見極めてスムーズに処置を進めることができ、適切な処置を行うことができる。
本実施形態によれば、術者は、進捗情報Iに基づいて切開の進捗を知ることができる。これにより、術者は、剥離等の次の手順に進むタイミングを見極めてスムーズに処置を進めることができ、適切な処置を行うことができる。
また、第1実施形態と同様に、本実施形態によれば、内視鏡手術前のCT装置またはMRI装置等の3次元画像診断装置の検査が不要であると共に、内視鏡検査において、特殊な内視鏡の使用も不要である。また、本実施形態によれば、内視鏡手術において一般的な内視鏡2および一般的な処置具4を使用して、上記の画像処理方法を実現することができる。
以上、本発明の実施形態およびその変形例について説明したが、本発明はこれに限定されるものではなく、本発明の要旨を逸脱しない範囲で適宜変更可能である。
例えば、本発明の画像処理装置および画像処理方法は、ESDの手術の他に、病変部の境界に沿って組織を切開する他の内視鏡手術にも適用することができる。
また、第1画像Aは、内視鏡検査時の画像に限らず、第2画像Bに先立って任意のタイミングで内視鏡2によって撮影される2次元画像であってもよい。例えば、内視鏡手術において、プロセッサ11は、被検体の時系列の第1画像Aを取得し、3D画像Dを生成し、その後、第2画像Bを用いた処理を実行してもよい。
例えば、本発明の画像処理装置および画像処理方法は、ESDの手術の他に、病変部の境界に沿って組織を切開する他の内視鏡手術にも適用することができる。
また、第1画像Aは、内視鏡検査時の画像に限らず、第2画像Bに先立って任意のタイミングで内視鏡2によって撮影される2次元画像であってもよい。例えば、内視鏡手術において、プロセッサ11は、被検体の時系列の第1画像Aを取得し、3D画像Dを生成し、その後、第2画像Bを用いた処理を実行してもよい。
1 画像処理装置
2 内視鏡
2a カメラ
3 表示装置
4 処置具
4a 先端
11 プロセッサ
13 記憶部
13a 画像処理プログラム
A 第1画像
B 第2画像
C 第3画像
D 3次元画像
E 切開ライン(境界情報)
F 警告(支援情報)
G ナビゲーション情報
H 合成画像
I 進捗情報
S 被検体
T 病変部
M マーキング
2 内視鏡
2a カメラ
3 表示装置
4 処置具
4a 先端
11 プロセッサ
13 記憶部
13a 画像処理プログラム
A 第1画像
B 第2画像
C 第3画像
D 3次元画像
E 切開ライン(境界情報)
F 警告(支援情報)
G ナビゲーション情報
H 合成画像
I 進捗情報
S 被検体
T 病変部
M マーキング
Claims (14)
- 内視鏡によって撮影された画像を処理する画像処理装置であって、
プロセッサを備え、
該プロセッサが、
第1画像から被検体の3次元画像を生成し、
第2画像に該第2画像に含まれる病変部の境界情報の位置を対応付け、
前記第2画像に対応付けられた前記境界情報の位置を前記3次元画像に対応付け、
前記第1画像および前記第2画像は、内視鏡によって撮影された前記被検体の2次元画像であり、前記第1画像は、前記第2画像の撮影に先立って撮影された画像である、画像処理装置。 - 前記プロセッサが、さらに、
第3画像内の処置具と内視鏡のカメラとの間の相対位置を前記第3画像に基づいて算出し、前記第3画像は、前記第2画像の撮影の後に前記内視鏡によって撮影された2次元画像であり、
前記第3画像に基づいて前記3次元画像内での前記カメラの位置を算出し、
前記相対位置と前記3次元画像内での前記カメラの位置とに基づいて、前記3次元画像内での前記処置具の位置を算出し、
前記3次元画像に対応付けられた前記境界情報の位置と、前記3次元画像内での処置具の位置とに基づいて、前記処置具と前記境界情報との間の位置関係を判定し、
判定結果に応じた支援情報を出力する、請求項1に記載の画像処理装置。 - 前記プロセッサが、前記3次元画像の生成において算出される前記カメラの位置を用いて、前記3次元画像内での前記カメラの位置を算出する、請求項2に記載の画像処理装置。
- 前記プロセッサが、前記相対位置の算出において、時系列の前記第3画像間で静止している領域を前記処置具として検出する、請求項2に記載の画像処理装置。
- 前記プロセッサが、歪曲収差に因る前記第3画像内の前記処置具の位置のずれを補正し、補正された前記処置具の位置に基づいて前記相対位置を算出する、請求項2に記載の画像処理装置。
- 前記プロセッサが、前記第2画像内の前記境界情報を検出することによって前記境界情報の位置を前記第2画像に対応付け、前記第2画像が、前記病変部の全体を含む広視野の画像であり、
前記プロセッサが、さらに、
前記3次元画像を介して、前記第2画像内の前記境界情報の位置を第3画像に対応付け、該第3画像は、前記第2画像の撮影の後に前記内視鏡によって撮影された前記第2画像よりも狭い視野の2次元画像であり、
前記第3画像の視野の外側の前記境界情報の位置を算出し、
前記第3画像を、前記視野の外側の境界情報に関するナビゲーション情報と一緒に出力する、請求項1に記載の画像処理装置。 - 前記プロセッサが、前記3次元画像に前記第3画像の位置を対応付け、前記3次元画像に対応付けられた前記境界情報の位置と前記第3画像の位置とに基づいて、前記視野の外側の境界情報の位置を算出する、請求項6に記載の画像処理装置。
- 前記プロセッサが、
前記3次元画像、前記第2画像および前記第3画像の各々から特徴点を検出し、
前記第2画像の前記特徴点および前記3次元画像の前記特徴点に基づいて、前記第2画像の位置を前記3次元画像に対応付け、
前記第3画像の前記特徴点および前記3次元画像の前記特徴点に基づいて、前記第3画像の位置を前記3次元画像に対応付ける、請求項7に記載の画像処理装置。 - 前記ナビゲーション情報が、前記第3画像の視野の外側に位置し該視野に隣接する前記境界情報の位置または方向を示す表示である、請求項6に記載の画像処理装置。
- 前記境界情報が、処置具によって処置すべきラインであり、
前記プロセッサが、さらに、
第3画像内の前記処置具が処置を行っているか否かを判定し、前記第3画像は、前記第2画像の撮影の後に前記内視鏡によって撮影された2次元画像であり、
前記処置具が処置を行っていると判定された場合、そのときの前記処置具の前記3次元画像内での位置を前記第3画像に基づいて算出し、
前記3次元画像に対応付けられた前記ラインの位置と前記3次元画像内での前記処置具の位置とに基づいて、処置の進捗を判定し、
前記第3画像を前記処置の進捗を表す進捗情報と一緒に出力する、請求項1に記載の画像処理装置。 - 前記進捗情報が、前記ラインを表す図形であり、該図形において、処置された部分と、まだ処置されていない部分とが、相互に異なる態様で表示される、請求項10に記載の画像処理装置。
- 前記進捗情報が、前記ラインの全長に対する、処置された部分の長さの比率の数値を含む、請求項10に記載の画像処理装置。
- 内視鏡によって撮影された画像を処理する画像処理方法であって、
第1画像から被検体の3次元画像を生成すること、
第2画像に該第2画像に含まれる病変部の境界情報の位置を対応付けること、および、
前記第2画像に対応付けられた前記境界情報の位置を前記3次元画像に対応付けること、を含み、
前記第1画像および前記第2画像は、内視鏡によって撮影された前記被検体の2次元画像であり、前記第1画像は、前記第2画像の撮影に先立って撮影された画像である、画像処理方法。 - 内視鏡によって撮影された画像を処理する画像処理方法をプロセッサに実行させる画像処理プログラムであって、
前記画像処理方法が、
第1画像から被検体の3次元画像を生成すること、
第2画像に該第2画像に含まれる病変部の境界情報の位置を対応付けること、および、
前記第2画像に対応付けられた前記境界情報の位置を前記3次元画像に対応付けること、を含み、
前記第1画像および前記第2画像は、内視鏡によって撮影された前記被検体の2次元画像であり、前記第1画像は、前記第2画像の撮影に先立って撮影された画像である、画像処理プログラム。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2023/024564 WO2025009009A1 (ja) | 2023-07-03 | 2023-07-03 | 画像処理装置、画像処理方法および画像処理プログラム |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2023/024564 WO2025009009A1 (ja) | 2023-07-03 | 2023-07-03 | 画像処理装置、画像処理方法および画像処理プログラム |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2025009009A1 true WO2025009009A1 (ja) | 2025-01-09 |
Family
ID=94171878
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2023/024564 Pending WO2025009009A1 (ja) | 2023-07-03 | 2023-07-03 | 画像処理装置、画像処理方法および画像処理プログラム |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2025009009A1 (ja) |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH11309A (ja) * | 1997-06-12 | 1999-01-06 | Hitachi Ltd | 画像処理装置 |
| JP2007260144A (ja) * | 2006-03-28 | 2007-10-11 | Olympus Medical Systems Corp | 医療用画像処理装置及び医療用画像処理方法 |
| JP2012235983A (ja) * | 2011-05-13 | 2012-12-06 | Olympus Medical Systems Corp | 医療用画像表示システム |
| WO2020195877A1 (ja) * | 2019-03-25 | 2020-10-01 | ソニー株式会社 | 医療システム、信号処理装置、及び、信号処理方法 |
| WO2022190366A1 (ja) * | 2021-03-12 | 2022-09-15 | オリンパス株式会社 | 内視鏡用形状計測システムおよび内視鏡用形状計測方法 |
-
2023
- 2023-07-03 WO PCT/JP2023/024564 patent/WO2025009009A1/ja active Pending
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH11309A (ja) * | 1997-06-12 | 1999-01-06 | Hitachi Ltd | 画像処理装置 |
| JP2007260144A (ja) * | 2006-03-28 | 2007-10-11 | Olympus Medical Systems Corp | 医療用画像処理装置及び医療用画像処理方法 |
| JP2012235983A (ja) * | 2011-05-13 | 2012-12-06 | Olympus Medical Systems Corp | 医療用画像表示システム |
| WO2020195877A1 (ja) * | 2019-03-25 | 2020-10-01 | ソニー株式会社 | 医療システム、信号処理装置、及び、信号処理方法 |
| WO2022190366A1 (ja) * | 2021-03-12 | 2022-09-15 | オリンパス株式会社 | 内視鏡用形状計測システムおよび内視鏡用形状計測方法 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP4698966B2 (ja) | 手技支援システム | |
| JP4009639B2 (ja) | 内視鏡装置、内視鏡装置のナビゲーション方法、内視鏡画像の表示方法、及び内視鏡用画像表示プログラム | |
| JP2006218129A (ja) | 手術支援システム | |
| CN111317568B (zh) | 胸部成像、距离测量、手术感知以及通知系统和方法 | |
| EP3298949B1 (en) | Image processing apparatus, image processing method, and surgical system | |
| JP2015505502A (ja) | 血管ツリー画像内での見えない分岐部の検出 | |
| JP2009279251A (ja) | 医療機器 | |
| JP2010274044A (ja) | 手術支援装置、手術支援方法及び手術支援プログラム | |
| JP2009056239A (ja) | 内視鏡装置 | |
| JP4875416B2 (ja) | 医用ガイドシステム | |
| JP2020531099A (ja) | 手術処置中に関心地点を空間的に場所特定する方法 | |
| US20210030510A1 (en) | Surgery system, image processor, and image processing method | |
| JP4365630B2 (ja) | 手術支援装置 | |
| JP2006198032A (ja) | 手術支援システム | |
| JP4323288B2 (ja) | 挿入支援システム | |
| WO2023162657A1 (ja) | 医療支援装置、医療支援装置の作動方法及び作動プログラム | |
| JP2002253480A (ja) | 医療処置補助装置 | |
| JP2006320427A (ja) | 内視鏡手術支援システム | |
| WO2023126754A1 (en) | Three-dimensional model reconstruction | |
| US12183448B2 (en) | Medical image processing apparatus, trocar, medical observation system, image processing method, and computer readable recording medium | |
| JP4022192B2 (ja) | 挿入支援システム | |
| JP4493383B2 (ja) | 手技支援システム | |
| WO2025009009A1 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
| US20220148209A1 (en) | Medical system, signal processing device, and signal processing method | |
| Oguma et al. | Ultrasound image overlay onto endoscopic image by fusing 2D-3D tracking of laparoscopic ultrasound probe |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 23944263 Country of ref document: EP Kind code of ref document: A1 |