WO2023127719A1 - Program, information processing device, and information processing method - Google Patents
Program, information processing device, and information processing method Download PDFInfo
- Publication number
- WO2023127719A1 WO2023127719A1 PCT/JP2022/047576 JP2022047576W WO2023127719A1 WO 2023127719 A1 WO2023127719 A1 WO 2023127719A1 JP 2022047576 W JP2022047576 W JP 2022047576W WO 2023127719 A1 WO2023127719 A1 WO 2023127719A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- amount
- medical
- movement
- computer
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61M—DEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
- A61M25/00—Catheters; Hollow probes
- A61M25/01—Introducing, guiding, advancing, emplacing or holding catheters
-
- C—CHEMISTRY; METALLURGY
- C12—BIOCHEMISTRY; BEER; SPIRITS; WINE; VINEGAR; MICROBIOLOGY; ENZYMOLOGY; MUTATION OR GENETIC ENGINEERING
- C12M—APPARATUS FOR ENZYMOLOGY OR MICROBIOLOGY; APPARATUS FOR CULTURING MICROORGANISMS FOR PRODUCING BIOMASS, FOR GROWING CELLS OR FOR OBTAINING FERMENTATION OR METABOLIC PRODUCTS, i.e. BIOREACTORS OR FERMENTERS
- C12M1/00—Apparatus for enzymology or microbiology
- C12M1/34—Measuring or testing with condition measuring or sensing means, e.g. colony counters
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
Definitions
- the present invention relates to a program, an information processing device, and an information processing method.
- US Pat. No. 6,200,000 discloses a device that includes a catheter having markings to aid in proper alignment with the treatment area.
- Patent Document 1 has a problem that it is not possible to specify the amount of movement of the elongated body for medical use inserted into the hollow organ.
- One aspect is to provide a program or the like that can specify the amount of movement of an elongated body for medical use inserted into a hollow organ.
- a program obtains circumferential images of a circumferential surface of a medical elongated body to be inserted into a hollow organ in time series, and based on the plurality of circumferential images obtained in time series, the medical The computer is caused to execute a process of specifying the amount of movement of the elongated body for use.
- FIG. 11 is an explanatory diagram for explaining a movement amount correction process;
- FIG. 11 is an explanatory diagram for explaining a movement amount correction process;
- FIG. 10 is an explanatory diagram for explaining interest point update processing;
- FIG. 10 is an explanatory diagram for explaining interest point update processing;
- FIG. 10 is an explanatory diagram for explaining interest point update processing;
- FIG. 11 is an explanatory diagram showing an example of a display screen for movement amounts;
- FIG. 11 is an explanatory diagram showing an example of a display screen for movement amounts;
- FIG. 10 is an explanatory diagram showing an example of a display screen of a graph showing the relationship between the amount of movement and the elapsed time;
- FIG. 10 is an explanatory diagram showing an example of a screen displaying a circumferential image and a graph at the same time;
- 4 is a flow chart showing a processing procedure when outputting a movement amount of a medical elongated body;
- FIG. 10 is a flow chart showing a processing procedure of a preprocessing subroutine for a circumferential image;
- FIG. FIG. 11 is a flow chart showing a processing procedure of a subroutine of movement amount specifying processing;
- FIG. 10 is a flowchart showing a processing procedure of a subroutine of interest point update processing;
- FIG. 4 is a flowchart showing a processing procedure for outputting a circumferential image and a movement amount of a medical elongated body; 4 is a flow chart showing a processing procedure for outputting an angiographic image of a hollow organ and a movement amount of a medical elongated body.
- FIG. 10 is a flow chart showing a processing procedure when outputting a notification;
- FIG. FIG. 7 is an explanatory diagram illustrating the configuration of a catheter system according to Embodiment 2;
- FIG. 4 is an explanatory diagram showing an example of a record layout of a training data DB; It is an explanatory view explaining a movement amount specific model.
- FIG. 11 is a flowchart showing a processing procedure of a subroutine of movement amount identification processing using a movement amount identification model;
- Embodiment 1 relates to an embodiment for specifying the amount of movement of a medical elongated body inserted into a hollow organ based on a peripheral surface image of the peripheral surface of the medical elongated body.
- Hollow organs are internal organs having a tubular structure, such as blood vessels, pancreatic ducts, bile ducts, gastrointestinal tracts or bronchi.
- FIG. 1 is an explanatory diagram illustrating the configuration of the catheter system 10.
- FIG. A catheter system 10 of this embodiment includes an information processing device 1 , a Y connector 2 into which a medical elongate body 4 is inserted, and an imaging device 3 attached to the Y connector 2 .
- the information processing device 1 is a personal computer, tablet, smartphone, or the like. Hereinafter, the information processing apparatus 1 is read as the computer 1 .
- the medical elongate body 4 includes guide wires, balloon catheters, stent catheters, and the like.
- the medical elongated body 4 is inserted through the inside of the Y connector 2 into the hollow organ.
- the imaging device 3 is connected to the computer 1 by wire or wirelessly.
- the imaging device 3 is attached inside or outside the Y connector 2 so that the peripheral surface of the medical elongate body 4 can be observed.
- the imaging device 3 is, for example, a CCD (Charge Coupled Device) camera, a CMOS (Complementary Metal Oxide Semiconductor) camera, or the like.
- CCD Charge Coupled Device
- CMOS Complementary Metal Oxide Semiconductor
- the imaging device 3 may be attached to a connection tube, an adapter, a catheter hub, a hemostatic valve, a three-way stopcock, or the like, which are components of the catheter system 10 (not shown).
- a display device 5 and an input device 6 are connected to the computer 1 .
- the display device 5 is a liquid crystal display, an organic EL (electroluminescence) display, or the like, and displays a peripheral surface image of the peripheral surface of the medical elongate body 4 output from the computer 1, or the like.
- the input device 6 is an input device such as a keyboard, mouse, trackball, or microphone.
- the display device 5 and the input device 6 may be laminated integrally to form a touch panel.
- the input device 6 and the computer 1 may be configured integrally.
- the computer 1 includes a control section 11, a storage section 12, a communication section 13, a display section 14, an input section 15, a reading section 16 and a large capacity storage section 17. Each configuration is connected by a bus B.
- the control unit 11 includes an arithmetic processing unit such as a CPU (Central Processing Unit), MPU (Micro-Processing Unit), GPU (Graphics Processing Unit), etc., and reads out the control program 1P (program product) stored in the storage unit 12. By executing it, various information processing, control processing, etc. related to the computer 1 are performed. Note that although FIG. 1 illustrates the controller 11 as a single processor, it may be a multiprocessor.
- the storage unit 12 includes memory elements such as RAM (Random Access Memory) and ROM (Read Only Memory), and stores the control program 1P or data necessary for the control unit 11 to execute processing.
- the storage unit 12 also temporarily stores data and the like necessary for the control unit 11 to perform arithmetic processing.
- the communication unit 13 is an interface that performs communication between the computer 1 and the network.
- the display unit 14 is an interface that connects the display device 5 and the bus.
- the input unit 15 is an interface that connects the input device 6 and a bus.
- the reading unit 16 reads a portable storage medium 1a including CD (Compact Disc)-ROM or DVD (Digital Versatile Disc)-ROM.
- the control unit 11 may read the control program 1P from the portable storage medium 1a via the reading unit 16 and store it in the large-capacity storage unit 17 .
- the control unit 11 may download the control program 1P from another computer via the network N or the like and store it in the large-capacity storage unit 17 .
- the control unit 11 may read the control program 1P from the semiconductor memory 1b.
- the large-capacity storage unit 17 includes recording media such as HDD (Hard disk drive) and SSD (Solid State Drive).
- the storage unit 12 and the large-capacity storage unit 17 may be configured as an integrated storage device.
- the large-capacity storage unit 17 may be composed of a plurality of storage devices.
- the large-capacity storage unit 17 may be an external storage device connected to the computer 1 .
- the computer 1 may execute various information processing, control processing, etc. as a single computer, may be distributed among a plurality of computers, or may be executed through virtual machines. Various information processing and control processing related to the computer 1 may be executed by a server device or the like having a communication environment.
- the computer 1 acquires circumferential images of the circumferential surface of the elongated medical body 4 inserted into the hollow organ in time series.
- the computer 1 specifies the amount of movement of the medical elongated body 4 based on a plurality of circumferential images acquired in time series.
- the computer 1 generates a graph showing the relationship between the identified movement amount and the elapsed time, and outputs the generated graph to the display device 5 .
- FIG. 2 is an explanatory diagram for explaining a circumferential image.
- the computer 1 acquires peripheral surface images of the peripheral surface of the elongated medical body 4 inserted into the hollow organ from the imaging device 3 attached to the Y connector 2 in chronological order.
- the computer 1 performs preprocessing on a plurality of peripheral surface images acquired in time series.
- the computer 1 acquires the effective image area 11a from the acquired circumferential image.
- the effective image area 11a is an image area in which the medical elongate body 4 is shown.
- the computer 1 may accept designation of the effective image area 11a by an operator or the like.
- the computer 1 performs feature extraction processing such as edge detection processing, pattern matching processing, or the like based on each pixel information (color information, luminance information, etc.) included in the peripheral image, and extracts an effective image in the peripheral image. You may extract the area
- the computer 1 may use a segmentation network such as U-Net (Convolutional Networks for Biomedical Image Segmentation) to extract the effective image area 11a in the circumferential image.
- the computer 1 cuts out the obtained effective image area 11a.
- the computer 1 converts the peripheral surface image from a color image (for example, an RGB (Red-Green-Blue color model) image) to a grayscale image (an image expressing black and white shading).
- a color image for example, an RGB (Red-Green-Blue color model) image
- a grayscale image an image expressing black and white shading.
- the execution order is not limited to that described above, and for example, the order of the extraction processing of the effective image area 11a and the conversion processing of the image type may be reversed.
- the above-described extraction processing of the effective image area 11a and conversion processing of the image type are not essential and may be omitted. Note that the above-described processing may be performed manually by an operator.
- the computer 1 validates the area 11b including the polygonal area formed on the circumferential surface of the medical elongate body 4 that advances and retreats while rotating, based on segmentation processing and labeling processing using an algorithm such as a binarization method. Extract from the image area 11a. Specifically, the computer 1 assigns a predetermined threshold to pixel values by segmentation processing using an algorithm such as a binarization method, and specifies regions exceeding the threshold and regions not exceeding the threshold. The computer 1 extracts the area 11b based on the labeling process of assigning the same label (number) to the pixels in which the area exceeding the threshold or the area not exceeding the threshold is continuous from the area specified by the binarization process.
- FIG. 2 shows a state in which the medical elongated body 4 advances and retreats while rotating, and the rhombus formed on the peripheral surface of the medical elongated body 4 changes into a triangle.
- the polygonal area formed on the peripheral surface of the elongated body 4 for medical use may be a triangle, a circle, a quadrangle, or the like other than a rhombus.
- the region extraction processing is not limited to the binarization method and labeling processing.
- the Snakes method which uses active contours (snakes) to segment an image
- the Level set method which expresses the inside and outside of a region using Level set functions
- the method based on deep learning, etc. Also good.
- FIGS. 3A and 3B are explanatory diagrams illustrating the process of specifying the amount of movement.
- FIG. 3A is an explanatory diagram for explaining the movement amount specifying process.
- FIG. 3B is an explanatory diagram showing three axial directions of the medical elongated body 4. As shown in FIG. The three axes include X-axis, Y-axis and Z-axis.
- the computer 1 acquires the first frame of the peripheral surface image from the multiple peripheral surface images acquired in time series.
- the computer 1 receives the setting of the interest point 12a by the operator or the like for the acquired peripheral image of the first frame.
- the computer 1 may receive the setting of the interest point 12a by the operator or the like at the position of the center of gravity of the circumferential image of the first frame.
- the computer 1 may automatically set the point of interest 12a at the position of the center of gravity of the peripheral surface image of the first frame.
- the interest point 12a is set only for the peripheral image of the first frame.
- the computer 1 uses, for example, a binarization method and a labeling process to extract the feature region 12b containing the received interest point 12a.
- a binarization method and a labeling process to extract the feature region 12b containing the received interest point 12a.
- FIGS. 3A and 3B an example in which the characteristic region 12b is a rhombic region has been described, but the same can be applied to circular or other polygonal regions.
- the computer 1 calculates the position of the center of gravity of the extracted characteristic region 12b. For example, the computer 1 obtains the center of gravity of the feature region 12b by performing a center-of-gravity calculation using pixel values in the feature region 12b.
- the computer 1 acquires a peripheral image (second frame peripheral image) subsequent to the first frame peripheral image.
- the computer 1 extracts the characteristic region 12b including the interest point 12a from the second frame of the circumferential image.
- the computer 1 calculates the position of the center of gravity 12e of the extracted characteristic region 12b.
- the computer 1 performs calculation processing of the movement amount for the circumferential image. Specifically, the computer 1 calculates the difference between the position of the center of gravity 12e and the coordinate X-axis of the interest point 12a as a horizontal movement amount (pixels). The computer 1 calculates the difference between the position of the center of gravity 12e and the coordinate Y-axis of the interest point 12a as the movement amount (pixels) in the rotational direction.
- the computer 1 acquires a peripheral image following the second frame peripheral image (third frame peripheral image).
- the computer 1 repeatedly executes the above-described processing on the acquired peripheral surface image of the third frame.
- the computer 1 performs the above-described processing on all circumferential images acquired in time series within a predetermined period (for example, 1 second), thereby obtaining a lateral direction corresponding to each circumferential image. Identify the amount of movement and the amount of movement in the rotational direction.
- the movement amount in pixel units can be converted to the movement amount in actual distance.
- the computer 1 multiplies the amount of horizontal movement in units of pixels by the actual distance per pixel.
- the amount of movement in the rotational direction as shown in FIG. is calculated.
- the computer 1 calculates the total amount of lateral movement and the total amount of rotational movement.
- the computer 1 outputs the calculated total amount of movement in the horizontal direction as the amount of movement in the horizontal direction, and outputs the total amount of movement in the rotational direction to the display device 5 as the amount of movement in the rotational direction.
- the amount of lateral movement and the amount of movement in the rotational direction can be corrected using the area 11b. can.
- FIG. 4A and 4B are explanatory diagrams for explaining the movement amount correction process.
- FIG. 4A is an explanatory diagram for explaining the process of correcting the amount of movement in the horizontal direction.
- arrow 11c indicates the actual lateral movement direction of medical elongated body 4 .
- An arrow 11d indicates the lateral movement direction of the medical elongate body 4 along the horizontal axis (X-axis) of the circumferential image.
- the computer 1 acquires the tilt angle of the medical elongate body 4.
- the computer 1 may calculate the inclination angle of the peripheral image based on a reference peripheral image prepared in advance.
- the computer 1 may acquire the inclination angle of the peripheral image using an inclination angle detection model that has been learned to output the inclination angle.
- the computer 1 can acquire the actual lateral movement amount of the medical elongated body 4 along the arrow 11c by correcting the lateral movement amount by geometric calculation from the acquired tilt angle. .
- FIG. 4B is an explanatory diagram for explaining the process of correcting the amount of movement in the rotational direction.
- the arrow 11e indicates the actual direction of rotational movement of the medical elongate body 4.
- An arrow 11f indicates the rotational movement direction of the medical elongated body 4 along the vertical axis (Y-axis) of the circumferential image.
- the computer 1 acquires the tilt angle of the medical elongate body 4 .
- the computer 1 can acquire the actual rotational movement amount of the medical elongate body 4 along the arrow 11e by correcting the movement amount in the rotational direction from the acquired tilt angle by geometric calculation. .
- the area of the characteristic region 12b may decrease by a predetermined area threshold or more.
- a predetermined area threshold For example, when the shape of the characteristic region 12b changes from a rhombus to a triangle (see FIG. 2), the area of the characteristic region 12b decreases by a predetermined area threshold or more. If the area of the feature region 12b decreases by more than a predetermined area threshold, then the point of interest 12a needs to be updated. When the interest point 12a is updated, the computer 1 re-extracts the feature region 12b including the interest point 12a, and calculates the movement amount based on the re-extracted feature region 12b.
- FIG. 5A, 5B and 5C are explanatory diagrams explaining the update process of the interest point 12a.
- FIG. 5A is an explanatory diagram of the characteristic region 12b whose area has not changed.
- FIG. 5B is an explanatory diagram of a characteristic region 12b having an area equal to or larger than a predetermined area threshold.
- FIG. 5C is an explanatory diagram of a characteristic region 12b whose area is less than a predetermined area threshold. Note that FIG. 5A is the same as (2) in FIG. 3A, so the description is omitted.
- the computer 1 calculates the area (the number of pixels in the region) of the extracted characteristic region 12b.
- the computer 1 determines whether the calculated area of the characteristic region 12b is equal to or larger than a predetermined area threshold.
- the computer 1 determines that the area of the characteristic region 12b is equal to or larger than the predetermined area threshold, it determines that the point of interest 12a does not need to be updated, and performs the movement amount calculation process.
- the long medical body 4 advances and retreats while rotating, and the shape of the characteristic region 12b changes into a polygon. Although the shape of the characteristic region 12b has changed to a polygon, the area of the characteristic region 12b is equal to or greater than the predetermined area threshold, so the computer 1 does not update the interest point 12a.
- the computer 1 determines that the area of the characteristic region 12b is less than the predetermined area threshold, it determines that the point of interest 12a needs to be updated. As shown in FIG. 5C, the medical elongated body 4 advances and retreats while rotating, the shape of the characteristic region 12b changes to a triangle, and the area of the characteristic region 12b is less than the predetermined area threshold. In this case, the computer 1 calculates the center of gravity 12e of the characteristic region 12b by center-of-gravity calculation using pixel values in the characteristic region 12b. The computer 1 updates the interest point 12a based on the position of the center of gravity 12e of the characteristic region 12b.
- the computer 1 acquires the vertical center line 12c of the region 11b formed on the peripheral surface of the medical elongate body 4.
- the computer 1 determines whether the position of the center of gravity 12e is to the left or right of the vertical center line 12c.
- the computer 1 determines that the position of the center of gravity 12e is on the right side of the longitudinal center line 12c along the X-axis direction of the elongated body 4 for medical use, the computer 1 determines the position of the center of gravity 12e by the specified number of pixels (for example, 5 pixels). position to the left.
- the computer 1 determines that the position of the center of gravity 12e is to the left of the vertical center line 12c along the X-axis direction of the medical elongated body 4, the computer 1 moves the position of the center of gravity 12e to the right by the specified number of pixels. do.
- the computer 1 updates the position of the center of gravity after movement as the point of interest 12a, and based on the updated point of interest 12a, for example, uses a binarization method and a labeling process to determine a feature region 12b that includes the point of interest 12a. Re-extract.
- the computer 1 sets the re-extracted characteristic region 12b as the second characteristic region 12b. In this way, when the area of the characteristic region 12b has decreased by a predetermined area threshold or more, the point of interest 12a can be moved to the left and right regions (second characteristic regions 12b) of the characteristic region 12b.
- the computer 1 outputs the specified lateral movement amount and rotational movement amount to the display device 5 .
- the display device 5 displays the amount of lateral movement and the amount of rotational movement output from the computer 1 .
- FIG. 6 is an explanatory diagram showing an example of the movement amount display screen.
- the screen includes a circumferential image display field 13a and a movement amount display field 13b.
- the circumferential image display field 13 a is a display field for displaying a circumferential image of the circumferential surface of the medical elongate body 4 .
- the movement amount display field 13b is a display field for displaying the movement amount of the medical elongate body 4 in the horizontal direction and the movement amount in the rotational direction.
- the computer 1 acquires peripheral surface images of the peripheral surface of the medical elongate body 4 within a predetermined period in time series.
- the predetermined period is, for example, 1 second, 2 seconds, or 5 seconds.
- the computer 1 acquires a plurality of peripheral surface images per second in time series.
- the computer 1 identifies the amount of lateral movement and the amount of rotational movement of the elongated medical body 4 based on a plurality of circumferential images acquired in time series. It should be noted that the moving amount specifying process is the same as the above-described process, and thus the description thereof is omitted.
- the computer 1 outputs to the display device 5 the peripheral surface image of the medical elongated body 4 and the specified lateral movement amount and rotational movement amount.
- the peripheral image is displayed in the peripheral image display field 13a, and the lateral movement amount and the rotational movement amount of the medical elongate body 4 are displayed in the movement amount display field 13b.
- the lateral travel is 6 millimeters (symbol mm) and the rotational travel is 8 degrees (deg.).
- the movement amount display field 13b displays the absolute rotation angle or the relative rotation angle of the movement amount in the rotational direction.
- the rotation angle is calculated by geometrical calculation from the radius A of the elongated medical body 4 and the amount of movement in the rotation direction. Note that the amount of movement in the rotational direction may be displayed in units of millimeters or pixels.
- the computer 1 In order to acquire time-series peripheral images from the imaging device 3 in real time, the computer 1 re-specifies the amount of movement of the long medical object 4 based on the new peripheral images.
- the computer 1 transmits to the display device 5 the new peripheral image and the re-specified amount of movement of the long medical object 4 .
- the display device 5 displays the circumferential image transmitted from the computer 1 and the amount of movement of the medical elongate body 4 . In this way, by synchronously displaying the peripheral image and the movement amount of the medical elongate body 4, the latest movement amount can always be displayed on the screen together with the peripheral image.
- FIG. 7 is an explanatory diagram showing an example of a display screen of a graph showing the relationship between the amount of movement and the elapsed time.
- the screen includes a first graph display field 14a and a second graph display field 14b.
- the first graph display field 14a is a display field for displaying a first graph showing the relationship between the amount of lateral movement of the medical elongate body 4 and the elapsed time.
- the second graph display field 14b is a display field for displaying a second graph showing the relationship between the amount of movement of the medical elongate body 4 in the rotational direction and the elapsed time.
- the computer 1 acquires peripheral surface images of the peripheral surface of the medical elongate body 4 from the imaging device 3 in time series.
- the computer 1 identifies the amount of lateral movement and the amount of rotational movement of the elongated medical body 4 based on a plurality of circumferential images acquired in time series.
- the computer 1 generates a first graph and a second graph based on the specified lateral movement amount and rotational movement amount.
- the computer 1 acquires the acquisition time of each circumferential image.
- the computer 1 generates a first graph based on the acquisition time of each circumferential image and the amount of lateral movement corresponding to the acquisition time.
- the computer 1 generates a second graph based on the acquisition time of each circumferential image and the amount of movement in the rotational direction corresponding to the acquisition time.
- the computer 1 outputs the generated first and second graphs to the display device 5.
- the first graph is displayed in the first graph display column 14a and the second graph is displayed in the second graph display column 14b.
- the horizontal axis of the first graph indicates time (eg, seconds), and the vertical axis of the first graph indicates the amount of horizontal movement (eg, mm).
- the unit of the vertical axis of the first graph may be pixels.
- the horizontal axis of the second graph indicates time (eg, seconds), and the vertical axis of the second graph indicates the movement amount (eg, deg.).
- the unit of the vertical axis of the second graph may be millimeters or pixels.
- FIG. 7 although the example of the line graph was demonstrated, it is not restricted to this, For example, a bar graph etc. may be used.
- FIG. 8 is an explanatory diagram showing an example of a screen that simultaneously displays a circumferential image and a graph.
- symbol is attached
- FIG. 8 further includes a peripheral surface image display field 14c.
- the peripheral image display field 14c is a display field for displaying a peripheral image of the peripheral surface of the long medical body 4 inserted into the hollow organ.
- the computer 1 acquires peripheral surface images of the peripheral surface of the medical elongate body 4 from the imaging device 3 in time series.
- the computer 1 identifies the amount of lateral movement and the amount of rotational movement of the elongated medical body 4 based on a plurality of circumferential images acquired in time series.
- the computer 1 generates a first graph and a second graph based on the specified lateral movement amount and rotational movement amount.
- the computer 1 simultaneously outputs to the display device 5 a plurality of peripheral surface images (moving images/videos) acquired in time series and the generated first and second graphs.
- the peripheral surface image of the medical elongate body 4 is displayed in the peripheral surface image display field 14c
- the first graph is displayed in the first graph display field 14a
- the second graph is displayed. is displayed in the second graph display field 14b.
- the computer 1 acquires time-series circumferential images from the imaging device 3 in real time, so the movement amount of the medical elongate body 4 is respecified based on new circumferential images.
- the computer 1 generates a first graph and a second graph from the re-specified movement amount.
- the computer 1 transmits the new circumferential image and the generated first and second graphs to the display device 5 .
- the display device 5 displays the peripheral surface image, the first graph, and the second graph transmitted from the computer 1 . In this way, by synchronously displaying the peripheral image and the first and second graphs, the latest movement amount can always be displayed on the screen together with the peripheral image.
- the captured image of the hollow organ includes an angiographic image of the hollow organ imaged by angiography, an image captured by an ultrasonic diagnostic catheter or an optical tomography catheter, and the like.
- the computer 1 generates the first graph and the second graph in the same manner as the graph generation process described above.
- a computer 1 acquires an angiographic image of a hollow organ from an angiography apparatus connected to the computer 1 .
- An angiography apparatus is a device that inserts a catheter into a hollow organ and injects a contrast agent to capture moving images of the condition of blood vessels.
- the computer 1 outputs to the display device 5 the generated first and second graphs and the acquired angiographic image of the hollow organ.
- the display device 5 displays the first and second graphs output from the computer 1 and the angiographic image of the hollow organ.
- the computer 1 acquires time-series circumferential images from the imaging device 3 in real time, so the movement amount of the medical elongate body 4 is respecified based on new circumferential images.
- the computer 1 generates a first graph and a second graph from the re-specified movement amount.
- the computer 1 acquires the angiographic image of the hollow organ in real time from the angiography device.
- the computer 1 transmits the new angiographic image of the hollow organ and the generated first and second graphs to the display device 5 .
- the display device 5 displays the angiographic image of the hollow organ transmitted from the computer 1, the first graph and the second graph. In this way, by synchronously displaying the angiographic image of the hollow organ and the first and second graphs, the latest movement amount can always be displayed on the screen together with the angiographic image of the hollow organ.
- a graph showing the relationship between the amount of movement and the elapsed time has been described, but the present invention is not limited to this.
- a graph or the like showing the relationship between the cumulative amount of movement and the elapsed time may be generated.
- indicators such as movement speed (horizontal direction movement speed and rotational direction movement speed) may be used.
- a moving speed histogram may be generated.
- the computer 1 compares the acquired moving amount of the skilled operator with the moving amount specified by the above-described processing, and outputs the result.
- FIG. 9 is a flow chart showing the processing procedure when outputting the movement amount of the medical elongated body 4 .
- the control unit 11 of the computer 1 transmits circumferential images of the circumferential surface of the elongated body 4 for medical use within a predetermined period (1 second, 2 seconds, or 5 seconds, etc.) from the imaging device 3 via the communication unit 13 in chronological order. acquire (step S101). For example, the control unit 11 acquires a plurality of circumferential images per second from the imaging device 3 in time series.
- the control unit 11 executes a preprocessing subroutine for a plurality of circumferential images acquired in time series (step S102).
- the control unit 11 executes a subroutine for processing to specify the amount of movement of the medical elongate body 4 (step S103).
- the subroutine for preprocessing and the subroutine for movement amount specifying processing will be described later.
- the control unit 11 generates a first graph showing the relationship between the lateral movement amount of the medical elongated body 4 and the elapsed time based on the identified movement amount (step S104). Based on the specified movement amount, the control unit 11 generates a second graph showing the relationship between the movement amount in the rotational direction of the medical elongate body 4 and the elapsed time (step S105). The control unit 11 outputs the generated first graph and second graph to the display device 5 via the display unit 14 (step S106), and ends the process.
- FIG. 10 is a flowchart showing the processing procedure of the preprocessing subroutine for the circumferential image.
- the control unit 11 of the computer 1 acquires an effective image area (image area in which the medical elongate body 4 is shown; effective image area 11a in FIG. 2) for the circumferential image (step S01).
- the control unit 11 may extract an effective image area in the peripheral image by performing feature extraction processing such as edge detection processing or pattern matching processing based on each pixel information included in the peripheral image.
- the control unit 11 may receive designation of the effective image area from the input device 6 by the operator or the like via the input unit 15 .
- the control unit 11 cuts out the acquired effective image area (step S02). Note that the processing of steps S01 and S02 may be omitted.
- the control unit 11 converts the peripheral image from a color image to a grayscale image (step S03). In addition, it is not limited to the execution order of the process mentioned above. For example, after performing the process of step S03, you may perform the process of step S01 and step S02.
- the control unit 11 Based on segmentation processing and labeling processing using an algorithm such as a binarization method, the control unit 11 detects a polygonal region (rhombus, triangle, circle, quadrangle, etc.) formed on the peripheral surface of the long body 4 for medical use. (region 11b in FIG. 2) is extracted from the peripheral surface image (step S04). The control unit 11 terminates the preprocessing subroutine and returns.
- a polygonal region rhombus, triangle, circle, quadrangle, etc.
- FIG. 11 is a flow chart showing the processing procedure of the subroutine of the movement amount specifying processing.
- the control unit 11 of the computer 1 acquires one peripheral image from a plurality of peripheral images acquired in time series (step S11).
- the control unit 11 determines whether or not the acquired peripheral image is the first frame peripheral image (step S12).
- the process proceeds to step S14, which will be described later.
- control unit 11 determines that the acquired peripheral image is the first frame peripheral image (YES in step S12)
- the operator or the like is placed at the center of gravity of the peripheral image via the input unit 15, for example. receives the setting of the interest point from the input device 6 (step S13).
- the interest point may be set at another position.
- the control unit 11 uses, for example, a binarization method and a labeling process to convert a characteristic region (a polygonal region formed on the circumferential surface of the elongated body 4 for medical use) containing the received interest point into a peripheral surface image. (step S14).
- the control unit 11 calculates the centroid position and area of the extracted characteristic region (step S15).
- the control unit 11 calculates the difference between the center-of-gravity position and the point of interest on the coordinate X axis as the lateral movement amount (step S16).
- the control unit 11 calculates the difference between the center-of-gravity position and the point of interest on the coordinate Y axis as the amount of movement in the rotational direction (step S17).
- the control unit 11 determines whether or not the area of the characteristic region is equal to or larger than a predetermined area threshold (step S18).
- control unit 11 determines that the area of the feature region is less than the predetermined area threshold (NO in step S18). Note that the subroutine of the interest point update processing will be described later.
- the control unit 11 transitions to the process of step S20, which will be described later.
- the control unit 11 determines that the area of the characteristic region is equal to or larger than the predetermined area threshold (YES in step S18)
- the control unit 11 determines that the peripheral surface image is the last frame among the plurality of peripheral surface images. It is determined whether or not there is (step S20). When the control unit 11 determines that the peripheral image is not the last frame (NO in step S20), the process returns to step S11.
- control unit 11 determines that the circumferential image is the last frame (YES in step S20), it calculates the total amount of lateral movement and the total amount of rotational movement (step S21).
- the control unit 11 corrects the total amount of movement in the horizontal direction and the total amount of movement in the rotational direction by geometric calculation from the tilt angle of the medical elongate body 4 (step S22).
- the control unit 11 outputs the corrected total horizontal movement amount as the horizontal movement amount, and the corrected total rotational movement amount as the rotational movement amount to the display device 5 (step S23).
- the control unit 11 terminates the subroutine for specifying the movement amount and returns.
- FIG. 12 is a flowchart showing the processing procedure of a subroutine of interest point update processing.
- the control unit 11 of the computer 1 acquires the vertical center line (vertical center line 12c in FIG. 3A) of the region (region 11b in FIG. 3A) including the polygonal region formed on the peripheral surface of the medical elongate body 4. (Step S31).
- the control unit 11 determines whether or not the position of the center of gravity of the characteristic region is on the left side of the vertical center line along the X-axis direction of the medical elongate body 4 (step S32).
- control unit 11 determines that the center-of-gravity position is to the left of the vertical center line (YES in step S32), the center-of-gravity position is shifted to the right by the specified number of pixels along the X-axis direction of the long body 4 for medical use. (step S33).
- the control unit 11 updates the position of the center of gravity after movement as the point of interest (step S34).
- the control unit 11 ends the interest point update processing subroutine and returns.
- control unit 11 determines whether the center-of-gravity position of the characteristic region is on the right side of the vertical center line (step S36). If the control unit 11 determines that the center-of-gravity position is on the right side of the vertical center line (YES in step S36), it moves the center-of-gravity position to the left side of the medical elongate body 4 by the specified number of pixels along the X-axis direction. (step S37). The control unit 11 transitions to the process of step S34. If the control unit 11 determines that the position of the center of gravity is not on the right side of the vertical center line (NO in step S36), it ends the interest point update processing subroutine and returns.
- FIG. 13 is a flow chart showing a processing procedure for outputting the circumferential image and the movement amount of the medical elongate body 4.
- FIG. 13 is a flow chart showing a processing procedure for outputting the circumferential image and the movement amount of the medical elongate body 4.
- symbol is attached
- the control unit 11 of the computer 1 uses the display unit 14 to display a plurality of peripheral surface images (moving images/video) obtained in time series within a predetermined period (for example, 1 second) and , the generated first and second graphs are simultaneously output to the display device 5 (step S107). Control unit 11 terminates the process.
- a predetermined period for example, 1 second
- FIG. 14 is a flow chart showing a processing procedure for outputting an angiographic image of a hollow organ and the amount of movement of the elongated body 4 for medical use.
- symbol is attached
- FIG. 15 is a flow chart showing a processing procedure for outputting a notification.
- the control unit 11 of the computer 1 acquires a predetermined horizontal movement amount threshold value and a rotational movement amount threshold value stored in advance in the storage unit 12 (step S121).
- the movement amount threshold may be stored in the large-capacity storage unit 17 or an external device.
- the control unit 11 acquires circumferential images of the circumferential surface of the long medical object 4 within a predetermined time (for example, 30 seconds) from the imaging device 3 via the communication unit 13 in chronological order (step S122).
- the control unit 11 specifies the amount of lateral movement and the amount of rotational movement of the elongated medical body 4 within a predetermined period of time based on the plurality of acquired circumferential images (step S123). It should be noted that the process of specifying the movement amount is the same as the process of specifying the movement amount described above, so the description thereof will be omitted.
- the control unit 11 determines whether or not the lateral movement amount exceeds a predetermined lateral movement amount threshold (step S124). When determining that the lateral movement amount exceeds the threshold (YES in step S124), the control unit 11 outputs a notification to the display device 5 via the display unit 14 (step S125).
- the notification includes, for example, the specified movement amount and a predetermined movement amount threshold. Note that means such as voice notification, LED flash notification, vibration notification, or the like may be used.
- the control unit 11 returns to the process of step S122.
- control unit 11 determines whether the amount of movement in the rotational direction exceeds a predetermined threshold of movement in the rotational direction (step S126). If the controller 11 determines that the movement amount in the rotational direction has exceeded the threshold (YES in step S126), the process proceeds to step S125. If the controller 11 determines that the movement amount in the rotational direction does not exceed the threshold (NO in step S126), the process returns to step S122.
- the operator can be notified when the operator's movement operation is too fast.
- an operator presses an operation button or the like to hold the medical elongated body 4 at the current position if an unintended movement operation or the like occurs, the operator can be notified. can.
- the first graph showing the relationship between the amount of lateral movement of the long medical body 4 and the elapsed time, and the relationship between the amount of movement in the rotational direction of the long medical body 4 and the elapsed time It is possible to output a second graph showing
- the operation of the medical elongated body 4 is quickly adjusted by outputting a notification when the movement amount of the medical elongated body 4 within a predetermined time exceeds a predetermined movement amount threshold. becomes possible.
- Embodiment 2 relates to an embodiment in which the amount of movement of the medical elongated body 4 is specified by artificial intelligence (AI) based on a peripheral surface image of the peripheral surface of the medical elongated body 4 .
- AI artificial intelligence
- description is abbreviate
- FIG. 16 is an explanatory diagram illustrating the configuration of the catheter system 10 according to Embodiment 2.
- FIG. 16 the same code
- the large-capacity storage unit 17 of the computer 1 contains a movement amount identification model 171 and a training data DB (database) 172 .
- the movement amount identification model 171 is a specifier that identifies (estimates) the movement amount of the medical elongate body 4 based on a plurality of circumferential images of the medical elongate body 4 acquired in time series. A trained model generated by learning.
- the training data DB 172 stores training data for constructing (creating) the movement amount identification model 171 .
- FIG. 17 is an explanatory diagram showing an example of the record layout of the training data DB 172.
- the training data DB 172 includes input data strings and output data strings.
- the input data string stores a plurality of peripheral surface images of the long medical object 4 acquired in time series within a predetermined period.
- the predetermined period is, for example, 1 second, 2 seconds, or 5 seconds.
- two or more circumferential images are stored in the input data string.
- the output data string stores the amount of lateral movement and the amount of rotational movement of the medical elongate body 4 .
- FIG. 18 is an explanatory diagram for explaining the movement amount identification model 171.
- the movement amount identification model 171 is used as a program module that is part of artificial intelligence software.
- the movement amount identification model 171 receives a plurality of peripheral surface images of the medical elongated body 4 acquired in time series as input, and calculates the movement amount of the medical elongated body 4 (horizontal movement amount and rotational movement amount ) is an identifier with a built-up neural network.
- the computer 1 generates the movement amount identification model 171 by performing deep learning for learning the feature amount of the circumferential surface of the medical elongate body 4 in the circumferential surface image as the movement amount identification model 171 .
- the movement amount identification model 171 is a combination of CNN (Convolution Neural Network) and LSTM (Long-Short Term Memory).
- LSTM is a type of RNN (Recurrent Neural Network), and is a neural network that receives time-series data before a prediction target time as input and outputs a prediction value at the target time.
- the movement amount identification model 171 includes a CNN layer that accepts input of a plurality of circumferential images of the medical elongate body 4 and extracts feature amounts, etc., and an LSTM layer that performs arithmetic processing on the feature amounts extracted from the CNN layer. (hidden layer) and an output layer for outputting the movement amount of the medical elongated body 4 predicted based on the feature amount.
- a CNN layer and an LSTM layer are provided in parallel at each time point (eg, t1, t2, . . . tn).
- the CNN layer has an input layer that receives inputs of a plurality of circumferential images of the elongated body 4 for medical use, and an intermediate layer that has been learned by back propagation.
- the input layer has a plurality of neurons that receive input of pixel values of pixels included in circumferential images at a plurality of consecutive points in time, and passes the input pixel values to the intermediate layer.
- the intermediate layer has a plurality of neurons for extracting features of each circumferential image, and passes the extracted image features to the LSTM layer.
- the intermediate layer is composed of a convolution layer that convolves the pixel values of each pixel input from the input layer and a pooling layer that maps the pixel values convolved in the convolution layer, which are alternately connected. While compressing the pixel information of the image, the feature amount of the image is finally extracted.
- the LSTM layer is called an LSTM block, temporarily stores its own calculation result at time t1, and when performing calculations on input data at time t2 next to time t1, it performs calculations on input data at time t1 before. Calculation is performed by referring to the result. By referring to the calculation result at the previous time point t1, calculation at the next time point t3 is performed from the time-series data up to the most recent time point t2. That is, the output data of the LSTM block at the previous time is used as the input data of the LSTM block at the next time.
- the output layer has neurons for calculating output values based on the calculation results in the LSTM layer, and outputs the prediction result of the movement amount (horizontal movement amount and rotational movement amount) of the long body 4 for medical use. Output.
- the computer 1 uses training data accumulated in the training data DB 172 to generate the movement amount identification model 171 .
- Each record of the training data DB 172 is training data.
- the value of the output data string is the correct data (movement amount) to be output from the output layer.
- a plurality of circumferential surface images of the input data string are the input data.
- a plurality of circumferential images of the long medical object 4 acquired in time series correspond to the amount of movement of the long medical object 4 (the amount of movement in the lateral direction and the amount of movement in the rotational direction). It is the data of the combination attached.
- Training data is generated based on a large amount of empirical data collected from operators who operate the medical elongate body 4 . Note that the training data may be data separately created manually.
- the computer 1 performs learning using the acquired training data. Specifically, the computer 1 sequentially inputs a plurality of peripheral surface images of the long body 4 for medical use acquired in time series to each neuron corresponding to the input layer of the CNN layer in time series, and Calculate the predicted value of the movement amount of the medical elongated body 4 in . The computer 1 compares the actual moving amount of the elongated body 4 for medical use at the target time as a correct value with the predicted value, and constructs a moving amount specifying model 171 .
- the computer 1 inputs a plurality of peripheral surface images, which are parameters, to the movement amount identification model 171 and performs learning. Specifically, the computer 1 sequentially inputs a plurality of circumferential images to each neuron of the input layer of the CNN layer. The computer 1 extracts the feature amount of each circumferential image in the intermediate layer of the CNN layer, and transfers the extracted image feature amount to the LSTM layer. The computer 1 performs operations in the LSTM layer. The computer 1 outputs the predicted value of the movement amount of the elongated body 4 for medical use calculated in the LSTM layer to the output layer and inputs it to the next neuron. That is, the predicted values of the movement amount of the long medical object 4 calculated in each LSTM layer are generated as time-series data.
- the computer 1 compares the actual amount of movement of the elongated body 4 for medical use at the target time point with the predicted value as the correct value, and optimizes the parameters used for calculation in the LSTM layer so that the predicted value approximates the correct value. do.
- the parameters are, for example, weights (coupling coefficients) between neurons, coefficients of activation functions, and the like.
- the parameter optimization method is not particularly limited, for example, the computer 1 uses error backpropagation to optimize various parameters.
- the computer 1 acquires the predicted value of the movement amount of the long medical body 4 corresponding to each peripheral image as an output from each neuron of the output layer.
- the computer 1 performs the above processing for each record stored in the training data DB 172 and learns the movement amount identification model 171 . Thereby, a model that can specify the amount of movement of the medical elongated body 4 can be constructed.
- another computer may perform the above-described learning process to generate the movement amount identification model 171 .
- the computer 1 acquires and deploys the movement amount identification model 171 generated by another computer.
- the movement amount may be identified by using a WEB API (Application Programming Interface) using a machine learning model without constructing the movement amount identification model 171 .
- the computer 1 identifies (predicts) the movement amount of the medical elongated body 4 using the generated movement amount identification model 171 . Specifically, the computer 1 acquires a plurality of peripheral surface images (for example, a first frame image, a second frame image, . The computer 1 inputs the plurality of acquired peripheral images to the movement amount identification model 171 and outputs a prediction result of the movement amount of the medical elongate body 4 .
- a plurality of peripheral surface images for example, a first frame image, a second frame image, .
- the computer 1 inputs the plurality of acquired peripheral images to the movement amount identification model 171 and outputs a prediction result of the movement amount of the medical elongate body 4 .
- the amount of lateral movement of the elongated medical body 4 in the first frame image is “+2 mm”, and the amount of movement in the rotational direction is “-12 deg.”.
- the amount of lateral movement of the elongated medical body 4 in the second frame image is "+3 mm”, and the amount of movement in the rotational direction is "-5 deg.”. In this way, it is possible to output the prediction result of the lateral movement amount and the rotational movement amount in each circumferential surface image (frame image).
- the movement amount identification model 171 is not limited to the combination of CNN and LSTM, RCNN (Regions with Convolutional Neural Network), Fast RCNN, Faster RCNN, SSD (Single Shot Multibook Detector), YOLO (You Only Look Once), It can be implemented by other models such as SVM (Support Vector Machine), Bayesian Networks, Transformer Networks, Regression Trees or Random Forests.
- the computer 1 may generate a lateral movement amount identification model and a rotational movement amount identification model.
- FIG. 19 is a flow chart showing the processing procedure of a subroutine of movement amount identification processing using the movement amount identification model 171 .
- the control unit 11 of the computer 1 inputs a plurality of circumferential surface images of the elongated body 4 for medical use acquired in the process of step S101 of FIG. 9 to the movement amount identification model 171 (step S41).
- the control unit 11 outputs the identification result of identifying the movement amount of the medical elongate body 4 from the movement amount identification model 171 (step S42).
- the control unit 11 terminates the subroutine for specifying the movement amount and returns.
- the movement amount of the medical elongate body 4 is specified using the movement amount identification model 171 based on a plurality of peripheral surface images of the medical elongate body 4 acquired in time series. becomes possible.
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Chemical & Material Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Wood Science & Technology (AREA)
- Biotechnology (AREA)
- Organic Chemistry (AREA)
- General Health & Medical Sciences (AREA)
- Zoology (AREA)
- Biomedical Technology (AREA)
- Biochemistry (AREA)
- Analytical Chemistry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Microbiology (AREA)
- Sustainable Development (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Genetics & Genomics (AREA)
- Medicinal Chemistry (AREA)
- Biophysics (AREA)
- Pulmonology (AREA)
- Anesthesiology (AREA)
- Heart & Thoracic Surgery (AREA)
- Hematology (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、プログラム、情報処理装置及び情報処理方法に関する。 The present invention relates to a program, an information processing device, and an information processing method.
近年、血管等の管腔器官内に医療用長尺体を挿入して、病変部に対する検査または治療が行われている。例えば、特許文献1には、治療領域に適正に位置合わせすることを補助するためのマーキングを有するカテーテルを備える装置が開示されている。 In recent years, medical elongate bodies have been inserted into hollow organs such as blood vessels to examine or treat lesions. For example, US Pat. No. 6,200,000 discloses a device that includes a catheter having markings to aid in proper alignment with the treatment area.
しかしながら、特許文献1に係る発明は、管腔器官内に挿入された医療用長尺体の移動量を特定することができない問題がある。
However, the invention according to
一つの側面では、管腔器官内に挿入された医療用長尺体の移動量を特定することが可能なプログラム等を提供することにある。 One aspect is to provide a program or the like that can specify the amount of movement of an elongated body for medical use inserted into a hollow organ.
一つの側面に係るプログラムは、管腔器官内に挿入される医療用長尺体の周面の周面画像を時系列で取得し、時系列で取得した複数の周面画像に基づき、前記医療用長尺体の移動量を特定する処理をコンピュータに実行させる。 A program according to one aspect obtains circumferential images of a circumferential surface of a medical elongated body to be inserted into a hollow organ in time series, and based on the plurality of circumferential images obtained in time series, the medical The computer is caused to execute a process of specifying the amount of movement of the elongated body for use.
一つの側面では、管腔器官内に挿入された医療用長尺体の移動量を特定することが可能となる。 In one aspect, it becomes possible to specify the amount of movement of the medical elongated body inserted into the hollow organ.
以下、本発明をその実施形態を示す図面に基づいて詳述する。 Hereinafter, the present invention will be described in detail based on the drawings showing its embodiments.
(実施形態1)
実施形態1は、管腔器官内に挿入された医療用長尺体の周面の周面画像に基づき、当該医療用長尺体の移動量を特定する形態に関する。管腔器官は、管状の構造を有する内臓器官であり、例えば血管、膵管、胆管、消化管または気管支等である。
(Embodiment 1)
図1は、カテーテルシステム10の構成を説明する説明図である。本実施形態のカテーテルシステム10は、情報処理装置1、内部に医療用長尺体4が挿入されるYコネクタ2、及びYコネクタ2に取り付けられた撮像装置3を備える。情報処理装置1は、パソコン、タブレットまたはスマートフォン等である。以下、情報処理装置1をコンピュータ1と読み替える。
FIG. 1 is an explanatory diagram illustrating the configuration of the
医療用長尺体4は、ガイドワイヤ、バルーンカテーテルまたはステント用カテーテル等を含む。医療用長尺体4はYコネクタ2の内部を経由して管腔器官内に挿入される。
The medical
撮像装置3は、有線または無線によりコンピュータ1に接続される。撮像装置3は、医療用長尺体4の周面を観察可能なように、Yコネクタ2の内部または外部に取り付けられる。撮像装置3は、例えばCCD(Charge Coupled Device)カメラ、CMOS(Complementary Metal Oxide Semiconductor)カメラ等の撮影装置である。なお、本実施形態では、撮像装置3がYコネクタ2に取り付けられる例を説明するが、これに限るものではない。例えば撮像装置3は、カテーテルシステム10の図示しない構成である接続チューブ、アダプタ、カテーテルハブ、止血バルブまたは三方活栓等に取り付けられても良い。
The
コンピュータ1には、表示装置5及び入力装置6が接続されている。表示装置5は、液晶ディスプレイ又は有機EL(electroluminescence)ディスプレイ等であり、コンピュータ1から出力された医療用長尺体4の周面の周面画像等を表示する。入力装置6は、例えばキーボード、マウス、トラックボールまたはマイク等の入力デバイスである。表示装置5と入力装置6とは、一体に積層されて、タッチパネルを構成していても良い。入力装置6とコンピュータ1とは、一体に構成されていても良い。
A
コンピュータ1は、制御部11、記憶部12、通信部13、表示部14、入力部15、読取部16及び大容量記憶部17を備える。各構成はバスBで接続されている。
The
制御部11はCPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)等の演算処理装置を含み、記憶部12に記憶された制御プログラム1P(プログラム製品)を読み出して実行することにより、コンピュータ1に係る種々の情報処理、制御処理等を行う。なお、図1では制御部11を単一のプロセッサであるものとして説明するが、マルチプロセッサであっても良い。
The
記憶部12はRAM(Random Access Memory)、ROM(Read Only Memory)等のメモリ素子を含み、制御部11が処理を実行するために必要な制御プログラム1P又はデータ等を記憶している。また、記憶部12は、制御部11が演算処理を実行するために必要なデータ等を一時的に記憶する。通信部13は、コンピュータ1とネットワークとの間の通信を行なうインターフェースである。表示部14は、表示装置5とバスとを接続するインターフェースである。入力部15は、入力装置6とバスとを接続するインターフェースである。
The
読取部16は、CD(Compact Disc)-ROM又はDVD(Digital Versatile Disc)-ROMを含む可搬型記憶媒体1aを読み取る。制御部11が読取部16を介して、制御プログラム1Pを可搬型記憶媒体1aより読み取り、大容量記憶部17に記憶しても良い。また、ネットワークN等を介して他のコンピュータから制御部11が制御プログラム1Pをダウンロードし、大容量記憶部17に記憶しても良い。さらにまた、半導体メモリ1bから、制御部11が制御プログラム1Pを読み込んでも良い。
The
大容量記憶部17は、例えばHDD(Hard disk drive:ハードディスク)、SSD(Solid State Drive:ソリッドステートドライブ)等の記録媒体を備える。なお、本実施形態において記憶部12及び大容量記憶部17は一体の記憶装置として構成されていても良い。また、大容量記憶部17は複数の記憶装置により構成されていても良い。更にまた、大容量記憶部17はコンピュータ1に接続された外部記憶装置であっても良い。
The large-
コンピュータ1は、種々の情報処理及び制御処理等をコンピュータ単体で実行しても良いし、複数のコンピュータで分散して実行しても良いし、仮想マシンで分散して実行しても良い。なお、コンピュータ1に係る種々の情報処理及び制御処理等が、通信環境を有するサーバ装置等で実行されても良い。
The
本実施形態に係るコンピュータ1は、管腔器官内に挿入された医療用長尺体4の周面の周面画像を時系列で取得する。コンピュータ1は、時系列で取得した複数の周面画像に基づき、当該医療用長尺体4の移動量を特定する。コンピュータ1は、特定した移動量と経過時間との関係を示すグラフを生成し、生成したグラフを表示装置5に出力する。
The
続いて、医療用長尺体4の周面の周面画像に基づき、当該医療用長尺体4の移動量を特定する処理を説明する。先ず、周面画像の取得処理を説明する。
図2は、周面画像を説明する説明図である。コンピュータ1は、管腔器官内に挿入された医療用長尺体4の周面の周面画像を、Yコネクタ2に取り付けられた撮像装置3から時系列で取得する。コンピュータ1は、時系列で取得した複数の周面画像に対して前処理を行う。
Next, processing for specifying the amount of movement of the medical
FIG. 2 is an explanatory diagram for explaining a circumferential image. The
具体的には、コンピュータ1は、取得した周面画像から有効画像領域11aを取得する。有効画像領域11aは、医療用長尺体4が写っている画像領域である。コンピュータ1は、術者等により有効画像領域11aの指定を受け付けても良い。または、コンピュータ1は、周面画像に含まれている各画素情報(色情報、輝度情報等)に基づいて、エッジ検出処理等の特徴抽出処理またはパターンマッチング処理等により、周面画像における有効画像領域11aを抽出しても良い。更にまた、コンピュータ1は、U-Net(Convolutional Networks for Biomedical Image Segmentation)等のセグメンテーションネットワークを用いて、周面画像における有効画像領域11aを抽出しても良い。コンピュータ1は、取得した有効画像領域11aを切り出す。
Specifically, the
コンピュータ1は周面画像に対し、カラー画像(例えば、RGB(Red-Green-Blue color model)画像)からグレースケール画像(白黒の濃淡を表現した画像)へ変換する。なお、上述した実行順序に限定されず、例えば、有効画像領域11aの切出処理と画像種類の変換処理とは、順序が逆であっても良い。なお、上述した有効画像領域11aの切出処理及び画像種類の変換処理は必須ではなく、省略されても良い。なお、上述した処理に関しては、作業者による手作業で行っても良い。
The
コンピュータ1は、例えば二値化法等のアルゴリズムを用いたセグメンテーション処理及びラベリング処理に基づき、回転しながら進退する医療用長尺体4の周面に形成された多角形領域を含む領域11bを有効画像領域11aから抽出する。具体的には、コンピュータ1は、二値化法等のアルゴリズムを用いたセグメンテーション処理により、画素値に所定の閾値を設けて、閾値を超える領域と超えない領域とを特定する。コンピュータ1は、二値化処理により特定された領域に対し、閾値を超える領域または超えない領域が連続した画素に同じラベル(番号)を割り振るラベリング処理に基づいて、領域11bを抽出する。
The
図示のように、医療用長尺体4の周面に形成された複数のひし形領域を含む領域が領域11bとして抽出される。なお、複数のひし形領域は医療用長尺体4の全周に形成されているが、図2では、その一部を表示している。また、図2では、医療用長尺体4が回転しながら進退し、当該医療用長尺体4の周面に形成されたひし形が三角形に変化した状態を示している。なお、医療用長尺体4の周面に形成された多角形領域は、ひし形の他に、三角形、円形または四角形等であっても良い。
As shown in the figure, a region including a plurality of rhombic regions formed on the peripheral surface of the long
なお、領域の抽出処理に関しては、二値化法及びラベリング処理に限るものではない。例えば動的輪郭(snakes)を使用してイメージのセグメント化を行うSnakes法、領域の内部、外部をLevel set関数によって表現するLevel set法、深層学習(Deep Learning)に基づく方法等を利用しても良い。 Note that the region extraction processing is not limited to the binarization method and labeling processing. For example, the Snakes method, which uses active contours (snakes) to segment an image, the Level set method, which expresses the inside and outside of a region using Level set functions, and the method based on deep learning, etc. Also good.
次に、コンピュータ1は、前処理により抽出された領域に基づいて、当該領域の重心間の横方向の移動量または回転(縦)方向の移動量を特定する。
図3A及び図3Bは、移動量を特定する処理を説明する説明図である。図3Aは、移動量の特定処理を説明する説明図である。図3Bは、医療用長尺体4の3軸方向を示す説明図である。3軸は、X軸、Y軸及びZ軸を含む。
Next, the
3A and 3B are explanatory diagrams illustrating the process of specifying the amount of movement. FIG. 3A is an explanatory diagram for explaining the movement amount specifying process. FIG. 3B is an explanatory diagram showing three axial directions of the medical
図3Aの(1)及び(2)に示すように、コンピュータ1は、時系列で取得した複数の周面画像から、1フレーム目の周面画像を取得する。コンピュータ1は、取得した1フレーム目の周面画像に対し、術者等により関心ポイント12aの設定を受け付ける。例えばコンピュータ1は、1フレーム目の周面画像の重心位置に、術者等により関心ポイント12aの設定を受け付けても良い。なお、コンピュータ1は、1フレーム目の周面画像の重心位置に関心ポイント12aを自動設定しても良い。なお、関心ポイント12aは、1フレーム目の周面画像のみに対して設定される。
As shown in (1) and (2) of FIG. 3A, the
コンピュータ1は、例えば二値化法とラベリング処理を用いて、受け付けた関心ポイント12aが含まれている特徴領域12bを抽出する。なお、図3A及び図3Bでは、特徴領域12bがひし形領域である例を説明したが、円形または他の多角形の領域にも同様に適用することができる。コンピュータ1は、抽出した特徴領域12bの重心位置を算出する。例えばコンピュータ1は、特徴領域12bにおける画素値を用いた重心演算によって特徴領域12bの重心を求める。
The
図3Aの(3)及び(4)に示すように、コンピュータ1は、1フレーム目の周面画像の次の周面画像(2フレーム目の周面画像)を取得する。コンピュータ1は、2フレーム目の周面画像に対し、関心ポイント12aが含まれている特徴領域12bを抽出する。コンピュータ1は、抽出した特徴領域12bの重心12eの位置を算出する。
As shown in (3) and (4) of FIG. 3A, the
コンピュータ1は周面画像に対し、移動量の計算処理を行う。具体的には、コンピュータ1は、重心12eの位置と、関心ポイント12aとの座標X軸の差分を横方向の移動量(ピクセル)として算出する。コンピュータ1は、重心12eの位置と、関心ポイント12aとの座標Y軸の差分を回転方向の移動量(ピクセル)として算出する。
The
続いて、コンピュータ1は、2フレーム目の周面画像の次の周面画像(3フレーム目の周面画像)を取得する。コンピュータ1は、取得した3フレーム目の周面画像に対し、上述した処理を繰り返して実行する。このように、コンピュータ1は、所定期間(例えば、1秒)内に時系列で取得したすべての周面画像に対し、上述した処理を実行することにより、各周面画像に対応する横方向の移動量及び回転方向の移動量を特定する。
Subsequently, the
また、ピクセル単位での移動量を実距離での移動量に変換することができる。具体的には、横方向の移動量について、コンピュータ1は横方向のピクセル単位での移動量に、1ピクセル当たりの実距離を乗算する。回転方向の移動量について、図3Bに示すように、コンピュータ1は医療用長尺体4の半径A及び回転角度θを取得し、取得した半径A及び回転角度θから幾何学的計算により回転方向の移動量Bを算出する。
In addition, the movement amount in pixel units can be converted to the movement amount in actual distance. Specifically, regarding the amount of horizontal movement, the
コンピュータ1は、横方向の移動量の合計及び回転方向の移動量の合計を算出する。コンピュータ1は、算出した横方向の移動量の合計を横方向の移動量とし、回転方向の移動量の合計を回転方向の移動量として表示装置5に出力する。
The
また、医療用長尺体4の周面に形成された多角形領域を含む領域11bが傾いている場合、当該領域11bを用いて横方向の移動量及び回転方向の移動量を補正することができる。
Further, when the
図4A及び図4Bは、移動量の補正処理を説明する説明図である。図4Aは、横方向の移動量を補正する処理を説明する説明図である。図示のように、矢印11cは、医療用長尺体4の実際の横移動方向を示す。矢印11dは、周面画像の水平軸(X軸)に沿う医療用長尺体4の横移動方向を示す。このように、領域11bが傾いている場合、当該領域11bの横中心線12dに対し、算出された横方向の移動量と実際の横方向の移動量との誤差が生じる。
4A and 4B are explanatory diagrams for explaining the movement amount correction process. FIG. 4A is an explanatory diagram for explaining the process of correcting the amount of movement in the horizontal direction. As shown,
この場合、コンピュータ1は医療用長尺体4の傾斜角度を取得する。例えば、コンピュータ1は、予め用意された基準周面画像に基づいて当該周面画像の傾斜角度を算出しても良い。または、コンピュータ1は、周面画像を入力した場合に、傾斜角度を出力するよう学習された傾斜角度検出モデルを用いて当該周面画像の傾斜角度を取得しても良い。コンピュータ1は、取得した傾斜角度から幾何学的計算により横方向の移動量を補正することにより、矢印11cに沿った医療用長尺体4の実際の横方向の移動量を取得することができる。
In this case, the
図4Bは、回転方向の移動量を補正する処理を説明する説明図である。図示のように、矢印11eは、医療用長尺体4の実際の回転移動方向を示す。矢印11fは、周面画像の垂直軸(Y軸)に沿う医療用長尺体4の回転移動方向を示す。このように、領域11bが傾いている場合、当該領域11bの縦中心線12cに対し、算出された回転方向の移動量と実際の回転方向の移動量との誤差が生じる。この場合、コンピュータ1は医療用長尺体4の傾斜角度を取得する。コンピュータ1は、取得した傾斜角度から幾何学的計算により回転方向の移動量を補正することにより、矢印11eに沿った医療用長尺体4の実際の回転方向の移動量を取得することができる。
FIG. 4B is an explanatory diagram for explaining the process of correcting the amount of movement in the rotational direction. As shown, the
なお、医療用長尺体4が回転しながら進退するため、特徴領域12bの面積が所定の面積閾値以上減少している場合がある。例えば、特徴領域12bの形状がひし形から三角形(図2参照)に変化した場合、特徴領域12bの面積が所定の面積閾値以上減少する。特徴領域12bの面積が所定の面積閾値以上減少した場合、関心ポイント12aの更新が必要である。関心ポイント12aが更新された場合、コンピュータ1は、関心ポイント12aが含まれている特徴領域12bを再抽出し、再抽出した特徴領域12bに基づいて移動量を算出する。
In addition, since the medical
図5A、図5B及び図5Cは、関心ポイント12aの更新処理を説明する説明図である。図5Aは、面積が変化していない特徴領域12bの説明図である。図5Bは、面積が所定の面積閾値以上である特徴領域12bの説明図である。図5Cは、面積が所定の面積閾値未満である特徴領域12bの説明図である。なお、図5Aは、図3Aの(2)と同様であるため、説明を省略する。
Figs. 5A, 5B and 5C are explanatory diagrams explaining the update process of the
コンピュータ1は、抽出した特徴領域12bの面積(領域のピクセル数)を算出する。コンピュータ1は、算出した特徴領域12bの面積が所定の面積閾値以上であるか否かを判定する。コンピュータ1は、特徴領域12bの面積が所定の面積閾値以上であると判定した場合、関心ポイント12aの更新が必要でないと判定し、移動量の計算処理を行う。図5Bに示すように、医療用長尺体4が回転しながら進退し、特徴領域12bの形状が多角形に変化する。特徴領域12bの形状が多角形に変化したが、特徴領域12bの面積が所定の面積閾値以上であるため、コンピュータ1は関心ポイント12aの更新処理を行わない。
The
コンピュータ1は、特徴領域12bの面積が所定の面積閾値未満であると判定した場合、関心ポイント12aの更新が必要であると判定する。図5Cに示すように、医療用長尺体4が回転しながら進退し、特徴領域12bの形状が三角形に変化し、特徴領域12bの面積が所定の面積閾値未満である。この場合、コンピュータ1は、特徴領域12bにおける画素値を用いた重心演算によって特徴領域12bの重心12eを算出する。コンピュータ1は、特徴領域12bの重心12eの位置に基づいて、関心ポイント12aの更新処理を行う。
When the
具体的には、コンピュータ1は、医療用長尺体4の周面に形成された領域11bの縦中心線12cを取得する。コンピュータ1は、重心12eの位置が縦中心線12cより左側であるか、右側であるかを判定する。コンピュータ1は、医療用長尺体4のX軸方向に沿って、重心12eの位置が縦中心線12cより右側であると判定した場合、指定されたピクセル数(例えば、5ピクセル)で重心12eの位置を左側に移動する。コンピュータ1は、医療用長尺体4のX軸方向に沿って、重心12eの位置が縦中心線12cより左側であると判定した場合、指定されたピクセル数で重心12eの位置を右側に移動する。
Specifically, the
コンピュータ1は、移動後の重心位置を関心ポイント12aとして更新し、更新した関心ポイント12aに基づいて、例えば二値化法とラベリング処理を用いて、関心ポイント12aが含まれている特徴領域12bを再抽出する。コンピュータ1は、再抽出した特徴領域12bを第2特徴領域12bとして設定する。このように、特徴領域12bの面積が所定の面積閾値以上減少している場合に、関心ポイント12aを当該特徴領域12bの左右の領域(第2特徴領域12b)に移動することができる。
The
続いて、移動量の表示処理を説明する。コンピュータ1は、特定した横方向の移動量及び回転方向の移動量を表示装置5に出力する。表示装置5は、コンピュータ1から出力された横方向の移動量及び回転方向の移動量を表示する。
Next, the movement amount display processing will be explained. The
図6は、移動量の表示画面の一例を示す説明図である。該画面は、周面画像表示欄13a及び移動量表示欄13bを含む。周面画像表示欄13aは、医療用長尺体4の周面の周面画像を表示する表示欄である。移動量表示欄13bは、医療用長尺体4の横方向の移動量及び回転方向の移動量を表示する表示欄である。
FIG. 6 is an explanatory diagram showing an example of the movement amount display screen. The screen includes a circumferential
コンピュータ1は、所定期間内の医療用長尺体4の周面の周面画像を時系列で取得する。所定期間は、例えば1秒、2秒または5秒等である。例えばコンピュータ1は、1秒当たりの周面画像を時系列で複数取得する。コンピュータ1は、時系列で取得した複数の周面画像に基づき、医療用長尺体4の横方向の移動量及び回転方向の移動量を特定する。なお、移動量の特定処理に関しては、上述した処理と同様であるため、説明を省略する。コンピュータ1は、医療用長尺体4の周面画像と、特定した横方向の移動量及び回転方向の移動量とを表示装置5に出力する。
The
表示装置5上に、周面画像が周面画像表示欄13aに表示され、医療用長尺体4の横方向の移動量及び回転方向の移動量が移動量表示欄13bに表示される。図示のように、横方向の移動量が6ミリメートル(millimeter;記号mm)であり、回転方向の移動量が8度(deg.)である。移動量表示欄13bには回転方向の移動量の絶対回転角度または相対回転角度が表示されている。回転角度は、図3Bを示すように、医療用長尺体4の半径A及び回転方向の移動量から幾何学的計算により算出される。なお、回転方向の移動量はミリメートルまたはピクセル単位で表示されても良い。
On the
コンピュータ1は、撮像装置3からリアルタイムで時系列の周面画像を取得するため、新たな周面画像に基づいて医療用長尺体4の移動量を再特定する。コンピュータ1は、新たな周面画像と、再特定した医療用長尺体4の移動量とを表示装置5に送信する。表示装置5は、コンピュータ1から送信された周面画像及び医療用長尺体4の移動量を表示する。このように、周面画像と医療用長尺体4の移動量とを同期して表示することで、常に最新の移動量を周面画像と共に画面に表示できるようになる。
In order to acquire time-series peripheral images from the
また、特定された移動量をグラフ形式で表示することができる。
図7は、移動量と経過時間との関係を示すグラフの表示画面の一例を示す説明図である。該画面は、第1グラフ表示欄14a及び第2グラフ表示欄14bを含む。第1グラフ表示欄14aは、医療用長尺体4の横方向の移動量と経過時間との関係を示す第1グラフを表示する表示欄である。第2グラフ表示欄14bは、医療用長尺体4の回転方向の移動量と経過時間との関係を示す第2グラフを表示する表示欄である。
Also, the specified amount of movement can be displayed in a graph format.
FIG. 7 is an explanatory diagram showing an example of a display screen of a graph showing the relationship between the amount of movement and the elapsed time. The screen includes a first
コンピュータ1は、撮像装置3から医療用長尺体4の周面の周面画像を時系列で取得する。コンピュータ1は、時系列で取得した複数の周面画像に基づき、医療用長尺体4の横方向の移動量及び回転方向の移動量を特定する。コンピュータ1は、特定した横方向の移動量及び回転方向の移動量に基づいて、第1グラフ及び第2グラフを生成する。具体的には、コンピュータ1は、各周面画像の取得時刻を取得する。コンピュータ1は、各周面画像の取得時刻と、当該取得時刻に対応する横方向の移動量とに基づき、第1グラフを生成する。コンピュータ1は、各周面画像の取得時刻と、当該取得時刻に対応する回転方向の移動量とに基づき、第2グラフを生成する。
The
コンピュータ1は、生成した第1グラフ及び第2グラフを表示装置5に出力する。図示のように、表示装置5上に、第1グラフが第1グラフ表示欄14aに表示され、第2グラフが第2グラフ表示欄14bに表示される。第1グラフの横軸は時間(例えば、秒)を示し、第1グラフの縦軸は横方向の移動量(例えば、mm)を示す。なお、第1グラフの縦軸の単位はピクセルであっても良い。第2グラフの横軸は時間(例えば、秒)を示し、第2グラフの縦軸は移動量(例えば、deg.)を示す。なお、第2グラフの縦軸の単位はミリメートルまたはピクセルであっても良い。なお、図7では、折れ線グラフの例を説明したが、これに限らず、例えば棒グラフ等であっても良い。
The
また、上述した第1グラフ及び第2グラフと、医療用長尺体4の周面の周面画像とを同時に表示することができる。
図8は、周面画像とグラフとを同時に表示する画面の一例を示す説明図である。なお、図7と重複する内容については同一の符号を付して説明を省略する。図8では、周面画像の表示欄14cをさらに含む。周面画像の表示欄14cは、管腔器官内に挿入された医療用長尺体4の周面の周面画像を表示する表示欄である。
In addition, the above-described first and second graphs and the circumferential surface image of the circumferential surface of the medical
FIG. 8 is an explanatory diagram showing an example of a screen that simultaneously displays a circumferential image and a graph. In addition, the same code|symbol is attached|subjected about the content which overlaps with FIG. 7, and description is abbreviate|omitted. FIG. 8 further includes a peripheral surface
コンピュータ1は、撮像装置3から医療用長尺体4の周面の周面画像を時系列で取得する。コンピュータ1は、時系列で取得した複数の周面画像に基づき、医療用長尺体4の横方向の移動量及び回転方向の移動量を特定する。コンピュータ1は、特定した横方向の移動量及び回転方向の移動量に基づいて、第1グラフ及び第2グラフを生成する。
The
コンピュータ1は、時系列で取得した複数の周面画像(動画像/映像)と、生成した第1グラフ及び第2グラフとを同時に表示装置5に出力する。図示のように、表示装置5上に、医療用長尺体4の周面画像が周面画像の表示欄14cに表示され、第1グラフが第1グラフ表示欄14aに表示され、第2グラフが第2グラフ表示欄14bに表示される。
The
なお、コンピュータ1は、撮像装置3からリアルタイムで時系列の周面画像を取得するため、新たな周面画像に基づいて医療用長尺体4の移動量を再特定する。コンピュータ1は、再特定した移動量により第1グラフ及び第2グラフを生成する。コンピュータ1は、新たな周面画像と、生成した第1グラフ及び第2グラフとを表示装置5に送信する。表示装置5は、コンピュータ1から送信された周面画像、第1グラフ及び第2グラフを表示する。このように、周面画像と、第1グラフ及び第2グラフとを同期して表示することで、常に最新の移動量を周面画像と共に画面に表示できるようになる。
Note that the
更にまた、上述した第1グラフ及び第2グラフと、管腔器官の撮像画像とを同時に表示することができる。管腔器官の撮像画像は、アンギオグラフィにより撮像された管腔器官のアンギオ画像、または、超音波診断カテーテル若しくは光断層撮影用カテーテルにより撮像された画像等を含む。 Furthermore, the first and second graphs described above and the captured image of the hollow organ can be displayed at the same time. The captured image of the hollow organ includes an angiographic image of the hollow organ imaged by angiography, an image captured by an ultrasonic diagnostic catheter or an optical tomography catheter, and the like.
以下では、アンギオ画像の例を説明するが、他の種類の管腔器官の撮像画像にも同様に適用することができる。コンピュータ1は、上述したグラフの生成処理と同様に、第1グラフ及び第2グラフを生成する。コンピュータ1は、管腔器官のアンギオ画像を、コンピュータ1に接続されている血管撮影装置から取得する。血管撮影装置は、カテーテルを管腔器官に挿入し、造影剤を注入して血管の状態を動画撮影する装置である。コンピュータ1は、生成した第1グラフ及び前記第2グラフと、取得した管腔器官のアンギオ画像とを表示装置5に出力する。表示装置5は、コンピュータ1から出力された第1グラフ及び第2グラフと、管腔器官のアンギオ画像とを表示する。
An example of an angio image will be described below, but it can be similarly applied to captured images of other types of hollow organs. The
なお、コンピュータ1は、撮像装置3からリアルタイムで時系列の周面画像を取得するため、新たな周面画像に基づいて医療用長尺体4の移動量を再特定する。コンピュータ1は、再特定した移動量により第1グラフ及び第2グラフを生成する。同時に、コンピュータ1は、血管撮影装置から管腔器官のアンギオ画像をリアルタイムで取得する。コンピュータ1は、新たな管腔器官のアンギオ画像と、生成した第1グラフ及び第2グラフとを表示装置5に送信する。
Note that the
表示装置5は、コンピュータ1から送信された管腔器官のアンギオ画像、第1グラフ及び第2グラフを表示する。このように、管腔器官のアンギオ画像と、第1グラフ及び第2グラフとを同期して表示することで、常に最新の移動量を管腔器官のアンギオ画像と共に画面に表示できるようになる。
The
なお、本実施形態では、移動量と経過時間との関係を示すグラフの例を説明したが、これに限るものではない。例えば、累積移動量と経過時間との関係を示すグラフ等を生成しても良い。また、移動量の他に、移動速度(横方向の移動速度及び回転方向の移動速度)等の指標が利用されても良い。例えば、移動速度のヒストグラムを生成しても良い。 In addition, in this embodiment, an example of a graph showing the relationship between the amount of movement and the elapsed time has been described, but the present invention is not limited to this. For example, a graph or the like showing the relationship between the cumulative amount of movement and the elapsed time may be generated. In addition to the amount of movement, indicators such as movement speed (horizontal direction movement speed and rotational direction movement speed) may be used. For example, a moving speed histogram may be generated.
なお、コンピュータ1は、過去の参照データから習熟した術者の移動量を取得した場合、取得した習熟した術者の移動量と、上述した処理により特定された移動量とを対比して出力しても良い。
In addition, when the moving amount of the skilled operator is acquired from the past reference data, the
図9は、医療用長尺体4の移動量を出力する際の処理手順を示すフローチャートである。コンピュータ1の制御部11は通信部13を介して、所定期間(1秒、2秒または5秒等)内の医療用長尺体4の周面の周面画像を撮像装置3から時系列で取得する(ステップS101)。例えば制御部11は、撮像装置3から1秒当たりの周面画像を時系列で複数取得する。制御部11は、時系列で取得した複数の周面画像に対する前処理のサブルーチンを実行する(ステップS102)。制御部11は、医療用長尺体4の移動量を特定する処理のサブルーチンを実行する(ステップS103)。なお、前処理のサブルーチン及び移動量の特定処理のサブルーチンに関しては後述する。
FIG. 9 is a flow chart showing the processing procedure when outputting the movement amount of the medical
制御部11は、特定した移動量に基づき、医療用長尺体4の横方向の移動量と経過時間との関係を示す第1グラフを生成する(ステップS104)。制御部11は、特定した移動量に基づき、医療用長尺体4の回転方向の移動量と経過時間との関係を示す第2グラフを生成する(ステップS105)。制御部11は表示部14を介して、生成した第1グラフ及び第2グラフを表示装置5に出力し(ステップS106)、処理を終了する。
The
図10は、周面画像に対する前処理のサブルーチンの処理手順を示すフローチャートである。コンピュータ1の制御部11は、周面画像に対する有効画像領域(医療用長尺体4が写っている画像領域;図2の有効画像領域11a)を取得する(ステップS01)。例えば制御部11は、周面画像に含まれている各画素情報に基づいて、エッジ検出処理等の特徴抽出処理またはパターンマッチング処理等により、周面画像における有効画像領域を抽出しても良い。なお、制御部11は入力部15を介して、術者等により有効画像領域の指定を入力装置6から受け付けても良い。
FIG. 10 is a flowchart showing the processing procedure of the preprocessing subroutine for the circumferential image. The
制御部11は、取得した有効画像領域を切り出す(ステップS02)。なお、ステップS01及びステップS02の処理は省略されても良い。制御部11は周面画像に対し、カラー画像からグレースケール画像へ変換する(ステップS03)。なお、上述した処理の実行順序に限定されない。例えば、ステップS03の処理を実行した後に、ステップS01及びステップS02の処理を実行しても良い。
The
制御部11は、例えば二値化法等のアルゴリズムを用いたセグメンテーション処理とラベリング処理に基づき、医療用長尺体4の周面に形成された多角形領域(ひし形、三角形、円形または四角形等)を含む領域(図2の領域11b)を周面画像から抽出する(ステップS04)。制御部11は、前処理のサブルーチンを終了してリターンする。
Based on segmentation processing and labeling processing using an algorithm such as a binarization method, the
図11は、移動量の特定処理のサブルーチンの処理手順を示すフローチャートである。コンピュータ1の制御部11は、時系列で取得した複数の周面画像から、1つの周面画像を取得する(ステップS11)。制御部11は、取得した周面画像が1フレーム目の周面画像であるか否かを判定する(ステップS12)。制御部11は、取得した周面画像が1フレーム目の周面画像でないと判定した場合(ステップS12でNO)、後述するステップS14の処理に遷移する。
FIG. 11 is a flow chart showing the processing procedure of the subroutine of the movement amount specifying processing. The
制御部11は、取得した周面画像が1フレーム目の周面画像であると判定した場合(ステップS12でYES)、入力部15を介して、例えば当該周面画像の重心位置に術者等により関心ポイントの設定を入力装置6から受け付ける(ステップS13)。なお、他の位置に関心ポイントが設定されても良い。制御部11は、例えば二値化法とラベリング処理を用いて、受け付けた関心ポイントが含まれている特徴領域(医療用長尺体4の周面に形成された多角形領域)を周面画像から抽出する(ステップS14)。
When the
制御部11は、抽出した特徴領域の重心位置及び面積を算出する(ステップS15)。制御部11は、重心位置と関心ポイントとの座標X軸の差分を横方向の移動量として算出する(ステップS16)。制御部11は、重心位置と関心ポイントとの座標Y軸の差分を回転方向の移動量として算出する(ステップS17)。制御部11は、特徴領域の面積が所定の面積閾値以上であるか否かを判定する(ステップS18)。
The
制御部11は、特徴領域の面積が所定の面積閾値未満であると判定した場合(ステップS18でNO)、関心ポイントを更新する処理のサブルーチンを実行する(ステップS19)。なお、関心ポイントの更新処理のサブルーチンに関しては後述する。制御部11は、後述するステップS20の処理に遷移する。制御部11は、特徴領域の面積が所定の面積閾値以上であると判定した場合(ステップS18でYES)、制御部11は、当該周面画像が複数の周面画像の中の最後のフレームであるか否かを判定する(ステップS20)。制御部11は、当該周面画像が最後のフレームでないと判定した場合(ステップS20でNO)、ステップS11の処理に戻る。
When the
制御部11は、当該周面画像が最後のフレームであると判定した場合(ステップS20でYES)、横方向の移動量の合計及び回転方向の移動量の合計を算出する(ステップS21)。制御部11は、医療用長尺体4の傾斜角度から幾何学的計算により、横方向の移動量の合計及び回転方向の移動量の合計に対して補正する(ステップS22)。制御部11は、補正した横方向の移動量の合計を横方向の移動量とし、補正した回転方向の移動量の合計を回転方向の移動量として表示装置5に出力する(ステップS23)。制御部11は、移動量の特定処理のサブルーチンを終了してリターンする。
When the
図12は、関心ポイントの更新処理のサブルーチンの処理手順を示すフローチャートである。コンピュータ1の制御部11は、医療用長尺体4の周面に形成された多角形領域を含む領域(図3Aの領域11b)の縦中心線(図3Aの縦中心線12c)を取得する(ステップS31)。制御部11は医療用長尺体4のX軸方向に沿って、特徴領域の重心位置が縦中心線より左側であるか否かを判定する(ステップS32)。
FIG. 12 is a flowchart showing the processing procedure of a subroutine of interest point update processing. The
制御部11は、重心位置が縦中心線より左側であると判定した場合(ステップS32でYES)、医療用長尺体4のX軸方向に沿って、指定されたピクセル数で重心位置を右側に移動する(ステップS33)。制御部11は、移動後の重心位置を関心ポイントとして更新する(ステップS34)。制御部11は、関心ポイントの更新処理のサブルーチンを終了してリターンする。
If the
制御部11は、重心位置が縦中心線より左側でないと判定した場合(ステップS32でNO)、特徴領域の重心位置が縦中心線より右側であるか否かを判定する(ステップS36)。制御部11は、重心位置が縦中心線より右側であると判定した場合(ステップS36でYES)、医療用長尺体4のX軸方向に沿って、指定されたピクセル数で重心位置を左側に移動する(ステップS37)。制御部11は、ステップS34の処理に遷移する。制御部11は、重心位置が縦中心線より右側でないと判定した場合(ステップS36でNO)、関心ポイントの更新処理のサブルーチンを終了してリターンする。
When the
図13は、周面画像と医療用長尺体4の移動量とを出力する際の処理手順を示すフローチャートである。なお、図9と重複する内容については同一の符号を付して説明を省略する。コンピュータ1の制御部11は表示部14を介して、ステップS105の処理を実行した後に、所定期間(例えば、1秒)内に時系列で取得した複数の周面画像(動画像/映像)と、生成した第1グラフ及び第2グラフとを同時に表示装置5に出力する(ステップS107)。制御部11は、処理を終了する。
FIG. 13 is a flow chart showing a processing procedure for outputting the circumferential image and the movement amount of the medical
図14は、管腔器官のアンギオ画像と医療用長尺体4の移動量とを出力する際の処理手順を示すフローチャートである。なお、図9と重複する内容については同一の符号を付して説明を省略する。コンピュータ1の制御部11は、ステップS105の処理を実行した後に、管腔器官のアンギオ画像を、コンピュータ1に接続されている血管撮影装置から取得する(ステップS111)。制御部11は表示部14を介して、取得した管腔器官のアンギオ画像と、生成した第1グラフ及び前記第2グラフとを表示装置5に出力する(ステップS112)。制御部11は、処理を終了する。
FIG. 14 is a flow chart showing a processing procedure for outputting an angiographic image of a hollow organ and the amount of movement of the
続いて、特定された移動量が所定の移動量閾値を超えた場合に、通知を出力する処理を説明する。
図15は、通知を出力する際の処理手順を示すフローチャートである。コンピュータ1の制御部11は、予め記憶部12に記憶された所定の横方向の移動量閾値及び回転方向の移動量閾値を取得する(ステップS121)。なお、移動量閾値が大容量記憶部17または外部装置に記憶されても良い。
Next, a process of outputting a notification when the identified movement amount exceeds a predetermined movement amount threshold will be described.
FIG. 15 is a flow chart showing a processing procedure for outputting a notification. The
制御部11は通信部13を介して、撮像装置3から所定時間(例えば、30秒)内の医療用長尺体4の周面の周面画像を時系列で取得する(ステップS122)。制御部11は、取得した複数の周面画像に基づき、所定時間内の医療用長尺体4の横方向の移動量及び回転方向の移動量を特定する(ステップS123)。なお、移動量の特定処理に関しては、上述した移動量の特定処理と同様であるため、説明を省略する。
The
制御部11は、横方向の移動量が所定の横方向の移動量閾値を超えたか否かを判定する(ステップS124)。制御部11は、横方向の移動量が閾値を超えたと判定した場合(ステップS124でYES)、表示部14を介して通知を表示装置5に出力する(ステップS125)。通知は、例えば特定された移動量及び所定の移動量閾値等を含む。なお、音声通知、LEDフラッシュ通知またはバイブレーション通知等の手段が利用されても良い。制御部11は、ステップS122の処理に戻る。
The
制御部11は、横方向の移動量が閾値を超えていないと判定した場合(ステップS124でNO)、回転方向の移動量が所定の回転方向の移動量閾値を超えたか否かを判定する(ステップS126)。制御部11は、回転方向の移動量が閾値を超えたと判定した場合(ステップS126でYES)、ステップS125の処理に遷移する。制御部11は、回転方向の移動量が閾値を超えていないと判定した場合(ステップS126でNO)、ステップS122の処理に戻る。
If the
上述した通知処理に従って、術者の移動操作が早すぎる場合に、術者に通知することができる。または、医療用長尺体4をカレント位置に保持しておきたいときに、術者が操作ボタン等を押下することにより、意図しない移動操作等が発生した場合に、術者に通知することができる。
According to the notification process described above, the operator can be notified when the operator's movement operation is too fast. Alternatively, when an operator presses an operation button or the like to hold the medical
本実施形態によると、管腔器官内に挿入された医療用長尺体4の周面の周面画像に基づき、医療用長尺体4の移動量を特定することが可能となる。
According to this embodiment, it is possible to specify the amount of movement of the medical
本実施形態によると、医療用長尺体4の横方向の移動量と経過時間との関係を示す第1グラフ、及び、医療用長尺体4の回転方向の移動量と経過時間との関係を示す第2グラフを出力することが可能となる。
According to the present embodiment, the first graph showing the relationship between the amount of lateral movement of the long
本実施形態によると、周面画像と、第1グラフ及び第2グラフとを同時に出力することが可能となる。 According to this embodiment, it is possible to simultaneously output the circumferential image and the first and second graphs.
本実施形態によると、管腔器官の撮像画像と、第1グラフ及び第2グラフとを同時に出力することが可能となる。 According to this embodiment, it is possible to simultaneously output the captured image of the hollow organ and the first and second graphs.
本実施形態によると、所定時間内の医療用長尺体4の移動量が所定の移動量閾値を超えた場合に通知を出力することにより、医療用長尺体4の操作を迅速に調整することが可能となる。
According to this embodiment, the operation of the medical
(実施形態2)
実施形態2は、医療用長尺体4の周面の周面画像に基づき、人工知能(AI:Artificial Intelligence)により当該医療用長尺体4の移動量を特定する形態に関する。なお、実施形態1と重複する内容については説明を省略する。
(Embodiment 2)
図16は、実施形態2におけるカテーテルシステム10の構成を説明する説明図である。なお、図1と重複する内容については同一の符号を付して説明を省略する。コンピュータ1の大容量記憶部17には、移動量特定モデル171及び訓練データDB(database)172が含まれている。
FIG. 16 is an explanatory diagram illustrating the configuration of the
移動量特定モデル171は、時系列で取得した医療用長尺体4の複数の周面画像に基づいて、当該医療用長尺体4の移動量を特定(推定)する特定器であり、機械学習により生成された学習済みモデルである。訓練データDB172は、移動量特定モデル171を構築(作成)するための訓練データを記憶している。
The movement
図17は、訓練データDB172のレコードレイアウトの一例を示す説明図である。訓練データDB172は、入力データ列及び出力データ列を含む。入力データ列は、所定期間内に時系列で取得した医療用長尺体4の複数の周面画像を記憶している。所定期間は、例えば1秒、2秒または5秒等である。なお、医療用長尺体4の移動量を取得するために、入力データ列には2枚以上の周面画像が記憶されている。出力データ列は、医療用長尺体4の横方向の移動量及び回転方向の移動量を記憶している。
FIG. 17 is an explanatory diagram showing an example of the record layout of the
図18は、移動量特定モデル171を説明する説明図である。移動量特定モデル171は、人工知能ソフトウェアの一部であるプログラムモジュールとして利用される。移動量特定モデル171は、時系列で取得した医療用長尺体4の複数の周面画像を入力とし、当該医療用長尺体4の移動量(横方向の移動量及び回転方向の移動量)を出力とするニューラルネットワークを構築済みの特定器である。
FIG. 18 is an explanatory diagram for explaining the movement
コンピュータ1は、移動量特定モデル171として、周面画像内における医療用長尺体4の周面の特徴量を学習するディープラーニングを行うことで移動量特定モデル171を生成する。例えば、移動量特定モデル171はCNN(Convolution Neural Network)とLSTM(Long-Short Term Memory)との組み合わせである。LSTMはRNN(Recurrent Neural Network)の一種であり、予測対象時点より前の時系列データを入力として、対象時点の予測値を出力するニューラルネットワークである。
The
移動量特定モデル171は、医療用長尺体4の複数の周面画像の入力受付及び特徴量抽出等を行うCNN層と、CNN層から抽出された特徴量に対して演算処理を行うLSTM層(隠れ層)と、特徴量に基づいて予測した当該医療用長尺体4の移動量を出力する出力層とを有する。
The movement
時点(例えば、t1、t2…tn)毎にCNN層及びLSTM層が並列的に設けられる。CNN層は、医療用長尺体4の複数の周面画像の入力を受け付ける入力層と、バックプロパゲーションにより学習済の中間層とを有する。入力層は、連続する複数時点それぞれの周面画像に含まれる各画素の画素値の入力を受け付ける複数のニューロンを有し、入力された画素値を中間層に受け渡す。中間層は、各周面画像の特徴量を抽出する複数のニューロンを有し、抽出した画像特徴量をLSTM層に受け渡す。中間層は、入力層から入力された各画素の画素値を畳み込むコンボリューション層と、コンボリューション層で畳み込んだ画素値をマッピングするプーリング層とが交互に連結された構成により、各周面画像の画素情報を圧縮しながら最終的に画像の特徴量を抽出する。
A CNN layer and an LSTM layer are provided in parallel at each time point (eg, t1, t2, . . . tn). The CNN layer has an input layer that receives inputs of a plurality of circumferential images of the
LSTM層は、LSTMブロックと呼ばれ、t1時点における自らの演算結果を一時的に記憶し、t1時点の次のt2時点の入力データに関する演算を行う場合に、前のt1時点の入力データに関する演算結果を参照して演算を行う。前のt1時点の演算結果を参照することで、直近t2時点までの時系列のデータから次のt3時点の演算を行う。すなわち、前の時点におけるLSTMブロックの出力データが、次の時点におけるLSTMブロックの入力データとされる。 The LSTM layer is called an LSTM block, temporarily stores its own calculation result at time t1, and when performing calculations on input data at time t2 next to time t1, it performs calculations on input data at time t1 before. Calculation is performed by referring to the result. By referring to the calculation result at the previous time point t1, calculation at the next time point t3 is performed from the time-series data up to the most recent time point t2. That is, the output data of the LSTM block at the previous time is used as the input data of the LSTM block at the next time.
出力層は、LSTM層での演算結果に基づき出力値を演算するニューロンを有し、医療用長尺体4の移動量(横方向の移動量及び回転方向の移動量)を予測した予測結果を出力する。
The output layer has neurons for calculating output values based on the calculation results in the LSTM layer, and outputs the prediction result of the movement amount (horizontal movement amount and rotational movement amount) of the
例えばコンピュータ1は、訓練データDB172に蓄積された訓練データを用いて、移動量特定モデル171を生成する。訓練データDB172の各レコードがそれぞれ訓練データである。出力データ列の値が出力層から出力されるべき正解データ(移動量)である。入力データ列の複数の周面画像が入力データである。訓練データは、時系列で取得された医療用長尺体4の複数の周面画像と、当該医療用長尺体4の移動量(横方向の移動量及び回転方向の移動量)とが対応付けられた組み合わせのデータである。訓練データは、医療用長尺体4を操作する術者から収集された大量の経験データに基づいて生成される。なお、訓練データは別途人手で作成されたデータであっても良い。
For example, the
コンピュータ1は、取得した訓練データを用いて学習を行う。具体的には、コンピュータ1は、時系列で取得した医療用長尺体4の複数の周面画像を、時系列に従ってCNN層の入力層に対応する各ニューロンに順次入力し、過去のある時点における医療用長尺体4の移動量の予測値を算出する。コンピュータ1は、対象時点における実際の医療用長尺体4の移動量を正解値として予測値と比較し、移動量特定モデル171を構築する。
The
上述のようにコンピュータ1は、パラメータである複数の周面画像を移動量特定モデル171に入力し、学習を行う。具体的には、コンピュータ1は、複数の周面画像をCNN層の入力層の各ニューロンに順次入力していく。コンピュータ1は、CNN層の中間層で各周面画像の特徴量を抽出し、抽出した画像特徴量をLSTM層に受け渡す。コンピュータ1は、LSTM層での演算を行う。コンピュータ1は、LSTM層で演算された医療用長尺体4の移動量の予測値を出力層に出力すると共に次のニューロンに入力していく。すなわち、それぞれのLSTM層で演算された医療用長尺体4の移動量の予測値が時系列データとして生成される。
As described above, the
コンピュータ1は、対象時点における実際の医療用長尺体4の移動量を正解値として予測値と比較し、予測値が正解値に近似するように、LSTM層での演算に用いるパラメータを最適化する。当該パラメータは、例えばニューロン間の重み(結合係数)、活性化関数の係数などである。パラメータの最適化の方法は特に限定されないが、例えばコンピュータ1は誤差逆伝播法を用いて各種パラメータの最適化を行う。コンピュータ1は、出力層の各ニューロンからの出力として、各周面画像に対応する医療用長尺体4の移動量の予測値を取得する。
The
コンピュータ1は、訓練データDB172に記憶してある各レコードについて上記の処理を行い、移動量特定モデル171の学習を行う。これにより、医療用長尺体4の移動量を特定可能なモデルを構築することができる。なお、他のコンピュータ(図示せず)により上述の学習処理を行い、移動量特定モデル171を生成しても良い。この場合、コンピュータ1は、他のコンピュータにより生成された移動量特定モデル171を取得してデプロイする。なお、移動量特定モデル171を構築せずに、機械学習モデルを使ったWEB API(Application Programming Interface)を利用することにより、移動量を特定しても良い。
The
コンピュータ1は、生成した移動量特定モデル171を用いて医療用長尺体4の移動量を特定(予測)する。具体的には、コンピュータ1は、医療用長尺体4の複数の周面画像(例えば、第1フレーム画像、第2フレーム画像……最後のフレーム画像)を時系列で取得する。コンピュータ1は、取得した複数の周面画像を移動量特定モデル171に入力し、当該医療用長尺体4の移動量を予測した予測結果を出力する。
The
例えば、第1フレーム画像における医療用長尺体4の横方向の移動量が「+2mm」であり、回転方向の移動量が「-12deg.」である。第2フレーム画像における医療用長尺体4の横方向の移動量が「+3mm」であり、回転方向の移動量が「-5deg.」である。このように、各周面画像(フレーム画像)における横方向の移動量及び回転方向の移動量の予測結果を出力することができる。
For example, the amount of lateral movement of the elongated
なお、移動量特定モデル171は、CNNとLSTMとの組み合わせに限られず、RCNN(Regions with Convolutional Neural Network)、Fast RCNN、Faster RCNN、SSD(Single Shot Multibook Detector)、YOLO(You Only Look Once)、SVM(Support Vector Machine)、ベイジアンネットワーク、トランスフォーマー(Transformer)ネットワーク、回帰木またはランダムフォレストといった他のモデルによって実現されて良い。
In addition, the movement
なお、本実施形態では、横方向の移動量と回転方向の移動量との両方を出力する移動量特定モデル171の例を説明したが、これに限るものではない。例えばコンピュータ1は、横方向の移動量特定モデル及び回転方向の移動量特定モデルのそれぞれを生成しても良い。
In this embodiment, an example of the movement
図19は、移動量特定モデル171を用いる移動量の特定処理のサブルーチンの処理手順を示すフローチャートである。コンピュータ1の制御部11は、図9のステップS101の処理で取得された医療用長尺体4の複数の周面画像を移動量特定モデル171に入力する(ステップS41)。制御部11は、当該医療用長尺体4の移動量を特定した特定結果を移動量特定モデル171から出力する(ステップS42)。制御部11は、移動量の特定処理のサブルーチンを終了してリターンする。
FIG. 19 is a flow chart showing the processing procedure of a subroutine of movement amount identification processing using the movement
本実施形態によると、時系列で取得された医療用長尺体4の複数の周面画像に基づいて、移動量特定モデル171を用いて当該医療用長尺体4の移動量を特定することが可能となる。
According to the present embodiment, the movement amount of the medical
今回開示された実施形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、請求の範囲によって示され、請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed this time are illustrative in all respects and should be considered not restrictive. The scope of the present invention is indicated by the scope of the claims rather than the meaning described above, and is intended to include all changes within the meaning and scope equivalent to the scope of the claims.
1 情報処理装置(コンピュータ)
11 制御部
12 記憶部
13 通信部
14 表示部
15 入力部
16 読取部
17 大容量記憶部
171 移動量特定モデル
172 訓練データDB
1a 可搬型記憶媒体
1b 半導体メモリ
1P 制御プログラム
2 Yコネクタ
3 撮像装置
4 医療用長尺体
5 表示装置
6 入力装置
10 カテーテルシステム
1 Information processing device (computer)
REFERENCE SIGNS
1a
Claims (12)
時系列で取得した複数の周面画像に基づき、前記医療用長尺体の移動量を特定する
処理をコンピュータに実行させるプログラム。 Acquiring peripheral images of the peripheral surface of a medical elongate body inserted into a hollow organ in time series,
A program that causes a computer to execute a process of identifying the amount of movement of the elongated body for medical use based on a plurality of circumferential images acquired in time series.
抽出した特徴領域に基づき、前記特徴領域の重心間の横方向または回転方向の移動量を特定する
請求項1に記載のプログラム。 extracting a feature region from the time-series circumferential image of the medical elongate body;
2. The program according to claim 1, wherein the amount of lateral or rotational movement between the centers of gravity of the characteristic regions is specified based on the extracted characteristic regions.
請求項2に記載のプログラム。 3. The program according to claim 2, wherein when the area of the characteristic region has decreased by a predetermined area threshold or more, a second characteristic region different from the characteristic region is set.
請求項2又は3に記載のプログラム。 4. The program according to claim 2, wherein a polygonal area formed on the circumferential surface of the elongated body for medical use that advances and retreats while rotating is extracted as the feature area.
請求項1から4までのいずれかひとつに記載のプログラム。 When a plurality of circumferential images of the medical elongated body acquired in time series are input, a learning model trained to output a movement amount of the medical elongated body is provided with 5. The program according to any one of claims 1 to 4, wherein a plurality of circumferential images are input to identify the amount of movement of the elongated body for medical use.
請求項1から5までのいずれかひとつに記載のプログラム。 The program according to any one of claims 1 to 5, wherein the peripheral surface image is acquired from an imaging device that images the peripheral surface of the medical elongate body.
請求項1から6までのいずれかひとつに記載のプログラム。 A first graph showing the relationship between the amount of lateral movement of the elongated medical body and elapsed time, and a second graph showing the relationship between the amount of rotational movement of the elongated medical body and elapsed time. The program according to any one of claims 1 to 6, which outputs.
請求項7に記載のプログラム。 8. The program according to claim 7, which outputs the first graph, the second graph, and a peripheral surface image obtained by imaging the peripheral surface of the medical elongate body.
請求項7又は8に記載のプログラム。 9. The program according to claim 7, which outputs the first graph, the second graph, and the picked-up image of the hollow organ.
取得した移動量が所定の移動量閾値を超えた場合に通知を出力する
請求項1から9までのいずれかひとつに記載のプログラム。 Acquiring the amount of movement of the medical elongated body within a predetermined time,
10. The program according to any one of claims 1 to 9, wherein a notification is output when the acquired movement amount exceeds a predetermined movement amount threshold.
時系列で取得した複数の周面画像に基づき、前記医療用長尺体の移動量を特定する特定部と
を備える情報処理装置。 an acquisition unit that acquires, in time series, circumferential images of the circumferential surface of the elongated body for medical use that is inserted into the hollow organ;
An information processing apparatus comprising: a specifying unit that specifies the amount of movement of the elongated medical object based on a plurality of circumferential images acquired in time series.
時系列で取得した複数の周面画像に基づき、前記医療用長尺体の移動量を特定する
処理をコンピュータが実行する情報処理方法。 Acquiring peripheral images of the peripheral surface of a medical elongate body inserted into a hollow organ in time series,
An information processing method in which a computer executes a process of identifying the amount of movement of the elongated medical object based on a plurality of circumferential images acquired in time series.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2023570955A JPWO2023127719A1 (en) | 2021-12-28 | 2022-12-23 |
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021-215169 | 2021-12-28 | ||
| JP2021215169 | 2021-12-28 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2023127719A1 true WO2023127719A1 (en) | 2023-07-06 |
Family
ID=86999235
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2022/047576 Ceased WO2023127719A1 (en) | 2021-12-28 | 2022-12-23 | Program, information processing device, and information processing method |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JPWO2023127719A1 (en) |
| WO (1) | WO2023127719A1 (en) |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2014024422A1 (en) * | 2012-08-06 | 2014-02-13 | パナソニック株式会社 | Catheter tip rotation angle detection device, method, and program |
| JP2014095885A (en) * | 2012-10-09 | 2014-05-22 | Panasonic Corp | Force presentation device, force presentation method and force presentation program |
-
2022
- 2022-12-23 WO PCT/JP2022/047576 patent/WO2023127719A1/en not_active Ceased
- 2022-12-23 JP JP2023570955A patent/JPWO2023127719A1/ja active Pending
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2014024422A1 (en) * | 2012-08-06 | 2014-02-13 | パナソニック株式会社 | Catheter tip rotation angle detection device, method, and program |
| JP2014095885A (en) * | 2012-10-09 | 2014-05-22 | Panasonic Corp | Force presentation device, force presentation method and force presentation program |
Also Published As
| Publication number | Publication date |
|---|---|
| JPWO2023127719A1 (en) | 2023-07-06 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US12443889B2 (en) | Image-based detection of internal object | |
| US10646288B2 (en) | Automated steering systems and methods for a robotic endoscope | |
| CN108198184B (en) | Method and system for segmentation of blood vessels in angiography images | |
| US6496188B1 (en) | Image processing method, system and apparatus for processing an image representing tubular structure and for constructing a path related to said structure | |
| EP3660785A1 (en) | Method and system for providing an at least 3-dimensional medical image segmentation of a structure of an internal organ | |
| CN107249464B (en) | Robust calcification tracking in fluorescence imaging | |
| CN112634291B (en) | Burn wound area automatic segmentation method based on neural network | |
| WO2020203552A1 (en) | Line structure extraction device, method and program, and learned model | |
| JP7490045B2 (en) | PROGRAM, INFORMATION PROCESSING METHOD, INFORMATION PROCESSING APPARATUS AND MODEL GENERATION METHOD | |
| CN113256670A (en) | Image processing method and device, and network model training method and device | |
| WO2022178512A1 (en) | Extended-reality skin-condition-development prediction and visualization | |
| CN116012555B (en) | A vascular guidewire tracking method based on Res-Unet and hidden Markov model | |
| CN114869464B (en) | Three-dimensional navigation method, device, equipment and medium for vascular interventional surgery robot | |
| CN114359205A (en) | Head and neck blood vessel analysis method and device, storage medium and electronic equipment | |
| CN116650111A (en) | Simulation and navigation method and system for bronchus foreign body removal operation | |
| US11900615B2 (en) | Tracking device, endoscope system, and tracking method | |
| JP7536862B2 (en) | PROGRAM, INFORMATION PROCESSING METHOD, INFORMATION PROCESSING APPARATUS AND MODEL GENERATION METHOD | |
| US20240005459A1 (en) | Program, image processing method, and image processing device | |
| US20210174518A1 (en) | Tracking device, endoscope system, and tracking method | |
| WO2023127719A1 (en) | Program, information processing device, and information processing method | |
| CN109272485B (en) | Method and device for repairing three-dimensional model of blood vessel and electronic equipment | |
| CN112132981A (en) | Image processing method and device, electronic equipment and storage medium | |
| Bar-David et al. | Impact of data augmentation on retinal oct image segmentation for diabetic macular edema analysis | |
| CN114445338A (en) | Image processing method, image processing device, storage medium and electronic equipment | |
| CN119942033B (en) | Automatic navigation methods, devices, electronic equipment and storage media for bronchoscopy |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 22915942 Country of ref document: EP Kind code of ref document: A1 |
|
| ENP | Entry into the national phase |
Ref document number: 2023570955 Country of ref document: JP Kind code of ref document: A |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 22915942 Country of ref document: EP Kind code of ref document: A1 |