WO2025070545A1 - 画像処理装置、画像処理システム、画像処理方法、及び画像処理プログラム - Google Patents
画像処理装置、画像処理システム、画像処理方法、及び画像処理プログラム Download PDFInfo
- Publication number
- WO2025070545A1 WO2025070545A1 PCT/JP2024/034284 JP2024034284W WO2025070545A1 WO 2025070545 A1 WO2025070545 A1 WO 2025070545A1 JP 2024034284 W JP2024034284 W JP 2024034284W WO 2025070545 A1 WO2025070545 A1 WO 2025070545A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- point
- control unit
- sensor
- ray
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/46—Arrangements for interfacing with the operator or the patient
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/12—Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
Definitions
- This disclosure relates to an image processing device, an image processing system, an image processing method, and an image processing program.
- Patent Document 1 discloses a method for identifying the direction of the patient's ventral side in a three-dimensional image of biological tissue that is generated and displayed based on a two-dimensional ultrasound image acquired by a transducer of an ultrasound catheter.
- CT computed tomography
- DSA digital subtraction angiography
- the purpose of this disclosure is to make it easier to reproduce the shape of a biological lumen in a three-dimensional image when imaging the three-dimensional structure of the biological lumen to generate a three-dimensional image.
- An image processing device that generates a three-dimensional image by imaging a three-dimensional structure of a biological lumen based on a plurality of two-dimensional images obtained by moving a sensor provided on a catheter inserted into the biological lumen along an axis of the catheter through a section from a first point to a second point within the biological lumen,
- An image processing device comprising: a control unit that adjusts the shape of the three-dimensional image to match the shape of the catheter axis in the section, which is identified using at least one X-ray image including an image of at least a portion of the catheter taken by an X-ray imaging device that sees through the biological lumen.
- the control unit is Associating a first location on the at least one X-ray image corresponding to the first point with a location at one end of the line of motion; Associating a second location on the at least one X-ray image corresponding to the second point with a location of the other end of the line of motion; setting a connecting line connecting the first position and the second position on the at least one X-ray image;
- the image processing device according to [2], wherein the shape of the movement line is set in response to an operation for manually changing the shape of the set connection line.
- the control unit is Associating a first location on the at least one X-ray image corresponding to the first point with a location at one end of the line of motion; Associating a second location on the at least one X-ray image corresponding to the second point with a location of the other end of the line of motion; automatically detecting an image of the catheter shaft from the at least one X-ray image;
- the image processing device further comprising: a detecting unit for detecting a shape of the movement line based on the detected image;
- the control unit is Associating a first location on the at least one X-ray image corresponding to the first point with a location at one end of the line of motion; Associating a second location on the at least one X-ray image corresponding to the second point with a location of the other end of the line of motion; automatically detecting an image of the sensor from each of a plurality of X-ray images captured by the X-ray imaging device while the sensor moves through the section;
- the image processing device according to [2], further comprising: a detecting unit for detecting a shape of the movement line based on the detected image;
- control unit corresponds to a position of one end of the movement line in response to an operation of manually specifying a first position corresponding to the first point on the at least one X-ray image when the sensor is present at the first point.
- the control unit corresponds the second position to the position of the other end of the movement line in response to an operation of manually specifying a second position corresponding to the second point on the at least one X-ray image when the sensor is present at the second point.
- the control unit is obtaining ratio information indicative of a ratio of a dimension of the at least one X-ray image to a dimension of the three-dimensional image;
- An image processing device as described in [7], wherein, based on the acquired ratio information, a position on the at least one X-ray image that is a distance away from the first position corresponding to the distance of the movement line is associated with the other end position of the movement line as a second position on the at least one X-ray image corresponding to the second point.
- control unit automatically detects a first position corresponding to the first point on the at least one X-ray image when the sensor is present at the first point, and corresponds the first position to a position at one end of the movement line.
- control unit automatically detects a second position corresponding to the second point on the at least one X-ray image when the sensor is present at the second point, and corresponds the second position to the position of the other end of the movement line.
- control unit causes the three-dimensional image to be displayed on a display in a superimposed manner on the at least one X-ray image.
- control unit updates the three-dimensional image in accordance with changes in the movement line while the movement line is being set.
- a computer that generates a three-dimensional image by imaging a three-dimensional structure of the biological lumen based on a plurality of two-dimensional images obtained by moving a sensor provided on a catheter inserted into the biological lumen along an axis of the catheter through a section from a first point to a second point in the biological lumen,
- An image processing program that executes an operation including adjusting the shape of the three-dimensional image to match the shape of the catheter axis in the section, which is identified using at least one X-ray image including an image of at least a portion of the catheter taken by an X-ray imaging device that visualizes the biological lumen.
- FIG. 1 is a block diagram showing a configuration of an image processing system according to an embodiment of the present disclosure.
- 4 is a flowchart illustrating an operation of an image processing device according to an embodiment of the present disclosure.
- FIG. 11 is a diagram illustrating an example of a screen displayed on a display according to an embodiment of the present disclosure.
- FIG. 11 is a diagram showing an example of updating a screen displayed on a display according to an embodiment of the present disclosure in step S4.
- FIG. 2 is a diagram illustrating an example of a three-dimensional image generated by an image processing device according to an embodiment of the present disclosure.
- FIG. 11 is a diagram showing an example of shape adjustment in step S7 of a three-dimensional image generated by an image processing device according to an embodiment of the present disclosure.
- FIG. 11 is a diagram showing an example of updating a screen displayed on a display according to an embodiment of the present disclosure in step S7.
- 13 is a flowchart showing a first example of a detailed procedure of step S6.
- FIG. 11 is a diagram showing an example of updating a screen displayed on a display according to an embodiment of the present disclosure in step S603.
- FIG. 13 is a diagram showing an example of updating a screen displayed on a display according to an embodiment of the present disclosure in step S604.
- 13 is a flowchart showing a second example of the detailed procedure of step S6.
- 13 is a flowchart showing a third example of a detailed procedure of step S6.
- 13 is a diagram showing an example of updating a screen displayed on a display according to an embodiment of the present disclosure in step S623.
- 13 is a flowchart showing a fourth example of the detailed procedure of step S6.
- 13 is a flowchart showing a fifth example of the detailed procedure of step S6.
- 13 is a flowchart illustrating a modified example of the operation of the image processing device according to the embodiment of the present disclosure.
- the image processing system 10 includes an image processing device 20, a sensor 28, an X-ray imaging device 30, an input device 40, and a display 50.
- the image processing device 20 is connected to the sensor 28, the X-ray imaging device 30, the input device 40, and the display 50 via a cable or a network, or wirelessly.
- the image processing device 20 is, for example, a general-purpose computer such as a PC, a server computer such as a cloud server, or a dedicated computer. "PC" is an abbreviation for personal computer.
- the image processing device 20 may be installed in a medical facility such as a hospital, or may be installed in a facility separate from the medical facility, such as a data center.
- the sensor 28 is, for example, an ultrasound transducer used in IVUS. "IVUS" is an abbreviation for intravascular ultrasound.
- the sensor 28 transmits ultrasound while moving along the axis 27 of a catheter 26 inserted into a biological lumen such as a blood vessel, as shown in FIG. 3, and receives the reflected waves of the transmitted ultrasound.
- the X-ray imaging device 30 is, for example, a C-arm.
- the X-ray imaging device 30 is installed in a medical facility and visualizes the body lumen.
- the input device 40 is, for example, a pointing device such as a mouse, a keyboard, or a touch screen that is integrated with the display 50.
- the input device 40 is installed in a medical facility and is used by an operator such as a doctor or clinical engineer to control the display of various information, including images, on the display 50.
- the display 50 is, for example, an LCD or an organic EL display.
- LCD is an abbreviation for liquid crystal display.
- EL is an abbreviation for electro luminescent.
- the display 50 is installed in a medical facility and displays various information, including images, to the operator to assist in catheter surgery, such as stent graft placement procedures.
- the image processing device 20 includes a control unit 21, a memory unit 22, a communication unit 23, an input unit 24, and an output unit 25.
- the control unit 21 includes at least one processor, at least one programmable circuit, at least one dedicated circuit, or any combination of these.
- the processor is a general-purpose processor such as a CPU or GPU, or a dedicated processor specialized for specific processing.
- CPU is an abbreviation for central processing unit.
- GPU is an abbreviation for graphics processing unit.
- An example of the programmable circuit is an FPGA.
- FPGA is an abbreviation for field-programmable gate array.
- An example of the dedicated circuit is an ASIC.
- ASIC is an abbreviation for application specific integrated circuit.
- the control unit 21 executes processing related to the operation of the image processing device 20 while controlling each part of the image processing device 20.
- the memory unit 22 includes at least one semiconductor memory, at least one magnetic memory, at least one optical memory, or any combination thereof.
- the semiconductor memory is, for example, a RAM, a ROM, or a flash memory.
- RAM is an abbreviation for random access memory.
- ROM is an abbreviation for read only memory.
- the RAM is, for example, an SRAM or a DRAM.
- SRAM is an abbreviation for static random access memory.
- DRAM is an abbreviation for dynamic random access memory.
- the ROM is, for example, an EEPROM.
- EEPROM is an abbreviation for electrically erasable programmable read only memory.
- the flash memory is, for example, an SSD.
- SSD is an abbreviation for solid-state drive.
- the magnetic memory is, for example, an HDD. "HDD” is an abbreviation for hard disk drive.
- the memory unit 22 functions, for example, as a main memory device, an auxiliary memory device, or a cache memory. The memory unit 22 stores data used in the operation of the image processing device 20 and data obtained by the operation of the image processing device 20.
- the communication unit 23 includes at least one communication module.
- the communication module is, for example, a module compatible with a wired LAN communication standard such as Ethernet (registered trademark) or a wireless LAN communication standard such as IEEE 802.11. "IEEE” is an abbreviation for Institute of Electrical and Electronics Engineers.
- the communication unit 23 receives data used in the operation of the image processing device 20, and transmits data obtained by the operation of the image processing device 20.
- the communication unit 23 is connected to the sensor 28 and the X-ray imaging device 30. Note that the communication unit 23 does not have to be a communication module as described above, as long as it can receive image signals from the sensor 28 and the X-ray imaging device 30.
- the input unit 24 includes at least one input interface.
- the input interface is, for example, a USB interface, an HDMI (registered trademark) interface, or an interface compatible with a short-range wireless communication standard such as Bluetooth (registered trademark).
- USB is an abbreviation for Universal Serial Bus.
- HDMI registered trademark
- HDMI registered trademark
- HDMI High-Definition Multimedia Interface
- the output unit 25 includes at least one output interface.
- the output interface is, for example, a USB interface, an HDMI (registered trademark) interface, or an interface compatible with a short-range wireless communication standard such as Bluetooth (registered trademark).
- the output unit 25 outputs data obtained by the operation of the image processing device 20.
- the output unit 25 is connected to the display 50.
- the program may be stored on a non-transitory computer-readable medium.
- non-transitory computer-readable media include flash memory, magnetic recording devices, optical disks, magneto-optical recording media, and ROMs.
- the program may be distributed, for example, by selling, transferring, or lending portable media such as SD cards, DVDs, or CD-ROMs on which the program is stored.
- SD is an abbreviation for Secure Digital.
- DVD is an abbreviation for digital versatile disc.
- CD-ROM is an abbreviation for compact disc read only memory.
- the program may be distributed by storing it in the storage of a server and transferring it from the server to other computers.
- the program may be provided as a program product.
- the computer temporarily stores in its main storage device, for example, a program stored in a portable medium or a program transferred from a server.
- the computer then reads the program stored in the main storage device with a processor, and executes processing in accordance with the read program with the processor.
- the computer may read the program directly from the portable medium and execute processing in accordance with the program.
- the computer may execute processing in accordance with the received program each time a program is transferred to the computer from the server. Processing may be executed by a so-called ASP-type service that does not transfer a program from the server to the computer, but instead realizes functions only by issuing execution instructions and obtaining results.
- "ASP" is an abbreviation for application service provider.
- Programs include information used for processing by a computer that is equivalent to a program. For example, data that is not a direct command to a computer but has properties that define computer processing falls under "something equivalent to a program.”
- Some or all of the functions of the image processing device 20 may be realized by a programmable circuit or a dedicated circuit as the control unit 21. In other words, some or all of the functions of the image processing device 20 may be realized by hardware.
- the image processing device 20 will be described with reference to FIG. 2.
- the operation described below corresponds to the image processing method according to this embodiment.
- the image processing method according to this embodiment includes steps S1 to S7 shown in FIG. 2.
- control unit 21 acquires one or more X-ray images taken by the X-ray imaging device 30. Specifically, the control unit 21 receives one or more X-ray images from the X-ray imaging device 30 via the communication unit 23.
- the control unit 21 acquires multiple two-dimensional images obtained by the sensor 28 while the sensor 28 moves through the section from the first point P1 to the second point P2 in the biological lumen. Specifically, the control unit 21 receives reflected wave information from the sensor 28 via the communication unit 23 regarding reflected waves received by the sensor 28 while the sensor 28 moves through the section from the first point P1 to the second point P2 in the biological lumen. The control unit 21 generates multiple cross-sectional images as multiple two-dimensional images by imaging the cross-sectional structure of the biological lumen based on the received reflected wave information. Alternatively, the control unit 21 may receive multiple cross-sectional images generated by a separately provided IVUS device based on the reflected wave information as multiple two-dimensional images from the IVUS device via the communication unit 23.
- Step S1 may be executed before S2, during S2, or after S2.
- the control unit 21 causes the display 50 to display a screen 51 such as that shown in FIG. 3 via the output unit 25.
- the screen 51 includes a first area 52 and a second area 53 adjacent to the first area 52.
- the second area 53 is disposed to the right of the first area 52, but the second area 53 may also be disposed to the left of the first area 52.
- the latest two-dimensional image 60 and the human body model image 61 are displayed among the multiple two-dimensional images acquired in S2.
- the human body model image 61 is displayed so that its orientation is aligned with that of the two-dimensional image 60.
- the catheter 26 is inserted from the groin of the patient, and the upper side of the two-dimensional image 60 corresponds to the side where the abdomen of the patient is located, and the lower side of the two-dimensional image 60 corresponds to the side where the back of the patient is located. Therefore, the human body model image 61 is displayed so that the bottom surface is visible, and the abdomen faces upward and the back faces downward.
- the human body model image 61 is positioned at the upper left of the two-dimensional image 60, but the human body model image 61 may be positioned anywhere in the vicinity of the two-dimensional image 60.
- the position of the human body model image 61 may be fixed or may be arbitrarily changeable.
- a slider 54 is further displayed in the first area 52.
- the slider 54 indicates the position of the sensor 28 in the longitudinal direction of the catheter 26.
- the slider 54 is disposed at the end of the first area 52 that is closer to the second area 53. Therefore, in the example shown in FIG. 3, the slider 54 is disposed at the right end of the first area 52.
- the second area 53 displays the X-ray image 80 acquired in S1.
- the X-ray image 80 was taken by the X-ray imaging device 30 when the axis 27 of the catheter 26 was present at least over the section from the first point P1 to the second point P2 within the biological lumen.
- the X-ray image 80 includes an image of at least a portion of the catheter 26, specifically, an image of the axis 27 of the catheter 26, and an image of the sensor 28. In the example shown in FIG. 3, the X-ray image 80 further includes an image of the guidewire 29.
- control unit 21 visualizes the three-dimensional structure of the biological lumen based on the multiple two-dimensional images acquired in S2, and generates a three-dimensional image 70 as shown in Fig. 5. Specifically, the control unit 21 stacks the multiple cross-sectional images generated or received in S2 to generate the three-dimensional image 70.
- control unit 21 causes the three-dimensional image 70 generated in S3 to be superimposed on the X-ray image 80 acquired in S1 and displayed on the display 50.
- control unit 21 updates the screen 51 displayed on the display 50 via the output unit 25 as shown in FIG. 4.
- the three-dimensional image 70 generated in S3 and the human body model image 71 are displayed superimposed on the X-ray image 80 acquired in S1.
- the angle of the three-dimensional image 70 corresponds to the angle when the surgical subject is viewed from the front
- the upper side of the three-dimensional image 70 corresponds to the side where the head of the surgical subject is located
- the lower side of the three-dimensional image 70 corresponds to the side where the feet of the surgical subject are located. Therefore, the human body model image 71 is displayed so that the front is visible, the head faces up, and the feet face down.
- the human body model image 71 is placed in the upper left of the three-dimensional image 70, but the human body model image 71 may be placed in any position near the three-dimensional image 70.
- the position of the human body model image 71 may be fixed or may be arbitrarily changeable.
- the three-dimensional image 70 may be cut out in part along the long axis direction of the catheter 26 so that the internal structure of the biological lumen can be observed, and the cut-out part may be made invisible.
- a cross-sectional image 72 is further displayed in the second area 53.
- the cross-sectional image 72 is a reduced version of the two-dimensional image 60 displayed in the first area 52.
- a camera icon 73 indicating the viewpoint position is placed on the edge of the cross-sectional image 72. This makes it easy to see from what direction the three-dimensional image 70 displayed in the second area 53 is viewed in the cross-sectional image 72.
- the image display orientation in which the three-dimensional image 70 is displayed on the display 50 is adjusted manually or automatically to an orientation in which the X-ray image 80 is viewed from a viewpoint corresponding to the shooting angle at which the X-ray image 80 was captured by the X-ray imaging device 30.
- the relative position and size in which the three-dimensional image 70 is displayed on the display 50 relative to the X-ray image 80 have already been adjusted in the example shown in FIG. 4, but in reality they do not need to be adjusted yet.
- FIG. 4 shows a first position L1 corresponding to a first point P1 and a second position L2 corresponding to a second point P2 on the X-ray image 80, but the first position L1 and the second position L2 may be manually specified or automatically detected by S6.
- the control unit 21 identifies the position of the sensor 28 as the sensor position for each of the two-dimensional images included in the multiple two-dimensional images acquired in S2. Specifically, the control unit 21 identifies the position of the center of the two-dimensional image 60 obtained by the sensor 28 when the sensor 28 is located at the first point P1 as the first sensor position V1. The control unit 21 identifies the position of the center of the two-dimensional image 60 obtained by the sensor 28 when the sensor 28 is located at the second point P2 as the second sensor position V2.
- the control unit 21 identifies the positions of the center of the two-dimensional image 60 obtained by the sensor 28 when the sensor 28 is located at the third point P3 and the fourth point P4 that are different from the first point P1 and the second point P2 as the third sensor position V3 and the fourth sensor position V4, respectively.
- the control unit 21 may further identify the position of the center of the two-dimensional image 60 obtained by the sensor 28 when the sensor 28 is located at a point different from the first point P1, the second point P2, the third point P3, and the fourth point P4 as the sensor position.
- the control unit 21 does not need to identify the fourth sensor position V4.
- the control unit 21 sets a movement line 74 as shown in FIG. 6 in the three-dimensional image 70 generated in S3.
- the movement line 74 is a line extending from the position of the first sensor position V1 identified in S5 in the three-dimensional image 70 in a shape corresponding to the shape of the axis 27 of the catheter 26 in the section from the first point P1 to the second point P2 in the biological lumen.
- the shape of the axis 27 of the catheter 26 in the section from the first point P1 to the second point P2 in the biological lumen is identified using at least one X-ray image acquired in S1.
- the shape of the axis 27 of the catheter 26 from the first position L1 to the second position L2 on the X-ray image 80 acquired in S1 is identified as the shape of the axis 27 of the catheter 26 in the section from the first point P1 to the second point P2 in the biological lumen.
- the control unit 21 adjusts the shape of the three-dimensional image 70 generated in S3 to match the shape of the axis 27 of the catheter 26 in the section from the first point P1 to the second point P2 in the biological lumen, which is identified using at least one X-ray image. Specifically, as shown in FIG. 6, the control unit 21 adjusts the shape of the three-dimensional image 70 generated in S3 by placing each sensor position identified in S5 on the movement line 74 set in S6. For example, as shown in FIG. 7, the control unit 21 updates the screen 51 displayed on the display 50 via the output unit 25.
- Step S7 may be executed after S6, but is preferably executed simultaneously with S6.
- the control unit 21 updates the three-dimensional image 70 in response to changes in the movement line 74 while the movement line 74 is being set.
- the control unit 21 In order to reduce the amount of calculations required when adjusting the shape of the three-dimensional image 70 in S7, it is desirable for the control unit 21 to convert the voxel data of the three-dimensional image 70 into triangular or quadrangular mesh data when generating the three-dimensional image 70 in S3. Any method such as the marching cubes method, Surface Nets, or Delaunay triangulation can be used to convert the voxel data into mesh data. Any method such as the RMF or Frenet-Serret formula can be used to deform the mesh data when adjusting the shape of the three-dimensional image 70. "RMF" is an abbreviation for rotation minimizing frames.
- control unit 21 may cause the three-dimensional image 70 and the X-ray image 80 to be displayed separately on the display 50 in S4.
- control unit 21 may further obtain another X-ray image taken by the X-ray imaging device 30 at an angle different from that of the X-ray image 80 in S1, and further adjust the shape of the three-dimensional image 70 in the depth direction using the another X-ray image in S4 to S7.
- the control unit 21 generates a three-dimensional image 70 by imaging the three-dimensional structure of the biological lumen based on a plurality of two-dimensional images 60 obtained by moving the sensor 28 provided on the catheter 26 inserted into the biological lumen along the axis 27 of the catheter 26 in the section from the first point P1 to the second point P2 in the biological lumen.
- the control unit 21 adjusts the shape of the three-dimensional image 70 to match the shape of the axis 27 of the catheter 26 in the section from the first point P1 to the second point P2 in the biological lumen, which is identified using at least one X-ray image including an image of the sensor 28 taken by an X-ray imaging device 30 that sees through the biological lumen.
- the shape of the biological lumen can be easily reproduced in the three-dimensional image 70.
- the shape of the blood vessel can be easily reproduced in the three-dimensional image 70.
- step S6 a first example of the detailed procedure for step S6 is described.
- the control unit 21 corresponds the first position L1 to one end of the moving line 74 in response to an operation of manually specifying the first position L1 when the sensor 28 is at the first point P1. Specifically, the control unit 21 accepts an operation of clicking or touching, via the input unit 24, the position where the sensor 28 is shown on the X-ray image taken by the X-ray imaging device 30 when the sensor 28 is at the first point P1, using the input device 40. The control unit 21 receives, via the communication unit 23, a notification from the MDU that drives the catheter 26 regarding the position of the sensor 28 in the longitudinal direction of the catheter 26 when the sensor 28 is at the first point P1. "MDU" is an abbreviation for motor drive unit.
- the control unit 21 specifies the first sensor position V1 specified in S5 in the cross section present at the position notified by the MDU in the three-dimensional image 70 as the position of the first sensor position V1 in the three-dimensional image 70.
- the control unit 21 stores the clicked or touched position as the first position L1 and the position of the first sensor position V1 in the three-dimensional image 70 as one end position of the movement line 74 in the storage unit 22 in association with each other.
- control unit 21 corresponds the second position L2 to the other end position of the movement line 74 in response to an operation of manually specifying the second position L2 when the sensor 28 is at the second point P2.
- control unit 21 accepts an operation of clicking or touching, via the input unit 24, the position at which the sensor 28 is shown on the X-ray image taken by the X-ray imaging device 30 when the sensor 28 is at the second point P2, using the input device 40.
- the control unit 21 receives, via the communication unit 23, a notification from the MDU that drives the catheter 26 regarding the position of the sensor 28 in the longitudinal direction of the catheter 26 when the sensor 28 is at the second point P2.
- the control unit 21 specifies the second sensor position V2 specified in S5 in the cross section present at the position notified by the MDU in the three-dimensional image 70 as the position of the second sensor position V2 in the three-dimensional image 70.
- the control unit 21 stores the clicked or touched position as the second position L2 and the position of the second sensor position V2 in the three-dimensional image 70 as the other end position of the movement line 74 in the storage unit 22 in association with each other.
- the control unit 21 sets a connecting line 82 as shown in FIG. 9 on the X-ray image 80.
- the connecting line 82 is a line connecting the first position L1 and the second position L2.
- the control unit 21 places marks such as circles at the first position L1 and the second position L2 on the X-ray image 80 displayed on the screen 51, and draws a straight line connecting the placed marks as the connecting line 82.
- the X-ray image 80 was taken when the sensor 28 was at the first point P1, but it may be taken at any time as long as it was taken when the axis 27 of the catheter 26 was at least in the section from the first point P1 to the second point P2 in the biological lumen.
- the control unit 21 adjusts the relative position and size of the three-dimensional image 70 displayed on the display 50 with respect to the X-ray image 80 so that the position and length of the movement line 74 match the position and length of the connection line 82. Specifically, the control unit 21 adjusts the relative position and size of the three-dimensional image 70 displayed on the display 50 with respect to the X-ray image 80 so that the positions of both ends of the movement line 74 stored in the memory unit 22 match the first position L1 and second position L2 stored in the memory unit 22 in association with them.
- the control unit 21 sets the shape of the movement line 74 in response to an operation to manually change the shape of the connecting line 82 set in S603. Specifically, the control unit 21 accepts an operation to bend the connecting line 82 by dragging any position of the connecting line 82 other than the first position L1 and the second position L2 on the X-ray image 80 displayed on the screen 51 with the input device 40 via the input unit 24. Each time the connecting line 82 is bent, the control unit 21 adjusts the shape of the movement line 74 so that it matches the bent shape of the connecting line 82.
- step S7 when step S7 is executed, for example, the control unit 21 updates the screen 51 displayed on the display 50 via the output unit 25 as shown in FIG. 10.
- step S6 a second example of the detailed procedure for step S6 is described.
- Step S611 is similar to step S601 shown in Figure 8, so a description of it will be omitted.
- the control unit 21 acquires ratio information indicating the ratio of the dimensions of the X-ray image 80 to the dimensions of the three-dimensional image 70. Specifically, when the actual scale of the X-ray image 80 is known, the control unit 21 calculates the ratio of the distance on the X-ray image 80 to the movement distance of the sensor 28 as the ratio information.
- the control unit 21 based on the ratio information acquired in S612, associates a position on the X-ray image 80 that is a distance away from the first position L1 by a distance corresponding to the distance of the movement line 74 with the other end position of the movement line 74 as the second position L2.
- the control unit 21 receives a notification from the MDU that drives the catheter 26 via the communication unit 23 regarding the position of the sensor 28 in the longitudinal direction of the catheter 26 when the sensor 28 is at the second point P2.
- the control unit 21 specifies the second sensor position V2 specified in S5 in the cross section that exists at the position notified by the MDU in the three-dimensional image 70 as the position of the second sensor position V2 in the three-dimensional image 70.
- the control unit 21 calculates the movement distance when the sensor 28 moves in the section from the first point P1 to the second point P2 based on the information notified by the MDU.
- the control unit 21 converts the calculated movement distance into a distance on the X-ray image 80 according to the ratio calculated in S612.
- the control unit 21 stores in the storage unit 22 a position that is a converted distance away from the first position L1 specified in S611 as the second position L2, and a position in the three-dimensional image 70 of the second sensor position V2 as the other end position of the movement line 74, in association with each other.
- the direction in which the second position L2 exists relative to the first position L1 may be specified manually, or may be automatically determined according to the position of the axis 27 of the catheter 26 on the X-ray image 80.
- Steps S614 and S615 are similar to steps S603 and S604 shown in FIG. 8, so a description of these steps will be omitted.
- step S6 a third example of the detailed procedure for step S6 is described.
- Steps S621 and S622 are similar to steps S601 and S602 shown in FIG. 8, respectively, and therefore will not be described.
- Step S622 may be replaced with steps S612 and S613 shown in FIG. 11. In such a modified example, the operation of manually specifying the second position L2 becomes unnecessary.
- control unit 21 sets the shape of the movement line 74 to a shape corresponding to the first position L1, the second position L2, and the connecting line 82 connecting the at least one position, in response to an operation of manually specifying at least one position on the X-ray image 80 that is different from the first position L1 and the second position L2.
- control unit 21 accepts an operation of clicking or touching, via the input unit 24, an arbitrary position of the shaft 27 of the catheter 26 other than the first position L1 and the second position L2 on the X-ray image 80 displayed on the screen 51 as a third position L3 using the input device 40.
- the control unit 21 further accepts an operation of clicking or touching, via the input unit 24, an arbitrary position of the shaft 27 of the catheter 26 other than the first position L1, the second position L2, and the third position L3 on the X-ray image 80 displayed on the screen 51 as a fourth position L4 using the input device 40.
- the control unit 21 places marks such as circles at the first position L1, the second position L2, the third position L3, and the fourth position L4 on the X-ray image 80 displayed on the screen 51, and draws a straight line connecting all the placed marks as a connecting line 82.
- the control unit 21 may further accept an operation of clicking or touching any position of the axis 27 of the catheter 26 other than the first position L1, the second position L2, the third position L3, and the fourth position L4 on the X-ray image 80 displayed on the screen 51 with the input device 40 via the input unit 24. Alternatively, the control unit 21 may not accept an operation of clicking or touching the fourth position L4.
- the control unit 21 adjusts the relative position and size of the three-dimensional image 70 displayed on the display 50 with respect to the X-ray image 80 so that the position and length of the movement line 74 match the position and length of the connection line 82. Specifically, the control unit 21 adjusts the relative position and size of the three-dimensional image 70 displayed on the display 50 with respect to the X-ray image 80 so that the positions of both ends of the movement line 74 stored in the memory unit 22 match the first position L1 and second position L2 stored in the memory unit 22 in association with them.
- the control unit 21 automatically changes the shape of the connecting line 82 each time a position other than the first position L1 and the second position L2 is specified, and changes the shape of the movement line 74 accordingly. Specifically, each time a position other than the first position L1 and the second position L2 is clicked or touched, the control unit 21 places a new mark such as a circle on the X-ray image 80 displayed on the screen 51 at the clicked or touched position, and updates the connecting line 82 so that it passes through the newly placed mark. The control unit 21 then adjusts the shape of the movement line 74 so that it matches the updated shape of the connecting line 82.
- step S7 when step S7 is executed, for example, the control unit 21 updates the screen 51 displayed on the display 50 via the output unit 25 as shown in FIG. 13.
- step S6 a fourth example of the detailed procedure for step S6 is described.
- Steps S631 and S632 are similar to steps S601 and S602 shown in FIG. 8, respectively, and therefore will not be described.
- Step S632 may be replaced with steps S612 and S613 shown in FIG. 11. In such a modified example, the operation of manually specifying the second position L2 becomes unnecessary.
- control unit 21 automatically detects an image of the shaft 27 of the catheter 26 from the X-ray image 80.
- a known image recognition technique can be used as a method for detecting the image of the shaft 27 of the catheter 26.
- Machine learning such as deep learning may also be used.
- the control unit 21 sets the shape of the movement line 74 based on the image detected in S633. Specifically, the control unit 21 adjusts the relative position and size of the three-dimensional image 70 displayed on the display 50 with respect to the X-ray image 80 so that the positions of both ends of the movement line 74 stored in the memory unit 22 match the first position L1 and second position L2 stored in the memory unit 22 in association with them. The control unit 21 then adjusts the shape of the movement line 74 so that it matches the shape of the image detected in S633.
- step S6 a fifth example of the detailed procedure for step S6 is described.
- step S632 in the fourth example is replaced with steps S612 and S613 shown in FIG. 11.
- Step S641 is similar to step S601 shown in FIG. 8, so a description will be omitted.
- Steps S642 and S643 are similar to steps S612 and S613 shown in FIG. 11, respectively, so a description will be omitted.
- Steps S644 and S645 are similar to steps S633 and S634 shown in FIG. 14, respectively, so a description will be omitted.
- the control unit 21 may automatically detect the first position L1 when the sensor 28 is at the first point P1 and correspond the first position L1 to the position of one end of the moving line 74. In such a modified example, the control unit 21 automatically detects the position where the sensor 28 is captured on the X-ray image taken by the X-ray imaging device 30 when the sensor 28 is at the first point P1.
- a known image recognition technique can be used as a method for detecting the position where the sensor 28 is captured.
- Machine learning such as deep learning may also be used.
- the control unit 21 receives a notification from the MDU that drives the catheter 26 via the communication unit 23 about the position of the sensor 28 in the longitudinal direction of the catheter 26 when the sensor 28 is at the first point P1.
- the control unit 21 identifies the first sensor position V1 identified in S5 in the cross section present at the position notified by the MDU in the three-dimensional image 70 as the position of the first sensor position V1 in the three-dimensional image 70.
- the control unit 21 stores the automatically detected position as the first position L1 and the position of the first sensor position V1 in the three-dimensional image 70 as the position of one end of the movement line 74 in the memory unit 22 in association with each other.
- control unit 21 may automatically detect the second position L2 when the sensor 28 is at the second point P2 and correspond the second position L2 to the other end position of the moving line 74, instead of accepting an operation to manually specify the second position L2 when the sensor 28 is at the second point P2.
- control unit 21 automatically detects the position where the sensor 28 is captured on the X-ray image taken by the X-ray imaging device 30 when the sensor 28 is at the second point P2.
- a known image recognition technique can be used as a method for detecting the position where the sensor 28 is captured.
- Machine learning such as deep learning may also be used.
- the control unit 21 receives a notification from the MDU that drives the catheter 26 via the communication unit 23 about the position of the sensor 28 in the longitudinal direction of the catheter 26 when the sensor 28 is at the second point P2.
- the control unit 21 identifies the second sensor position V2 identified in S5 in the cross section present at the position notified by the MDU in the three-dimensional image 70 as the position of the second sensor position V2 in the three-dimensional image 70.
- the control unit 21 stores the automatically detected position as the second position L2 and the position of the second sensor position V2 in the three-dimensional image 70 as the position of the other end of the movement line 74 in the memory unit 22 in association with each other.
- steps S1A to S7A shown in FIG. 16 the description of the same processes as steps S1 to S7 shown in FIG. 2 will be omitted or simplified as appropriate.
- X-ray images are continuously taken during the pull-back operation, which is the operation of pulling the sensor 28 toward the user, and each time a two-dimensional image is generated, that is, for each frame, the position of the sensor 28 on the corresponding X-ray image is continuously captured.
- a curved three-dimensional image 70 can be constructed in real time.
- i is set to "1" when steps S1A to S7A are executed for the first time
- i is set to "2" when steps S1A to S7A are executed for the last time
- i is set to "3" or greater when steps S1A to S7A are executed for the second or subsequent time excluding the last time, and is incremented by 1 each time. For example, if steps S1A to S7A are executed a total of four times, i will have the values "1", "3", "4", and "2" in that order. When i is "1", steps S3A, S4A, S6A, and S7A may be skipped. After S7A, steps S1A and onward are repeatedly executed until some end operation is performed, such as pressing the end button or ending the pullback.
- the control unit 21 acquires an X-ray image taken by the X-ray imaging device 30 when the sensor 28 is located at the i-th point Pi in the living body lumen. Specifically, the control unit 21 receives, via the communication unit 23, the X-ray image taken when the sensor 28 is located at the i-th point Pi from the X-ray imaging device 30. This X-ray image needs to include at least an image of the sensor 28, and does not need to include an image of the shaft 27 of the catheter 26.
- the control unit 21 acquires a two-dimensional image obtained by the sensor 28 when the sensor 28 is located at the i-th point Pi. Specifically, the control unit 21 receives reflected wave information from the sensor 28 via the communication unit 23 regarding the reflected wave received by the sensor 28 when the sensor 28 is located at the first point P1. The control unit 21 generates a cross-sectional image corresponding to the first point P1 as a two-dimensional image by imaging the cross-sectional structure of the biological lumen based on the received reflected wave information. Alternatively, the control unit 21 may receive a cross-sectional image generated by a separately provided IVUS device based on the reflected wave information corresponding to the first point P1 as a two-dimensional image from the IVUS device via the communication unit 23.
- Step S1A may be performed before S2A, simultaneously with S2A, or after S2A.
- control unit 21 In S3A, the control unit 21 generates a three-dimensional image 70 by imaging the three-dimensional structure of the biological lumen based on the two-dimensional image acquired in S2A and, if any, one or more two-dimensional images acquired earlier. Specifically, the control unit 21 generates the three-dimensional image 70 by stacking the cross-sectional image generated or received in S2A and, if any, one or more cross-sectional images generated or received earlier.
- control unit 21 causes the display 50 to display the three-dimensional image 70 generated in S3A superimposed on the X-ray image acquired in S1A.
- control unit 21 identifies the position of the sensor 28 as the sensor position for the two-dimensional image acquired in S2A. Specifically, the control unit 21 identifies the position of the center of the two-dimensional image acquired by the sensor 28 when the sensor 28 is located at the i-th point Pi as the i-th sensor position Vi.
- the control unit 21 sets at least a portion of the movement line 74 in the three-dimensional image 70 generated in S3A.
- the movement line 74 is a line that extends from the position of the first sensor position V1 in the three-dimensional image 70 in a shape corresponding to the shape of the shaft 27 of the catheter 26 in the section from the first point P1 to the second point P2 in the biological lumen.
- the shape of the shaft 27 of the catheter 26 in the section from the first point P1 to the second point P2 in the biological lumen is identified using multiple X-ray images acquired in S1A up to when i becomes "2". If i is not "2", the shape of the shaft 27 of the catheter 26 from the first point P1 to partway through the section is identified using the X-ray images acquired in S1A up to that point.
- control unit 21 automatically detects an image of the sensor 28 from the X-ray image acquired in S1A. That is, the control unit 21 automatically detects the position where the sensor 28 is imaged on the X-ray image acquired in S1A.
- a known image recognition technique can be used as a method for detecting the position where the sensor 28 is imaged.
- Machine learning such as deep learning may also be used.
- the control unit 21 receives a notification from the MDU driving the catheter 26 via the communication unit 23 regarding the position of the sensor 28 in the longitudinal direction of the catheter 26 when the sensor 28 is present at the i-th point Pi.
- the control unit 21 identifies the i-th sensor position Vi identified in S5 within the cross section present at the position notified by the MDU in the three-dimensional image 70 as the position of the i-th sensor position Vi in the three-dimensional image 70.
- the control unit 21 stores the automatically detected position as the i-th position Li and the position of the i-th sensor position Vi in the 3D image 70 as the i-th set position of the moving line 74 in the storage unit 22 in association with each other.
- the first set position of the moving line 74 corresponds to the position of one end of the moving line 74.
- the second set position of the moving line 74 corresponds to the position of the other end of the moving line 74.
- the control unit 21 adjusts the shape of the three-dimensional image 70 generated in S3A to match the shape of the axis 27 of the catheter 26 in the section from the first point P1 to the second point P2 in the biological lumen, which was identified using the multiple X-ray images acquired in S1A up to when i becomes "2". If i is not "2", the control unit 21 adjusts the shape of the three-dimensional image 70 generated in S3A to match the shape of the axis 27 of the catheter 26 from the first point P1 to the middle of the section, which was identified using the X-ray images acquired in S1A up to that point.
- control unit 21 adjusts the shape of the three-dimensional image 70 generated in S3A by placing the sensor position identified in S5A up to that point on the portion of the movement line 74 that was set in S6A up to that point. More specifically, the control unit 21 adjusts the relative position and size of the three-dimensional image 70 displayed on the display 50 with respect to the X-ray image 80, as well as the shape of the three-dimensional image 70, so that each set position of the moving line 74 stored in the memory unit 22 matches a position on the X-ray image 80 displayed on the screen 51 that has already been associated with it and stored in the memory unit 22.
- Steps S5A to S7A may be performed before S4A.
- the control unit 21 associates a first position L1 corresponding to the first point P1 on an X-ray image taken by the X-ray imaging device 30 when the sensor 28 is at a first point P1 in the living body lumen with one end position of the moving line 74.
- the control unit 21 associates a second position L2 corresponding to the second point P2 on an X-ray image taken by the X-ray imaging device 30 when the sensor 28 is at a second point P2 in the living body lumen with the other end position of the moving line 74.
- the control unit 21 automatically detects an image of the sensor 28 from each of the multiple X-ray images taken by the X-ray imaging device 30 while the sensor 28 moves through the section from the first point P1 to the second point P2 in the living body lumen.
- the control unit 21 sets the shape of the moving line 74 based on the detected images.
- a curved three-dimensional image 70 can be constructed in real time. Although a corresponding X-ray image is required for each cross-sectional image, it is sufficient that at least the sensor 28 is visible in each X-ray image, and the axis 27 of the catheter 26 does not have to be visible.
- the present disclosure is not limited to the above-described embodiment.
- two or more blocks shown in the block diagram may be integrated, or one block may be divided.
- the steps may be executed in parallel or in a different order depending on the processing capacity of the device executing each step, or as necessary.
- Other modifications are possible without departing from the spirit of the present disclosure.
- the control unit 21 may not display the X-ray image 80 on the display 50 in S4.
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Animal Behavior & Ethology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Veterinary Medicine (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Public Health (AREA)
- Surgery (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- High Energy & Nuclear Physics (AREA)
- Optics & Photonics (AREA)
- Human Computer Interaction (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
生体管腔内に挿入されたカテーテルに設けられたセンサが前記カテーテルの軸に沿って前記生体管腔内の第1点から第2点までの区間を移動することにより得られた複数の2次元画像に基づき、前記生体管腔の立体構造を画像化して3次元画像を生成する画像処理装置が、前記生体管腔を透視するX線撮影装置により撮影された、前記カテーテルの少なくとも一部の画像を含む少なくとも1つのX線画像を用いて特定された、前記区間における前記カテーテルの軸の形状に合わせて、前記3次元画像の形状を調整する制御部を備える。
Description
本開示は、画像処理装置、画像処理システム、画像処理方法、及び画像処理プログラムに関する。
特許文献1には、超音波カテーテルの振動子により取得される2次元超音波画像をもとに生体組織の3次元画像を生成して表示する際に、その3次元画像における患者の腹側の方向を特定するための方法が開示されている。
ステントグラフト留置手技などのカテーテル手術の際、X線被ばくの低減又はカテーテル操作の補助のために、術前に撮影しておいた3次元CT画像あるいは術中に撮影したDSA画像を、リアルタイムに生成されるX線画像にマージして表示することが考えられる。「CT」は、computed tomographyの略語である。「DSA」は、digital subtraction angiographyの略語である。DSA画像は、造影剤投与後に血管をX線透視したコントラスト画像から、造影剤投与前に血管を透視したマスクとなるX線画像を差し引いたものである。3次元CT画像あるいはDSA画像をX線画像にマージすることで、血管の細かい形状とリアルタイムの状態とを同時に確認できるようになる。しかし、固いガイドワイヤ又はカテーテルが血管に入ると、血管が延ばされ、3次元CT画像と実際の臓器の形状とに大きなギャップが生じ得る。3次元CT画像の撮影時のX線被ばくも課題になり得る。DSA画像においては、多量の造影剤を用いるため、造影剤腎症が発生し得る。
そこで、術前に撮影した3次元CT画像を表示する代わりに、術中に、特許文献1に開示されているような、X線被ばくを伴わない方法で生成した3次元画像を表示することが考えられる。しかし、血管が蛇行している場合など、単に2次元超音波画像を積層するだけでは、血管の形状を3次元画像で再現できない場合がある。
本開示の目的は、生体管腔の立体構造を画像化して3次元画像を生成する際に、生体管腔の形状を3次元画像で再現しやすくすることである。
本開示の幾つかの態様を以下に示す。
[1]
生体管腔内に挿入されたカテーテルに設けられたセンサが前記カテーテルの軸に沿って前記生体管腔内の第1点から第2点までの区間を移動することにより得られた複数の2次元画像に基づき、前記生体管腔の立体構造を画像化して3次元画像を生成する画像処理装置であって、
前記生体管腔を透視するX線撮影装置により撮影された、前記カテーテルの少なくとも一部の画像を含む少なくとも1つのX線画像を用いて特定された、前記区間における前記カテーテルの軸の形状に合わせて、前記3次元画像の形状を調整する制御部を備える画像処理装置。
生体管腔内に挿入されたカテーテルに設けられたセンサが前記カテーテルの軸に沿って前記生体管腔内の第1点から第2点までの区間を移動することにより得られた複数の2次元画像に基づき、前記生体管腔の立体構造を画像化して3次元画像を生成する画像処理装置であって、
前記生体管腔を透視するX線撮影装置により撮影された、前記カテーテルの少なくとも一部の画像を含む少なくとも1つのX線画像を用いて特定された、前記区間における前記カテーテルの軸の形状に合わせて、前記3次元画像の形状を調整する制御部を備える画像処理装置。
[2]
前記制御部は、
前記複数の2次元画像に含まれる各2次元画像について、前記センサの位置をセンサ位置として特定し、
前記センサが前記第1点に存在するときに前記センサにより得られた2次元画像について特定したセンサ位置の前記3次元画像中での位置から、前記区間における前記カテーテルの軸の形状に対応する形状で延びる移動ラインを前記3次元画像中に設定し、
特定した各センサ位置を、設定した移動ライン上に配置することで、前記3次元画像の形状を調整する、[1]に記載の画像処理装置。
前記制御部は、
前記複数の2次元画像に含まれる各2次元画像について、前記センサの位置をセンサ位置として特定し、
前記センサが前記第1点に存在するときに前記センサにより得られた2次元画像について特定したセンサ位置の前記3次元画像中での位置から、前記区間における前記カテーテルの軸の形状に対応する形状で延びる移動ラインを前記3次元画像中に設定し、
特定した各センサ位置を、設定した移動ライン上に配置することで、前記3次元画像の形状を調整する、[1]に記載の画像処理装置。
[3]
前記制御部は、
前記少なくとも1つのX線画像上の、前記第1点に対応する第1位置を前記移動ラインの一端の位置に対応付け、
前記少なくとも1つのX線画像上の、前記第2点に対応する第2位置を前記移動ラインの他端の位置に対応付け、
前記少なくとも1つのX線画像上で、前記第1位置及び前記第2位置を結ぶ連結ラインを設定し、
設定した連結ラインの形状を手動で変更する操作に応じて、前記移動ラインの形状を設定する、[2]に記載の画像処理装置。
前記制御部は、
前記少なくとも1つのX線画像上の、前記第1点に対応する第1位置を前記移動ラインの一端の位置に対応付け、
前記少なくとも1つのX線画像上の、前記第2点に対応する第2位置を前記移動ラインの他端の位置に対応付け、
前記少なくとも1つのX線画像上で、前記第1位置及び前記第2位置を結ぶ連結ラインを設定し、
設定した連結ラインの形状を手動で変更する操作に応じて、前記移動ラインの形状を設定する、[2]に記載の画像処理装置。
[4]
前記制御部は、
前記少なくとも1つのX線画像上の、前記第1点に対応する第1位置を前記移動ラインの一端の位置に対応付け、
前記少なくとも1つのX線画像上の、前記第2点に対応する第2位置を前記移動ラインの他端の位置に対応付け、
前記少なくとも1つのX線画像上で、前記第1位置及び前記第2位置とは異なる少なくとも1つの位置を手動で指定する操作に応じて、前記移動ラインの形状を、前記第1位置、前記第2位置、及び前記少なくとも1つの位置を結ぶ連結ラインに対応する形状に設定する、[2]に記載の画像処理装置。
前記制御部は、
前記少なくとも1つのX線画像上の、前記第1点に対応する第1位置を前記移動ラインの一端の位置に対応付け、
前記少なくとも1つのX線画像上の、前記第2点に対応する第2位置を前記移動ラインの他端の位置に対応付け、
前記少なくとも1つのX線画像上で、前記第1位置及び前記第2位置とは異なる少なくとも1つの位置を手動で指定する操作に応じて、前記移動ラインの形状を、前記第1位置、前記第2位置、及び前記少なくとも1つの位置を結ぶ連結ラインに対応する形状に設定する、[2]に記載の画像処理装置。
[5]
前記制御部は、
前記少なくとも1つのX線画像上の、前記第1点に対応する第1位置を前記移動ラインの一端の位置に対応付け、
前記少なくとも1つのX線画像上の、前記第2点に対応する第2位置を前記移動ラインの他端の位置に対応付け、
前記少なくとも1つのX線画像から前記カテーテルの軸の画像を自動で検出し、
検出した画像に基づき、前記移動ラインの形状を設定する、[2]に記載の画像処理装置。
前記制御部は、
前記少なくとも1つのX線画像上の、前記第1点に対応する第1位置を前記移動ラインの一端の位置に対応付け、
前記少なくとも1つのX線画像上の、前記第2点に対応する第2位置を前記移動ラインの他端の位置に対応付け、
前記少なくとも1つのX線画像から前記カテーテルの軸の画像を自動で検出し、
検出した画像に基づき、前記移動ラインの形状を設定する、[2]に記載の画像処理装置。
[6]
前記制御部は、
前記少なくとも1つのX線画像上の、前記第1点に対応する第1位置を前記移動ラインの一端の位置に対応付け、
前記少なくとも1つのX線画像上の、前記第2点に対応する第2位置を前記移動ラインの他端の位置に対応付け、
前記センサが前記区間を移動する間に前記X線撮影装置により撮影された複数のX線画像に含まれる各X線画像から前記センサの画像を自動で検出し、
検出した画像に基づき、前記移動ラインの形状を設定する、[2]に記載の画像処理装置。
前記制御部は、
前記少なくとも1つのX線画像上の、前記第1点に対応する第1位置を前記移動ラインの一端の位置に対応付け、
前記少なくとも1つのX線画像上の、前記第2点に対応する第2位置を前記移動ラインの他端の位置に対応付け、
前記センサが前記区間を移動する間に前記X線撮影装置により撮影された複数のX線画像に含まれる各X線画像から前記センサの画像を自動で検出し、
検出した画像に基づき、前記移動ラインの形状を設定する、[2]に記載の画像処理装置。
[7]
前記制御部は、前記センサが前記第1点に存在するときに前記少なくとも1つのX線画像上の、前記第1点に対応する第1位置を手動で指定する操作に応じて、前記第1位置を前記移動ラインの一端の位置に対応付ける、[2]から[6]のいずれかに記載の画像処理装置。
前記制御部は、前記センサが前記第1点に存在するときに前記少なくとも1つのX線画像上の、前記第1点に対応する第1位置を手動で指定する操作に応じて、前記第1位置を前記移動ラインの一端の位置に対応付ける、[2]から[6]のいずれかに記載の画像処理装置。
[8]
前記制御部は、前記センサが前記第2点に存在するときに前記少なくとも1つのX線画像上の、前記第2点に対応する第2位置を手動で指定する操作に応じて、前記第2位置を前記移動ラインの他端の位置に対応付ける、[7]に記載の画像処理装置。
前記制御部は、前記センサが前記第2点に存在するときに前記少なくとも1つのX線画像上の、前記第2点に対応する第2位置を手動で指定する操作に応じて、前記第2位置を前記移動ラインの他端の位置に対応付ける、[7]に記載の画像処理装置。
[9]
前記制御部は、
前記3次元画像の寸法に対する前記少なくとも1つのX線画像の寸法の比率を示す比率情報を取得し、
取得した比率情報に基づき、前記少なくとも1つのX線画像上で、前記第1位置から前記移動ラインの距離に対応する距離だけ離れた位置を前記少なくとも1つのX線画像上の、前記第2点に対応する第2位置として前記移動ラインの他端の位置に対応付ける、[7]に記載の画像処理装置。
前記制御部は、
前記3次元画像の寸法に対する前記少なくとも1つのX線画像の寸法の比率を示す比率情報を取得し、
取得した比率情報に基づき、前記少なくとも1つのX線画像上で、前記第1位置から前記移動ラインの距離に対応する距離だけ離れた位置を前記少なくとも1つのX線画像上の、前記第2点に対応する第2位置として前記移動ラインの他端の位置に対応付ける、[7]に記載の画像処理装置。
[10]
前記制御部は、前記センサが前記第1点に存在するときに前記少なくとも1つのX線画像上の、前記第1点に対応する第1位置を自動で検出して、前記第1位置を前記移動ラインの一端の位置に対応付ける、[2]から[6]のいずれかに記載の画像処理装置。
前記制御部は、前記センサが前記第1点に存在するときに前記少なくとも1つのX線画像上の、前記第1点に対応する第1位置を自動で検出して、前記第1位置を前記移動ラインの一端の位置に対応付ける、[2]から[6]のいずれかに記載の画像処理装置。
[11]
前記制御部は、前記センサが前記第2点に存在するときに前記少なくとも1つのX線画像上の、前記第2点に対応する第2位置を自動で検出して、前記第2位置を前記移動ラインの他端の位置に対応付ける、[10]に記載の画像処理装置。
前記制御部は、前記センサが前記第2点に存在するときに前記少なくとも1つのX線画像上の、前記第2点に対応する第2位置を自動で検出して、前記第2位置を前記移動ラインの他端の位置に対応付ける、[10]に記載の画像処理装置。
[12]
前記制御部は、前記3次元画像を前記少なくとも1つのX線画像に重ねてディスプレイに表示させる、[2]から[11]のいずれかに記載の画像処理装置。
前記制御部は、前記3次元画像を前記少なくとも1つのX線画像に重ねてディスプレイに表示させる、[2]から[11]のいずれかに記載の画像処理装置。
[13]
前記制御部は、前記移動ラインの設定中、前記移動ラインの変化に応じて、前記3次元画像を更新する、[12]に記載の画像処理装置。
前記制御部は、前記移動ラインの設定中、前記移動ラインの変化に応じて、前記3次元画像を更新する、[12]に記載の画像処理装置。
[14]
[1]から[13]のいずれかに記載の画像処理装置と、
前記3次元画像及び前記少なくとも1つのX線画像を表示するディスプレイと
を備える画像処理システム。
[1]から[13]のいずれかに記載の画像処理装置と、
前記3次元画像及び前記少なくとも1つのX線画像を表示するディスプレイと
を備える画像処理システム。
[15]
生体管腔内に挿入されたカテーテルに設けられたセンサが前記カテーテルの軸に沿って前記生体管腔内の第1点から第2点までの区間を移動することにより得られた複数の2次元画像に基づき、前記生体管腔の立体構造を画像化して3次元画像を生成する画像処理方法であって、
制御部が、前記生体管腔を透視するX線撮影装置により撮影された、前記カテーテルの少なくとも一部の画像を含む少なくとも1つのX線画像を用いて特定された、前記区間における前記カテーテルの軸の形状に合わせて、前記3次元画像の形状を調整することを含む画像処理方法。
生体管腔内に挿入されたカテーテルに設けられたセンサが前記カテーテルの軸に沿って前記生体管腔内の第1点から第2点までの区間を移動することにより得られた複数の2次元画像に基づき、前記生体管腔の立体構造を画像化して3次元画像を生成する画像処理方法であって、
制御部が、前記生体管腔を透視するX線撮影装置により撮影された、前記カテーテルの少なくとも一部の画像を含む少なくとも1つのX線画像を用いて特定された、前記区間における前記カテーテルの軸の形状に合わせて、前記3次元画像の形状を調整することを含む画像処理方法。
[16]
生体管腔内に挿入されたカテーテルに設けられたセンサが前記カテーテルの軸に沿って前記生体管腔内の第1点から第2点までの区間を移動することにより得られた複数の2次元画像に基づき、前記生体管腔の立体構造を画像化して3次元画像を生成するコンピュータに、
前記生体管腔を透視するX線撮影装置により撮影された、前記カテーテルの少なくとも一部の画像を含む少なくとも1つのX線画像を用いて特定された、前記区間における前記カテーテルの軸の形状に合わせて、前記3次元画像の形状を調整することを含む動作を実行させる画像処理プログラム。
生体管腔内に挿入されたカテーテルに設けられたセンサが前記カテーテルの軸に沿って前記生体管腔内の第1点から第2点までの区間を移動することにより得られた複数の2次元画像に基づき、前記生体管腔の立体構造を画像化して3次元画像を生成するコンピュータに、
前記生体管腔を透視するX線撮影装置により撮影された、前記カテーテルの少なくとも一部の画像を含む少なくとも1つのX線画像を用いて特定された、前記区間における前記カテーテルの軸の形状に合わせて、前記3次元画像の形状を調整することを含む動作を実行させる画像処理プログラム。
本開示によれば、生体管腔の立体構造を画像化して3次元画像を生成する際に、生体管腔の形状を3次元画像で再現しやすくなる。
以下、本開示の一実施形態について、図を参照して説明する。
各図中、同一又は相当する部分には、同一符号を付している。本実施形態の説明において、同一又は相当する部分については、説明を適宜省略又は簡略化する。
図1を参照して、本実施形態に係る画像処理システム10の構成を説明する。
画像処理システム10は、画像処理装置20と、センサ28と、X線撮影装置30と、入力機器40と、ディスプレイ50とを備える。画像処理装置20は、ケーブル若しくはネットワークを介して、又は無線でセンサ28、X線撮影装置30、入力機器40、及びディスプレイ50と接続される。
画像処理装置20は、例えば、PCなどの汎用コンピュータ、クラウドサーバなどのサーバコンピュータ、又は専用コンピュータである。「PC」は、personal computerの略語である。画像処理装置20は、病院などの医療施設に設置されてもよいし、又はデータセンタなど、医療施設とは別の施設に設置されてもよい。
センサ28は、例えば、IVUSで用いられる超音波振動子である。「IVUS」は、intravascular ultrasoundの略語である。センサ28は、図3に示したような、血管などの生体管腔内に挿入されたカテーテル26の軸27に沿って移動しながら超音波を送信し、送信した超音波の反射波を受信する。
X線撮影装置30は、例えば、Cアームである。X線撮影装置30は、医療施設に設置され、生体管腔を透視する。
入力機器40は、例えば、マウスなどのポインティングデバイス、キーボード、又はディスプレイ50と一体的に設けられたタッチスクリーンである。入力機器40は、医療施設に設置され、医師又は臨床工学技士などの操作者によって、ディスプレイ50への、画像を含む各種情報の表示を制御する操作のために使用される。
ディスプレイ50は、例えば、LCD又は有機ELディスプレイである。「LCD」は、liquid crystal displayの略語である。「EL」は、electro luminescentの略語である。ディスプレイ50は、医療施設に設置され、操作者に向けて、ステントグラフト留置手技などのカテーテル手術を支援するための、画像を含む各種情報を表示する。
図1を参照して、本実施形態に係る画像処理装置20の構成を説明する。
画像処理装置20は、制御部21と、記憶部22と、通信部23と、入力部24と、出力部25とを備える。
制御部21は、少なくとも1つのプロセッサ、少なくとも1つのプログラマブル回路、少なくとも1つの専用回路、又はこれらの任意の組合せを含む。プロセッサは、CPU若しくはGPUなどの汎用プロセッサ、又は特定の処理に特化した専用プロセッサである。「CPU」は、central processing unitの略語である。「GPU」は、graphics processing unitの略語である。プログラマブル回路は、例えば、FPGAである。「FPGA」は、field-programmable gate arrayの略語である。専用回路は、例えば、ASICである。「ASIC」は、application specific integrated circuitの略語である。制御部21は、画像処理装置20の各部を制御しながら、画像処理装置20の動作に関わる処理を実行する。
記憶部22は、少なくとも1つの半導体メモリ、少なくとも1つの磁気メモリ、少なくとも1つの光メモリ、又はこれらの任意の組合せを含む。半導体メモリは、例えば、RAM、ROM、又はフラッシュメモリである。「RAM」は、random access memoryの略語である。「ROM」は、read only memoryの略語である。RAMは、例えば、SRAM又はDRAMである。「SRAM」は、static random access memoryの略語である。「DRAM」は、dynamic random access memoryの略語である。ROMは、例えば、EEPROMである。「EEPROM」は、electrically erasable programmable read only memoryの略語である。フラッシュメモリは、例えば、SSDである。「SSD」は、solid-state driveの略語である。磁気メモリは、例えば、HDDである。「HDD」は、hard disk driveの略語である。記憶部22は、例えば、主記憶装置、補助記憶装置、又はキャッシュメモリとして機能する。記憶部22には、画像処理装置20の動作に用いられるデータと、画像処理装置20の動作によって得られたデータとが記憶される。
通信部23は、少なくとも1つの通信モジュールを含む。通信モジュールは、例えば、Ethernet(登録商標)などの有線LAN通信規格、又はIEEE802.11などの無線LAN通信規格に対応したモジュールである。「IEEE」は、Institute of Electrical and Electronics Engineersの略称である。通信部23は、画像処理装置20の動作に用いられるデータを受信し、また画像処理装置20の動作によって得られるデータを送信する。通信部23は、センサ28及びX線撮影装置30に接続される。なお、通信部23は、センサ28及びX線撮影装置30から画像信号を受信できるものであれば、上記のような通信モジュールでなくてもよい。
入力部24は、少なくとも1つの入力用インタフェースを含む。入力用インタフェースは、例えば、USBインタフェース、HDMI(登録商標)インタフェース、又はBluetooth(登録商標)などの近距離無線通信規格に対応したインタフェースである。「USB」は、Universal Serial Busの略語である。「HDMI(登録商標)」は、High-Definition Multimedia Interfaceの略語である。入力部24は、画像処理装置20の動作に用いられるデータを入力する操作を受け付ける。入力部24は、入力機器40に接続される。
出力部25は、少なくとも1つの出力用インタフェースを含む。出力用インタフェースは、例えば、USBインタフェース、HDMI(登録商標)インタフェース、又はBluetooth(登録商標)などの近距離無線通信規格に対応したインタフェースである。出力部25は、画像処理装置20の動作によって得られるデータを出力する。出力部25は、ディスプレイ50に接続される。
画像処理装置20の機能は、本実施形態に係る画像処理プログラムを、制御部21としてのプロセッサで実行することにより実現される。すなわち、画像処理装置20の機能は、ソフトウェアにより実現される。画像処理プログラムは、画像処理装置20の動作をコンピュータに実行させることで、コンピュータを画像処理装置20として機能させる。すなわち、コンピュータは、画像処理プログラムに従って画像処理装置20の動作を実行することにより画像処理装置20として機能する。
プログラムは、非一時的なコンピュータ読取り可能な媒体に記憶しておくことができる。非一時的なコンピュータ読取り可能な媒体は、例えば、フラッシュメモリ、磁気記録装置、光ディスク、光磁気記録媒体、又はROMである。プログラムの流通は、例えば、プログラムを記憶したSDカード、DVD、又はCD-ROMなどの可搬型媒体を販売、譲渡、又は貸与することによって行う。「SD」は、Secure Digitalの略語である。「DVD」は、digital versatile discの略語である。「CD-ROM」は、compact disc read only memoryの略語である。プログラムをサーバのストレージに格納しておき、サーバから他のコンピュータにプログラムを転送することにより、プログラムを流通させてもよい。プログラムをプログラムプロダクトとして提供してもよい。
コンピュータは、例えば、可搬型媒体に記憶されたプログラム又はサーバから転送されたプログラムを、一旦、主記憶装置に格納する。そして、コンピュータは、主記憶装置に格納されたプログラムをプロセッサで読み取り、読み取ったプログラムに従った処理をプロセッサで実行する。コンピュータは、可搬型媒体から直接プログラムを読み取り、プログラムに従った処理を実行してもよい。コンピュータは、コンピュータにサーバからプログラムが転送される度に、逐次、受け取ったプログラムに従った処理を実行してもよい。サーバからコンピュータへのプログラムの転送は行わず、実行指示及び結果取得のみによって機能を実現する、いわゆるASP型のサービスによって処理を実行してもよい。「ASP」は、application service providerの略語である。プログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるものが含まれる。例えば、コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータは、「プログラムに準ずるもの」に該当する。
画像処理装置20の一部又は全ての機能が、制御部21としてのプログラマブル回路又は専用回路により実現されてもよい。すなわち、画像処理装置20の一部又は全ての機能が、ハードウェアにより実現されてもよい。
図2を参照して、本実施形態に係る画像処理装置20の動作を説明する。以下に説明する動作は、本実施形態に係る画像処理方法に相当する。すなわち、本実施形態に係る画像処理方法は、図2に示したS1からS7のステップを含む。
S1において、制御部21は、X線撮影装置30により撮影された1つ以上のX線画像を取得する。具体的には、制御部21は、通信部23を介して、1つ以上のX線画像をX線撮影装置30から受信する。
S2において、制御部21は、センサ28が生体管腔内の第1点P1から第2点P2までの区間を移動する間にセンサ28により得られた複数の2次元画像を取得する。具体的には、制御部21は、通信部23を介して、センサ28が生体管腔内の第1点P1から第2点P2までの区間を移動する間にセンサ28により受信された反射波に関する反射波情報をセンサ28から受信する。制御部21は、受信した反射波情報をもとに生体管腔の断面構造を画像化することで、複数の断面画像を複数の2次元画像として生成する。あるいは、制御部21は、通信部23を介して、別個に設けられたIVUS装置により反射波情報をもとに生成された複数の断面画像を複数の2次元画像としてIVUS装置から受信してもよい。
S1のステップは、S2の前に実行されてもよいし、S2の間に実行されてもよいし、又はS2の後に実行されてもよい。遅くともS1及びS2の両方のステップが完了するまでに、制御部21は、出力部25を介して、図3に示したような画面51をディスプレイ50に表示させる。
画面51は、第1領域52と、第1領域52に隣接する第2領域53とを含む。図3に示した例では、第1領域52の右側に第2領域53が配置されているが、第1領域52の左側に第2領域53が配置されていてもよい。
第1領域52には、S2で取得された複数の2次元画像のうち、最新の2次元画像60と、人体モデル画像61とが表示される。人体モデル画像61は、2次元画像60と向きが揃うように表示される。図3に示した例では、カテーテル26が手術対象者の脚の付け根から挿入されており、2次元画像60の上側が手術対象者の腹がある側、2次元画像60の下側が手術対象者の背中がある側に対応しているものとする。そのため、人体モデル画像61は、底面が見えるように、かつ腹が上向き、背中が下向きになるように表示されている。図3に示した例では、2次元画像60の左上に人体モデル画像61が配置されているが、2次元画像60の近傍であれば、どのような位置に人体モデル画像61が配置されていてもよい。人体モデル画像61の配置は固定であってもよいし、又は任意に変更可能であってもよい。
第1領域52には、スライダー54が更に表示される。スライダー54は、センサ28の、カテーテル26の長軸方向の位置を示す。スライダー54は、第1領域52の、第2領域53に近いほうの端に配置される。そのため、図3に示した例では、スライダー54は、第1領域52の右端に配置されている。
第2領域53には、S1で取得されたX線画像80が表示される。X線画像80は、カテーテル26の軸27が少なくとも生体管腔内の第1点P1から第2点P2までの区間にわたって存在するときにX線撮影装置30により撮影されたものである。X線画像80は、カテーテル26の少なくとも一部の画像、具体的には、カテーテル26の軸27の画像と、センサ28の画像とを含む。図3に示した例では、X線画像80は、ガイドワイヤ29の画像を更に含む。
S3において、制御部21は、S2で取得した複数の2次元画像に基づき、生体管腔の立体構造を画像化して、図5に示したような3次元画像70を生成する。具体的には、制御部21は、S2で生成又は受信した複数の断面画像を積層して3次元画像70を生成する。
S4において、制御部21は、S3で生成した3次元画像70を、S1で取得したX線画像80に重ねてディスプレイ50に表示させる。例えば、制御部21は、図4に示したように、出力部25を介して、ディスプレイ50に表示されている画面51を更新する。
第2領域53には、S1で取得されたX線画像80に重ねて、S3で生成された3次元画像70と、人体モデル画像71とが表示される。図4に示した例では、3次元画像70の角度が手術対象者を正面から見た角度、3次元画像70の上側が手術対象者の頭がある側、3次元画像70の下側が手術対象者の足がある側に対応しているものとする。そのため、人体モデル画像71は、正面が見えるように、かつ頭が上向き、足が下向きになるように表示されている。図4に示した例では、3次元画像70の左上に人体モデル画像71が配置されているが、3次元画像70の近傍であれば、どのような位置に人体モデル画像71が配置されていてもよい。人体モデル画像71の配置は固定であってもよいし、又は任意に変更可能であってもよい。3次元画像70は、生体管腔の内部構造を観察できるように、カテーテル26の長軸方向に沿って一部を切り取り、切り取った部分を非表示にすることができてもよい。
第2領域53には、断面画像72が更に表示される。断面画像72は、第1領域52に表示されている2次元画像60と同じ画像を縮小したものである。断面画像72の縁には、視点の位置を示すカメラアイコン73が配置される。そのため、第2領域53に表示されている3次元画像70が、断面画像72において、どの方向から見た状態になっているのかわかりやすい。
3次元画像70がディスプレイ50に表示される画像表示向きは、X線画像80がX線撮影装置30により撮影された撮影角度に対応する視点から見える向きに手動又は自動で調整される。X線画像80に対して、3次元画像70がディスプレイ50に表示される相対的な位置及び大きさは、図4に示した例では既に調整されているが、実際にはまだ調整されていなくてもよい。図4では、X線画像80上の、第1点P1に対応する第1位置L1と、第2点P2に対応する第2位置L2とを示しているが、第1位置L1及び第2位置L2は、S6までに手動で指定又は自動で検出されればよい。
S5において、制御部21は、S2で取得した複数の2次元画像に含まれる各2次元画像について、センサ28の位置をセンサ位置として特定する。具体的には、制御部21は、センサ28が第1点P1に存在するときにセンサ28により得られた2次元画像60の中心の位置を第1センサ位置V1として特定する。制御部21は、センサ28が第2点P2に存在するときにセンサ28により得られた2次元画像60の中心の位置を第2センサ位置V2として特定する。制御部21は、センサ28が第1点P1及び第2点P2とは異なる第3点P3及び第4点P4に存在するときにセンサ28により得られた2次元画像60の中心の位置をそれぞれ第3センサ位置V3及び第4センサ位置V4として特定する。制御部21は、センサ28が第1点P1、第2点P2、第3点P3、及び第4点P4とは異なる点に存在するときにセンサ28により得られた2次元画像60の中心の位置をセンサ位置として更に特定してもよい。あるいは、制御部21は、第4センサ位置V4を特定しなくてもよい。
S6において、制御部21は、図6に示したような移動ライン74を、S3で生成した3次元画像70中に設定する。移動ライン74は、S5で特定された第1センサ位置V1の3次元画像70中での位置から、生体管腔内の第1点P1から第2点P2までの区間におけるカテーテル26の軸27の形状に対応する形状で延びる線である。生体管腔内の第1点P1から第2点P2までの区間におけるカテーテル26の軸27の形状は、S1で取得された少なくとも1つのX線画像を用いて特定される。具体的には、S1で取得されたX線画像80上の、第1位置L1から第2位置L2までのカテーテル26の軸27の形状が、生体管腔内の第1点P1から第2点P2までの区間におけるカテーテル26の軸27の形状として特定される。
S7において、制御部21は、少なくとも1つのX線画像を用いて特定された、生体管腔内の第1点P1から第2点P2までの区間におけるカテーテル26の軸27の形状に合わせて、S3で生成した3次元画像70の形状を調整する。具体的には、制御部21は、図6に示したように、S5で特定した各センサ位置を、S6で設定した移動ライン74上に配置することで、S3で生成した3次元画像70の形状を調整する。例えば、制御部21は、図7に示したように、出力部25を介して、ディスプレイ50に表示されている画面51を更新する。
S7のステップは、S6の後に実行されてもよいが、S6と同時に実行されることが望ましい。すなわち、制御部21は、移動ライン74の設定中、移動ライン74の変化に応じて、3次元画像70を更新することが望ましい。
S7で3次元画像70の形状を調整する際の計算量を減らすために、制御部21は、S3で3次元画像70を生成する際に、3次元画像70のボクセルデータを三角形又は四角形のメッシュデータに変換することが望ましい。ボクセルデータをメッシュデータに変換する手法としては、マーチングキューブ法、Surface Nets、又はドロネー三角形分割などの任意の手法を用いることができる。3次元画像70の形状を調整する際にメッシュデータを変形させる手法としては、RMF又はFrenet-Serret式などの任意の手法を用いることができる。「RMF」は、rotation minimizing framesの略語である。
本実施形態の一変形例として、制御部21は、S4で3次元画像70とX線画像80とを別々にディスプレイ50に表示させてもよい。別の変形例として、制御部21は、S1で、X線画像80とは異なる角度でX線撮影装置30により撮影された別のX線画像を更に取得し、S4からS7で、その別のX線画像を用いて3次元画像70の奥行方向の形状を更に調整してもよい。
上述したように、本実施形態では、制御部21は、生体管腔内に挿入されたカテーテル26に設けられたセンサ28がカテーテル26の軸27に沿って生体管腔内の第1点P1から第2点P2までの区間を移動することにより得られた複数の2次元画像60に基づき、生体管腔の立体構造を画像化して3次元画像70を生成する。制御部21は、生体管腔を透視するX線撮影装置30により撮影された、センサ28の画像を含む少なくとも1つのX線画像を用いて特定された、生体管腔内の第1点P1から第2点P2までの区間におけるカテーテル26の軸27の形状に合わせて、3次元画像70の形状を調整する。
したがって、本実施形態によれば、生体管腔の立体構造を画像化して3次元画像70を生成する際に、生体管腔の形状を3次元画像70で再現しやすくなる。例えば、血管が蛇行していても、血管の形状を3次元画像70で再現しやすくなる。
図8を参照して、S6のステップの詳細な手順の第1例を説明する。
S601において、制御部21は、センサ28が第1点P1に存在するときに第1位置L1を手動で指定する操作に応じて、第1位置L1を移動ライン74の一端の位置に対応付ける。具体的には、制御部21は、入力部24を介して、センサ28が第1点P1に存在するときにX線撮影装置30により撮影されたX線画像上でセンサ28が写っている位置を入力機器40によりクリック又はタッチする操作を受け付ける。制御部21は、通信部23を介して、センサ28が第1点P1に存在するときのセンサ28の、カテーテル26の長軸方向の位置について、カテーテル26を駆動するMDUから通知を受ける。「MDU」は、motor drive unitの略語である。制御部21は、3次元画像70中で、MDUから通知された位置に存在する断面内の、S5で特定した第1センサ位置V1を、第1センサ位置V1の3次元画像70中での位置として特定する。制御部21は、クリック又はタッチされた位置を第1位置L1、第1センサ位置V1の3次元画像70中での位置を移動ライン74の一端の位置として、互いに対応付けて記憶部22に記憶させる。
S602において、制御部21は、センサ28が第2点P2に存在するときに第2位置L2を手動で指定する操作に応じて、第2位置L2を移動ライン74の他端の位置に対応付ける。具体的には、制御部21は、入力部24を介して、センサ28が第2点P2に存在するときにX線撮影装置30により撮影されたX線画像上でセンサ28が写っている位置を入力機器40によりクリック又はタッチする操作を受け付ける。制御部21は、通信部23を介して、センサ28が第2点P2に存在するときのセンサ28の、カテーテル26の長軸方向の位置について、カテーテル26を駆動するMDUから通知を受ける。制御部21は、3次元画像70中で、MDUから通知された位置に存在する断面内の、S5で特定した第2センサ位置V2を、第2センサ位置V2の3次元画像70中での位置として特定する。制御部21は、クリック又はタッチされた位置を第2位置L2、第2センサ位置V2の3次元画像70中での位置を移動ライン74の他端の位置として、互いに対応付けて記憶部22に記憶させる。
S603において、制御部21は、X線画像80上で、図9に示したような連結ライン82を設定する。連結ライン82は、第1位置L1及び第2位置L2を結ぶ線である。例えば、制御部21は、図9に示したように、画面51に表示されているX線画像80上で、丸などのマークを第1位置L1及び第2位置L2のそれぞれに配置するとともに、配置したマーク同士を結ぶ直線を連結ライン82として描画する。X線画像80は、図9に示した例では、センサ28が第1点P1に存在するときに撮影されたものであるが、カテーテル26の軸27が少なくとも生体管腔内の第1点P1から第2点P2までの区間にわたって存在するときに撮影されたものであれば、任意の時点に撮影されたものでよい。
制御部21は、移動ライン74の位置及び長さが連結ライン82の位置及び長さと一致するように、X線画像80に対して、3次元画像70がディスプレイ50に表示される相対的な位置及び大きさを調整する。具体的には、制御部21は、記憶部22に記憶された移動ライン74の両端の位置がそれらと対応付けて記憶部22に記憶された第1位置L1及び第2位置L2と一致するように、X線画像80に対して、3次元画像70がディスプレイ50に表示される相対的な位置及び大きさを調整する。
S604において、制御部21は、S603で設定した連結ライン82の形状を手動で変更する操作に応じて、移動ライン74の形状を設定する。具体的には、制御部21は、入力部24を介して、画面51に表示されているX線画像80上で、連結ライン82の、、第1位置L1及び第2位置L2以外の任意の位置を入力機器40によりドラッグして連結ライン82を曲げる操作を受け付ける。制御部21は、連結ライン82が曲げられる度に、移動ライン74の形状を、連結ライン82の曲げられた形状と一致するように調整する。
S604の後、S7のステップが実行されると、例えば、制御部21は、図10に示したように、出力部25を介して、ディスプレイ50に表示されている画面51を更新する。
図11を参照して、S6のステップの詳細な手順の第2例を説明する。
S611のステップについては、図8に示したS601のステップと同様であるため、説明を省略する。
S612において、制御部21は、3次元画像70の寸法に対するX線画像80の寸法の比率を示す比率情報を取得する。具体的には、X線画像80の実スケールが既知であるとき、制御部21は、センサ28の移動距離に対するX線画像80上の距離の比率を比率情報として算出する。
S613において、制御部21は、S612で取得した比率情報に基づき、X線画像80上で、第1位置L1から移動ライン74の距離に対応する距離だけ離れた位置を第2位置L2として移動ライン74の他端の位置に対応付ける。具体的には、制御部21は、通信部23を介して、センサ28が第2点P2に存在するときのセンサ28の、カテーテル26の長軸方向の位置について、カテーテル26を駆動するMDUから通知を受ける。制御部21は、3次元画像70中で、MDUから通知された位置に存在する断面内の、S5で特定した第2センサ位置V2を、第2センサ位置V2の3次元画像70中での位置として特定する。制御部21は、MDUから通知された情報をもとにセンサ28が第1点P1から第2点P2までの区間を移動したときの移動距離を算出する。制御部21は、S612で算出した比率に応じて、算出した移動距離をX線画像80上の距離に換算する。制御部21は、S611で指定された第1位置L1から、換算した距離だけ離れた位置を第2位置L2、第2センサ位置V2の3次元画像70中での位置を移動ライン74の他端の位置として、互いに対応付けて記憶部22に記憶させる。第2位置L2が第1位置L1に対してどの方向に存在するかは、手動で指定されてもよいし、又はX線画像80上のカテーテル26の軸27の位置に合わせて自動で特定されてもよい。
S614及びS615のステップについては、それぞれ図8に示したS603及びS604のステップと同様であるため、説明を省略する。
図12を参照して、S6のステップの詳細な手順の第3例を説明する。
S621及びS622のステップについては、それぞれ図8に示したS601及びS602のステップと同様であるため、説明を省略する。S622のステップは、図11に示したS612及びS613のステップに置き換えられてもよい。そのような変形例では、第2位置L2を手動で指定する操作が不要になる。
S623において、制御部21は、X線画像80上で、第1位置L1及び第2位置L2とは異なる少なくとも1つの位置を手動で指定する操作に応じて、移動ライン74の形状を、第1位置L1、第2位置L2、及び当該少なくとも1つの位置を結ぶ連結ライン82に対応する形状に設定する。具体的には、制御部21は、入力部24を介して、画面51に表示されているX線画像80上で、カテーテル26の軸27の、第1位置L1及び第2位置L2以外の任意の位置を第3位置L3として入力機器40によりクリック又はタッチする操作を受け付ける。制御部21は、入力部24を介して、画面51に表示されているX線画像80上で、カテーテル26の軸27の、第1位置L1、第2位置L2、及び第3位置L3以外の任意の位置を第4位置L4として入力機器40によりクリック又はタッチする操作を更に受け付ける。例えば、制御部21は、図13に示したように、画面51に表示されているX線画像80上で、丸などのマークを第1位置L1、第2位置L2、第3位置L3、及び第4位置L4のそれぞれに配置するとともに、配置したマーク全てを結ぶ直線を連結ライン82として描画する。制御部21は、入力部24を介して、画面51に表示されているX線画像80上で、カテーテル26の軸27の、第1位置L1、第2位置L2、第3位置L3、及び第4位置L4以外の任意の位置を入力機器40によりクリック又はタッチする操作を更に受け付けてもよい。あるいは、制御部21は、第4位置L4をクリック又はタッチする操作を受け付けなくてもよい。
制御部21は、移動ライン74の位置及び長さが連結ライン82の位置及び長さと一致するように、X線画像80に対して、3次元画像70がディスプレイ50に表示される相対的な位置及び大きさを調整する。具体的には、制御部21は、記憶部22に記憶された移動ライン74の両端の位置がそれらと対応付けて記憶部22に記憶された第1位置L1及び第2位置L2と一致するように、X線画像80に対して、3次元画像70がディスプレイ50に表示される相対的な位置及び大きさを調整する。
制御部21は、第1位置L1及び第2位置L2以外の位置が指定される度に、連結ライン82の形状を自動で変更し、その変更に合わせて、移動ライン74の形状を変更する。具体的には、制御部21は、第1位置L1及び第2位置L2以外の位置がクリック又はタッチされる度に、画面51に表示されているX線画像80上で、丸などのマークをクリック又はタッチされた位置に新たに配置するとともに、新たに配置したマークを通るように連結ライン82を更新する。そして、制御部21は、移動ライン74の形状を、連結ライン82の更新後の形状と一致するように調整する。
S623の後、S7のステップが実行されると、例えば、制御部21は、図13に示したように、出力部25を介して、ディスプレイ50に表示されている画面51を更新する。
図14を参照して、S6のステップの詳細な手順の第4例を説明する。
S631及びS632のステップについては、それぞれ図8に示したS601及びS602のステップと同様であるため、説明を省略する。S632のステップは、図11に示したS612及びS613のステップに置き換えられてもよい。そのような変形例では、第2位置L2を手動で指定する操作が不要になる。
S633において、制御部21は、X線画像80からカテーテル26の軸27の画像を自動で検出する。カテーテル26の軸27の画像を検出する手法としては、既知の画像認識技術を用いることができる。深層学習などの機械学習が用いられてもよい。
S634において、制御部21は、S633で検出した画像に基づき、移動ライン74の形状を設定する。具体的には、制御部21は、記憶部22に記憶された移動ライン74の両端の位置がそれらと対応付けて記憶部22に記憶された第1位置L1及び第2位置L2と一致するように、X線画像80に対して、3次元画像70がディスプレイ50に表示される相対的な位置及び大きさを調整する。そして、制御部21は、移動ライン74の形状を、S633で検出した画像の形状と一致するように調整する。
図15を参照して、S6のステップの詳細な手順の第5例を説明する。
この例は、第4例において、S632のステップを、図11に示したS612及びS613のステップに置き換えたものである。S641のステップについては、図8に示したS601のステップと同様であるため、説明を省略する。S642及びS643のステップについては、それぞれ図11に示したS612及びS613のステップと同様であるため、説明を省略する。S644及びS645のステップについては、それぞれ図14に示したS633及びS634のステップと同様であるため、説明を省略する。
第1例から第5例において、制御部21は、センサ28が第1点P1に存在するときに第1位置L1を手動で指定する操作を受け付ける代わりに、センサ28が第1点P1に存在するときに第1位置L1を自動で検出して、第1位置L1を移動ライン74の一端の位置に対応付けてもよい。そのような変形例において、制御部21は、センサ28が第1点P1に存在するときにX線撮影装置30により撮影されたX線画像上でセンサ28が写っている位置を自動で検出する。センサ28が写っている位置を検出する手法としては、既知の画像認識技術を用いることができる。深層学習などの機械学習が用いられてもよい。制御部21は、通信部23を介して、センサ28が第1点P1に存在するときのセンサ28の、カテーテル26の長軸方向の位置について、カテーテル26を駆動するMDUから通知を受ける。制御部21は、3次元画像70中で、MDUから通知された位置に存在する断面内の、S5で特定した第1センサ位置V1を、第1センサ位置V1の3次元画像70中での位置として特定する。制御部21は、自動で検出した位置を第1位置L1、第1センサ位置V1の3次元画像70中での位置を移動ライン74の一端の位置として、互いに対応付けて記憶部22に記憶させる。
第1例、第3例、及び第5例において、制御部21は、センサ28が第2点P2に存在するときに第2位置L2を手動で指定する操作を受け付ける代わりに、センサ28が第2点P2に存在するときに第2位置L2を自動で検出して、第2位置L2を移動ライン74の他端の位置に対応付けてもよい。そのような変形例において、制御部21は、センサ28が第2点P2に存在するときにX線撮影装置30により撮影されたX線画像上でセンサ28が写っている位置を自動で検出する。センサ28が写っている位置を検出する手法としては、既知の画像認識技術を用いることができる。深層学習などの機械学習が用いられてもよい。制御部21は、通信部23を介して、センサ28が第2点P2に存在するときのセンサ28の、カテーテル26の長軸方向の位置について、カテーテル26を駆動するMDUから通知を受ける。制御部21は、3次元画像70中で、MDUから通知された位置に存在する断面内の、S5で特定した第2センサ位置V2を、第2センサ位置V2の3次元画像70中での位置として特定する。制御部21は、自動で検出した位置を第2位置L2、第2センサ位置V2の3次元画像70中での位置を移動ライン74の他端の位置として、互いに対応付けて記憶部22に記憶させる。
図16を参照して、図2に示した動作の変形例を説明する。図16に示したS1AからS7Aのステップのそれぞれに関して、図2に示したS1からS7のステップと同様の処理については、説明を適宜省略又は簡略化する。
この変形例では、センサ28を手元側に引く操作であるプルバックの最中にX線画像が撮られ続け、2次元画像が生成される度に、すなわち、1フレームごとに、対応するX線画像上の、センサ28が写っている位置が捉えられ続ける。その結果、リアルタイムで曲がった3次元画像70を構築することができる。
以下では、S1AからS7Aのステップが最初に実行されるときのiが「1」、S1AからS7Aのステップが最後に実行されるときのiが「2」、S1AからS7Aのステップが最後を除く2回目以降に実行されるときのiが「3」以上、かつ毎回1ずつインクリメントされるものとする。例えば、S1AからS7Aのステップが合計4回実行されるとすると、iは順番に「1」、「3」、「4」、「2」という値になる。iが「1」のときは、S3A、S4A、S6A、及びS7Aのステップがスキップされてもよい。S7Aの後、終了ボタンが押下されるか、又はプルバックが終了するなど、何らかの終了操作が行われるまでは、S1A以降のステップが繰り返し実行される。
S1Aにおいて、制御部21は、センサ28が生体管腔内の第i点Piに存在するときにX線撮影装置30により撮影されたX線画像を取得する。具体的には、制御部21は、通信部23を介して、センサ28が第i点Piに存在するときに撮影されたX線画像をX線撮影装置30から受信する。このX線画像は、少なくともセンサ28の画像を含んでいればよく、カテーテル26の軸27の画像を含んでいなくてもよい。
S2Aにおいて、制御部21は、センサ28が第i点Piに存在するときにセンサ28により得られた2次元画像を取得する。具体的には、制御部21は、通信部23を介して、センサ28が第1点P1に存在するときにセンサ28により受信された反射波に関する反射波情報をセンサ28から受信する。制御部21は、受信した反射波情報をもとに生体管腔の断面構造を画像化することで、第1点P1に対応する断面画像を2次元画像として生成する。あるいは、制御部21は、通信部23を介して、別個に設けられたIVUS装置により第1点P1に対応する反射波情報をもとに生成された断面画像を2次元画像としてIVUS装置から受信してもよい。
S1Aのステップは、S2Aの前に実行されてもよいし、S2Aと同時に実行されてもよいし、又はS2Aの後に実行されてもよい。
S3Aにおいて、制御部21は、S2Aで取得した2次元画像と、もしあれば、それよりも前に取得した1つ以上の2次元画像とに基づき、生体管腔の立体構造を画像化して3次元画像70を生成する。具体的には、制御部21は、S2Aで生成又は受信した断面画像と、もしあれば、それよりも前に生成又は受信した1つ以上の断面画像とを積層して3次元画像70を生成する。
S4Aにおいて、制御部21は、S3Aで生成した3次元画像70を、S1Aで取得したX線画像に重ねてディスプレイ50に表示させる。
S5Aにおいて、制御部21は、S2Aで取得した2次元画像について、センサ28の位置をセンサ位置として特定する。具体的には、制御部21は、センサ28が第i点Piに存在するときにセンサ28により得られた2次元画像の中心の位置を第iセンサ位置Viとして特定する。
S6Aにおいて、制御部21は、移動ライン74の少なくとも一部を、S3Aで生成した3次元画像70中に設定する。移動ライン74は、第1センサ位置V1の3次元画像70中での位置から、生体管腔内の第1点P1から第2点P2までの区間におけるカテーテル26の軸27の形状に対応する形状で延びる線である。生体管腔内の第1点P1から第2点P2までの区間におけるカテーテル26の軸27の形状は、iが「2」になるまでのS1Aで取得された複数のX線画像を用いて特定される。iが「2」になっていない場合は、第1点P1から区間の途中までのカテーテル26の軸27の形状が、それまでのS1Aで取得されたX線画像を用いて特定される。
具体的には、制御部21は、S1Aで取得したX線画像からセンサ28の画像を自動で検出する。すなわち、制御部21は、S1Aで取得したX線画像上でセンサ28が写っている位置を自動で検出する。センサ28が写っている位置を検出する手法としては、既知の画像認識技術を用いることができる。深層学習などの機械学習が用いられてもよい。制御部21は、通信部23を介して、センサ28が第i点Piに存在するときのセンサ28の、カテーテル26の長軸方向の位置について、カテーテル26を駆動するMDUから通知を受ける。制御部21は、3次元画像70中で、MDUから通知された位置に存在する断面内の、S5で特定した第iセンサ位置Viを、第iセンサ位置Viの3次元画像70中での位置として特定する。制御部21は、自動で検出した位置を第i位置Li、第iセンサ位置Viの3次元画像70中での位置を移動ライン74の第i設定位置として、互いに対応付けて記憶部22に記憶させる。移動ライン74の第1設定位置は、移動ライン74の一端の位置に相当する。移動ライン74の第2設定位置は、移動ライン74の他端の位置に相当する。
S7Aにおいて、制御部21は、iが「2」になるまでのS1Aで取得された複数のX線画像を用いて特定された、生体管腔内の第1点P1から第2点P2までの区間におけるカテーテル26の軸27の形状に合わせて、S3Aで生成した3次元画像70の形状を調整する。iが「2」になっていない場合は、制御部21は、それまでのS1Aで取得されたX線画像を用いて特定された、第1点P1から区間の途中までのカテーテル26の軸27の形状に合わせて、S3Aで生成した3次元画像70の形状を調整する。具体的には、制御部21は、それまでのS5Aで特定したセンサ位置を、移動ライン74の、それまでのS6Aで設定した部分上に配置することで、S3Aで生成した3次元画像70の形状を調整する。より具体的には、制御部21は、記憶部22に記憶された移動ライン74の各設定位置がそれと既に対応付けて記憶部22に記憶された、画面51に表示されているX線画像80上の位置と一致するように、X線画像80に対して、3次元画像70がディスプレイ50に表示される相対的な位置及び大きさ、並びに3次元画像70の形状を調整する。
S5AからS7Aのステップは、S4Aの前に実行されてもよい。
上述したように、この変形例では、制御部21は、センサ28が生体管腔内の第1点P1に存在するときにX線撮影装置30により撮影されたX線画像上の、第1点P1に対応する第1位置L1を移動ライン74の一端の位置に対応付ける。制御部21は、センサ28が生体管腔内の第2点P2に存在するときにX線撮影装置30により撮影されたX線画像上の、第2点P2に対応する第2位置L2を移動ライン74の他端の位置に対応付ける。制御部21は、センサ28が生体管腔内の第1点P1から第2点P2までの区間を移動する間にX線撮影装置30により撮影された複数のX線画像に含まれる各X線画像からセンサ28の画像を自動で検出する。制御部21は、検出した画像に基づき、移動ライン74の形状を設定する。
したがって、本実施形態によれば、リアルタイムで曲がった3次元画像70を構築することができる。断面画像ごとに、対応するX線画像が必要にはなるものの、各X線画像に少なくともセンサ28が写っていればよく、カテーテル26の軸27が写っていなくてもよい。
本開示は上述の実施形態に限定されるものではない。例えば、ブロック図に記載の2つ以上のブロックを統合してもよいし、又は1つのブロックを分割してもよい。フローチャートに記載の2つ以上のステップを記述に従って時系列に実行する代わりに、各ステップを実行する装置の処理能力に応じて、又は必要に応じて、並列的に又は異なる順序で実行してもよい。その他、本開示の趣旨を逸脱しない範囲での変更が可能である。例えば、制御部21は、実際の血管走行と合った3次元画像70のみをディスプレイ50に表示させる場合、S4でX線画像80をディスプレイ50に表示させなくてもよい。
10 画像処理システム
20 画像処理装置
21 制御部
22 記憶部
23 通信部
24 入力部
25 出力部
26 カテーテル
27 軸
28 センサ
29 ガイドワイヤ
30 X線撮影装置
40 入力機器
50 ディスプレイ
51 画面
52 第1領域
53 第2領域
54 スライダー
60 2次元画像
61 人体モデル画像
70 3次元画像
71 人体モデル画像
72 断面画像
73 カメラアイコン
74 移動ライン
80 X線画像
82 連結ライン
20 画像処理装置
21 制御部
22 記憶部
23 通信部
24 入力部
25 出力部
26 カテーテル
27 軸
28 センサ
29 ガイドワイヤ
30 X線撮影装置
40 入力機器
50 ディスプレイ
51 画面
52 第1領域
53 第2領域
54 スライダー
60 2次元画像
61 人体モデル画像
70 3次元画像
71 人体モデル画像
72 断面画像
73 カメラアイコン
74 移動ライン
80 X線画像
82 連結ライン
Claims (16)
- 生体管腔内に挿入されたカテーテルに設けられたセンサが前記カテーテルの軸に沿って前記生体管腔内の第1点から第2点までの区間を移動することにより得られた複数の2次元画像に基づき、前記生体管腔の立体構造を画像化して3次元画像を生成する画像処理装置であって、
前記生体管腔を透視するX線撮影装置により撮影された、前記カテーテルの少なくとも一部の画像を含む少なくとも1つのX線画像を用いて特定された、前記区間における前記カテーテルの軸の形状に合わせて、前記3次元画像の形状を調整する制御部を備える画像処理装置。 - 前記制御部は、
前記複数の2次元画像に含まれる各2次元画像について、前記センサの位置をセンサ位置として特定し、
前記センサが前記第1点に存在するときに前記センサにより得られた2次元画像について特定したセンサ位置の前記3次元画像中での位置から、前記区間における前記カテーテルの軸の形状に対応する形状で延びる移動ラインを前記3次元画像中に設定し、
特定した各センサ位置を、設定した移動ライン上に配置することで、前記3次元画像の形状を調整する、請求項1に記載の画像処理装置。 - 前記制御部は、
前記少なくとも1つのX線画像上の、前記第1点に対応する第1位置を前記移動ラインの一端の位置に対応付け、
前記少なくとも1つのX線画像上の、前記第2点に対応する第2位置を前記移動ラインの他端の位置に対応付け、
前記少なくとも1つのX線画像上で、前記第1位置及び前記第2位置を結ぶ連結ラインを設定し、
設定した連結ラインの形状を手動で変更する操作に応じて、前記移動ラインの形状を設定する、請求項2に記載の画像処理装置。 - 前記制御部は、
前記少なくとも1つのX線画像上の、前記第1点に対応する第1位置を前記移動ラインの一端の位置に対応付け、
前記少なくとも1つのX線画像上の、前記第2点に対応する第2位置を前記移動ラインの他端の位置に対応付け、
前記少なくとも1つのX線画像上で、前記第1位置及び前記第2位置とは異なる少なくとも1つの位置を手動で指定する操作に応じて、前記移動ラインの形状を、前記第1位置、前記第2位置、及び前記少なくとも1つの位置を結ぶ連結ラインに対応する形状に設定する、請求項2に記載の画像処理装置。 - 前記制御部は、
前記少なくとも1つのX線画像上の、前記第1点に対応する第1位置を前記移動ラインの一端の位置に対応付け、
前記少なくとも1つのX線画像上の、前記第2点に対応する第2位置を前記移動ラインの他端の位置に対応付け、
前記少なくとも1つのX線画像から前記カテーテルの軸の画像を自動で検出し、
検出した画像に基づき、前記移動ラインの形状を設定する、請求項2に記載の画像処理装置。 - 前記制御部は、
前記少なくとも1つのX線画像上の、前記第1点に対応する第1位置を前記移動ラインの一端の位置に対応付け、
前記少なくとも1つのX線画像上の、前記第2点に対応する第2位置を前記移動ラインの他端の位置に対応付け、
前記センサが前記区間を移動する間に前記X線撮影装置により撮影された複数のX線画像に含まれる各X線画像から前記センサの画像を自動で検出し、
検出した画像に基づき、前記移動ラインの形状を設定する、請求項2に記載の画像処理装置。 - 前記制御部は、前記センサが前記第1点に存在するときに前記少なくとも1つのX線画像上の、前記第1点に対応する第1位置を手動で指定する操作に応じて、前記第1位置を前記移動ラインの一端の位置に対応付ける、請求項2に記載の画像処理装置。
- 前記制御部は、前記センサが前記第2点に存在するときに前記少なくとも1つのX線画像上の、前記第2点に対応する第2位置を手動で指定する操作に応じて、前記第2位置を前記移動ラインの他端の位置に対応付ける、請求項7に記載の画像処理装置。
- 前記制御部は、
前記3次元画像の寸法に対する前記少なくとも1つのX線画像の寸法の比率を示す比率情報を取得し、
取得した比率情報に基づき、前記少なくとも1つのX線画像上で、前記第1位置から前記移動ラインの距離に対応する距離だけ離れた位置を前記少なくとも1つのX線画像上の、前記第2点に対応する第2位置として前記移動ラインの他端の位置に対応付ける、請求項7に記載の画像処理装置。 - 前記制御部は、前記センサが前記第1点に存在するときに前記少なくとも1つのX線画像上の、前記第1点に対応する第1位置を自動で検出して、前記第1位置を前記移動ラインの一端の位置に対応付ける、請求項2に記載の画像処理装置。
- 前記制御部は、前記センサが前記第2点に存在するときに前記少なくとも1つのX線画像上の、前記第2点に対応する第2位置を自動で検出して、前記第2位置を前記移動ラインの他端の位置に対応付ける、請求項10に記載の画像処理装置。
- 前記制御部は、前記3次元画像を前記少なくとも1つのX線画像に重ねてディスプレイに表示させる、請求項2に記載の画像処理装置。
- 前記制御部は、前記移動ラインの設定中、前記移動ラインの変化に応じて、前記3次元画像を更新する、請求項12に記載の画像処理装置。
- 請求項1から請求項13のいずれか1項に記載の画像処理装置と、
前記3次元画像及び前記少なくとも1つのX線画像を表示するディスプレイと
を備える画像処理システム。 - 生体管腔内に挿入されたカテーテルに設けられたセンサが前記カテーテルの軸に沿って前記生体管腔内の第1点から第2点までの区間を移動することにより得られた複数の2次元画像に基づき、前記生体管腔の立体構造を画像化して3次元画像を生成する画像処理方法であって、
制御部が、前記生体管腔を透視するX線撮影装置により撮影された、前記カテーテルの少なくとも一部の画像を含む少なくとも1つのX線画像を用いて特定された、前記区間における前記カテーテルの軸の形状に合わせて、前記3次元画像の形状を調整することを含む画像処理方法。 - 生体管腔内に挿入されたカテーテルに設けられたセンサが前記カテーテルの軸に沿って前記生体管腔内の第1点から第2点までの区間を移動することにより得られた複数の2次元画像に基づき、前記生体管腔の立体構造を画像化して3次元画像を生成するコンピュータに、
前記生体管腔を透視するX線撮影装置により撮影された、前記カテーテルの少なくとも一部の画像を含む少なくとも1つのX線画像を用いて特定された、前記区間における前記カテーテルの軸の形状に合わせて、前記3次元画像の形状を調整することを含む動作を実行させる画像処理プログラム。
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2023169236 | 2023-09-29 | ||
| JP2023-169236 | 2023-09-29 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2025070545A1 true WO2025070545A1 (ja) | 2025-04-03 |
Family
ID=95201554
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2024/034284 Pending WO2025070545A1 (ja) | 2023-09-29 | 2024-09-25 | 画像処理装置、画像処理システム、画像処理方法、及び画像処理プログラム |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2025070545A1 (ja) |
Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6148095A (en) * | 1997-09-08 | 2000-11-14 | University Of Iowa Research Foundation | Apparatus and method for determining three-dimensional representations of tortuous vessels |
| US20070093710A1 (en) * | 2005-10-20 | 2007-04-26 | Michael Maschke | Cryocatheter for introduction into a body vessel together with medical investigation and treatment equipment |
| JP2010526556A (ja) * | 2006-11-22 | 2010-08-05 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | X線の経脈管的に収集されたデータとの結合 |
| WO2015045368A1 (ja) * | 2013-09-26 | 2015-04-02 | テルモ株式会社 | 画像処理装置、画像表示システム、撮影システム、画像処理方法及びプログラム |
| JP2017131348A (ja) * | 2016-01-26 | 2017-08-03 | テルモ株式会社 | 画像表示装置およびその制御方法、x線不透過マーカ検出方法 |
| US20180168732A1 (en) * | 2016-12-16 | 2018-06-21 | General Electric Company | Combination Of 3D Ultrasound And Computed Tomography For Guidance In Interventional Medical Procedures |
| US20220087752A1 (en) * | 2017-12-05 | 2022-03-24 | Covidien Lp | Multi-rigid registration of magnetic navigation to a computed tomography volume |
| JP2022523445A (ja) * | 2019-03-14 | 2022-04-22 | コーニンクレッカ フィリップス エヌ ヴェ | 動的な介入的3次元モデル変形 |
-
2024
- 2024-09-25 WO PCT/JP2024/034284 patent/WO2025070545A1/ja active Pending
Patent Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6148095A (en) * | 1997-09-08 | 2000-11-14 | University Of Iowa Research Foundation | Apparatus and method for determining three-dimensional representations of tortuous vessels |
| US20070093710A1 (en) * | 2005-10-20 | 2007-04-26 | Michael Maschke | Cryocatheter for introduction into a body vessel together with medical investigation and treatment equipment |
| JP2010526556A (ja) * | 2006-11-22 | 2010-08-05 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | X線の経脈管的に収集されたデータとの結合 |
| WO2015045368A1 (ja) * | 2013-09-26 | 2015-04-02 | テルモ株式会社 | 画像処理装置、画像表示システム、撮影システム、画像処理方法及びプログラム |
| JP2017131348A (ja) * | 2016-01-26 | 2017-08-03 | テルモ株式会社 | 画像表示装置およびその制御方法、x線不透過マーカ検出方法 |
| US20180168732A1 (en) * | 2016-12-16 | 2018-06-21 | General Electric Company | Combination Of 3D Ultrasound And Computed Tomography For Guidance In Interventional Medical Procedures |
| US20220087752A1 (en) * | 2017-12-05 | 2022-03-24 | Covidien Lp | Multi-rigid registration of magnetic navigation to a computed tomography volume |
| JP2022523445A (ja) * | 2019-03-14 | 2022-04-22 | コーニンクレッカ フィリップス エヌ ヴェ | 動的な介入的3次元モデル変形 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5683065B2 (ja) | 容積式位置揃えのための改良型システム及び方法 | |
| CN110393591B (zh) | 多模态2d至3d成像导航 | |
| JP7671776B2 (ja) | 複数の画像化モダリティにおける関心対象領域を識別するシステム及び方法 | |
| JP6453857B2 (ja) | 超音波画像の3d取得のためのシステムおよび方法 | |
| CN101579241B (zh) | 图像处理装置 | |
| KR101716421B1 (ko) | 정보 제공 방법 및 정보 제공을 위한 의료 진단 장치 | |
| US8345957B2 (en) | Data processing apparatus, X-ray apparatus, and data processing method | |
| JP5478328B2 (ja) | 診断支援システム、診断支援プログラムおよび診断支援方法 | |
| US20130257910A1 (en) | Apparatus and method for lesion diagnosis | |
| CN105096306B (zh) | 用于对医学图像进行配准的方法和设备 | |
| US11464571B2 (en) | Virtual stent placement apparatus, virtual stent placement method, and virtual stent placement program | |
| CN113853151A (zh) | 用于在手术期间定向远程相机的用户界面元件 | |
| US20160095581A1 (en) | Ultrasonic diagnosis apparatus | |
| JP5415245B2 (ja) | 医用画像表示装置および方法並びにプログラム | |
| US20140055448A1 (en) | 3D Image Navigation Method | |
| CN112869761B (zh) | 医用图像诊断支持系统、医用图像处理装置及方法 | |
| US11607273B2 (en) | Virtual stent placement apparatus, virtual stent placement method, and virtual stent placement program | |
| WO2025070545A1 (ja) | 画像処理装置、画像処理システム、画像処理方法、及び画像処理プログラム | |
| JPWO2019069867A1 (ja) | 血管抽出装置および血管抽出方法 | |
| JP7075115B2 (ja) | 医療画像処理システムおよび医療画像処理方法 | |
| JP2012147939A (ja) | 画像処理装置 | |
| WO2025205679A1 (ja) | 画像処理装置、画像処理システム、画像処理方法、及び画像処理プログラム | |
| JP2023148901A (ja) | 情報処理方法、プログラムおよび情報処理装置 | |
| KR20240059417A (ko) | 요로위치 추정 시스템 | |
| JP7480010B2 (ja) | 情報処理装置、プログラムおよび情報処理方法 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 24872331 Country of ref document: EP Kind code of ref document: A1 |