WO2019107226A1 - Endoscopic apparatus - Google Patents
Endoscopic apparatus Download PDFInfo
- Publication number
- WO2019107226A1 WO2019107226A1 PCT/JP2018/042874 JP2018042874W WO2019107226A1 WO 2019107226 A1 WO2019107226 A1 WO 2019107226A1 JP 2018042874 W JP2018042874 W JP 2018042874W WO 2019107226 A1 WO2019107226 A1 WO 2019107226A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- endoscope
- image
- data
- endoscopic
- movement vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/045—Control thereof
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B23/00—Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
- G02B23/24—Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
Definitions
- the present invention relates to an endoscope apparatus for performing diagnosis and treatment in the medical field. Further, in the industrial field, the present invention relates to an endoscope apparatus which inspects and repairs a defect of an object in a closed place.
- Endoscope devices are conventionally and widely used in the medical and industrial fields.
- the endoscope apparatus acquires an image of an object at the tip of the insertion unit by the insertion unit, an imaging device provided at the tip of the insertion unit, and the illumination device, and displays the image by the imaging device and the image display device And the operator can perform the inspection.
- a bending mechanism is provided at the distal end of the endoscope, and for example, bending operation with two degrees of freedom in the vertical and horizontal directions can be performed. By this bending operation, for example, in the medical field, steering when inserting an endoscope into the digestive tract, control of the visual field when observing or diagnosing a tissue, or when excising a tumor etc. You can control the position and direction of the treatment tool.
- Japanese Patent No. 2710384 detects the insertion direction of an endoscope by extracting a dark region of an endoscopic image, and the endoscope operator looks at the detected insertion direction of the endoscope and performs bending operation and insertion. It has been devised to insert an endoscope by automatically performing an operation and inserting an endoscope, or automatically with respect to a detected insertion direction. Furthermore, for the bending operation, a bending structure consisting of a bending tube connected to the tip, a pulley provided in the operation part at hand, a wire connected to the bending structure and the pulley and disposed along the insertion part It has a drive transmission mechanism which consists of an operation knob fixed to a pulley.
- the bending operation is performed by rotating the operation knob.
- the operator holds the insertion portion of the endoscope with the right hand and advances or retracts the insertion portion while rotating the two operation knobs of the upper and lower and left and right simultaneously with the finger of the left hand to perform bending operation
- the two operation knobs of the upper and lower and left and right In order to perform the bending operation in the desired direction, it is necessary to be skilled.
- a touch panel is provided on a display unit for displaying an endoscopic image in order to move an arbitrary position in the endoscopic image to the central part of the screen quickly and easily. It has been devised to calculate the angle of the bending portion from the touch position information on the screen detected in the above, and operate the bending portion based on this.
- Patent 2710384 Patent No. 3353938 JP, 2014-109630, A
- Patent 2710384 describes the case where the insertion direction of the endoscope is detected by extracting the dark area of the endoscopic image and the tip is automatically directed to the dark area. As to what input operation is to be directed, there is no description other than turning the tip to the direction of the dark area. In the actual insertion of the endoscope, the dark part may be brought to the center of the endoscopic image or may be brought to the lower side of the endoscopic image. It is necessary to have a means to conduct and operate easily under the recognition.
- the dark part is only one index in endoscope operation, and in addition, the position of air bubbles appearing in the endoscope image, the bending state of the endoscope and the state of the insertion portion are also indexes. It is necessary to follow the procedure of the bending operation and the operation of advancing / retracting / rotation of the insertion part for each part of the lumen through which the lens passes. A great deal of experience was needed to develop these procedures.
- the endoscope image moves, rotates, or changes in size, such as enlargement or reduction of the image. It is necessary to adjust the operation amount of the bending operation while observing the change of the image. If the distance between the object and the tip of the endoscope is changed by advancing and retracting the insertion portion, not only the size on the endoscopic image changes but also the position on the image moves. If the insertion portion is rotated, the endoscopic image rotates in the opposite direction to the rotation direction, and the position on the image of the object moves, so it is necessary to adjust the operation amount of the bending operation while watching these movements .
- the touch position information on the screen detected by the touch panel and the bending angle are determined by the distance between the observation target and the tip of the endoscope.
- the relationship changes a lot. That is, as the observation target is closer to the distal end of the endoscope, the position on the endoscopic image moves largely due to the bending operation, and as the observation target is farther from the distal end of the endoscope, the position on the endoscopic image is curved due to the bending operation. Move small.
- the amount of bending operation and the change in the field of view of the endoscopic image do not have a linear relationship, so the bending corresponding to the observation site of the endoscopic image
- the amount of operation can not be calculated accurately. Therefore, it is necessary to adjust the operation amount of the bending operation while observing the change in the field of view of the endoscopic image. For example, when the bending portion is bent 90 ° and 90 ° right at the same time from the straight state, it moves to the middle between 4 o'clock and 5 o'clock as viewed from the front.
- the computer navigates the procedure of the bending operation and the operation of advancing / retracting / rotation of the insertion part according to each part of the lumen through which the endoscope passes.
- information concerning endoscope insertion by navigation is accumulated in a database, machine learning is performed based on the database, and the navigation program is updated to improve accuracy.
- the image processing apparatus and the CPU automatically adjust the operation amount of the bending operation while the operator looks at the change of the visual field of the endoscopic image, and specifically, the following configuration is It features.
- the endoscope apparatus of the first invention is In the endoscope apparatus, An imaging device for endoscopic images, It is characterized by having a function of instructing at least two or more of the procedures for inserting the endoscope into the lumen of the body simultaneously or sequentially.
- An endoscope navigation device is An imaging device for endoscopic images, It is characterized by including a navigation function for presenting at least two or more of the procedures for inserting the endoscope into the lumen of the body simultaneously or sequentially with images or sounds.
- An endoscope navigation device is the second aspect according to the present invention, An image processing apparatus for detecting image information data of an endoscope image; A function of detecting insertion state data consisting of at least one of a bending state of an endoscope, rotation of an insertion portion, and an insertion length; According to the image information data and / or the insertion state data, referring to the endoscope insertion procedure data predetermined based on predetermined parameters, at least two or more simultaneously or sequentially with the image or voice insertion procedure And a navigation function to convey information.
- a navigation method of an endoscope navigation device is: In the endoscope apparatus, Detecting the insertion state of the endoscope; Referencing insertion procedure data of an insertion operation predetermined based on the insertion state of the endoscope; Presenting at least two or more of the endoscope insertion procedures simultaneously or sequentially with images or sounds.
- An endoscope navigation device is In the endoscope apparatus, An imaging device for endoscopic images, An image processing apparatus for detecting image information data of the endoscopic image; A function of detecting insertion state data consisting of at least one of a bending state of an endoscope, rotation of an insertion portion, and an insertion length; A navigation function of referring to insertion procedure data of an endoscope determined in advance based on predetermined parameters according to the image information data and / or the insertion state data, and conveying the insertion procedure by image or voice; A function of recording, as operation data, contents of endoscope operation based on the insertion procedure data; A function of calculating effect determination result data for measuring / evaluating a result of endoscope operation; A function of storing the image information data, the insertion state data, the predetermined parameter, the insertion procedure data, the operation data, and the effect determination result data in association with each other in a database; A function of machine learning the relationship between the data stored in the database; A function of changing the
- An endoscope apparatus is the endoscope apparatus according to the first aspect, wherein A means for specifying a target on the endoscopic image; And means for inputting the movement vector of the target and And means for controlling the position of the distal end of the endoscope according to the input of the movement vector of the target on the endoscopic image.
- An endoscope apparatus is the endoscope apparatus according to the sixth aspect, wherein A means for measuring the movement vector of the target on the endoscopic image, The input movement vector is compared with the measured movement vector, and feedback control of the position of the endoscope tip is performed so that the difference between the two approaches zero.
- An endoscope apparatus is any one of the sixth to seventh inventions, A treatment device is provided at the tip of the endoscope, and movement of the point of action is performed by inputting a movement vector of the point of action designated on the endoscopic image.
- An endoscope apparatus is any one of the sixth to eighth inventions,
- the means for controlling the position of the distal end of the endoscope is any one or more of a bending mechanism provided at the distal end of the endoscope, rotation of the insertion portion, and advancement / retraction of the insertion portion.
- An endoscope apparatus is any one of the sixth to ninth inventions, It is characterized in that the designation means of the target on the endoscopic image and the input means of the movement vector are a touch panel and / or a joystick and / or a track ball.
- An endoscope apparatus is the seventh invention, It is characterized in that the means for measuring the movement vector of the target on the endoscopic image is a block matching method, a representative point matching method, or an optical flow method.
- the control method of the endoscope apparatus of the twelfth invention is In the endoscope apparatus, Specifying a target on the endoscopic image; Inputting a movement vector of a target on the endoscopic image; Controlling the position of the tip of the endoscope according to the input movement vector; Measuring a movement vector of the target on the endoscopic image; Comparing the input movement vector with the measured movement vector; And feedback controlling the position of the tip of the endoscope such that the difference between the two approaches zero.
- FIG. 7 is a view showing a menu of navigation in the insertion operation of the large intestine endoscope of the first embodiment.
- FIG. 8 is a view showing the procedure in the insertion operation of the large intestine endoscope of the first embodiment.
- FIG. 16 is a diagram showing a flowchart performed in machine learning of navigation in the insertion operation of the large intestine endoscope of the second embodiment.
- Example 1 The present embodiment relates to navigation in insertion of an endoscope.
- the configuration of this embodiment is shown in FIG.
- the endoscope apparatus 1 includes an insertion portion 10, an imaging device 2 provided at the tip of the insertion portion 10, an illumination device 3, and an illumination fiber 4 for guiding illumination light at the tip of the insertion portion 10.
- An image signal of an object ahead of the unit 10 is acquired, an image is constructed by the imaging device 5, and the image is displayed by the display monitor 17.
- a bending mechanism 7 is provided at the tip of the endoscope, and, for example, it is possible to perform bending operation with two degrees of freedom, vertically and horizontally. By this bending operation, for example, in the medical field, steering when inserting an endoscope into the digestive tract, control of the visual field when observing or diagnosing a tissue, or when excising a tumor etc. You can control the position and direction of the treatment tool.
- a bending mechanism 7 consisting of a connected bending tube 8 provided at the tip of the endoscope, a pulley 12 provided at the operation unit 11 at hand, and both along the insertion unit 10 It is coupled by the deployed wire 9 and is transmitted by driving.
- the pulley 12 is connected to the gear 13, the gear 13 is engaged with the gear 14, and the gear 14 is connected to the motor 15. Further, the motor 15 is provided with an encoder 16 for detecting a rotational position.
- An endoscope image display monitor 17 is provided near the operation unit 11, and a touch panel 18 is integrated with the display monitor 17.
- a monitor for displaying an endoscope image may be provided.
- the encoder 16 and the motor 15 are electrically connected to the motor control circuit 19.
- the motor control circuit 19 is connected to the CPU 20.
- the display monitor 17 is connected to the image processing apparatus 21, and the touch panel 18 is connected to the CPU 20.
- the signal of the imaging device 5 is connected to the image processing device 21.
- the image processing device 21 is connected to the CPU 20.
- the insertion position sensor 30 can detect the forward and backward position and the rotation position of the insertion portion 10.
- the insertion portion position sensor 30 is connected to the CPU 20.
- FIG. 2 shows the structure of the insertion portion position sensor 30 for detecting the advancing / retracting position and the rotational position of the insertion portion 10.
- the illumination 31 and the image sensor 32 are provided on the inner surface of the cylindrical portion into which the insertion portion 10 of the endoscope can be loosely inserted, and the scale 33 and the insertion length marked on the outer periphery of the insertion portion 10 of the endoscope
- the numeral 34 is read by the image sensor 32, and the insertion position of the insertion unit 10 is detected from the longitudinal position X of the scale line 33 and the numeral 34, and the rotational position of the insertion unit 10 is detected from the position Y in the circumferential direction of the numeral 34. be able to.
- the position Y in the rotational direction of the center of the number "30" and the position X in the longitudinal direction are determined by the image sensor 32, and the insertion length and the rotational position are calculated by the equations in the figure. There is.
- the insertion portion position sensor 30 is installed so that the positional relationship with the entrance of the lumen into which the endoscope is inserted does not shift.
- the insertion portion position sensor 30 is installed away from the mouth or anus, the offset distance of the insertion length displayed on the display monitor 17 described later can be corrected by inputting the distance to the CPU 20. .
- the advancing / retreating position and the rotation of the insertion unit 10 are detected using the scale line 33 and the numeral 34 indicating the insertion length printed on the insertion unit 10 of the conventional endoscope.
- the contents described in the insertion section 10 of the endoscope are not limited to this.
- it may be a symbol that can identify the insertion length instead of a numeral, or a line indicating the rotational direction. .
- a Hall element may be embedded, and instead of the image sensor 32, a magnetic sensor may detect the forward and backward position and the rotational position of the insertion portion 10.
- the length of the insertion section position sensor 30 is at least 10 cm.
- a transparent sleeve-like sterilization cover 35 is detachably provided, and the insertion portion position sensor 30 contaminates the insertion portion 10 of the endoscope. To prevent.
- a movement vector (referred to as an input movement vector) when the touch panel 18 is touched and dragged with a finger is calculated by the CPU 20.
- a table of the correspondence between this input movement vector and the movement vectors of the upper and lower and left and right motors 15 is stored in the internal memory of the CPU 20. Referring to this table, the position and / or speed of the motor control circuit 19 from the CPU 20 Send a command. As a result, the motor 15 is rotated, and the bending mechanism 7 operates via the drive transmission mechanism to move the endoscopic image.
- the image processing device 21 and the CPU 20 extract feature amounts of an endoscopic image including the portion touched by the touch panel 18 and the periphery thereof, and obtain movement vectors (referred to as output movement vectors) on the image from the feature amounts. . Furthermore, the CPU 20 calculates a difference between the input movement vector and the output movement vector, and performs feedback control to send a command of position and / or speed to the motor control circuit 19 so that the difference approaches zero.
- the image processing apparatus 21 and the CPU 20 extract the feature amount of the endoscope image including the portion touched by the touch panel 18 and the periphery thereof and move the object having the feature amount on the image”
- An example of “determining a vector (output movement vector)” is shown.
- the CPU 20 stores an image of a portion including the touch panel 18 touched by the finger and the periphery thereof in the CPU 20, and shifts the superposition position with respect to the image having a change including movement, rotation, and enlargement / reduction by bending operation.
- the sum of absolute differences of pixels (SAD: Sum of Absolute Difference) is calculated, and the position where the SAD is minimum is detected as the matching position.
- the movement vector to this matching position is determined as the aforementioned output movement vector.
- pixels having the feature quantities extracted in the endoscopic image are sampled as representative points, and matching is performed by shifting the overlapping positions of the images of the representative points. Can be reduced.
- an optical flow mainly used for detection of a moving object, analysis of its operation, and the like This represents the distribution of movement vectors between frames of representative points on the image, and is used to relate the movement direction and speed of the part including the touch panel 18 touched by the finger and the surrounding area, and the depth. You can get information. That is, the information about the depth of the object can be used as the bending operation of the endoscope by the optical flow.
- the dark portion 53 of the endoscopic image 6 is touched with the touch panel 18, and the touch panel 18 is dragged in a desired direction to perform a bending operation to assist insertion of the endoscope. Will be explained.
- the endoscope In order to insert the colonoscope through the anus and travel through the rectum, the sigmoid colon, the descending colon, the transverse colon, and the ascending colon so as to reverse the movement of the stool, to allow the tip to reach the colon cecum,
- One indication in the operation of the endoscope is the position of the dark section 53 at a distance from the lumen.
- the illumination light from the tip of the endoscope is difficult to reach far in the lumen, and as a result, the image becomes darker as it goes further.
- Endoscope insertion aiming at the dark part 53 is conventionally performed in actual clinical practice using this fact.
- the image of the dark portion 53 is touched with the touch panel 18, and the touch panel 18 is dragged in a desired direction to perform a bending operation, as shown in FIG. Assist in the insertion of the mirror.
- FIG. 4 exemplifies a navigation menu 56 displayed on the display monitor 17 when the colonoscope is inserted.
- a rotation arrow 49 for instructing the operation of rotation of 10, an insertion length 50 indicating the length of insertion of the insertion unit 10, and an insertion method selection 51 are displayed together with the endoscopic image 6.
- FIG. 5 shows a part of the contents displayed as the navigation menu 56 of FIG. 4 in the step of insertion of the colonoscope.
- As a method of inserting a colonoscope there are a loop insertion method, an axis holding shortening insertion method, and the like.
- Navigation programs corresponding to these insertion methods are prepared in advance, and first, one of the colonoscope insertion methods is selected. The subsequent steps are an example of navigation when the axis holding shortening insertion method is selected.
- the patient takes a left-sided decubitus position (left-side down) at the beginning of insertion.
- the tip of the endoscope is passed through the hole of the insertion portion position sensor 30, and insertion is started from the anus.
- an arrow is displayed on the display monitor so that the rotational position 44 points in the 9 o'clock direction.
- FIG. 5 (1) when the rotational position 44 of the insertion portion 10 detected by the insertion portion position sensor 30 is 12 o'clock, the rotational arrow 49 is displayed to be 9 o'clock.
- “STOP” is displayed as shown in FIG. 5 (2) when the rotation position 44 reaches 9 o'clock.
- the dark portion 53 is displayed in the endoscopic image 6 at 12 o'clock, and the air bubble 54 is displayed in the 3 o'clock direction.
- the insertion portion 10 is advanced as shown in FIG. A forward arrow 47 is displayed.
- the operator grips the insertion portion 10 and starts advancing.
- the forward movement is advanced to insert the insertion length 50 Becomes 13 cm
- "STOP" is displayed at the tip of the forward arrow 47 as shown in FIG. 5 (6).
- the endoscopic image 6 as shown in FIG. 5 (7), strong bending and dark portions 53 of the lumen appear in the 7 o'clock direction.
- the positions of the dark portion 53 and the air bubble 54 were measured by the image processing device 21 and the CPU 20, and it was confirmed that they were in the 12 o'clock and 9 o'clock directions, respectively.
- FIG. The upward direction is presented. Seeing this, the operator touches the dark part 53 above the endoscopic image 6 of the touch panel 18 and drags it downward. The operation of touching and dragging downward is repeated, and when the upward bending reaches 120 °, the upward bending arrow 46 disappears, and "STOP" is displayed as shown in FIG. 5 (12).
- the colon model image 40 seen from the right side of the body in FIG. 5 (13) the bending portion 55 is in a state of being caught in the bending at the start region of the sigmoid colon.
- a retreating arrow 48 instructing to retreat the insertion part 10 is displayed.
- the colonoscopy model image 40 seen from the right side of the body in FIG. 5 15
- the colon sigmoid colon gradually approaches the anus side.
- the dark portion 53 appears on the upper right side or the left side of the endoscopic image 6.
- FIG. 5 (16) shows an example in which the right rotation arrow 49 is displayed when the dark part 53 appears on the upper right side.
- the operator applies a right twist in accordance with the direction of the rotation arrow 49 of the insertion portion 10 as shown in FIG. 5 (17) while continuing to retract the insertion portion 10 slowly.
- the colon model image 40 viewed from the right side of the body in FIG. 5 (18)
- the sigmoid colon of the large intestine is attracted and the lumen of the downstream portion of the sigmoid colon is opened.
- the above steps show an example of the navigation of the present invention in the case of the insertion of the sigmoid colon, which is considered to be the most difficult in the insertion of the colonoscope.
- the insertion is further advanced, and the appropriate navigation of the operation is performed in the same manner as described above until the cecal is finally reached.
- the operator judges the bending operation and the rotation and advancing / retracting operation of the insertion unit 10 in light of experience with the information on the position of the dark portion 53 and the position of the air bubble 54 and the rotation and length of the insertion unit 10.
- the insertion operation of the endoscope can be supported.
- the lesion Since the insertion length 50 and the rotational position 44 displayed on the screen can be recorded simultaneously with the endoscopic image 6 of the lesion, for example, when the colonoscopy is performed again for follow-up observation at a later date, the lesion It is useful because the location of can be confirmed accurately and efficiently.
- the large intestine model image 40 viewed from the right side of the body displayed in FIG. 4, the large intestine model image 41 viewed from the front of the body, and the insertion model image 42 of the endoscope superimposed on the large intestine image are the large intestine.
- the present embodiment shows an example in which the bending operation is performed by electric drive by the motor 15. However, the bending operation may be performed manually. Further, as a means for detecting the bending state, a sensor may be provided directly on the bending portion. (Example 2)
- the present embodiment relates to machine learning of navigation in the insertion operation of the large intestine endoscope in the first embodiment.
- the navigation program 60 is a program in which an experienced rule accumulated by a doctor skilled in colonoscope insertion is dropped into the program, and specifically, image information of dark parts, air bubbles, and luminal features appearing in an image.
- Endoscope using predetermined parameters 66 from state data 61 such as the insertion portion and bending shape of the endoscope, patient information, insertion method, body position, operator information, pre-treatment state, etc.
- state data 61 such as the insertion portion and bending shape of the endoscope, patient information, insertion method, body position, operator information, pre-treatment state, etc.
- navigation data 62 which is operation output information such as advancing / retracting / rotation of the insertion portion, bending operation, air supply / water supply / suction operation, abdominal pressure, body position conversion etc.
- the navigation program 60 records, as the operation data 67, the contents actually subjected to the endoscope operation according to the navigation data 62, and measures patient pain, insertion time, patient monitor and the like in the process of insertion as a result of the operation These functions are analyzed to calculate effect determination result data 63 for evaluating the performance of the insertion method. Further, the state data 61, the navigation data 62, the operation data 67, and the effect determination result data 63 described above can be accumulated in the database 64 as needed while being associated with each other.
- the database 64 is installed on the cloud, is connected by a network, and shares the database 64 with a plurality of endoscope apparatuses.
- machine learning 65 using an AI algorithm 68 such as Convolutional Neural Network (CNN) 69 is performed on this database, and the relationship between effect determination result data 63, predetermined parameters 66, navigation data 62, and operation data 67. Derive The performance of the navigation program 60 is improved by changing the predetermined parameter 66 so that the effect determination result data 63 becomes high.
- the means of machine learning 65 is not limited to the above-mentioned CNN. (Example 3) The steps for the operator to automatically adjust the operation amount of the bending operation while watching the change in the field of view of the endoscopic image are shown in FIG. The operator first recognizes a target that serves as a guideline for the operation of a tissue, a lumen, etc. appearing on an endoscopic image.
- an operation for advancing / retracting or rotating the insertion portion, or performing a bending operation is performed.
- the field of view moves, but at this time, if the movement of the target, that is, the position or movement vector, is different from that intended by the operator, the image processing is applied to the difference between the intended one and the actual one. Automatically recognize. If the difference is small enough and the adjustment is not necessary, the operation proceeds to the next operation, but if the difference is large and the adjustment is necessary, the adjustment amount by the bending operation is automatically estimated. Subsequently, using this adjustment amount, the bending operation is controlled so that the difference approaches zero.
- FIG. 7 The configuration of the system of the endoscope apparatus 1 for realizing the steps shown in FIG. 7 is shown in FIG.
- the endoscope apparatus 1 includes an insertion portion 10, an imaging device 2 provided at the tip of the insertion portion 10, an illumination device 3, and an illumination fiber 4 for guiding illumination light at the tip of the insertion portion 10.
- An image signal of an object ahead of the unit 10 is acquired, an image is constructed by the imaging device 5, and the image is displayed by the display monitor 17.
- a bending mechanism 7 is provided at the tip of the endoscope, and, for example, it is possible to perform bending operation with two degrees of freedom, vertically and horizontally. By this bending operation, for example, in the medical field, steering when inserting an endoscope into the digestive tract, control of the visual field when observing or diagnosing a tissue, or when excising a tumor etc. You can control the position and direction of the treatment tool.
- a bending mechanism 7 consisting of a connected bending tube 8 provided at the tip of the endoscope, a pulley 12 provided at the operation unit 11 at hand, and both along the insertion unit 10 It is coupled by the deployed wire 9 and is transmitted by driving.
- the pulley 12 is connected to the gear 13, the gear 13 is engaged with the gear 14, and the gear 14 is connected to the motor 15. Further, the motor 15 is provided with an encoder 16 for detecting a rotational position.
- An endoscope image display monitor 17 is provided near the operation unit 11, and a touch panel 18 is integrated with the display monitor 17.
- a monitor for displaying an endoscope image may be provided.
- the touch panel 18 may use a projection capacitance method, an ultrasonic surface acoustic wave method, an analog resistive film method or the like, but in the case of using a latex rubber glove for the operation of the endoscope It is preferable to use an ultrasonic surface acoustic wave system or an analog resistive film system which can be operated even when using a glove. In addition, in the case of using a conductive glove, a projected capacitive type may be used.
- the encoder 16 and the motor 15 are electrically connected to the motor control circuit 19.
- the motor control circuit 19 is connected to the CPU 20.
- the display monitor 17 is connected to the image processing apparatus 21, and the touch panel 18 is connected to the CPU 20.
- the signal of the imaging device is connected to the image processing device 21.
- the image processing device 21 is connected to the CPU 20.
- the advancing / retreating position and the rotational position of the insertion portion 10 can be detected by the insertion portion position sensor 30.
- the insertion portion position sensor 30 is connected to the CPU 20.
- the illumination and the image sensor are provided on the inner surface of the cylindrical portion into which the insertion portion 10 of the endoscope can be loosely inserted, and the scale written on the outer periphery of the insertion portion 10 of the endoscope
- the image sensor reads the line 33 and the numeral 34 representing the insertion length, and the insertion position of the insertion portion 10 from the longitudinal position of the scale line 33 and the numeral 34 and the rotational position of the insertion portion 10 from the circumferential position of the numeral 34 Can be detected.
- a movement vector (referred to as an input movement vector) when the touch panel 18 is touched and dragged with a finger is calculated by the CPU 20.
- a table of the correspondence between this input movement vector and the movement vectors of the upper and lower and left and right motors 15 is stored in the internal memory of the CPU 20. Referring to this table, the position and / or speed of the motor control circuit 19 from the CPU 20 Send a command. As a result, the motor 15 is rotated, and the bending mechanism 7 operates via the drive transmission mechanism to move the endoscopic image.
- the image processing device 21 and the CPU 20 extract feature amounts of an endoscopic image including the portion touched by the touch panel 18 and the periphery thereof, and obtain movement vectors (referred to as output movement vectors) on the image from the feature amounts. . Furthermore, the CPU 20 calculates a difference between the input movement vector and the output movement vector, and performs feedback control to send a command of position and / or speed to the motor control circuit 19 so that the difference approaches zero.
- the image processing apparatus 21 and the CPU 20 extract the feature amount of the endoscope image including the portion touched by the touch panel 18 and the periphery thereof and move the object having the feature amount on the image”
- An example of “determining a vector (output movement vector)” is shown.
- the CPU 20 stores an image of a portion including the touch panel 18 touched by the finger and the periphery thereof in the CPU 20, and shifts the superposition position with respect to the image having a change including movement, rotation, and enlargement / reduction by bending operation.
- the sum of absolute differences of pixels (SAD: Sum of Absolute Difference) is calculated, and the position where the SAD is minimum is detected as the matching position.
- the movement vector to this matching position is determined as the aforementioned output movement vector.
- pixels having the feature quantities extracted in the endoscopic image are sampled as representative points, and matching is performed by shifting the overlapping positions of the images of the representative points. Can be reduced.
- an optical flow mainly used for detection of a moving object, analysis of its operation, and the like This represents the distribution of movement vectors between frames of representative points on the image, and is used to relate the movement direction and speed of the part including the touch panel 18 touched by the finger and the surrounding area, and the depth. You can get information. That is, the information about the depth of the object can be used as the bending operation of the endoscope by the optical flow.
- an object consisting of non-moving pixels is recognized as being stationary.
- the pixel corresponding to this stationary one is not used as a target for obtaining the above-mentioned movement vector.
- the tracking accuracy can be improved by updating the feature quantity extracted by the image processing for matching at a constant cycle.
- the feature amount of the object may be poor.
- the image has the front face, mucous membrane color, and one color, so the feature amount of the object is scarce and the above-mentioned output movement vector can not be determined.
- an image processing error is displayed.
- the speed of the bending operation at this time is set to be slow in consideration of safety. As described above, the closer the object is from the tip of the endoscope, the larger the position on the endoscopic image is moved when the bending operation is performed.
- the sensitivity of the bending operation to the movement of the finger dragged by the touch panel 18 should be the smallest, so the speed (sensitivity) of the bending operation at that time is It is reasonable to use in case of errors.
- the portion touched by the touch panel 18 with the finger and the range around it can be changed.
- a feature amount to be matched is extracted from a portion including the area between the two fingers and the periphery thereof.
- ESD endoscopic submucosal dissection
- the disadvantage is that the bleeding is a lot or it takes time to exfoliate a wide area.
- the operation of the knife in the ESD is a combination of the advancing and retracting operation of the insertion portion 10 of the endoscope, and the rotation and bending operations, and in order to precisely exfoliate a wide range accurately, the operator can It is necessary to instantaneously repeatedly adjust the operation amount of the bending operation while observing the change of the visual field.
- the main steps of the ESD are as follows. a) Infusion: Infusion of a local injection solution such as hyaluronic acid into the submucosa layer around the lesion using the endoscope injection needle through the channel for the endoscope treatment tool to float the mucosa together with the lesion Do.
- a local injection solution such as hyaluronic acid
- this transparent hood Since this transparent hood is connected to the endoscope, it does not move on the image even if the bending operation of the distal end portion of the endoscope or the advancing / retracting / rotation of the insertion portion is performed. Also, the knife 23 does not move on the image like the transparent hood 22 unless the length of the portion protruding from the tip of the endoscope is changed or the direction is not rotated.
- FIG. 8A the vicinity of the lesion of the endoscopic image 6 displayed on the display monitor 17 is touched with a touch panel, and the position where the knife 23 is inserted approaches the position of the tip of the knife 23 Make your finger drag slowly. Accordingly, the target portion approaches the position of the tip of the knife 23 so as to follow the movement of the finger by the above-described feedback control.
- the operator advances the knife 23 to bring it into contact with the mucosal surface, and at the same time, operates the high frequency power supply device to make an incision in the mucous membrane.
- the finger is released from the touch panel 18, and the part in the direction in which the incision should be made is touched again with a finger, and the finger is slowly dragged so as to be pulled toward the tip of the knife 23 as it is (FIG. 8 (2)).
- the tip of the knife 23 moves so that the movement of the image at the position of the finger on the touch panel does not occur, and an incision is made.
- the touch panel 18 is touched on the image of the incision displayed on the display monitor 17 to cut the site where the incision was made. Drag it to the position of the tip of.
- the high frequency power supply device is operated, the knife 23 is advanced, and exfoliation is advanced while dragging the incised site to the left and right.
- the insertion portion 10 is pushed to advance the tip of the endoscope or the insertion portion 10 is rotated so that the tip of the endoscope is under the mucous membrane from the site where the incision was made. Embark on.
- the finger is moved slowly and repeatedly so as to follow the line of peeling the finger on the touch panel 18, and the peeling is continued until the mucous membrane is separated from the submucosal tissue.
- the present invention According to the above, it is not necessary for the operator to adjust for complex movement in order to feedback control the bending operation so as to follow the movement vector of the target pointed by the touch panel. In addition, it is possible to intuitively instruct the movement of the action point of the therapeutic device such as a knife on the endoscopic image with the touch panel.
- the movement vector of the target point on the endoscopic image is indicated using the touch panel 18 mounted on the display monitor 17.
- a joystick may be used. In the case of the joystick, the cursor displayed on the display monitor 17 is moved, and the portion pointed by this cursor corresponds to the portion touched by the touch panel 18.
- the fourth embodiment shows an embodiment in which the endoscope apparatus 1 shown in the third embodiment is a 3D endoscope.
- the endoscope includes an optical system having parallax, a means for detecting two images by an imaging device, an image processor for constructing a 3D image from two images, and a 3D monitor for displaying a 3D image. Install this 3D monitor near the operation unit.
- the 3D monitor plays back right-eye and left-eye video images at a high speed, and alternately opens and closes the glasses alternately at the timing synchronized with that, displaying a 3D video frame sequential method, right-eye and left-eye video
- a polarization method in which images are alternately displayed and the image is viewed stereoscopically with polarizing plate glasses, a naked eye parallax barrier method in which images arranged in a stripe shape are viewed through continuous vertical slits, and the like are used.
- the touch panel is mounted on the 3D monitor.
- the touch panel uses the touch panel described in the third embodiment.
- a 3D touch panel may be used instead.
- the portion pointed by the 3D touch panel is the surface of an object in the 3D space on the extension of the fingertip (the surface of a tissue such as a mucous membrane or a tumor in the case of a digestive tract).
- a switch serving as a trigger is prepared in order to capture the position indicated by the fingertip as data without touching an actual finger in the air and touching the surface of the panel. When this switch is turned on, the position of the fingertip is recognized and taken as an input of the bending operation.
- three-dimensional position information can be handled by measuring the distance in the depth direction from two images having parallax by triangulation.
- Example 5 The present embodiment is the same in configuration and operation as the third embodiment, but the application in which the present invention is used relates to the detection of a dark part distant from a lumen in the body in the medical field.
- the endoscope In order to insert the colonoscope through the anus and travel through the rectum, the sigmoid colon, the descending colon, the transverse colon, and the ascending colon so as to reverse the movement of the stool, to allow the tip to reach the colon cecum,
- One indication in the operation of the endoscope is the position of the dark section 53 at a distance from the lumen.
- the present embodiment relates to a method of coupling a transmission system between the motor 15 and the pulley 12 in the third embodiment.
- the gear size 13 connected to the pulley 12 and the small gear 14 meshing with the gear size 13 are used in the drive transmission mechanism.
- the gear size 13 is used as the operation knob 24 of the endoscope.
- the configuration of the sixth embodiment is the configuration of the sixth embodiment.
- the operator performs the bending operation by rotating the two upper and lower and left and right operation knobs 24 with the finger.
- the large gear 13 is fixed to each of the two upper and lower and left and right operation knobs 24 so that the small gear meshes with this.
- the touch panel 18, the display monitor 17, the motor 15, the encoder 16, the large gear 13, and the small gear 14 are entirely covered with a cover 25 and configured as a single operation unit 26.
- the operation unit 26 and the operation unit 11 are detachably connected, and the drive transmission system is configured to be detachable between the large gear 13 and the small gear 14. There is. This has the following merits.
- the endoscope is cleaned and / or disinfected / sterilized using a dedicated endoscope cleaner.
- the endoscope can be a conventional dedicated endoscope cleaner.
- the operation unit 26 is covered with the sterile drape 27 when using the endoscope, so that there is no need to perform cleaning and / or sterilization / sterilization.
- the operation unit 26 is By separating and directly operating the operation knob 24, emergency response can be made.
- the operation unit 26 can be rotatably fixed to a gripping arm 28 fixed to a floor or a bed or the like. As a result, when the operator performs an operation, it is not necessary to keep holding the operation unit 11, so fatigue can be reduced.
- An endoscope navigation apparatus according to a third invention, wherein the endoscope image data is a bubble and / or a dark part.
- An endoscope navigation device according to a second invention and a third invention characterized in that the insertion portion position sensor is provided with a sterilization sleeve for preventing contamination of the endoscope insertion portion.
- An endoscope navigation apparatus according to a second invention and a third invention characterized in that a position of a lesion can be recorded by displaying and recording an insertion length and a rotational position together with an endoscopic image. 4.
- the endoscope navigation apparatus is characterized by comprising a colonoscopy model image created by computer graphic using the insertion state data and operation procedure data from the start of insertion to the present, and an insertion part model image of an endoscope superimposed thereon.
- An endoscope navigation apparatus according to the second invention and the third invention. 5.
- the endoscope navigation apparatus according to the third invention, wherein the effect determination result data comprises patient pain, partial and entire insertion time, and patient monitor.
- the third embodiment may be configured as follows. 7.
- the means for inputting a target movement vector according to the sixth aspect of the invention is performed by touching and dragging a finger on the touch panel.
- the touch panel uses an ultrasonic surface acoustic wave method or an analog resistive film method that can be operated even when using a glove.
- a stationary area is detected by matching of a plurality of consecutive endoscopic images, and a pixel corresponding to the stationary area is not used for the bending operation of the endoscope.
- an optical flow is used as arithmetic processing means for calculating a movement vector of a target between a plurality of endoscopic images, and information on the depth of the object is used as the bending operation amount of the endoscope.
- Motorized control is performed to move the insertion part back and forth and / or rotate it. 12. In the case where the feature amount of the object is scarce and the movement of the image can not be adjusted, the speed of the bending operation is switched to the safe speed.
- the fourth embodiment may be configured as follows. 13.
- the touch panel uses a 3D touch panel. 15. Measure the distance in the depth direction by triangulation from the two images with parallax constituting the 3D image.
- the fifth embodiment may be configured as follows. 16.
- the sixth embodiment may be configured as follows. 17.
- the bending portion and the control motor are mechanically coupled via the drive transmission mechanism of the endoscope, and can be separated along the drive transmission mechanism.
- the gear size is fixed to each of the two upper and lower and left and right operation knobs, and the gear small is engaged with it.
- the controller from the gear large to the gear small and to that at the time of endoscope cleaning or motor control failure occurs.
- the endoscope apparatus according to the sixth invention which is configured to be able to be separated.
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Surgery (AREA)
- Optics & Photonics (AREA)
- Biomedical Technology (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Engineering & Computer Science (AREA)
- Heart & Thoracic Surgery (AREA)
- Public Health (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Astronomy & Astrophysics (AREA)
- Endoscopes (AREA)
Abstract
Description
本発明は、医療分野においては診断および治療を行う内視鏡装置に関するものである。また、工業用分野においては、閉所にある対象物の欠陥の検査や修理を行う内視鏡装置に関するものである。 The present invention relates to an endoscope apparatus for performing diagnosis and treatment in the medical field. Further, in the industrial field, the present invention relates to an endoscope apparatus which inspects and repairs a defect of an object in a closed place.
内視鏡装置は、従来から医療分野および工業用分野で広く用いられている。内視鏡装置は、挿入部と、挿入部の先端に設けられた撮像素子と照明装置により、挿入部の先にある対象物の画像を取得し、画像化装置および画像表示装置により画像を表示し、操作者は検査を行うことができる。また、内視鏡の先端に湾曲機構を有し、例えば、上下、左右の2自由度の湾曲動作を行うことができる。この湾曲動作により、例えば医療分野において、内視鏡を消化管に挿入する際のステアリングを行ったり、組織を観察あるいは診断をする際の視野をコントロールしたり、さらには、腫瘍などを切除する際の処置具の位置や方向をコントロールすることができる。 Endoscope devices are conventionally and widely used in the medical and industrial fields. The endoscope apparatus acquires an image of an object at the tip of the insertion unit by the insertion unit, an imaging device provided at the tip of the insertion unit, and the illumination device, and displays the image by the imaging device and the image display device And the operator can perform the inspection. In addition, a bending mechanism is provided at the distal end of the endoscope, and for example, bending operation with two degrees of freedom in the vertical and horizontal directions can be performed. By this bending operation, for example, in the medical field, steering when inserting an endoscope into the digestive tract, control of the visual field when observing or diagnosing a tissue, or when excising a tumor etc. You can control the position and direction of the treatment tool.
従来、内視鏡を消化管に挿入する際に、操作者は内視鏡の湾曲状態や挿入部の状態を把握しながら、内視鏡が通過する管腔の部位毎に応じた、湾曲操作や挿入部の進退・回転の操作の手順を踏んでいく必要がある。こうした手順を身に付けるためには、非常に多くの経験が必要であった。 Conventionally, when inserting an endoscope into the digestive tract, the operator performs bending operation according to each part of the lumen through which the endoscope passes while grasping the bending state of the endoscope and the state of the insertion portion It is necessary to follow the procedure of the operation of the insertion and withdrawal of the insertion and withdrawal. A great deal of experience was needed to develop these procedures.
例えば、特許第2710384は、内視鏡像の暗い領域を抽出することによって内視鏡の挿入方向を検出し、内視鏡操作者が検出された内視鏡の挿入方向を見て湾曲操作及び挿入操作を行い内視鏡を挿入する、あるいは、検出された挿入方向に対し自動的に先端部を向け内視鏡を挿入することが考案されている。
さらに湾曲操作のために、先端に連結された湾曲管からなる湾曲構造と、手元にある操作部に設けられたプーリーと、湾曲構造とプーリーに接続され挿入部に沿わせて配備したワイヤーと、プーリーに固定された操作ノブとからなる駆動伝達機構を有する。この操作ノブを回転させることによって湾曲動作を行う。従来の内視鏡では、操作者は、内視鏡の挿入部を右手で把持し挿入部を進退あるいは回転させながら、上下および左右の2つの操作ノブを左手の指で同時に回転させて湾曲動作を行っているために、所望の方向に湾曲動作をさせるためには熟練を要する。
For example, Japanese Patent No. 2710384 detects the insertion direction of an endoscope by extracting a dark region of an endoscopic image, and the endoscope operator looks at the detected insertion direction of the endoscope and performs bending operation and insertion. It has been devised to insert an endoscope by automatically performing an operation and inserting an endoscope, or automatically with respect to a detected insertion direction.
Furthermore, for the bending operation, a bending structure consisting of a bending tube connected to the tip, a pulley provided in the operation part at hand, a wire connected to the bending structure and the pulley and disposed along the insertion part It has a drive transmission mechanism which consists of an operation knob fixed to a pulley. The bending operation is performed by rotating the operation knob. In the conventional endoscope, the operator holds the insertion portion of the endoscope with the right hand and advances or retracts the insertion portion while rotating the two operation knobs of the upper and lower and left and right simultaneously with the finger of the left hand to perform bending operation In order to perform the bending operation in the desired direction, it is necessary to be skilled.
例えば、特許第3353938では、この熟練を要する上下および左右の2つの操作ノブの操作性を改善させる目的で、2つの操作ノブによる手動操作に代わって、2つのモーターにより駆動させ、両モーターの回転を、ジョイスティックなどの操作手段を用いて、一つの指で上下、左右を動作させることが考案されている。 For example, in Japanese Patent No. 3353938, in order to improve the operability of the two operation knobs of the upper and lower and left and right sides which require this skill, instead of manual operation by two operation knobs, they are driven by two motors and rotate both motors. It has been devised to move up and down, left and right with one finger using operation means such as a joystick.
例えば、特開2014-109630では、内視鏡画像中の任意の位置を画面の中央部に速やかにかつ容易に移動させる目的で、内視鏡画像を表示する表示部にタッチパネルを設けて、タッチパネルで検出された画面上のタッチ位置情報から湾曲部の角度を計算し、これに基づき湾曲部を動作させることが考案されている。 For example, in JP-A-2014-109630, a touch panel is provided on a display unit for displaying an endoscopic image in order to move an arbitrary position in the endoscopic image to the central part of the screen quickly and easily. It has been devised to calculate the angle of the bending portion from the touch position information on the screen detected in the above, and operate the bending portion based on this.
特許第2710384による内視鏡像の暗い領域を抽出することによって内視鏡の挿入方向を検出し、自動的に先端部を暗い領域に向ける場合についての記載があるが、先端部をどちらの方向にどのような入力操作で向けるかについては、先端部を暗い領域の方向に向ける以外の記載はなかった。実際の内視鏡の挿入においては、暗部を内視鏡画像の中央に持ってくることもあれば、内視鏡画像の下方に持ってくる場合もあり、こうした動作目標の認識は操作者が行い、その認識の元で簡便に操作する手段が必要であった。 Patent 2710384 describes the case where the insertion direction of the endoscope is detected by extracting the dark area of the endoscopic image and the tip is automatically directed to the dark area. As to what input operation is to be directed, there is no description other than turning the tip to the direction of the dark area. In the actual insertion of the endoscope, the dark part may be brought to the center of the endoscopic image or may be brought to the lower side of the endoscopic image. It is necessary to have a means to conduct and operate easily under the recognition.
また、暗部は、内視鏡操作における一つの指標でしかなく、その他にも内視鏡画像に現れる気泡の位置や、内視鏡の湾曲状態や挿入部の状態も指標としながら、内視鏡が通過する管腔の部位毎に、湾曲操作や挿入部の進退・回転の操作の手順を踏んでいく必要がある。こうした手順を身に付けるためには、非常に多くの経験が必要であった。 In addition, the dark part is only one index in endoscope operation, and in addition, the position of air bubbles appearing in the endoscope image, the bending state of the endoscope and the state of the insertion portion are also indexes. It is necessary to follow the procedure of the bending operation and the operation of advancing / retracting / rotation of the insertion part for each part of the lumen through which the lens passes. A great deal of experience was needed to develop these procedures.
操作者は、湾曲動作をさせるために、操作手段として特許第3353938のジョイスティックあるいは特開2014-109630のタッチパネルを用いたとしても、以下の理由により依然として操作者が内視鏡画像の視野の変化を見ながら湾曲動作の操作量を調整する必要があり、このためには熟練を要する。 Even if the operator uses the joystick disclosed in Japanese Patent No. 3353938 or the touch panel disclosed in JP-A-2014-109630 as the operation means for causing the bending operation, the operator still changes the field of view of the endoscopic image for the following reasons. It is necessary to adjust the amount of operation of the bending operation while watching, which requires skill.
第1に、内視鏡による観察や処置において操作者は挿入部の進退や回転をおこなうと、内視鏡画像が移動、回転、画像の拡大・縮小など変化するため、操作者は内視鏡画像の変化を見ながら、湾曲動作の操作量を調整する必要がある。挿入部の進退により対象物と内視鏡先端との距離が変われば、内視鏡画像上の大きさが変化するだけでなく画像上の位置が動く。挿入部を回転させれば、回転方向と反対側に内視鏡画像は回転し、対象物の画像上の位置が動くため、これらの動きを見ながら湾曲動作の操作量を調節する必要がある。 First, when the operator moves the insertion unit back and forth or rotates in observation or treatment with an endoscope, the endoscope image moves, rotates, or changes in size, such as enlargement or reduction of the image. It is necessary to adjust the operation amount of the bending operation while observing the change of the image. If the distance between the object and the tip of the endoscope is changed by advancing and retracting the insertion portion, not only the size on the endoscopic image changes but also the position on the image moves. If the insertion portion is rotated, the endoscopic image rotates in the opposite direction to the rotation direction, and the position on the image of the object moves, so it is necessary to adjust the operation amount of the bending operation while watching these movements .
第2に、特開2014-109630に示すようにタッチパネルを用いて湾曲操作を行う場合に、観察対象と内視鏡先端の距離によって、タッチパネルで検出された画面上のタッチ位置情報と湾曲角度の関係は大きく変わってくる。つまり、観察対象が内視鏡先端から近いほど、内視鏡画像上の位置が湾曲動作により大きく移動し、観察対象が内視鏡先端から遠いほど、内視鏡画像上の位置が湾曲動作により小さく移動する。したがって内視鏡画像上の観察対象をタッチパネルで指し示しても、観察対象と内視鏡先端の距離が分からないため、画像上の観察対象を移動させるための湾曲操作の操作量を計算することはできない。 Second, when performing a bending operation using a touch panel as disclosed in JP-A-2014-109630, the touch position information on the screen detected by the touch panel and the bending angle are determined by the distance between the observation target and the tip of the endoscope. The relationship changes a lot. That is, as the observation target is closer to the distal end of the endoscope, the position on the endoscopic image moves largely due to the bending operation, and as the observation target is farther from the distal end of the endoscope, the position on the endoscopic image is curved due to the bending operation. Move small. Therefore, even if the observation object on the endoscopic image is pointed with the touch panel, the distance between the observation object and the tip of the endoscope can not be known, so it is necessary to calculate the operation amount of the bending operation for moving the observation object on the image Can not.
第3に、内視鏡の湾曲機構の湾曲部やワイヤーの摩擦により、湾曲操作の操作量と内視鏡画像の視野の変化は線形関係でないため、内視鏡画像の観察部位に対応する湾曲操作量を正確に計算することはできない。したがって内視鏡画像の視野の変化を見ながら、湾曲動作の操作量を調整する必要がある。例えば、湾曲部が真っ直ぐな状態から、同時に下方向に90度、右に90度、湾曲操作をさせると、正面からみて4時と5時の中間に移動する。しかし、湾曲部が下方向に90度湾曲しているときに、右に90度、湾曲操作をさせると、湾曲部が捩れたような方向に移動する。同じ角度に湾曲を操作しようとしても、経路が変わると湾曲角が異なる結果となってしまう。この違いは湾曲操作の操作量と内視鏡画像の視野の変化の線形でない関係を示す例である。以上の引例においても、操作者が内視鏡画像の視野の変化を見ながら湾曲動作の操作量を調整する必要があった。 Thirdly, due to the friction of the bending portion of the bending mechanism of the endoscope and the wire, the amount of bending operation and the change in the field of view of the endoscopic image do not have a linear relationship, so the bending corresponding to the observation site of the endoscopic image The amount of operation can not be calculated accurately. Therefore, it is necessary to adjust the operation amount of the bending operation while observing the change in the field of view of the endoscopic image. For example, when the bending portion is bent 90 ° and 90 ° right at the same time from the straight state, it moves to the middle between 4 o'clock and 5 o'clock as viewed from the front. However, if the bending operation is performed 90 degrees to the right while the bending portion is bending downward by 90 degrees, the bending portion moves in a twisting direction. Even if the curve is manipulated at the same angle, changing the path results in different bending angles. This difference is an example showing a non-linear relationship between the operation amount of the bending operation and the change of the visual field of the endoscopic image. Also in the above reference, it has been necessary for the operator to adjust the operation amount of the bending operation while observing the change in the field of view of the endoscope image.
内視鏡が通過する管腔の部位毎に応じた、湾曲操作や挿入部の進退・回転の操作の手順をコンピュータによりナビゲーションする。また、ナビゲーションによる内視鏡挿入にかかる情報をデータベースに蓄積し、データベースをもとに機械学習することによりナビゲーションのプログラムを更新させ、精度を高める。さらに、操作者が内視鏡画像の視野の変化を見ながら湾曲動作の操作量を調整することを、画像処理装置およびCPUにより自動的に行うものであり、具体的には、以下の構成を特徴とする。 The computer navigates the procedure of the bending operation and the operation of advancing / retracting / rotation of the insertion part according to each part of the lumen through which the endoscope passes. In addition, information concerning endoscope insertion by navigation is accumulated in a database, machine learning is performed based on the database, and the navigation program is updated to improve accuracy. Furthermore, the image processing apparatus and the CPU automatically adjust the operation amount of the bending operation while the operator looks at the change of the visual field of the endoscopic image, and specifically, the following configuration is It features.
第1発明の内視鏡装置は、
内視鏡装置において、
内視鏡画像の画像化装置と、
身体の管腔への内視鏡の挿入手順を少なくとも2つ以上を、同時または連続して、指示する機能と
を具備することを特徴とする。
The endoscope apparatus of the first invention is
In the endoscope apparatus,
An imaging device for endoscopic images,
It is characterized by having a function of instructing at least two or more of the procedures for inserting the endoscope into the lumen of the body simultaneously or sequentially.
第2発明の内視鏡ナビゲーション装置は、
内視鏡画像の画像化装置と、
身体の管腔への内視鏡の挿入手順を少なくとも2つ以上を、同時または連続して、画像または音声で提示するナビゲーション機能と
を具備することを特徴とする。
An endoscope navigation device according to a second aspect of the invention is
An imaging device for endoscopic images,
It is characterized by including a navigation function for presenting at least two or more of the procedures for inserting the endoscope into the lumen of the body simultaneously or sequentially with images or sounds.
第3発明の内視鏡ナビゲーション装置は、第2発明において、
内視鏡画像の画像情報データを検出する画像処理装置と、
内視鏡の湾曲状態、挿入部の回転、挿入長のいずれか一つ以上からなる挿入状態データを検出する機能と、
前記画像情報データおよびまたは前記挿入状態データに応じて、所定のパラメータを元に予め定めた内視鏡の挿入手順データを参照し、少なくとも2つ以上を同時または連続して画像または音声で挿入手順を伝えるナビゲーション機能と
を具備したことを特徴とする。
An endoscope navigation device according to a third aspect of the present invention is the second aspect according to the present invention,
An image processing apparatus for detecting image information data of an endoscope image;
A function of detecting insertion state data consisting of at least one of a bending state of an endoscope, rotation of an insertion portion, and an insertion length;
According to the image information data and / or the insertion state data, referring to the endoscope insertion procedure data predetermined based on predetermined parameters, at least two or more simultaneously or sequentially with the image or voice insertion procedure And a navigation function to convey information.
第4発明の内視鏡ナビゲーション装置のナビゲーション方法は、
内視鏡装置において、
内視鏡の挿入状態を検出するステップと、
内視鏡の挿入状態を元に予め定めた挿入操作の挿入手順データを参照するステップと、
内視鏡の挿入手順を少なくとも2つ以上を同時または連続して画像または音声で提示するステップと
を具備したことを特徴とする。
A navigation method of an endoscope navigation device according to a fourth aspect of the invention is:
In the endoscope apparatus,
Detecting the insertion state of the endoscope;
Referencing insertion procedure data of an insertion operation predetermined based on the insertion state of the endoscope;
Presenting at least two or more of the endoscope insertion procedures simultaneously or sequentially with images or sounds.
第5発明の内視鏡ナビゲーション装置は、
内視鏡装置において、
内視鏡画像の画像化装置と、
前記内視鏡画像の画像情報データを検出する画像処理装置と、
内視鏡の湾曲状態、挿入部の回転、挿入長のいずれか一つ以上からなる挿入状態データを検出する機能と、
前記画像情報データおよびまたは前記挿入状態データに応じて、所定のパラメータを元に予め定めた内視鏡の挿入手順データを参照し、画像または音声で挿入手順を伝えるナビゲーション機能と、
前記挿入手順データを元に内視鏡操作を行った内容を操作データとして記録する機能と、
内視鏡操作を行った結果を計測・評価する効果判定結果データを算出する機能と、
前記画像情報データ、前記挿入状態データ、前記所定のパラメータ、前記挿入手順データ、前記操作データおよび前記効果判定結果データを、それぞれ関連付けてデータベースに蓄積する機能と、
前記データベースに蓄積されたデータ間との関係を機械学習する機能と、
前記機械学習による結果を利用して、前記、前記所定のパラメータおよびまたは前記挿入手順データを変更する機能と
を備えたことを特徴とする。
An endoscope navigation device according to a fifth aspect of the invention is
In the endoscope apparatus,
An imaging device for endoscopic images,
An image processing apparatus for detecting image information data of the endoscopic image;
A function of detecting insertion state data consisting of at least one of a bending state of an endoscope, rotation of an insertion portion, and an insertion length;
A navigation function of referring to insertion procedure data of an endoscope determined in advance based on predetermined parameters according to the image information data and / or the insertion state data, and conveying the insertion procedure by image or voice;
A function of recording, as operation data, contents of endoscope operation based on the insertion procedure data;
A function of calculating effect determination result data for measuring / evaluating a result of endoscope operation;
A function of storing the image information data, the insertion state data, the predetermined parameter, the insertion procedure data, the operation data, and the effect determination result data in association with each other in a database;
A function of machine learning the relationship between the data stored in the database;
A function of changing the predetermined parameter and / or the insertion procedure data using the result of the machine learning is characterized.
第6発明の内視鏡装置は、第1発明において、
内視鏡画像上に目標を指定する手段と、
と目標の移動ベクトルを入力する手段と、
前記内視鏡画像上の目標の移動ベクトルの入力に従い内視鏡先端の位置を制御する手段と
を具備したことを特徴とする。
An endoscope apparatus according to a sixth aspect of the present invention is the endoscope apparatus according to the first aspect, wherein
A means for specifying a target on the endoscopic image;
And means for inputting the movement vector of the target and
And means for controlling the position of the distal end of the endoscope according to the input of the movement vector of the target on the endoscopic image.
第7発明の内視鏡装置は、第6発明において、
内視鏡画像上の目標の移動ベクトルを計測する手段を具備し、
入力された移動ベクトルと、前記計測された移動ベクトルとを比較し、両者の差異がゼロに近づくように内視鏡先端の位置をフィードバック制御することを特徴とする。
An endoscope apparatus according to a seventh aspect of the present invention is the endoscope apparatus according to the sixth aspect, wherein
A means for measuring the movement vector of the target on the endoscopic image,
The input movement vector is compared with the measured movement vector, and feedback control of the position of the endoscope tip is performed so that the difference between the two approaches zero.
第8発明の内視鏡装置は、第6から7発明のいずれかにおいて、
内視鏡の先端に治療用デバイスを具備し、その作用点の移動を、内視鏡画像上に指定した被作用点の移動ベクトルの入力により行うことを特徴とする。
An endoscope apparatus according to an eighth invention is any one of the sixth to seventh inventions,
A treatment device is provided at the tip of the endoscope, and movement of the point of action is performed by inputting a movement vector of the point of action designated on the endoscopic image.
第9発明の内視鏡装置は、第6~8発明のいずれかにおいて、
前記内視鏡先端の位置を制御する手段が、内視鏡先端部に設けた湾曲機構、挿入部の回転、挿入部の進退のいずれか一つ以上であることを特徴とする。
An endoscope apparatus according to a ninth invention is any one of the sixth to eighth inventions,
The means for controlling the position of the distal end of the endoscope is any one or more of a bending mechanism provided at the distal end of the endoscope, rotation of the insertion portion, and advancement / retraction of the insertion portion.
第10発明の内視鏡装置は、第6~9発明のいずれかにおいて、
前記内視鏡画像上の目標の指定および移動ベクトルの入力手段が、タッチパネル、およびまたは、ジョイスティック、およびまたは、トラックボールであることを特徴とする。
An endoscope apparatus according to a tenth invention is any one of the sixth to ninth inventions,
It is characterized in that the designation means of the target on the endoscopic image and the input means of the movement vector are a touch panel and / or a joystick and / or a track ball.
第11発明の内視鏡装置は、第7発明において、
前記内視鏡画像上の目標の移動ベクトルを計測する手段が、ブロックマッチング法、または、代表点マッチング法、または、オプティカルフロー法であることを特徴とする。
An endoscope apparatus according to an eleventh invention is the seventh invention,
It is characterized in that the means for measuring the movement vector of the target on the endoscopic image is a block matching method, a representative point matching method, or an optical flow method.
第12発明の内視鏡装置の制御方法は、
内視鏡装置において、
前記内視鏡画像上に目標を指定するステップと、
前記内視鏡画像上に目標の移動ベクトルを入力するステップと、
前記入力した移動ベクトルに従い内視鏡先端の位置を制御するステップと、
前記内視鏡画像上の目標の移動ベクトルを計測するステップと、
前記入力された移動ベクトルと、前記計測された移動ベクトルとを比較するステップと、
両者の差異がゼロに近づくように内視鏡先端の位置をフィードバック制御するステップと
を具備したことを特徴とする。
The control method of the endoscope apparatus of the twelfth invention is
In the endoscope apparatus,
Specifying a target on the endoscopic image;
Inputting a movement vector of a target on the endoscopic image;
Controlling the position of the tip of the endoscope according to the input movement vector;
Measuring a movement vector of the target on the endoscopic image;
Comparing the input movement vector with the measured movement vector;
And feedback controlling the position of the tip of the endoscope such that the difference between the two approaches zero.
内視鏡の操作を容易にし、操作者に高い技能や熟練を求めることなく、内視鏡による診断および治療の正確さを向上させ、時間の短縮を行う。 It facilitates endoscope operation, improves the accuracy of endoscopic diagnosis and treatment, and reduces the time without requiring high skill and skill of the operator.
(実施例1)
本実施例は、内視鏡の挿入におけるナビゲーションに関するものである。本実施例の構成を図1示す。内視鏡装置1は、挿入部10と、挿入部10の先端に設けられた撮像素子2と、照明装置3と、挿入部10の先端に照明光を導光する照明ファイバー4を備え、挿入部10の先にある対象物の画像信号を取得し、画像化装置5により画像を構成し表示モニター17により画像を表示する。これにより操作者は内視鏡画像を見て内視鏡診断・治療を行うことができる。また、内視鏡の先端には湾曲機構7を有し、例えば、上下、左右の2自由度の湾曲動作を行うことができる。この湾曲動作により、例えば医療分野において、内視鏡を消化管に挿入する際のステアリングを行ったり、組織を観察あるいは診断をする際の視野をコントロールしたり、さらには、腫瘍などを切除する際の処置具の位置や方向をコントロールすることができる。
Example 1
The present embodiment relates to navigation in insertion of an endoscope. The configuration of this embodiment is shown in FIG. The
湾曲動作のために、内視鏡の先端に設けられた連結された湾曲管8からなる湾曲機構7と、手元の操作部11に設けられたプーリー12と、両者を挿入部10に沿わせて配備されたワイヤー9によって結合し、駆動伝達されるようになっている。プーリー12は歯車大13に連結され、歯車大13は歯車小14と噛み合い、さらに、歯車小14はモーター15に連結されている。また、モーター15には、回転位置を検出するエンコーダー16が設けられる。
For the bending operation, a
操作部11の近くに内視鏡画像の表示モニター17を設けられており、この表示モニター17には、タッチパネル18が一体化されている。なお、この表示モニター17とは別に、内視鏡画像を表示するモニターを設けても構わない。
An endoscope image display monitor 17 is provided near the
エンコーダー16とモーター15は、モーター制御回路19に電気的に接続されている。モーター制御回路19は、CPU20に接続されている。表示モニター17は、画像処理装置21に接続され、タッチパネル18は、CPU20に接続されている。画像化装置5の信号は画像処理装置21に接続される。画像処理装置21はCPU20に接続されている。
The
また、挿入部位置センサー30により挿入部10の進退位置および回転位置を検出することができる。前記挿入部位置センサー30は、CPU20に接続されている。
In addition, the
図2は、挿入部10の進退位置および回転位置を検出する挿入部位置センサー30の構造を示す。内視鏡の挿入部10が緩く挿入可能な円筒部の内面に、照明31および画像センサー32が設けられており、内視鏡の挿入部10の外周に記された目盛線33および挿入長を表す数字34を画像センサー32で読み取り、目盛線33と数字34の長手方向の位置Xから挿入部10の挿入位置を、数字34の円周方向の位置Yから挿入部10の回転位置を検出することができる。図2には、画像センサー32で数字“30”の中心の回転方向の位置Yと、長手方向の位置Xを求め、図中の式にて挿入長および回転位置を計算することを例示している。
FIG. 2 shows the structure of the insertion
この挿入部位置センサー30は、内視鏡を挿入する管腔の入口との位置関係がずれないように設置される。例えば、上部内視鏡であれば口に加えるマウスピースに内蔵する、もしくは、マウスピースに固定されるようになっており、大腸内視鏡であれば肛門の近くに患者に直接、あるいは、ベッドを介して固定される。挿入部位置センサー30が、口または肛門から離れて設置される場合は、離れた距離をCPU20に入力することで、後述する表示モニター17に表示される挿入長のオフセット分を補正することができる。
The insertion
また、ここでは、従来の内視鏡の挿入部10に印字された目盛線33および挿入長を示す数字34を用いて、挿入部10の進退位置と回転を検出する例を示しているが、内視鏡の挿入部10に記される内容はこの限りではない。挿入部10の進退位置と回転位置44を検出できるようにするために、例えば、数字の変わりに挿入長さを識別できる記号であっても構わないし、回転方向を示す線であっても構わない。さらに、挿入部10の表面の印字の代わりにホール素子を埋め込み、画像センサー32に代わって磁気センサーで挿入部10の進退位置と回転位置を検出しても構わない。実際に、従来からの内視鏡の挿入部10に印字された数字は10cm毎に印字されているため、数字を常に画像として認識するためには、挿入部位置センサー30の長さが少なくとも10cm以上となるため、短いピッチでの数字の印字や、目盛線毎に長さを認識させるための記号を設けることは挿入部位置センサー30の長さを短縮させ、上部内視鏡用のマウスピースの長さを伸ばさない、あるいは、下部内視鏡での肛門の近くでの作業空間を制限しないことに貢献する。
Here, an example is shown in which the advancing / retreating position and the rotation of the
なお、挿入部位置センサー30の内視鏡を挿入する孔には、透明なスリーブ状の滅菌カバー35が着脱可能に設けられ、挿入部位置センサー30から内視鏡の挿入部10に汚染することを防止している。
In the hole for inserting the endoscope of the insertion
タッチパネル18を指でタッチしドラッグさせたときの移動ベクトル(入力移動ベクトルと呼ぶ)をCPU20で演算する。この入力移動ベクトルと、上下および左右のモーター15の移動ベクトルとの対応関係のテーブルがCPU20の内部メモリーに記憶されており、このテーブルを参照してCPU20からモーター制御回路19に位置およびまたは速度の指令を送る。これによりモーター15が回転し、駆動伝達機構を介して、湾曲機構7が動作し、内視鏡画像が移動する。
A movement vector (referred to as an input movement vector) when the
一方、画像処理装置21とCPU20は、タッチパネル18をタッチした部分とその周囲を含む内視鏡画像の特徴量を抽出し、その特徴量から画像上の移動ベクトル(出力移動ベクトルと呼ぶ)を求める。さらに、CPU20が入力移動ベクトルと出力移動ベクトルの差分を求め、その差分がゼロに近づくように、モーター制御回路19に位置およびまたは速度の指令を送る、フィードバック制御を行う。
On the other hand, the
以下には、前述の、「画像処理装置21とCPU20は、タッチパネル18をタッチした部分とその周囲を含む内視鏡画像の特徴量を抽出し、その特徴量を持つ対象物の画像上の移動ベクトル(出力移動ベクトル)を求める」手段の例を示す。
In the following, “The
例えば、ビデオの電子式手振れ補正にも使われるブロックマッチング法を用いる。タッチパネル18を指でタッチした部分とその周囲を含む部分の画像をCPU20に記憶させ、湾曲動作により移動、回転、拡大・縮小を含む変化をした画像に対して、重ね合わせ位置をずらしながら、対応する画素の差分絶対値の総和(SAD: Sum of Absolute Difference)を計算し、SADが最小となる位置をマッチング位置として検出する。このマッチング位置への移動ベクトルを前述の出力移動ベクトルとして求める。
For example, it uses a block matching method that is also used for electronic image stabilization of video. The
この際、内視鏡画像で抽出した特徴量を持つ画素を代表点としてサンプリングし、代表点の画像の重ね合わせ位置ずらしによりマッチングを行う、つまり代表点マッチング法を用いると、スピードを上げ必要メモリーを削減できる。 At this time, pixels having the feature quantities extracted in the endoscopic image are sampled as representative points, and matching is performed by shifting the overlapping positions of the images of the representative points. Can be reduced.
あるいは、主に移動物体の検出や、その動作の解析などに用いられるオプティカルフローを用いることができる。これは、画像上の代表点のフレーム間の移動ベクトルの分布を表すもので、これを用いてタッチパネル18を指でタッチした部分とその周囲を含む部分の移動方向や速度、さらには、奥行きに関する情報を得ることができる。つまり、オプティカルフローにより、対象物の奥行きに関する情報をも内視鏡の湾曲操作として用いることができる。
Alternatively, it is possible to use an optical flow mainly used for detection of a moving object, analysis of its operation, and the like. This represents the distribution of movement vectors between frames of representative points on the image, and is used to relate the movement direction and speed of the part including the
続いて、図3により、内視鏡画像6の暗部53をタッチパネル18でタッチし、タッチパネル18を所望の方向にドラッグさせることによって、湾曲動作を行い、内視鏡の挿入を補助を行う操作インターフェースについて説明する。
Subsequently, referring to FIG. 3, the
例えば、大腸内視鏡を肛門から挿入し、便の移動に逆行するように、直腸、S状結腸、下降結腸、横行結腸、上降結腸を経て、先端部が大腸盲腸に到達させるために、内視鏡の操作における一つの目安になるのが、管腔の遠方にある暗部53の位置である。管腔の遠方には、内視鏡先端からの照明光が届きにくくなるため、その結果、遠方ほど暗い画像となる。このことを利用して、暗部53を目標とした内視鏡挿入が実際の臨床において従来行われている。本実施例では、図3(a)および(b)に示すように、この暗部53の画像をタッチパネル18でタッチし、タッチパネル18を所望の方向にドラッグさせることによって、湾曲動作を行い、内視鏡の挿入を補助する。
For example, in order to insert the colonoscope through the anus and travel through the rectum, the sigmoid colon, the descending colon, the transverse colon, and the ascending colon so as to reverse the movement of the stool, to allow the tip to reach the colon cecum, One indication in the operation of the endoscope is the position of the
図4は、大腸内視鏡の挿入に際して、表示モニター17に表示されるナビゲーションのメニュー56を例示すものである。大腸を体の右側から見た大腸透視モデル像40、および、大腸を体の前から見た大腸透視モデル像41、および、大腸透視画像に重ねた内視鏡の挿入部モデル像42、および、湾曲状態43、および、内視鏡画像の回転位置44および上方向マーカー45、および、湾曲操作を指示する湾曲矢印46、および、挿入部10の進退を示す前進矢印47・後退矢印48、挿入部10の回転の操作を指示する回転矢印49、挿入部10が挿入されている長さを示す挿入長50、挿入方法選択51が、内視鏡画像6とともに表示される。これらは、挿入部位置センター30によって検出された挿入部10の回転位置44・挿入長50と、モーター15と駆動伝達機構を介してエンコーダー16で検出される湾曲部の上下・左右の位置、すなわち湾曲状態43と、内視鏡画像6の目標として指示された暗部53およびまたは気泡54の位置と、からCPU20によって計算され表示される。
FIG. 4 exemplifies a
図5は、大腸内視鏡の挿入のステップにおいて、図4のナビゲーションのメニュー56として表示される内容の一部を示す。最初に大腸内視鏡の挿入方法の選択を行う。大腸内視鏡の挿入方法として、ループ挿入法と軸保持短縮挿入法などがある。これらの挿入方法に応じたナビゲーションプログラムが予め用意されており、最初に大腸内視鏡の挿入方法のいずれかを選択する。以降のステップは、軸保持短縮挿入法を選択した場合のナビゲーションの実施例である。
FIG. 5 shows a part of the contents displayed as the
大腸内視鏡検査では、挿入を開始する際に患者は左側臥位(左側を下にする体位)を取る。内視鏡の先端をまず挿入部位置センサー30の孔を通し、肛門から挿入を開始する。この際に表示モニターには回転位置44が9時の方向を向くように矢印が表示される。例えば、図5(1)に示すように、挿入部位置センサー30によって検出された挿入部10の回転位置44が12時であった場合に9時に向かうように回転矢印49が表示される。操作者は、挿入部10を把持し回転矢印49が示す方向に回転をさせると、回転位置44が9時になった時点で図5(2)に示すとおり「STOP」が表示される。このとき、図5(3)に示すように内視鏡画像6には12時に暗部53が、3時の方向に気泡54が表示されている。
In colonoscopy, the patient takes a left-sided decubitus position (left-side down) at the beginning of insertion. First, the tip of the endoscope is passed through the hole of the insertion
この暗部53と気泡54の位置を画像処理装置21とCPU20によって計測し、それぞれ12時、3時の方向にあることを確認したところで、図5(4)に示すよう挿入部10を進めるように前進矢印47が表示される。これに従い操作者が挿入部10を把持して前進を開始する。気泡54が3時の方向を保ちながら、図5(5)に示すように暗部53が内視鏡画像6の上部から下方に移動していくのを見ながら、前進を進めていき挿入長50が13cmになったところで図5(6)に示すように前進矢印47の先に「STOP」が表示される。このとき、内視鏡画像6は、図5(7)に示すように7時の方向に強い管腔の屈曲と暗部53が現れる。
When the positions of the
ここで暗部53が下方、気泡54が3時方向にあることを画像処理装置21の画像処理により確認がなされ、さらに内視鏡の挿入部10の肛門から挿入されている長さ、つまり挿入長50が13cmであることを確認したところで、表示モニターに図5(8)に示すように回転位置44が左周りに3時の方向を向くように矢印が表示される。操作者は、挿入部10を把持し矢印が示す方向に回転をさせると、回転位置44が3時になった時点で図5(9)に示すとおり「STOP」が表示される。そのときの内視鏡画像6は、図5(10)に示すように暗部53が12時、気泡54が9時の方向に表示される。
Here, it is confirmed by the image processing of the
この暗部53と気泡54の位置を画像処理装置21とCPU20によって計測し、それぞれ12時、9時の方向にあることを確認したところで、図5(11)に示すように湾曲操作の湾曲矢印46が上方向が提示される。これを見て操作者はタッチパネル18の内視鏡画像6の上方にある暗部53をタッチして下方向にドラッグさせる。タッチしては下方向にドラッグする操作を繰り返し、上方の湾曲が120°になると上方向の湾曲矢印46が消え、図5(12)に示すように「STOP」が表示される。これにより図5(13)の体の右側から見た大腸透視モデル像40に示すように湾曲部55がS状結腸のスタート部位にある屈曲にひっかかった状態となる。
The positions of the
続いて、図5(14)に示すよう挿入部10を後退させるよう指示する後退矢印48が表示される。これに従い操作者が挿入部10を把持してゆっくりと後退させていくと、図5(15)の体の右側から見た大腸透視モデル像40に示すように大腸S状結腸が肛門側に徐々に引き付けられるため、内視鏡画像6の上方の右側または左側に暗部53が現れる。
Subsequently, as shown in FIG. 5 (14), a retreating
この暗部53の位置を画像処理装置21とCPU20で計測し、暗部53の位置が上方の左側の場合には左の回転矢印49が表示され、暗部53の位置が上方の右側の場合は右の回転矢印49が表示される。図5(16)には暗部53が上方の右側に現れた場合の右の回転矢印49が表示された例を示す。操作者は挿入部10をゆっくりと後退を続けながら、図5(17)に示すように挿入部10の回転矢印49の方向にしたがって右ひねりを加える。この結果、図5(18)の体の右側から見た大腸透視モデル像40に示すように大腸のS状結腸が引き付けられS状結腸の下りの部分の管腔が開いてくる。
The position of the
最終的、図5(19)のように内視鏡画像6では暗部53が大きく開いて中央に移動してくるように映る。この状態、すなわち暗部53が約中央にあること、気泡54が9時の方向にあることを、画像処理装置21とCPU20が計測すると、図5(20)に示すように挿入部10の回転矢印49および後退矢印48が消え、「STOP」が表示される。
Finally, as shown in FIG. 5 (19), in the
以上のステップは、大腸内視鏡の挿入で最も難易度の高いとされるS状結腸の挿入の場合の本発明のナビゲーションの例を示すものである。さらに挿入を進めていき、最終的に盲腸に到達するまで、前述と同様に操作の的確なナビゲーションを行う。従来、操作者が、暗部53の位置や気泡54の位置、挿入部10の回転や長さの情報を経験に照らして、湾曲動作や、挿入部10の回転や進退の操作の判断を行っていたが、図5に示すとおり判断や操作の手順をナビゲーションすることで、内視鏡の挿入操作をサポートすることができる。
The above steps show an example of the navigation of the present invention in the case of the insertion of the sigmoid colon, which is considered to be the most difficult in the insertion of the colonoscope. The insertion is further advanced, and the appropriate navigation of the operation is performed in the same manner as described above until the cecal is finally reached. Conventionally, the operator judges the bending operation and the rotation and advancing / retracting operation of the
画面に表示された挿入長50、回転位置44は、病変の内視鏡画像6とともに、同時に記録できるため、例えば、後日、経過観察のために再度、大腸内視鏡検査をする際に、病変の場所が精確かつ効率良く確認できるので有用である。
Since the
図4に表示される体の右側から見た大腸透視モデル像40、体の前から見た大腸透視モデル像41、および、大腸透視画像に重ねた内視鏡の挿入部モデル像42は、大腸の解剖学を考慮したコンピュータグラッフィックスを用いた画像である。現在の挿入部10の挿入長50、回転位置44、および湾曲状態43と、挿入開始から現在位置に至るまでのこれらのプロセスのデータを用いて、大腸の伸長や変形などの解剖学的な情報を参照して作成された画像である。
The large
本実施例は、湾曲動作を、モーター15による電動駆動にて行う例を示しているが、手動による湾曲動作を行っても構わない。また、湾曲状態を検出する手段として、湾曲部に直接、センサーを直接設けても構わない。
(実施例2)
本実施例は、実施例1における大腸内視鏡の挿入操作におけるナビゲーションの機械学習に関するものである。図6に示すとおり、ナビゲーションプログラム60は、大腸内視鏡挿入に熟練した医師が蓄積した経験則をプログラムに落としたもので、具体的には画像に現れる暗部、気泡、管腔特徴の画像情報や、内視鏡の挿入部および湾曲形状や、さらには、患者情報、挿入方法、体位、操作者情報、前処置状態、などの状態データ61から、所定のパラメータ66を用いて、内視鏡の挿入部の進退や回転、湾曲操作さらには送気・送水・吸引操作、腹部押圧、体位変換などの操作出力情報であるナビゲーションデータ62を導出し、操作者に提示することで、挿入の補助を行うものである。
The present embodiment shows an example in which the bending operation is performed by electric drive by the
(Example 2)
The present embodiment relates to machine learning of navigation in the insertion operation of the large intestine endoscope in the first embodiment. As shown in FIG. 6, the
ナビゲーションプログラム60では、ナビゲーションデータ62に従って実際に内視鏡操作を行った内容を操作データ67として記録するとともに、操作の結果として、挿入の過程で患者苦痛、挿入時間、患者モニターなどを計測し、これらを分析して挿入方法のパフォーマンスを評価する効果判定結果データ63を算出する機能を有する。また、前述の状態データ61、ナビゲーションデータ62、操作データ67および、効果判定結果データ63をそれぞれ関連付けながら随時データベース64に蓄積していくことができる。このデータベース64は、クラウド上に設置され、ネットワークで接続され複数の内視鏡装置とデータベース64を共有している。
The
このデータベースに対して、例えばConvolutional Neural Network(CNN)69などのAIアルゴリズム68を用いた機械学習65を行い、効果判定結果データ63と、所定のパラメータ66、ナビゲーションデータ62、操作データ67との関係を導出する。この効果判定結果データ63が高くなるように、所定のパラメータ66を変更してナビゲーションプログラム60の性能を向上させていく。なお、機械学習65の手段は、上述のCNNに限らない。
(実施例3)
操作者が内視鏡画像の視野の変化を見ながら湾曲動作の操作量を自動的に調整するためのステップを図7に示す。操作者は、まず内視鏡画像上に映る組織や管腔などの操作の指針となる目標を認識する。この目標に対して内視鏡の視野を所定の方向に移動させるために、挿入部を進退あるいは回転させる、あるいは、湾曲動作をさせるための操作を行う。これに伴い視野が移動するが、この際に、目標の動き、つまり、位置または移動ベクトルが、操作者の意図したものと異なる場合は、意図したものと実際との間の差異を画像処理によって自動的に認識する。その差異が十分小さく調整が不要な場合には、そのまま次の操作に移るが、その差異が大きく調整が必要な場合には、湾曲操作による調整量を自動的に推定する。続いて、この調整量を用いて、前記差異がゼロに近づくよう湾曲操作を制御する。
For example,
(Example 3)
The steps for the operator to automatically adjust the operation amount of the bending operation while watching the change in the field of view of the endoscopic image are shown in FIG. The operator first recognizes a target that serves as a guideline for the operation of a tissue, a lumen, etc. appearing on an endoscopic image. In order to move the field of view of the endoscope in a predetermined direction with respect to this target, an operation for advancing / retracting or rotating the insertion portion, or performing a bending operation is performed. Along with this, the field of view moves, but at this time, if the movement of the target, that is, the position or movement vector, is different from that intended by the operator, the image processing is applied to the difference between the intended one and the actual one. Automatically recognize. If the difference is small enough and the adjustment is not necessary, the operation proceeds to the next operation, but if the difference is large and the adjustment is necessary, the adjustment amount by the bending operation is automatically estimated. Subsequently, using this adjustment amount, the bending operation is controlled so that the difference approaches zero.
図7に示したステップを実現するための内視鏡装置1のシステムの構成を図1に示す。
The configuration of the system of the
内視鏡装置1は、挿入部10と、挿入部10の先端に設けられた撮像素子2と、照明装置3と、挿入部10の先端に照明光を導光する照明ファイバー4を備え、挿入部10の先にある対象物の画像信号を取得し、画像化装置5により画像を構成し表示モニター17により画像を表示する。これにより操作者は内視鏡画像を見て内視鏡診断・治療を行うことができる。また、内視鏡の先端には湾曲機構7を有し、例えば、上下、左右の2自由度の湾曲動作を行うことができる。この湾曲動作により、例えば医療分野において、内視鏡を消化管に挿入する際のステアリングを行ったり、組織を観察あるいは診断をする際の視野をコントロールしたり、さらには、腫瘍などを切除する際の処置具の位置や方向をコントロールすることができる。
The
湾曲動作のために、内視鏡の先端に設けられた連結された湾曲管8からなる湾曲機構7と、手元の操作部11に設けられたプーリー12と、両者を挿入部10に沿わせて配備されたワイヤー9によって結合し、駆動伝達されるようになっている。プーリー12は歯車大13に連結され、歯車大13は歯車小14と噛み合い、さらに、歯車小14はモーター15に連結されている。また、モーター15には、回転位置を検出するエンコーダー16が設けられる。
For the bending operation, a
操作部11の近くに内視鏡画像の表示モニター17を設けられており、この表示モニター17には、タッチパネル18が一体化されている。なお、この表示モニター17とは別に、内視鏡画像を表示するモニターを設けても構わない。
An endoscope image display monitor 17 is provided near the
タッチパネル18には、投影型静電容量方式、超音波表面弾性波方式、アナログ抵抗膜方式などの方式を用いることができるが、内視鏡の操作にラテックスゴム製のグローブを使用する場合には、グローブ使用時にも操作が可能な超音波表面弾性波方式またはアナログ抵抗膜方式のものが望ましい。また、導電性を持つグローブを使用する場合には、投影型静電容量方式のものでも構わない。
The
エンコーダー16とモーター15は、モーター制御回路19に電気的に接続されている。モーター制御回路19は、CPU20に接続されている。表示モニター17は、画像処理装置21に接続され、タッチパネル18は、CPU20に接続されている。画像化装置の信号は画像処理装置21に接続される。画像処理装置21はCPU20に接続されている。
The
また、挿入部位置センサー30により挿入部10の進退位置および回転位置を検出することができる。前記挿入部位置センサー30は、CPU20に接続されている。挿入部位置センサー30には、内視鏡の挿入部10が緩く挿入可能な円筒部の内面に、照明および画像センサーが設けられており、内視鏡の挿入部10の外周に記された目盛線33および挿入長を表す数字34を画像センサーで読み取り、目盛線33と数字34の長手方向の位置から挿入部10の挿入位置を、数字34の円周方向の位置から挿入部10の回転位置を検出することができる。
In addition, the advancing / retreating position and the rotational position of the
タッチパネル18を指でタッチしドラッグさせたときの移動ベクトル(入力移動ベクトルと呼ぶ)をCPU20で演算する。この入力移動ベクトルと、上下および左右のモーター15の移動ベクトルとの対応関係のテーブルがCPU20の内部メモリーに記憶されており、このテーブルを参照してCPU20からモーター制御回路19に位置およびまたは速度の指令を送る。これによりモーター15が回転し、駆動伝達機構を介して、湾曲機構7が動作し、内視鏡画像が移動する。
A movement vector (referred to as an input movement vector) when the
一方、画像処理装置21とCPU20は、タッチパネル18をタッチした部分とその周囲を含む内視鏡画像の特徴量を抽出し、その特徴量から画像上の移動ベクトル(出力移動ベクトルと呼ぶ)を求める。さらに、CPU20が入力移動ベクトルと出力移動ベクトルの差分を求め、その差分がゼロに近づくように、モーター制御回路19に位置およびまたは速度の指令を送る、フィードバック制御を行う。
On the other hand, the
以下には、前述の、「画像処理装置21とCPU20は、タッチパネル18をタッチした部分とその周囲を含む内視鏡画像の特徴量を抽出し、その特徴量を持つ対象物の画像上の移動ベクトル(出力移動ベクトル)を求める」手段の例を示す。
In the following, “The
例えば、ビデオの電子式手振れ補正にも使われるブロックマッチング法を用いる。タッチパネル18を指でタッチした部分とその周囲を含む部分の画像をCPU20に記憶させ、湾曲動作により移動、回転、拡大・縮小を含む変化をした画像に対して、重ね合わせ位置をずらしながら、対応する画素の差分絶対値の総和(SAD: Sum of Absolute Difference)を計算し、SADが最小となる位置をマッチング位置として検出する。このマッチング位置への移動ベクトルを前述の出力移動ベクトルとして求める。
For example, it uses a block matching method that is also used for electronic image stabilization of video. The
この際、内視鏡画像で抽出した特徴量を持つ画素を代表点としてサンプリングし、代表点の画像の重ね合わせ位置ずらしによりマッチングを行う、つまり代表点マッチング法を用いると、スピードを上げ必要メモリーを削減できる。 At this time, pixels having the feature quantities extracted in the endoscopic image are sampled as representative points, and matching is performed by shifting the overlapping positions of the images of the representative points. Can be reduced.
あるいは、主に移動物体の検出や、その動作の解析などに用いられるオプティカルフローを用いることができる。これは、画像上の代表点のフレーム間の移動ベクトルの分布を表すもので、これを用いてタッチパネル18を指でタッチした部分とその周囲を含む部分の移動方向や速度、さらには、奥行きに関する情報を得ることができる。つまり、オプティカルフローにより、対象物の奥行きに関する情報をも内視鏡の湾曲操作として用いることができる。
Alternatively, it is possible to use an optical flow mainly used for detection of a moving object, analysis of its operation, and the like. This represents the distribution of movement vectors between frames of representative points on the image, and is used to relate the movement direction and speed of the part including the
内視鏡画像全体のマッチングを行ったときに、移動しない画素からなる対象物は静止しているものとして認識する。後述するメスと透明フードなどは、内視鏡の先端部の湾曲動作や挿入部10の進退、回転をさせても、画像上は移動しないため、静止しているものに該当する。この静止しているものに該当する画素は、前述の移動ベクトルを求める対象としては用いない。
When matching of the entire endoscopic image is performed, an object consisting of non-moving pixels is recognized as being stationary. A scalpel, a transparent hood, and the like, which will be described later, correspond to those which are stationary because they do not move on the image even if the bending operation of the distal end portion of the endoscope or the insertion / retraction of the
タッチパネル18を指でタッチした部分とその周囲を含む部分の画像は、例えば、指をドラッグさせていくときに、平行移動だけではなく、回転、あるいは、拡大・縮小、変形など、刻々と変化をしていくため、マッチングのために画像処理によって抽出される特徴量を一定の周期で更新をさせることで追従の精度を向上することができる。
For example, when dragging the finger, the image of the portion where the
対象物の特徴量が乏しい場合がありえる。例えば、内視鏡先端が直接、粘膜に接触した場合には、画像は前面、粘膜の色、一色になるため、対象物の特徴量は乏しく、上記の出力移動ベクトルを求めることができない。こうした場合は、画像処理エラーの表示を行う。画像処理エラーの場合でも、内視鏡の湾曲操作を継続して行う必要があるので、このときの湾曲動作の速度を、安全を配慮して遅くなるよう設定しておく。前述のとおり、対象物が内視鏡先端から近いほど、湾曲動作したときに内視鏡画像上の位置がより大きく移動する。つまり、対象物が内視鏡先端に接触している場合は、タッチパネル18でドラッグさせる指の動きに対する湾曲動作の感度は最も小さくあるべきなので、そのときの湾曲動作の速度(感度)を画像処理エラーの場合に使うことが合理的である。
The feature amount of the object may be poor. For example, when the endoscope tip is in direct contact with the mucous membrane, the image has the front face, mucous membrane color, and one color, so the feature amount of the object is scarce and the above-mentioned output movement vector can not be determined. In such a case, an image processing error is displayed. Even in the case of an image processing error, since it is necessary to continue the bending operation of the endoscope, the speed of the bending operation at this time is set to be slow in consideration of safety. As described above, the closer the object is from the tip of the endoscope, the larger the position on the endoscopic image is moved when the bending operation is performed. That is, when the object is in contact with the tip of the endoscope, the sensitivity of the bending operation to the movement of the finger dragged by the
前述のタッチパネル18を指でタッチした部分とその周囲の範囲については変更できる。例えば、2本の指でタッチパネル18にタッチした場合には、2本の指の間にある領域とのその周囲を含む部分からマッチングを行う特徴量を抽出する。あるいは、タッチパネル18に感圧センサーを組み合わせて、タッチパネル18の表面を押し込む力を検知することで、軽くタッチしたときは対象とする周辺部分は狭く、強く押し込んだときは広くなるように変更することができる。
The portion touched by the
以下に医療分野における当該発明が用いられるアプリケーションを示す。
近年、食道癌、胃癌、大腸癌は内視鏡検査が普及して早期発見できるケースが増えてきた。早期に発見できれば内視鏡的粘膜下層剥離術(ESD)による低侵襲治療が可能となる。これは、内視鏡のチャネルに、先端にセラミックの球で絶縁した電気メスのナイフや、先端の電極がフック状をしているナイフ、あるいは、絶縁された外径に対して短い電極を持つナイフなどを通して、内視鏡の操作により、病変の周囲や病変の下を剥ぎ取る。この方法のメリットは、病変を自由な形や大きさに切除できる点である。一方、デメリットは、広い範囲を剥離するために、出血が多くあったり時間がかかったりする点である。ESDにおけるナイフの操作は、内視鏡の挿入部10の進退と回転および湾曲操作を組み合わせて行うものであり、広い範囲を正確に手際よく剥離するためには、操作者が内視鏡画像の視野の変化を見ながら湾曲動作の操作量を瞬時に繰り返し調整する必要がある。
The following shows the application in which the invention is used in the medical field.
In recent years, cases of esophagus cancer, gastric cancer and colon cancer that can be detected early as endoscopy has spread are increasing. Early detection will enable minimally invasive treatment with endoscopic submucosal dissection (ESD). It has an electric scalpel knife insulated with a ceramic ball at the tip, a knife whose tip electrode is hooked, or an electrode with a short length to the insulated outer diameter in the channel of the endoscope Peel around and under the lesion by operating the endoscope through a knife or the like. The advantage of this method is that the lesion can be excised in free form and size. On the other hand, the disadvantage is that the bleeding is a lot or it takes time to exfoliate a wide area. The operation of the knife in the ESD is a combination of the advancing and retracting operation of the
ESDの主だった手順は次のとおりである。
a)注入:内視鏡の処置具のためのチャネルを通して、内視鏡用注入針を用いて、病変周辺の粘膜下層にヒアルロン酸などの局注液を注入して病変とともに粘膜を浮かせる状態にする。
b)切開:病変を取り囲むように電気メスのナイフ(高周波電源装置に接続した)で病変部の周囲の粘膜を切っていく
c)剥離:ナイフで病変部を含む粘膜の下を少しずつ剥離していく
d)切除:剥離した結果、病変部を切り除く
内視鏡画像に写る映像は、病変などの組織とナイフ23と透明フード22である。内視鏡先端部に取り付けられた透明フード22の一部が、画像の4隅に写る。ちなみに、この透明フード22によって内視鏡の視野や、ナイフ23の操作空間を確保したりすることができる。この透明フードは内視鏡に接続されているため、内視鏡の先端部の湾曲動作や挿入部の進退、回転を行っても、画像上は移動しない。また、ナイフ23も内視鏡先端から飛び出している部分の長さを変えたり、向きを回転させない限り、透明フード22と同様に画像上は移動しない。
The main steps of the ESD are as follows.
a) Infusion: Infusion of a local injection solution such as hyaluronic acid into the submucosa layer around the lesion using the endoscope injection needle through the channel for the endoscope treatment tool to float the mucosa together with the lesion Do.
b) Incision: Cutting the mucous membrane around the lesion area with an electric knife (connected to a high frequency power supply) so as to surround the lesion
c) Peeling: The knife is peeled little by little under the mucous membrane including the lesion with a knife
d) Excision: As a result of exfoliation, the lesion area is cut off The image captured in the endoscopic image is the tissue such as the lesion, the
以下に前述のESDにおけるb)切開を行う場合の、本発明による操作方法の例と効果を示す。
図8(1)に示すように、表示モニター17に表示された内視鏡画像6の病変の付近を、タッチパネルでタッチして、ナイフ23を挿入する位置が、ナイフ23の先端の位置に近づくように指をゆっくりとドラッグさせる。これに従い、前述のフィードバック制御により、指の動きに追従するように対象部位が、ナイフ23の先端の位置に近づく。
In the following, an example and the effect of the operating method according to the invention in the case of performing b) incision in the aforementioned ESD will be shown.
As shown in FIG. 8A, the vicinity of the lesion of the
続いて、操作者は、ナイフ23を前進させ粘膜表面に接触させると同時に、高周波電源装置を作動させ粘膜に切開の孔を設ける。次にタッチパネル18から指を離して、切開を進めたい方向にある部位に指でタッチしなおして、そのままナイフ23の先端に引き寄せるように、指をゆっくりとドラッグさせる(図8(2))。
Subsequently, the operator advances the
図8(3)に示すように、内視鏡の先端から遠くの部位に切開を進める場合には、内視鏡の挿入部10を押して内視鏡先端を前進させる必要があるが、このときにおいて前述のフィードバック制御によれば、タッチパネル上の指の位置にある画像の動きにブレが生じないようにナイフ23の先端が移動し、切開がなされていく。
As shown in FIG. 8 (3), in the case where the incision is advanced to a site far from the tip of the endoscope, it is necessary to push the
同様に切開を進めたい方向にある部位をタッチパネル18でタッチし、ナイフ23の先端に引き寄せるようにドラッグさせる動きを繰り返すことで、図8(4)に示すように腫瘍の周辺を含む粘膜の全周を切開することができる。
Similarly, by touching the
続いてESDにおけるc)剥離を行う場合は、図8(5)に示すように表示モニター17に表示された切開部の画像の上にタッチパネル18でタッチして、切開を行った部位をナイフ23の先端の位置にくるようにドラッグさせる。次に、図8(6)に示すように、高周波電源装置を作動させ、ナイフ23を前進させ、切開を行った部位を左右にドラッグさせながら剥離を進める。続いて、図8(7)に示すように挿入部10を押して内視鏡先端を前進させ、あるいは挿入部10を回転させて、切開を行った部位から内視鏡の先端を粘膜の下にもぐりこませる。さらに、図8(8)に示すようにタッチパネル18上に指を剥離していく線に副うようにゆっくりと繰り返し移動をさせ、粘膜が粘膜下組織から分離するまで剥離を続けていく。
Subsequently, when performing c) exfoliation in ESD, as shown in FIG. 8 (5), the
以上のとおり、ESDにおいては、内視鏡の湾曲動作と、内視鏡の挿入部の進退の動作を併行して組み合わせて行うため、本来、画像の動きが複合的に変化するが、本発明によれば、タッチパネルで指し示した目標の移動ベクトルに従うように、湾曲動作をフィードバック制御するため、操作者が複合的な動きに対して調整をする必要がない。また、ナイフなどの治療用デバイスの被作用点の移動を、内視鏡画像上にタッチパネルで直観的に指示することが可能である。 As described above, in the ESD, since the bending operation of the endoscope and the operation of advancing and retracting the insertion portion of the endoscope are performed in combination and performed in combination, the movement of the image originally changes complexly, but the present invention According to the above, it is not necessary for the operator to adjust for complex movement in order to feedback control the bending operation so as to follow the movement vector of the target pointed by the touch panel. In addition, it is possible to intuitively instruct the movement of the action point of the therapeutic device such as a knife on the endoscopic image with the touch panel.
本実施例では、表示モニター17に搭載したタッチパネル18を用いて、内視鏡画像上の目標点の移動ベクトルを指示しているが、ジョイスティックを用いても構わない。ジョイスティックの場合、表示モニター17に表示されたカーソルを動かすようになっており、このカーソルで指し示す部位が、タッチパネル18でのタッチする部位に相当する。
In this embodiment, the movement vector of the target point on the endoscopic image is indicated using the
なお、本実施例では、挿入部10の進退およびまたは回転操作を操作者が手動で行った例を示したが、これらを電動制御で行っても構わない。
(実施例4)
実施例4は、実施例3で示した内視鏡装置1が3D内視鏡である実施例を示す。内視鏡には視差を持つ光学系と撮像素子による2つの画像を検出する手段と、2つの画像から3D画像を構成する画像プロセッサー、そして、3D画像を表示する3Dモニターがある。この3Dモニターを操作部の近くに設置する。3Dモニターには、右目用と左目用の映像を相互に高速再生し、それと同期したタイミングでメガネが交互に開閉を繰り返すことで3D映像を見るフレームシーケーシャル方式、右目用と左目用の映像を交互に表示し、偏光板メガネで立体的に映像を見る偏光方式、連続する垂直方向のスリットを通して、ストライプ状に並んだ画像を見る偏裸眼パララックスバリア方式などが用いられる。
In the present embodiment, an example is shown in which the operator manually performs the advancing and retracting and / or the rotating operation of the
(Example 4)
The fourth embodiment shows an embodiment in which the
タッチパネルは3Dモニターに搭載されている。タッチパネルは実施例3に述べたタッチパネルを用いる。あるいは、代わりに3Dタッチパネルでも構わない。この場合、3Dタッチパネルで指し示す部位は、指先の延長線上にある3D空間の物体の表面(消化管の場合は粘膜や腫瘍などの組織の表面)となる。この場合、実施例3で述べたタッチパネルと異なり、実際の指は空中にありパネルの表面にタッチせずに、指先が指し示す位置をデータとして取り込むために、そのトリガーとなるスイッチを用意する。このスイッチがONになった場合に、指先の位置を認識し、湾曲操作の入力として取り込む。 The touch panel is mounted on the 3D monitor. The touch panel uses the touch panel described in the third embodiment. Alternatively, a 3D touch panel may be used instead. In this case, the portion pointed by the 3D touch panel is the surface of an object in the 3D space on the extension of the fingertip (the surface of a tissue such as a mucous membrane or a tumor in the case of a digestive tract). In this case, unlike the touch panel described in the third embodiment, a switch serving as a trigger is prepared in order to capture the position indicated by the fingertip as data without touching an actual finger in the air and touching the surface of the panel. When this switch is turned on, the position of the fingertip is recognized and taken as an input of the bending operation.
本実施例では、視差を持つ2つの画像から三角測量により奥行き方向の距離を測定することにより、3次元の位置情報を取り扱うことができる。
(実施例5)
本実施例は、実施例3と構成、作用は同じであるが、当該発明が用いられるアプリケーションが医療分野における体内の管腔の遠方にある暗部検出に関わるものである。例えば、大腸内視鏡を肛門から挿入し、便の移動に逆行するように、直腸、S状結腸、下降結腸、横行結腸、上降結腸を経て、先端部が大腸盲腸に到達させるために、内視鏡の操作における一つの目安になるのが、管腔の遠方にある暗部53の位置である。管腔の遠方には、内視鏡先端からの照明光が届きにくくなるため、その結果、遠方ほど暗い画像となる。このことを利用して、暗部53を目標とした内視鏡挿入が実際の臨床において従来より行われている。本実施例では、図3(a)および(b)に示すように、この暗部53の画像をタッチパネル18でタッチし、タッチパネル18を所望の方向にドラッグさせることによって、湾曲動作を行い、内視鏡の挿入操作をサポートする。
In this embodiment, three-dimensional position information can be handled by measuring the distance in the depth direction from two images having parallax by triangulation.
(Example 5)
The present embodiment is the same in configuration and operation as the third embodiment, but the application in which the present invention is used relates to the detection of a dark part distant from a lumen in the body in the medical field. For example, in order to insert the colonoscope through the anus and travel through the rectum, the sigmoid colon, the descending colon, the transverse colon, and the ascending colon so as to reverse the movement of the stool, to allow the tip to reach the colon cecum, One indication in the operation of the endoscope is the position of the
同様に、気管支内視鏡を気管支や肺葉の葉気管支に進めていく際にも、本発明を用いて、暗部53の画像をタッチパネル18で指し示し、タッチパネル18を所望の方向にドラッグさせることによって、湾曲動作を行い、内視鏡の挿入操作をサポートすることができる。
(実施例6)
本実施例は、実施例3における、モーター15とプーリー12の間にある伝達系の結合方法に関するものである。実施例3では、駆動伝達機構に、プーリー12に連結された歯車大13と、歯車大13に噛み合う歯車小14とが用いられているが、この歯車大13を、内視鏡の操作ノブ24に設置したものが実施例6の構成となる。従来の内視鏡では、背景技術で述べたとおり、操作者は、上下および左右の2つの操作ノブ24を、操作者が指で回転させることで湾曲動作を行っていた。本実施例では、図9(b)に示すように、この上下および左右の2つの操作ノブ24にそれぞれ、歯車大13を固定し、歯車小がこれに噛み合うようにしたものである。また、タッチパネル18、表示モニター17、モーター15、エンコーダー16、歯車大13、歯車小14は、全体をカバー25で覆われ、一つの操作ユニット26としてまとまった構成をなしている。図9(a)に示すように、この操作ユニット26と、操作部11とは着脱可能に接続され、駆動伝達系は歯車大13と歯車小14との間で着脱されるように構成されている。これには次のメリットがある。
Similarly, when advancing the bronchoscope to the bronchus or lung lobe bronchus, by using the present invention, the image of the
(Example 6)
The present embodiment relates to a method of coupling a transmission system between the
第1に、内視鏡は、専用の内視鏡洗浄器を用いて、洗浄およびまたは消毒・滅菌が行われる。本実施例のように、洗浄およびまたは消毒・滅菌を行うときに、操作部11と操作ユニット26を分離すれば、内視鏡を従来の専用の内視鏡洗浄器を用いることができる。一方、操作ユニット26は、図9(c)に示すように、内視鏡を使用する際に、滅菌ドレープ27を被せてあるため、洗浄およびまたは消毒・滅菌を行う必要がない。
First, the endoscope is cleaned and / or disinfected / sterilized using a dedicated endoscope cleaner. As in the present embodiment, when the
第2に、万一、内視鏡による診断・治療を行っている最中に、内視鏡を除く部分、すなわち、操作ユニットに関連する部分に不具合が生じた場合にも、操作ユニット26を分離して、直接、操作ノブ24を操作することで、緊急の対応をすることができる。
Second, even if there is a defect in the part other than the endoscope, ie, in the part related to the operation unit, during the diagnosis and treatment with the endoscope, the
前記操作ユニット26は、床あるいはベッドなどに固定された把持アーム28に回動可能に固定することが可能である。これにより、操作者が操作を行うときは、操作部11を持ち続ける必要がないので、疲労を軽減できる。
The
なお、上記実施例1および2において、以下のように構成してもよい。
1.内視鏡画像データが気泡およびまたは暗部であることを特徴とする第3発明に記載の内視鏡ナビテーション装置。
2.挿入部位置センサーに内視鏡挿入部の汚染を防止する滅菌スリーブを具備することを特徴とする第2発明、および、第3発明に記載の内視鏡ナビゲーション装置。
3.挿入長、回転位置を、内視鏡画像ともに表示・記録することで、病変の位置を記録できることを特徴とする第2発明、および、第3発明に記載の内視鏡ナビゲーション装置。
4.挿入開始から現在に至るまでの挿入状態データと操作手順データを用いて、コンピュータグラッフィックで作成した大腸透視モデル像と、これに重ねた内視鏡の挿入部モデル像とを、具備することを特徴とする第2発明、および、第3発明に記載の内視鏡ナビテーション装置。
5.挿入操作データが挿入部進退・回転操作、湾曲操作、送気・送水・吸引操作、腹部押圧、体位変換からなることを特徴とする第2発明、および、第3発明に記載の内視鏡ナビテーション装置。
6.効果判定結果データが、患者苦痛、部分および全体の挿入時間、患者モニターからなることを特徴とする第3発明に記載の内視鏡ナビテーション装置。
In the first and second embodiments, the following configuration may be made.
1. An endoscope navigation apparatus according to a third invention, wherein the endoscope image data is a bubble and / or a dark part.
2. An endoscope navigation device according to a second invention and a third invention characterized in that the insertion portion position sensor is provided with a sterilization sleeve for preventing contamination of the endoscope insertion portion.
3. An endoscope navigation apparatus according to a second invention and a third invention characterized in that a position of a lesion can be recorded by displaying and recording an insertion length and a rotational position together with an endoscopic image.
4. It is characterized by comprising a colonoscopy model image created by computer graphic using the insertion state data and operation procedure data from the start of insertion to the present, and an insertion part model image of an endoscope superimposed thereon. An endoscope navigation apparatus according to the second invention and the third invention.
5. The endoscope navigation system according to the second invention and the third invention, characterized in that the insertion operation data includes an insertion portion advancing / retracting / rotating operation, a bending operation, air supply / water supply / suction operation, abdominal pressure, body position change. Station equipment.
6. The endoscope navigation apparatus according to the third invention, wherein the effect determination result data comprises patient pain, partial and entire insertion time, and patient monitor.
なお、上記第3実施例において、以下のように構成してもよい。
7.第6発明に記載の目標の移動ベクトルを入力する手段は、タッチパネルに指をタッチしてドラッグして行う。
8.タッチパネルは、グローブ使用時にも操作が可能な超音波表面弾性波方式またはアナログ抵抗膜方式を用いる。
9.連続する複数の内視鏡画像のマッチングにより、静止領域を検出し、静止領域に当たる画素を、内視鏡の湾曲操作には用いない。
10.内視鏡の湾曲制御において、複数の内視鏡画像間における目標の移動ベクトルを求める演算処理手段としてオプティカルフローを用い、対象物の奥行きに関する情報を内視鏡の湾曲操作量とする。
11.挿入部の進退およびまたは回転操作を電動制御で行う。
12.対象物の特徴量が乏しく、上記の画像の移動の調整ができないケースは、湾曲動作の速度を安全速度に切り替える。
The third embodiment may be configured as follows.
7. The means for inputting a target movement vector according to the sixth aspect of the invention is performed by touching and dragging a finger on the touch panel.
8. The touch panel uses an ultrasonic surface acoustic wave method or an analog resistive film method that can be operated even when using a glove.
9. A stationary area is detected by matching of a plurality of consecutive endoscopic images, and a pixel corresponding to the stationary area is not used for the bending operation of the endoscope.
10. In the bending control of the endoscope, an optical flow is used as arithmetic processing means for calculating a movement vector of a target between a plurality of endoscopic images, and information on the depth of the object is used as the bending operation amount of the endoscope.
11. Motorized control is performed to move the insertion part back and forth and / or rotate it.
12. In the case where the feature amount of the object is scarce and the movement of the image can not be adjusted, the speed of the bending operation is switched to the safe speed.
なお、上記第4実施例において、以下のように構成してもよい。
13.前記内視鏡画像の画像化装置が、3D画像を画像化することを特徴とする第6発明~第9発明のいずれか1つに記載の内視鏡装置。
14.タッチパネルは3Dタッチパネルを用いる。
15.3D画像を構成する視差を持つ2つの画像から、三角測量により奥行き方向の距離を測定する。
The fourth embodiment may be configured as follows.
13. The endoscope apparatus according to any one of the sixth to ninth inventions, wherein the endoscope image imaging apparatus images a 3D image.
14. The touch panel uses a 3D touch panel.
15. Measure the distance in the depth direction by triangulation from the two images with parallax constituting the 3D image.
なお、上記第5実施例において、以下のように構成してもよい。
16.前記内視鏡画像上に指定する目標が暗い領域であることを特徴とする第6発明~第8発明のいずれか1つに記載の内視鏡装置。
The fifth embodiment may be configured as follows.
16. The endoscope apparatus according to any one of the sixth to eighth inventions, wherein the target designated on the endoscopic image is a dark area.
なお、上記第6実施例において、以下のように構成してもよい。
17.前記内視鏡先端の位置を変更する手段は、内視鏡の駆動伝達機構を介して、湾曲部と制御用モーターが機械的に結合されており、その駆動伝達機構の途中において分離可能であることを特徴とする第6発明に記載の内視鏡装置。
18.上下および左右の2つの操作ノブにそれぞれ、歯車大を固定し、歯車小がこれに噛み合うようにし、内視鏡洗浄時やモーター制御の不具合発生時に、歯車大から、歯車小およびそれにつながる制御装置を分離ができるように構成することを特徴とする第6発明に記載の内視鏡装置。
The sixth embodiment may be configured as follows.
17. In the means for changing the position of the endoscope tip, the bending portion and the control motor are mechanically coupled via the drive transmission mechanism of the endoscope, and can be separated along the drive transmission mechanism. An endoscope apparatus according to a sixth aspect of the invention.
18. The gear size is fixed to each of the two upper and lower and left and right operation knobs, and the gear small is engaged with it. The controller from the gear large to the gear small and to that at the time of endoscope cleaning or motor control failure occurs. The endoscope apparatus according to the sixth invention, which is configured to be able to be separated.
1 内視鏡装置
2 撮像素子
3 照明装置
4 照明ファイバー
5 画像化装置
6 内視鏡画像
7 湾曲機構
8 湾曲管
9 ワイヤー
10 挿入部
11 操作部
12 プーリー
13 歯車大
14 歯車小
15 モーター
16 エンコーダー
17 表示モニター
18 タッチパネル
19 モーター制御回路
20 CPU
21 画像処理装置
30 挿入部位置センサー
31 照明
32 画像センサー
33 目盛線
34 数字
35 滅菌カバー
40 体の右側から見た大腸透視モデル像
41 体の前から見た大腸透視モデル像
42 挿入部モデル像
43 湾曲状態
44 回転位置
45 上方向マーカー
46 湾曲矢印
47 前進矢印
48 後退矢印
49 回転矢印
50 挿入長
51 挿入方法選択
53 暗部
54 気泡
55 湾曲部
56 ナビゲーションのメニュー
60 ナビゲーションプログラム
61 状態データ
62 ナビゲーションデータ
63 効果判定結果データ
64 データベース
65 機械学習
66 所定のパラメータ
67 操作データ
68 AIアルゴリズム
69 Convolutional Neural Network
21
Claims (12)
内視鏡画像の画像化装置と、
身体の管腔への内視鏡の挿入手順を少なくとも2つ以上を、同時または連続して、指示する機能と
を具備することを特徴とする内視鏡装置。 In the endoscope apparatus,
An imaging device for endoscopic images,
An endoscope apparatus comprising a function of instructing at least two or more of the procedures for inserting an endoscope into a body lumen simultaneously or sequentially.
内視鏡画像の画像化装置と、
身体の管腔への内視鏡の挿入手順を少なくとも2つ以上を、同時または連続して、画像または音声で指示するナビゲーション機能と
を具備したことを特徴とする請求項1に記載の内視鏡ナビゲーション装置。 In the endoscope apparatus,
An imaging device for endoscopic images,
2. The endoscope according to claim 1, further comprising: a navigation function for instructing at least two or more of the procedures for inserting the endoscope into the body lumen simultaneously or sequentially with an image or a sound. Mirror navigation device.
内視鏡の湾曲状態、挿入部の回転、挿入長のいずれか一つ以上からなる挿入状態データを検出する機能と
を具備し、
前記ナビゲーション機能として、前記画像情報データおよびまたは前記挿入状態データに応じて、所定のパラメータを元に予め定めた内視鏡の挿入手順データを参照し、少なくとも2つ以上を同時または連続して画像または音声で挿入手順を伝えることを特徴とする請求項2に記載の内視鏡ナビゲーション装置。 An image processing apparatus for detecting image information data of an endoscope image;
And a function of detecting insertion state data consisting of at least one of a bending state of an endoscope, rotation of an insertion portion, and an insertion length,
As the navigation function, according to the image information data and / or the insertion state data, at least two or more images are simultaneously or continuously referred to by referring to endoscope insertion procedure data predetermined based on predetermined parameters. The endoscope navigation device according to claim 2, wherein the insertion procedure is transmitted by voice.
内視鏡の挿入状態を検出するステップと、
内視鏡の挿入状態を元に予め定めた挿入操作の挿入手順データを参照するステップと、
内視鏡の挿入手順を少なくとも2つ以上を同時または連続して画像または音声で提示するステップと
を実行することを特徴とする内視鏡ナビゲーション装置のナビゲーション方法。 In the endoscope apparatus,
Detecting the insertion state of the endoscope;
Referencing insertion procedure data of an insertion operation predetermined based on the insertion state of the endoscope;
A navigation method of an endoscope navigation apparatus, comprising the steps of: presenting at least two or more of the endoscope insertion procedures simultaneously or sequentially with images or voices.
内視鏡画像の画像化装置と、
前記内視鏡画像の画像情報データを検出する画像処理装置と、
内視鏡の湾曲状態、挿入部の回転、挿入長のいずれか一つ以上からなる挿入状態データを検出する機能と、
前記画像情報データおよびまたは前記挿入状態データに応じて、所定のパラメータを元に予め定めた内視鏡の挿入手順データを参照し、画像または音声で挿入手順を伝えるナビゲーション機能と、
前記挿入手順データを元に内視鏡操作を行った内容を操作データとして記録する機能と、
内視鏡操作を行った結果を計測・評価する効果判定結果データを算出する機能と、
前記画像情報データ、前記挿入状態データ、前記所定のパラメータ、前記挿入手順データ、前記操作データおよび前記効果判定結果データを、それぞれ関連付けてデータベースに蓄積する機能と、
前記データベースに蓄積されたデータ間との関係を機械学習する機能と、
前記機械学習による結果を利用して、前記、前記所定のパラメータおよびまたは前記挿入手順データを変更する機能と
を備えたことを特徴とする内視鏡ナビゲーション装置。 In the endoscope apparatus,
An imaging device for endoscopic images,
An image processing apparatus for detecting image information data of the endoscopic image;
A function of detecting insertion state data consisting of at least one of a bending state of an endoscope, rotation of an insertion portion, and an insertion length;
A navigation function of referring to insertion procedure data of an endoscope determined in advance based on predetermined parameters according to the image information data and / or the insertion state data, and conveying the insertion procedure by image or voice;
A function of recording, as operation data, contents of endoscope operation based on the insertion procedure data;
A function of calculating effect determination result data for measuring / evaluating a result of endoscope operation;
A function of storing the image information data, the insertion state data, the predetermined parameter, the insertion procedure data, the operation data, and the effect determination result data in association with each other in a database;
A function of machine learning the relationship between the data stored in the database;
An endoscope navigation apparatus comprising: a function of changing the predetermined parameter and / or the insertion procedure data using a result of the machine learning.
目標の移動ベクトルを入力する手段と、
前記内視鏡画像上の目標の移動ベクトルの入力に従い内視鏡先端の位置を制御する手段と
を具備したことを特徴とする請求項1に記載の内視鏡装置。 A means for specifying a target on the endoscopic image;
Means for inputting a movement vector of the target;
The endoscope apparatus according to claim 1, further comprising: means for controlling the position of the tip of the endoscope in accordance with the input of the movement vector of the target on the endoscope image.
入力された移動ベクトルと、前記計測された移動ベクトルとを比較し、両者の差異がゼロに近づくように内視鏡先端の位置をフィードバック制御することを特徴とする請求項6記載の内視鏡装置。 A means for measuring the movement vector of the target on the endoscopic image,
7. The endoscope according to claim 6, wherein the input movement vector is compared with the measured movement vector, and feedback control is performed on the position of the endoscope tip so that the difference between the two approaches zero. apparatus.
内視鏡画像上に目標を指定するステップと、
内視鏡画像上に目標の移動ベクトルを入力するステップと、
入力した移動ベクトルに従い内視鏡先端の位置を制御するステップと、
内視鏡画像上の目標の移動ベクトルを計測するステップと、
入力された移動ベクトルと、計測された移動ベクトルとを比較するステップと、
両者の差異がゼロに近づくように内視鏡先端の位置をフィードバック制御するステップと
を実行することを特徴とする内視鏡装置の制御方法。 In the endoscope apparatus,
Specifying a target on the endoscopic image;
Inputting a movement vector of the target on the endoscopic image;
Controlling the position of the tip of the endoscope according to the input movement vector;
Measuring the movement vector of the target on the endoscopic image;
Comparing the input movement vector with the measured movement vector;
Feedback control of the position of the tip of the endoscope so that the difference between the two approaches zero, the control method of the endoscope apparatus.
Applications Claiming Priority (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2017-229065 | 2017-11-29 | ||
| JP2017229065A JP6749020B2 (en) | 2017-11-29 | 2017-11-29 | Endoscope navigation device |
| JP2017229080A JP2019097665A (en) | 2017-11-29 | 2017-11-29 | Endoscope apparatus |
| JP2017-229080 | 2017-11-29 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2019107226A1 true WO2019107226A1 (en) | 2019-06-06 |
Family
ID=66665557
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2018/042874 Ceased WO2019107226A1 (en) | 2017-11-29 | 2018-11-20 | Endoscopic apparatus |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2019107226A1 (en) |
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2021054419A1 (en) * | 2019-09-20 | 2021-03-25 | 株式会社Micotoテクノロジー | Endoscopic image processing system and endoscopic image processing method |
| JPWO2021064861A1 (en) * | 2019-10-01 | 2021-04-08 | ||
| WO2021145410A1 (en) * | 2020-01-16 | 2021-07-22 | オリンパス株式会社 | Medical system |
| JPWO2021149112A1 (en) * | 2020-01-20 | 2021-07-29 | ||
| CN113786154A (en) * | 2021-09-22 | 2021-12-14 | 苏州法兰克曼医疗器械有限公司 | Endoscope with bending angle convenient to adjust |
| WO2023090021A1 (en) * | 2021-11-22 | 2023-05-25 | オリンパスメディカルシステムズ株式会社 | Endoluminal device system, endoluminal device control method, and computer program recording medium for storing program that controls endoluminal device |
| WO2025037403A1 (en) * | 2023-08-16 | 2025-02-20 | オリンパスメディカルシステムズ株式会社 | Endoscope auxiliary information generation device, endoscope auxiliary information generation method, endoscope auxiliary information generation program, inference model training method, and endoscope auxiliary system |
| WO2025177487A1 (en) * | 2024-02-21 | 2025-08-28 | オリンパスメディカルシステムズ株式会社 | Data processing device, data processing method, data processing program, endoscope system, medical system, display control method, insertion guide method, learning method for inference model, and learning model |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH06277178A (en) * | 1993-03-30 | 1994-10-04 | Toshiba Corp | Electronic endoscopic device |
| JPH0642644Y2 (en) * | 1988-10-15 | 1994-11-09 | オリンパス光学工業株式会社 | Endoscopic bending device |
| JP2004089484A (en) * | 2002-08-30 | 2004-03-25 | Olympus Corp | Endoscope |
| WO2011102012A1 (en) * | 2010-02-22 | 2011-08-25 | オリンパスメディカルシステムズ株式会社 | Medical device |
| JP2014109630A (en) * | 2012-11-30 | 2014-06-12 | Olympus Corp | Endoscope device |
-
2018
- 2018-11-20 WO PCT/JP2018/042874 patent/WO2019107226A1/en not_active Ceased
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH0642644Y2 (en) * | 1988-10-15 | 1994-11-09 | オリンパス光学工業株式会社 | Endoscopic bending device |
| JPH06277178A (en) * | 1993-03-30 | 1994-10-04 | Toshiba Corp | Electronic endoscopic device |
| JP2004089484A (en) * | 2002-08-30 | 2004-03-25 | Olympus Corp | Endoscope |
| WO2011102012A1 (en) * | 2010-02-22 | 2011-08-25 | オリンパスメディカルシステムズ株式会社 | Medical device |
| JP2014109630A (en) * | 2012-11-30 | 2014-06-12 | Olympus Corp | Endoscope device |
Cited By (20)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2021048927A (en) * | 2019-09-20 | 2021-04-01 | 株式会社Micotoテクノロジー | Endoscopic image processing system |
| WO2021054419A1 (en) * | 2019-09-20 | 2021-03-25 | 株式会社Micotoテクノロジー | Endoscopic image processing system and endoscopic image processing method |
| CN114401660A (en) * | 2019-10-01 | 2022-04-26 | 奥林巴斯株式会社 | Endoscope insertion control device and endoscope insertion control method |
| JPWO2021064861A1 (en) * | 2019-10-01 | 2021-04-08 | ||
| WO2021064861A1 (en) * | 2019-10-01 | 2021-04-08 | オリンパス株式会社 | Endoscope insertion control device and endoscope insertion control method |
| JP7300514B2 (en) | 2019-10-01 | 2023-06-29 | オリンパス株式会社 | Endoscope insertion control device, endoscope operation method and endoscope insertion control program |
| US12484767B2 (en) | 2020-01-16 | 2025-12-02 | Olympus Corporation | Medical system, processor comprising hardware, medical system control method |
| US12433476B2 (en) | 2020-01-16 | 2025-10-07 | Olympus Corporation | Endoscope having fastener for bundling wire sheaths in flexible portion and endoscope system |
| WO2021145410A1 (en) * | 2020-01-16 | 2021-07-22 | オリンパス株式会社 | Medical system |
| US12446762B2 (en) | 2020-01-16 | 2025-10-21 | Olympus Corporation | Endoscope system, control device, information processing method |
| WO2021149112A1 (en) * | 2020-01-20 | 2021-07-29 | オリンパス株式会社 | Endoscopy assistance device, method for operating endoscopy assistance device, and program |
| JPWO2021149112A1 (en) * | 2020-01-20 | 2021-07-29 | ||
| JP7323647B2 (en) | 2020-01-20 | 2023-08-08 | オリンパス株式会社 | Endoscopy support device, operating method and program for endoscopy support device |
| CN113786154A (en) * | 2021-09-22 | 2021-12-14 | 苏州法兰克曼医疗器械有限公司 | Endoscope with bending angle convenient to adjust |
| CN113786154B (en) * | 2021-09-22 | 2023-08-18 | 苏州法兰克曼医疗器械有限公司 | Endoscope with bending angle convenient to adjust |
| JPWO2023090021A1 (en) * | 2021-11-22 | 2023-05-25 | ||
| JP7618840B2 (en) | 2021-11-22 | 2025-01-21 | オリンパスメディカルシステムズ株式会社 | Intraluminal device system, method for operating an intraluminal device system, and computer program storage medium for storing a program for controlling an intraluminal device |
| WO2023090021A1 (en) * | 2021-11-22 | 2023-05-25 | オリンパスメディカルシステムズ株式会社 | Endoluminal device system, endoluminal device control method, and computer program recording medium for storing program that controls endoluminal device |
| WO2025037403A1 (en) * | 2023-08-16 | 2025-02-20 | オリンパスメディカルシステムズ株式会社 | Endoscope auxiliary information generation device, endoscope auxiliary information generation method, endoscope auxiliary information generation program, inference model training method, and endoscope auxiliary system |
| WO2025177487A1 (en) * | 2024-02-21 | 2025-08-28 | オリンパスメディカルシステムズ株式会社 | Data processing device, data processing method, data processing program, endoscope system, medical system, display control method, insertion guide method, learning method for inference model, and learning model |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| WO2019107226A1 (en) | Endoscopic apparatus | |
| JP6749020B2 (en) | Endoscope navigation device | |
| US12186031B2 (en) | Graphical user interface for monitoring an image-guided procedure | |
| US12408817B2 (en) | Steerable endoscope system with augmented view | |
| JP4009639B2 (en) | Endoscope device, endoscope device navigation method, endoscope image display method, and endoscope image display program | |
| CN106572827B (en) | Intelligent display | |
| EP3023941B1 (en) | System for providing visual guidance for steering a tip of an endoscopic device towards one or more landmarks and assisting an operator in endoscopic navigation | |
| CN113543692A (en) | Multifunctional visualization instrument with orientation control | |
| CN120659587A (en) | System and method for generating a 3D navigation interface for a medical procedure | |
| JP7292376B2 (en) | Control device, trained model, and method of operation of endoscope movement support system | |
| KR20120040687A (en) | Virtual measurement tool for minimally invasive surgery | |
| US10292570B2 (en) | System and method for guiding and tracking a region of interest using an endoscope | |
| KR20120087806A (en) | Virtual measurement tool for minimally invasive surgery | |
| US12295719B2 (en) | Endoscope navigation system with updating anatomy model | |
| WO2004023986A1 (en) | Medical treatment system, endoscope system, endoscope insert operation program, and endoscope device | |
| US20230148847A1 (en) | Information processing system, medical system and cannulation method | |
| CN114126472A (en) | Steerable endoscope with motion alignment | |
| CN104394751B (en) | Robot system | |
| JP2023061921A (en) | Automatic positioning and force adjustment in endoscopy | |
| US20230255442A1 (en) | Continuum robot apparatuses, methods, and storage mediums | |
| CA3155626A1 (en) | Graphical user interface for steerable endoscope | |
| CN116940298A (en) | Six degrees of freedom from a single inductive pick-up coil sensor | |
| JP2019097665A (en) | Endoscope apparatus | |
| EP4333682A1 (en) | Endoscope navigation system with updating anatomy model | |
| US20250143812A1 (en) | Robotic catheter system and method of replaying targeting trajectory |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 18882317 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 18882317 Country of ref document: EP Kind code of ref document: A1 |