WO2025009144A1 - 補助情報生成方法、補助情報生成装置、およびプログラム - Google Patents
補助情報生成方法、補助情報生成装置、およびプログラム Download PDFInfo
- Publication number
- WO2025009144A1 WO2025009144A1 PCT/JP2023/025083 JP2023025083W WO2025009144A1 WO 2025009144 A1 WO2025009144 A1 WO 2025009144A1 JP 2023025083 W JP2023025083 W JP 2023025083W WO 2025009144 A1 WO2025009144 A1 WO 2025009144A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- auxiliary information
- image
- unit
- regions
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/045—Control thereof
Definitions
- the present invention relates to an auxiliary information generation method, an auxiliary information generation device, and a program.
- Patent Document 1 discloses a technology for superimposing a graphics object onto an image of real space. With this technology, multiple pieces of augmented reality information that are close to each other are displayed as a single aggregate graphics object.
- the present invention aims to provide an auxiliary information generation method, an auxiliary information generation device, and a program that can avoid cumbersome notifications of auxiliary information obtained from multiple images, including images acquired in the past.
- a method for generating auxiliary information includes the following: Sequentially acquiring a plurality of images obtained by an imaging unit of an endoscope at a plurality of positions in the gastrointestinal tract of a subject; Detecting characteristic regions in the gastrointestinal tract based on the plurality of images; Calculating the number of characteristic regions in each of a plurality of sections in the gastrointestinal tract; Generating auxiliary information according to the number of characteristic regions, and controlling the appearance of the auxiliary information according to the number of characteristic regions when the auxiliary information is displayed on a display unit.
- the auxiliary information generating method may determine whether the imaging unit is capturing images in the depth direction of the digestive tract, and may output the auxiliary information to the display unit when it is determined that the imaging unit is capturing images in the depth direction.
- the auxiliary information generating method may generate the auxiliary information for each of a plurality of image regions obtained by dividing the image obtained by the imaging unit in a direction corresponding to the circumferential direction of the digestive tract.
- the auxiliary information generating method may control the size of an icon indicating the auxiliary information for each of the plurality of image regions in accordance with the number of the characteristic regions.
- the image obtained by the imaging unit may be divided in a direction corresponding to the radial direction of the digestive tract, and the auxiliary information may be generated for each of a plurality of image regions divided in a direction corresponding to the circumferential direction of the digestive tract.
- the auxiliary information generating method may generate the auxiliary information displayed in a first aspect when the number of the feature regions is equal to or greater than a predetermined number, and may generate the auxiliary information displayed in a second aspect different from the first aspect when the number of the feature regions is less than the predetermined number.
- the auxiliary information displayed in the second aspect may indicate the position of the characteristic region.
- an auxiliary information generating device has an image acquiring section, a region detecting section, a region calculating section, and an auxiliary information generating section.
- the image acquiring section sequentially acquires a plurality of images obtained by an imaging section of an endoscope at a plurality of positions in the digestive tract of a subject.
- the region detecting section detects characteristic regions in the digestive tract based on the plurality of images.
- the region calculating section and the auxiliary information generating section generate auxiliary information according to the number of characteristic regions, and control the manner of the auxiliary information when the auxiliary information is displayed on a display section according to the number of characteristic regions.
- the auxiliary information generation method, auxiliary information generation device, and program can avoid cumbersome notification of auxiliary information obtained from multiple images, including images acquired in the past.
- FIG. 1 is a block diagram showing an example of the configuration of an endoscope system according to a first embodiment of the present invention.
- FIG. 2 is a diagram illustrating an example of a plurality of sections in the first embodiment of the present invention.
- 3A to 3C are diagrams illustrating examples of shooting directions in the first embodiment of the present invention.
- 3A to 3C are diagrams illustrating examples of shooting directions in the first embodiment of the present invention.
- 5 is a flowchart illustrating an example of a procedure of a process executed by the auxiliary information generating device according to the first embodiment of the present invention.
- 6A and 6B are diagrams illustrating an example of a method for calculating the number of unobserved areas in the first embodiment of the present invention.
- 5 is a flowchart illustrating an example of a procedure of a process executed by the auxiliary information generating device according to the first embodiment of the present invention.
- 5A and 5B are diagrams illustrating an example of an unobserved area detected in an image according to the first embodiment of the present invention.
- 5A to 5C are diagrams illustrating examples of images and auxiliary information displayed on a display unit in the first embodiment of the present invention.
- 5 is a flowchart illustrating an example of a procedure of a process executed by the auxiliary information generating device according to the first embodiment of the present invention.
- 5A and 5B are diagrams illustrating an example of an unobserved region detected in an image according to the first embodiment of the present invention.
- 5A to 5C are diagrams illustrating examples of images and auxiliary information displayed on a display unit in the first embodiment of the present invention.
- 5 is a flowchart illustrating an example of a procedure of a process executed by the auxiliary information generating device according to the first embodiment of the present invention.
- FIG. 2 is a diagram showing an example of a display screen of a display unit in the first embodiment of the present invention.
- 10 is a flowchart illustrating an example of a procedure of a process executed by an auxiliary information generating device according to a second embodiment of the present invention.
- FIG. 11 is a diagram showing a first example of a display screen of a display unit in a second embodiment of the present invention.
- FIG. 11 is a diagram showing a second example of a display screen of the display unit in the second embodiment of the present invention.
- FIG. 11 is a diagram showing a third example of a display screen of the display unit in the second embodiment of the present invention.
- FIG. 11 is a diagram showing a fourth example of a display screen of the display unit in the second embodiment of the present invention.
- FIG. 11 is a diagram showing a fifth example of a display screen of the display unit in the second embodiment of the present invention.
- FIG. 11 is a diagram showing a sixth example of a display screen of the display unit in the second embodiment of the present invention.
- 10 is a flowchart illustrating an example of a procedure of a process executed by an auxiliary information generating device according to a second embodiment of the present invention.
- 10 is a flowchart illustrating an example of a procedure of a process executed by an auxiliary information generating device according to a second embodiment of the present invention.
- multiple XXs means two or more XXs.
- (First embodiment) 1 shows an example of the configuration of an endoscope system 1 according to a first embodiment of the present invention.
- the endoscope system 1 shown in FIG. 1 shows an example of the configuration of an endoscope system 1 according to a first embodiment of the present invention.
- the endoscope system 1 shown in FIG. 1 shows an example of the configuration of an endoscope system 1 according to a first embodiment of the present invention.
- the endoscope 10 is inserted into the digestive tract of the subject.
- the digestive tract is the large intestine.
- the endoscope 10 has an imaging unit 11.
- the imaging unit 11 is disposed at the tip of the endoscope 10.
- the imaging unit 11 is an image sensor, and generates multiple images at multiple positions in the digestive tract of the subject.
- the imaging unit 11 outputs the multiple images to the auxiliary information generating device 20.
- the auxiliary information generating device 20 has an image acquiring unit 21, a memory unit 22, an area detecting unit 23, an area calculating unit 24, a shooting direction determining unit 25, an auxiliary information generating unit 26, and a display unit 27.
- the image acquisition unit 21 sequentially acquires the multiple images output from the imaging unit 11.
- the image acquisition unit 21 outputs the multiple acquired images to the storage unit 22.
- the storage unit 22 is a memory that stores multiple images output from the image acquisition unit 21.
- the multiple images stored in the storage unit 22 are output sequentially to the area detection unit 23, the shooting direction determination unit 25, and the display unit 27.
- the region detection unit 23 detects characteristic regions in each of the multiple sections in the digestive tract based on the multiple images output from the memory unit 22.
- the region detection unit 23 detects unobserved regions as characteristic regions. There are cases where a region in the digestive tract is not shown in the image, or the visibility of the region in the image is poor. Alternatively, there are cases where a region in the digestive tract is shown in the image, but the doctor does not perform detailed observation or treatment of the region.
- the region detection unit 23 detects these regions as unobserved regions.
- the region detection unit 23 outputs region position information indicating the position of the unobserved region in the image to the region calculation unit 24.
- FIG. 2 shows an example of multiple sections.
- the digestive tract is divided into sections SE1 to SE5.
- each section is set based on the time at which the image of the area within the section was captured, and includes the area captured within a predetermined length of time.
- Each section may have a predetermined length and include an area within that length.
- Each section may be set for a specific part of the digestive tract.
- the area calculation unit 24 calculates the number of unobserved areas in each of the multiple sections in the digestive tract.
- the area calculation unit 24 outputs area number information indicating the number of unobserved areas in each section to the auxiliary information generation unit 26.
- the shooting direction determination unit 25 determines the shooting direction of the imaging unit 11 based on the multiple images output from the storage unit 22.
- Figures 3A and 3B show examples of shooting directions.
- the imaging unit 11 captures images in a depth direction D1 (longitudinal direction) along the inner wall IW of the digestive tract.
- the imaging unit 11 captures images in a direction D2 toward the inner wall IW.
- the doctor bends the endoscope 10 to observe or treat a specific area.
- the imaging unit 11 captures images in the direction D2.
- the imaging direction determination unit 25 may determine the imaging direction based on the state of the bending mechanism for bending the endoscope 10.
- the imaging direction determination unit 25 outputs imaging direction information indicating the imaging direction to the area calculation unit 24 and the auxiliary information generation unit 26.
- the imaging direction determination unit 25 may determine that the imaging direction is direction D1. Alternatively, when that feature gradually disappears and an image feature specific to a uniform lumen wall surface is detected, the imaging direction determination unit 25 may determine that the imaging direction has switched to direction D2. The imaging direction determination unit 25 may also determine direction D1 and direction D2 by using information detected by a special sensor or a sensor of the operation unit.
- the imaging direction determination unit 25 also determines the traveling direction of the endoscope 10 based on the multiple images output from the memory unit 22.
- the traveling direction of the endoscope 10 is the depth direction.
- the traveling direction of the endoscope 10 is the backward direction.
- the imaging direction determination unit 25 outputs traveling direction information indicating the traveling direction of the endoscope 10 to the area detection unit 23.
- the auxiliary information generating unit 26 generates auxiliary information according to the area number information output from the area calculating unit 24, and outputs the auxiliary information to the display unit 27.
- the auxiliary information is displayed in a manner according to the number of unobserved areas.
- the auxiliary information generating unit 26 controls the manner of the auxiliary information.
- the display unit 27 is a liquid crystal monitor or the like.
- the display unit 27 sequentially displays the multiple images output from the storage unit 22.
- the display unit 27 also displays the auxiliary information output from the auxiliary information generation unit 26 together with the images.
- At least one of the image acquisition unit 21, the area detection unit 23, the area calculation unit 24, the shooting direction determination unit 25, and the auxiliary information generation unit 26 may be configured by a processor such as a CPU (Central Processing Unit).
- a processor such as a CPU (Central Processing Unit).
- the computer may load a program and execute the loaded program.
- the program includes instructions that define the operation of at least one of the image acquisition unit 21, area detection unit 23, area calculation unit 24, shooting direction determination unit 25, and auxiliary information generation unit 26.
- at least one of the functions of the image acquisition unit 21, area detection unit 23, area calculation unit 24, shooting direction determination unit 25, and auxiliary information generation unit 26 may be realized by software.
- the above program may be provided by a "computer-readable recording medium” such as a flash memory.
- the program may be transmitted from a computer that holds the program to the endoscope system 1 via a transmission medium, or by a transmission wave in the transmission medium.
- the "transmission medium” that transmits the program is a medium that has the function of transmitting information.
- Media that have the function of transmitting information include networks (communication networks) such as the Internet and communication lines (communication lines) such as telephone lines.
- the above program may realize some of the functions described above.
- the above program may be a difference file (difference program).
- the functions described above may be realized by combining a program already recorded in the computer with a difference program.
- FIG. 4 shows an example of the processing steps executed by the auxiliary information generating device 20.
- Step S100 The image acquisition unit 21 acquires an image output from the imaging unit 11.
- the image acquisition unit 21 outputs the image to the storage unit 22.
- the image output from the image acquisition unit 21 is output to the area detection unit 23, the shooting direction determination unit 25, and the display unit 27.
- the display unit 27 displays the image output from the storage unit 22.
- Step S101 The imaging direction determination unit 25 determines whether or not the traveling direction of the endoscope 10 is the depth direction, based on the image output from the storage unit 22. When the traveling direction of the endoscope 10 is the depth direction, the imaging direction determination unit 25 outputs traveling direction information indicating the depth direction to the area detection unit 23. At this time, step S102 is executed. When the traveling direction of the endoscope 10 is not the depth direction, step S108 is executed.
- Step S102 The shooting direction determination unit 25 determines whether or not the shooting position in the depth direction has changed based on the image output from the storage unit 22. When the amount of change between the image of the current frame and the image of the frame immediately before the current frame is large, the shooting direction determination unit 25 determines that the shooting position in the depth direction has changed. When the amount of change is small, the shooting direction determination unit 25 determines that the shooting position in the depth direction has not changed. When the shooting position has changed, step S103 is executed. When the shooting position has not changed, step S100 is executed.
- Step S103 When the traveling direction information output from the shooting direction determination unit 25 indicates the depth direction, the area detection unit 23 detects an unobserved area in the section corresponding to the current shooting position, based on the image output from the storage unit 22. The area detection unit 23 outputs area position information indicating the position of the unobserved area in the image to the area calculation unit 24.
- the area detection unit 23 performs camera position estimation and three-dimensional (3D) reconstruction by using a technique called Visual SLAM (Simultaneous Localization and Mapping). A 3D model is restored through the 3D reconstruction. Positions on the 3D model and positions on the image are associated with each other.
- Visual SLAM Simultaneous Localization and Mapping
- the area detection unit 23 detects those areas as unobserved areas.
- the area detection unit 23 may process the image output from the memory unit 22 to detect the lesion. If a lesion is captured in an image generated when the shooting direction is the depth direction D1 shown in FIG. 3A, and the lesion is not captured in an image generated when the shooting direction is the direction D2 shown in FIG. 3B, the area detection unit 23 may detect the lesion as an unobserved area. As described below, the area detection unit 23 may detect the unobserved area by using artificial intelligence (AI).
- AI artificial intelligence
- Step S104 The shooting direction determination unit 25 determines whether or not the shooting direction of the imaging unit 11 is the depth direction based on the image output from the storage unit 22.
- the shooting direction determination unit 25 outputs shooting direction information indicating the depth direction to the area calculation unit 24 and the auxiliary information generation unit 26.
- step S105 is executed.
- step S100 is executed.
- Step S105 When the shooting direction information output from the shooting direction determination unit 25 indicates the depth direction, the region calculation unit 24 calculates the number of unobserved regions. For example, the region calculation unit 24 calculates the number of unobserved regions in each of a plurality of image regions obtained by dividing the image output from the storage unit 22 in the clockwise direction.
- the image is divided into four image regions symmetrical about the center of the image.
- the four image regions are the upper right image region, the upper left image region, the lower left image region, and the lower right image region.
- the region calculation unit 24 calculates the number of unobserved regions in each image region based on the region position information output from the region detection unit 23.
- the region calculation unit 24 outputs region number information indicating the number of unobserved regions in each image region to the auxiliary information generation unit 26.
- FIG. 5 shows an example of a method for calculating the number of unobserved regions.
- the endoscope 10 moves backward.
- the imaging unit 11 generates an image IMG1 at imaging time t1, generates an image IMG2 at imaging time t2, and generates an image IMG3 at imaging time t3.
- the region detection unit 23 uses image IMG1 to detect unobserved regions R1 and R2 that appear in image IMG1.
- the region detection unit 23 uses image IMG2 to detect unobserved regions R1 and R2 that appear in image IMG2.
- the region detection unit 23 uses image IMG3 to detect unobserved region R3 that appears in image IMG3. Unobserved regions R1 and R2 are not shown in image IMG3.
- the endoscope 10 passes through the same section of the digestive tract from imaging time t1 to t3, unobserved regions R1 to R3 are included in that section. Therefore, the number of unobserved regions in that section is 3.
- Step S106 When the shooting direction information output from the shooting direction determination unit 25 indicates the depth direction, the auxiliary information generation unit 26 generates auxiliary information and outputs the auxiliary information to the display unit 27. Details of step S106 will be described later.
- Step S107 The display unit 27 displays the auxiliary information output from the auxiliary information generating unit 26. Examples of the auxiliary information will be described later.
- Step S108 The imaging direction determination unit 25 determines whether or not the traveling direction of the endoscope 10 is the backward direction based on the image output from the storage unit 22.
- the imaging direction determination unit 25 outputs traveling direction information indicating the backward direction to the area detection unit 23.
- step S109 is executed.
- step S100 is executed.
- the auxiliary information generating unit outputs insertion auxiliary information for assisting the insertion of the endoscope 10 to the display unit 27.
- the display unit 27 displays the insertion auxiliary information output from the auxiliary information generating unit .
- FIG. 6 shows an example of the procedure of the process executed by the auxiliary information generating device 20 in step S106.
- Step S200 The auxiliary information generating unit 26 sets the variable n to 0, which is the initial value.
- Step S201 The auxiliary information generating unit 26 increments the variable n by one.
- the auxiliary information generating unit 26 refers to the area number information output from the area calculating unit 24 and determines whether the number of unobserved areas in the nth area is 1 or more.
- the first area is the upper right image area.
- the second area is the upper left image area.
- the third area is the lower left image area.
- the fourth area is the lower right image area.
- Step S203 The auxiliary information generating unit 26 determines whether the number of unobserved areas in the nth area is greater than 3. When the number of unobserved areas in the nth area is greater than 3, step S204 is executed. When the number of unobserved areas in the nth area is 3 or less, step S205 is executed.
- the threshold value of 3 in step S203 is an example. The threshold value is not limited to 3.
- the auxiliary information generating unit 26 generates a circle having an area that is 30% of the area of the nth region of the display screen of the display unit 27 as auxiliary information.
- the auxiliary information generating unit 26 generates a circle having an area that is 10% of the area of the nth region of the display screen of the display unit 27 as auxiliary information.
- Step S206 The auxiliary information generating unit 26 determines whether or not the variable n is 4. If the variable n is 4, step S107 shown in Fig. 4 is executed. If the variable n is not 4, step S201 is executed.
- the auxiliary information generating unit 26 controls the size of the icon indicating the auxiliary information for each image region according to the number of unobserved regions.
- the auxiliary information generating unit 26 When the number of unobserved regions is equal to or greater than a predetermined number, the auxiliary information generating unit 26 generates auxiliary information to be displayed in a first manner.
- the first manner is a circle having an area that is 30% of the area of the nth region of the display screen.
- the auxiliary information generating unit 26 When the number of unobserved regions is less than the predetermined number, the auxiliary information generating unit 26 generates auxiliary information to be displayed in a second manner different from the first manner.
- the second manner is a circle having an area that is 10% of the area of the nth region of the display screen.
- FIG. 7A shows an example of unobserved areas detected in an image.
- the area detection unit 23 detects six unobserved areas R10 in the first area of the image IMG10 output from the memory unit 22.
- the area detection unit 23 also detects two unobserved areas R11 in the third area of the image IMG10.
- the area calculation unit 24 calculates the number of unobserved areas in each of the multiple image areas obtained by dividing the image IMG10 in a clockwise direction D10.
- the clockwise direction D10 is the circumferential direction of a circle whose center coincides with the center of the image IMG10.
- the multiple sections in the digestive tract correspond to four regions obtained by dividing the image IMG10 in a clockwise direction D10.
- the clockwise direction D10 corresponds to the circumferential direction of the digestive tract.
- the circumferential direction of the digestive tract is the clockwise direction in a cross section of the digestive tract perpendicular to the depth direction.
- FIG. 7B shows an example of an image and auxiliary information displayed on the display unit 27.
- the display unit 27 displays an image IMG11.
- Icons IC10 and IC11 indicating auxiliary information are superimposed on the image IMG11.
- Icon IC10 is a circle with an area of 30% of the area of the first region of image IMG11. Icon IC10 indicates the number of unobserved regions in the first region. Icon IC10 is superimposed on the first region. Icon IC11 is a circle with an area of 10% of the area of the third region of image IMG11. Icon IC11 indicates the number of unobserved regions in the third region. Icon IC11 is superimposed on the third region.
- Icons IC10 and IC11 are displayed as simplified circles, but may also be displayed as polygons or arrows. Alternatively, frames showing icons IC10 and IC11 may be displayed.
- the auxiliary information indicating the position or number of unobserved regions is displayed as many small icons or frames, the user will find them cluttered. Therefore, the above information is displayed as simplified and summarized icons or frames.
- the user observes the image by placing emphasis on the shading or color of the relatively flat observation surface, the reproducibility of the gradation expression of the image, or the ease of understanding of the image, and observes the health condition of the observation subject or the presence or absence of a lesion so as not to miss small changes.
- the auxiliary information icon IC10 and icon IC11
- the auxiliary information generating device 20 switches the form of such auxiliary information according to the number of characteristic regions, thereby suppressing the clutter or discomfort so that the image of the original observation site can be observed as much as possible.
- the doctor can recognize the presence of an unobserved area based on icons IC10 and IC11. Because icon IC10 is larger than icon IC11, the doctor can determine that there is more unobserved area in the upper right region of the field of view of endoscope 10 than there is unobserved area in the lower left region of the field of view of endoscope 10.
- FIG. 8 shows an example of the procedure of the process executed by the auxiliary information generating device 20 in step S106. Processes that are the same as those shown in FIG. 6 will not be described. Processes that differ from those shown in FIG. 6 will be described.
- Step S210 The auxiliary information generating unit 26 sets the far region as the processing target.
- the far region is the region inside an ellipse passing through the midpoint between the center of the image and the corner of the image output from the storage unit 22. After step S210 is executed, step S200 is executed.
- Step S211 When the variable n is 4 in step S206, the auxiliary information generating unit 26 determines whether or not the near region is set as the processing target.
- the near region is the region outside an ellipse passing through the midpoint between the center of the image output from the storage unit 22 and the corner of the image. In other words, the near region is the region outside the far region.
- step S107 shown in FIG. 4 is executed.
- step S212 is executed.
- Step S212 The auxiliary information generating unit 26 sets the near region as a processing target. After step S212 is executed, step S200 is executed.
- the image output from the memory unit 22 is divided into four image regions in the far region and four image regions in the near region.
- FIG. 9A shows an example of unobserved regions detected in an image.
- image IMG12 output from memory unit 22 the far region is the region inside line L10, and the near region is the region outside line L10.
- Region detection unit 23 detects four unobserved regions R12 in the first region in the far region of image IMG12.
- Region detection unit 23 also detects two unobserved regions R13 in the first region and two unobserved regions R14 in the third region in the near region of image IMG12.
- the area calculation unit 24 calculates the number of unobserved areas in each of a plurality of image areas obtained by dividing the image IMG10 output from the memory unit 22 in a direction D11 and a clockwise direction D12.
- the direction D11 is the direction from the center of the image IMG12 toward the outer periphery of the image IMG12.
- the clockwise direction D12 is the circumferential direction of a circle whose center coincides with the center of the image IMG12.
- each section in the digestive tract corresponds to eight regions obtained by dividing image IMG12 in direction D11 and clockwise direction D12.
- direction D11 corresponds to the radial direction of the digestive tract
- clockwise direction D12 corresponds to the circumferential direction of the digestive tract.
- the radial direction of the digestive tract is parallel to a straight line that passes through the center of a cross section of the digestive tract perpendicular to the depth direction and is perpendicular to the depth direction.
- the circumferential direction of the digestive tract is the clockwise direction in a cross section of the digestive tract perpendicular to the depth direction.
- FIG. 9B shows an example of an image and auxiliary information displayed on the display unit 27.
- the display unit 27 displays an image IMG13.
- Icons IC12, IC13, and IC14 indicating auxiliary information are superimposed on the image IMG13.
- Icon IC12 is a circle with an area that is 30% of the area of the first region in the far region of image IMG13. Icon IC12 indicates the number of unobserved regions in the first region in the far region. Icon IC12 is superimposed on the first region in the far region.
- Icon IC13 is a circle with an area that is 10% of the area of the first region in the near region of image IMG13. Icon IC13 indicates the number of unobserved regions in the first region in the near region. Icon IC13 is superimposed on the first region in the near region.
- Icon IC14 is a circle with an area that is 10% of the area of the third region in the near region of image IMG13. Icon IC14 indicates the number of unobserved regions in the third region in the near region. Icon IC14 is superimposed on the third region in the near region.
- auxiliary information indicating the position or number of unobserved areas is displayed as many small icons or frames, the user will find them cluttered. For this reason, the above information is displayed as simplified and summarized icons or frames.
- auxiliary information icons IC12 to IC14
- the auxiliary information generating device 20 reduces the feeling of clutter or discomfort so that the image of the original observed area can be observed as much as possible.
- FIG. 10 shows an example of the procedure of the process executed by the auxiliary information generating device 20 in step S106. Processes that are the same as the process shown in FIG. 8 will not be described. Processes that differ from the process shown in FIG. 8 will be described.
- Step S204 shown in FIG. 8 is changed to step S204a, and step S205 shown in FIG. 8 is changed to step S205a.
- the auxiliary information generating unit 26 sets the color of the n-th region of the auxiliary display unit to a first color.
- the auxiliary display unit is a part of the display screen of the display unit 27.
- the first color corresponds to the auxiliary information.
- the first color is yellow, but is not limited to this.
- the auxiliary information generating unit 26 sets the color of the n-th region of the auxiliary display unit to a second color different from the first color.
- the second color corresponds to the auxiliary information.
- the second color is red, but is not limited to this.
- FIG. 11 shows an example of the display screen of the display unit 27.
- An image IMG14 is displayed on the display screen SC10.
- the display screen SC10 has an auxiliary display unit SUB10.
- Display area DR10 of auxiliary display unit SUB10 is displayed in a first color.
- Display area DR10 corresponds to a first area in the far area.
- Display areas DR11 and DR12 of auxiliary display unit SUB10 are displayed in a second color.
- Display area DR11 corresponds to a first area in the near area, and display area DR12 corresponds to a third area in the near area.
- the area detection unit 23 sequentially acquires multiple images (image frames) obtained by the imaging unit 11 of the endoscope 10, and detects characteristic areas, for example, at multiple positions in the subject's digestive tract, using the image frames or groups of image frames.
- the area detection unit 23 may detect characteristic areas by using an inference model (AI) obtained by deep learning or the like using feature information appearing in the image as teacher data.
- AI inference model
- the area detection unit 23 may also stitch together multiple images using 3D model construction technology, and determine that there is an unobserved area (hole in the 3D model) when there are no image frames to use as material for stitching.
- the area detection unit 23 may be realized by simply using logic that determines feature information based on rules, image processing calculations, etc.
- the region detection unit 23 detects the above-mentioned characteristic regions by using an image or a group of images obtained in each of a plurality of sections in the digestive tract.
- the auxiliary information generation unit 26 determines the number of characteristic regions and generates auxiliary information according to the number of characteristic regions.
- the auxiliary information is displayed on the image on the display unit 27, or is displayed in a region (display region DR11) different from the region in which the image is displayed on the display unit 27.
- the auxiliary information generation unit 26 controls the mode of the auxiliary information according to the number of characteristic regions. Therefore, depending on the situation, the auxiliary information generation unit 26 may need to use the result of recording the history of information detected by the region detection unit 23 as the number of characteristic regions.
- the region detection unit 23 may be provided with a function for recording information.
- Example 1 Areas with debris, foam, or stool.
- Example 2 Areas with contracted mucosa.
- Example 3 Areas with curved lumens.
- Example 4 Areas with many or deep folds.
- the auxiliary information generating unit 26 generates auxiliary information according to the number of unobserved areas.
- the auxiliary information generating unit 26 controls the mode of the auxiliary information according to the number of unobserved areas. Therefore, the auxiliary information generating unit 26 can avoid cumbersome notifications of the auxiliary information and a decrease in the visibility of the image.
- FIG. 1 An endoscope system 1 shown in Fig. 1 is used.
- An auxiliary information generating device 20 executes the process shown in Fig. 4.
- FIG. 12 shows an example of the procedure of the process executed by the auxiliary information generating device 20 in step S106.
- Step S220 The auxiliary information generating unit 26 refers to the area number information output from the area calculating unit 24 and determines whether the number of unobserved areas is equal to or greater than a predetermined number. When the number of unobserved areas is equal to or greater than the predetermined number, step S221 is executed. When the number of unobserved areas is less than the predetermined number, step S222 is executed.
- the auxiliary information generating unit 26 generates auxiliary information according to the coverage rate.
- the coverage rate indicates the ratio of the area of the digestive tract region not including unobserved regions to the area of the entire region.
- the auxiliary information generating unit 26 generates a warning notice as the auxiliary information.
- the warning notice is an icon for notifying the user that there are a predetermined number of unobserved regions or more.
- the region detection unit 23 performs 3D reconstruction in step S103 shown in Fig. 4 to generate a 3D point cloud that constitutes a 3D model.
- the region detection unit 23 interpolates the 3D point cloud of a hole region.
- the hole region corresponds to an unobserved region.
- N1 in formula (1) indicates the number of interpolated 3D point clouds.
- N2 in formula (1) indicates the number of all 3D point clouds including the interpolated 3D point clouds.
- the area detection unit 23 may generate mesh (polygon) data from the 3D point cloud.
- the area detection unit 23 may interpolate meshes of hole areas in a plurality of meshes.
- A1 in formula (2) indicates the area of the interpolated mesh
- A2 in formula (2) indicates the area of the entire mesh including the interpolated mesh
- N3 in formula (3) indicates the number of interpolated meshes
- N4 in formula (3) indicates the number of entire meshes including the interpolated mesh.
- the auxiliary information generating unit 26 may generate auxiliary information based on the number of hole regions instead of the coverage rate.
- a user observes an image by placing emphasis on the shading or color of a relatively flat observation surface, the reproducibility of the gradation expression of the image, or the clarity of the image, and observes the health condition of the subject or the presence or absence of a disease, etc., so as not to miss even the slightest changes.
- a large number of shapes with outlines are lined up, such as the circles or frames indicating unobserved regions R10 and R11, the user may find them irritating and cluttered.
- Step S222 The auxiliary information generating unit 26 generates auxiliary information according to the position of the unobserved area in the image.
- FIG. 13A shows a first example of a display screen of the display unit 27.
- An image IMG20 and an icon IC20 are displayed on the display screen SC20.
- Icon IC20 constitutes the auxiliary information generated in step S221, and indicates the coverage rate of each of the multiple sections in the digestive tract.
- Icon IC20 is configured in a bar shape and is divided into multiple areas in the vertical direction.
- the lower area in icon IC20 indicates the coverage rate of the front section of the digestive tract shown in image IMG20.
- the upper area in icon IC20 indicates the coverage rate of the back section of the digestive tract shown in image IMG20.
- Each area in icon IC20 is displayed in a color that corresponds to the coverage rate of the section corresponding to that area.
- FIG. 13B shows a second example of a display screen of the display unit 27.
- An image IMG20 and a message MS20 are displayed on the display screen SC21.
- Message MS20 constitutes the auxiliary information generated in step S221 and indicates the coverage rate.
- the coverage rate in message MS20 indicates the coverage rate of one of the multiple sections in the digestive tract.
- the coverage rates of the multiple sections may be displayed on display screen SC21.
- FIG. 13C shows a third example of a display screen of the display unit 27.
- An image IMG20 is displayed on the display screen SC22.
- the display screen SC22 has an auxiliary display unit SUB20.
- the auxiliary display unit SUB20 displays a number of lines corresponding to the positions of the folds shown in the image IMG20.
- the multiple lines constitute the auxiliary information generated in step S221. Multiple sections within the digestive tract are separated by the folds. Each of the multiple lines is displayed in a color that corresponds to the coverage rate of each section.
- FIG. 14A shows a fourth example of a display screen of the display unit 27.
- An image IMG20 is displayed on the display screen SC23.
- the display screen SC23 has an auxiliary display unit SUB21.
- the auxiliary display unit SUB21 displays a schematic diagram of the digestive tract constituting the auxiliary information generated in step S221.
- Each of the multiple sections in the digestive tract corresponds to a part such as the rectum.
- Each of the multiple sections is displayed in a color according to the coverage rate of each section.
- FIG. 14B shows a fifth example of a display screen of the display unit 27.
- An image IMG20 is displayed on the display screen SC24.
- Caution notification AN20 is superimposed on image IMG20.
- Caution notification AN20 indicates that there are a predetermined number of unobserved areas.
- FIG. 15B shows a sixth example of a display screen of the display unit 27.
- Image IMG20 is displayed on the display screen SC25.
- Position information PI20 is superimposed on image IMG20.
- Position information PI20 constitutes auxiliary information generated in step S222 and indicates the position of the unobserved area.
- Position information PI20 is displayed at a position on image IMG20 that corresponds to the position of the unobserved area.
- Position information PI20 may be displayed as an arrow indicating the position of the unobserved area.
- FIG. 15 shows an example of the procedure of the process executed by the auxiliary information generating device 20 in step S106.
- Step S230 Step S105 shown in Fig. 4 is included in step S230.
- the area calculation unit 24 calculates the number of unobserved areas in the section (current section) corresponding to the current shooting position. The number of unobserved areas in the current section does not include the number of unobserved areas in one or more sections (past sections) through which the endoscope 10 has already passed.
- the area calculation unit 24 outputs area number information indicating the number of unobserved areas to the auxiliary information generation unit 26.
- Step S231 The auxiliary information generating unit 26 judges whether the number of unobserved regions is equal to or greater than a predetermined number by referring to the region number information output from the region calculating unit 24. When the number of unobserved regions is equal to or greater than the predetermined number, step S232 is executed. When the number of unobserved regions is less than the predetermined number, step S234 is executed.
- Step S232 The auxiliary information generating unit 26 calculates the coverage rate according to the number of unobserved regions.
- the method of calculating the coverage rate is the same as the method of calculating the coverage rate in step S221 shown in FIG.
- Step S233 The auxiliary information generating unit 26 generates auxiliary information according to the coverage rate.
- the auxiliary information generating unit 26 generates auxiliary information that indicates the position of an unobserved area in an image.
- FIG. 16 shows an example of the procedure of the process executed by the auxiliary information generating device 20 in step S106. Processes that are the same as the process shown in FIG. 15 will not be described. Processes that differ from the process shown in FIG. 15 will be described.
- Step S230 shown in FIG. 15 is changed to step S230a.
- Step S230a The region calculation unit 24 calculates the number of unobserved regions in one or more sections (past sections) through which the endoscope 10 has already passed.
- the number of unobserved regions in the past sections does not include the number of unobserved regions in the section (current section) corresponding to the current shooting position.
- the region calculation unit 24 outputs region number information indicating the number of unobserved regions to the auxiliary information generation unit 26.
- step S232 and S233 have been executed, the execution of steps S231 and S234 may be stopped. In other words, after step S230a has been executed, step S232 may be executed without executing step S231.
- the auxiliary information generating unit 26 generates auxiliary information according to the number of unobserved areas. When the number of unobserved areas is large, the auxiliary information generating unit 26 generates auxiliary information indicating the coverage rate. The user can roughly grasp the existence of unobserved areas. When the number of unobserved areas is small, the auxiliary information generating unit 26 generates auxiliary information indicating the positions of the unobserved areas. The user can grasp the detailed positions of the unobserved areas.
- the auxiliary information generating method, auxiliary information generating device, and program can avoid cumbersome notification of auxiliary information obtained from multiple images, including images acquired in the past.
- a gastrointestinal endoscope is used as an example, but it goes without saying that each embodiment of the present invention can be used with any measuring or inspecting device that performs observation, measurement, and inspection by sequentially changing its position in the depth direction.
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Biomedical Technology (AREA)
- Optics & Photonics (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Biophysics (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Endoscopes (AREA)
Abstract
補助情報生成方法は、被験者の消化管内の複数の位置において内視鏡の撮像部によって得られた複数の画像を順次取得し、前記複数の画像に基づいて、前記消化管における特徴領域を検出し、前記消化管内の複数の区間の各々における前記特徴領域の数を算出し、前記特徴領域の前記数に応じて補助情報を生成し、前記補助情報が表示部に表示されるときに前記補助情報の態様を前記特徴領域の前記数に応じて制御する。
Description
本発明は、補助情報生成方法、補助情報生成装置、およびプログラムに関する。
近年、画像認識技術を使用することにより、画像における特徴部分を判定し、画像と判定結果とを表示する方法が様々なシーンで使用されている。しかしながら、検出される特徴部分の種類または数が多くなると、表示画面がその判定結果に関する情報で満たされ、画像の視認性が低下する。
特許文献1は、グラフィックスオブジェクトを実空間の映像に重畳する技術を開示する。この技術では、表示位置が近い複数の拡張現実感情報が1つの集合グラフィックスオブジェクトとして表示される。
特許文献1に開示された技術では、現在表示されている映像と関連する拡張現実感情報が表示される。しかしながら、過去に表示された映像と関連する拡張現実感情報は重視されていない。
本発明は、過去に取得された画像を含む複数の画像から得られる補助情報の煩雑な通知を避けることができる補助情報生成方法、補助情報生成装置、およびプログラムを提供することを目的とする。
本発明の第1の態様によれば、補助情報生成方法は、以下を含む。被験者の消化管内の複数の位置において内視鏡の撮像部によって得られた複数の画像を順次取得する。前記複数の画像に基づいて、前記消化管における特徴領域を検出する。前記消化管内の複数の区間の各々における前記特徴領域の数を算出する。前記特徴領域の前記数に応じて補助情報を生成し、前記補助情報が表示部に表示されるときに前記補助情報の態様を前記特徴領域の前記数に応じて制御する。
本発明の第2の態様によれば、第1の態様において、前記補助情報生成方法は、前記撮像部が前記消化管の奥行き方向に撮影を実行しているか否かを判定してもよく、前記撮像部が前記奥行き方向に撮影を実行していると判定されるときに前記補助情報を前記表示部に出力してもよい。
本発明の第3の態様によれば、第2の態様において、前記補助情報生成方法は、前記撮像部によって得られた画像を前記消化管の円周方向と対応する方向に分割した複数の画像領域の各画像領域の前記補助情報を生成してもよい。
本発明の第4の態様によれば、第3の態様において、前記補助情報生成方法は、前記複数の画像領域の各画像領域の前記補助情報を示すアイコンの大きさを、前記特徴領域の前記数に応じて制御してもよい。
本発明の第5の態様によれば、第2の態様において、前記撮像部によって得られた画像を前記消化管の半径方向と対応する方向に分割し、かつ前記消化管の円周方向と対応する方向に分割した複数の画像領域の各画像領域の前記補助情報を生成してもよい。
本発明の第6の態様によれば、第1の態様において、前記補助情報生成方法は、前記特徴領域の前記数が所定の数以上であるとき、第1の態様で表示される前記補助情報を生成してもよく、前記特徴領域の前記数が前記所定の数未満であるとき、前記第1の態様と異なる第2の態様で表示される前記補助情報を生成してもよい。
本発明の第7の態様によれば、第6の態様において、前記第2の態様で表示される前記補助情報は、前記特徴領域の位置を示してもよい。
本発明の第8の態様によれば、補助情報生成装置は、画像取得部、領域検出部、領域算出部、および補助情報生成部を有する。前記画像取得部は、被験者の消化管内の複数の位置において内視鏡の撮像部によって得られた複数の画像を順次取得する。前記領域検出部は、前記複数の画像に基づいて、前記消化管における特徴領域を検出する。前記領域算出部は、前記補助情報生成部は、前記特徴領域の前記数に応じて補助情報を生成し、前記補助情報が表示部に表示されるときに前記補助情報の態様を前記特徴領域の前記数に応じて制御する。
本発明の第9の態様によれば、以下をコンピュータに実行させるためのプログラムが提供される。被験者の消化管内の複数の位置において内視鏡の撮像部によって得られた複数の画像を順次取得する。前記複数の画像に基づいて、前記消化管における特徴領域を検出する。前記消化管内の複数の区間の各々における前記特徴領域の数を算出する。前記特徴領域の前記数に応じて補助情報を生成し、前記補助情報が表示部に表示されるときに前記補助情報の態様を前記特徴領域の前記数に応じて制御する。
上記の各態様によれば、補助情報生成方法、補助情報生成装置、およびプログラムは、過去に取得された画像を含む複数の画像から得られる補助情報の煩雑な通知を避けることができる。
以下、図面を参照し、本発明の実施形態を説明する。以下では、補助情報生成装置を含む内視鏡システムの例を説明する。以下の説明における「複数のXX」は、2つ以上のXXを意味する。
(第1の実施形態)
図1は、本発明の第1の実施形態に係る内視鏡システム1の構成の例を示す。図1に示す内視鏡システム1は、内視鏡10および補助情報生成装置20を有する。
図1は、本発明の第1の実施形態に係る内視鏡システム1の構成の例を示す。図1に示す内視鏡システム1は、内視鏡10および補助情報生成装置20を有する。
内視鏡10は、被験者の消化管に挿入される。例えば、消化管は大腸である。内視鏡10は、撮像部11を有する。撮像部11は、内視鏡10の先端に配置されている。撮像部11は、イメージセンサであり、被験者の消化管内の複数の位置における複数の画像を生成する。撮像部11は、複数の画像を補助情報生成装置20に出力する。
補助情報生成装置20は、画像取得部21、記憶部22、領域検出部23、領域算出部24、撮影方向判定部25、補助情報生成部26、および表示部27を有する。
画像取得部21は、撮像部11から出力された複数の画像を順次取得する。画像取得部21は、取得された複数の画像を記憶部22に出力する。
記憶部22は、メモリであり、画像取得部21から出力された複数の画像を記憶する。記憶部22に記憶された複数の画像は、領域検出部23、撮影方向判定部25、および表示部27に順次出力される。
領域検出部23は、記憶部22から出力された複数の画像に基づいて、消化管内の複数の区間の各々における特徴領域を検出する。以下の例では、領域検出部23が特徴領域として未観察領域を検出する例を説明する。消化管内の領域が画像に写っていない、または画像における領域の視認性が悪い場合がある。あるいは、消化管内の領域は画像に写っているが、医師がその領域の詳細な観察または処置を実施しない場合がある。領域検出部23は、これらの領域を未観察領域として検出する。領域検出部23は、画像における未観察領域の位置を示す領域位置情報を領域算出部24に出力する。
図2は、複数の区間の例を示す。消化管は区間SE1からSE5に分割される。例えば、各区間は、区間内の領域の画像の撮影時刻に基づいて設定され、所定の長さの時間内に撮影された領域を含む。各区間は、所定の長さを持ち、その長さ内の領域を含んでもよい。消化管内の特定の部位ごとに各区間が設定されてもよい。
領域算出部24は、消化管内の複数の区間の各々における未観察領域の数を算出する。領域算出部24は、各区間における未観察領域の数を示す領域数情報を補助情報生成部26に出力する。
撮影方向判定部25は、記憶部22から出力された複数の画像に基づいて、撮像部11の撮影方向を判定する。図3Aおよび図3Bは、撮影方向の例を示す。
図3Aでは、撮像部11は、消化管の内壁IWに沿った奥行き方向D1(長軸方向)に撮影を実行する。図3Bでは、撮像部11は、内壁IWに向かう方向D2に撮影を実行する。医師は、特定の領域の観察または処置を実施するために、内視鏡10を湾曲させる。このとき、撮像部11は方向D2に撮影を実行する。撮影方向判定部25は、内視鏡10を湾曲させるための湾曲機構の状態に基づいて撮影方向を判定してもよい。撮影方向判定部25は、撮影方向を示す撮影方向情報を領域算出部24および補助情報生成部26に出力する。
複数の画像が変化し、画像の中央部付近に継続して暗い管腔穴の画像特徴が検出されたとき、撮影方向判定部25は、撮影方向が方向D1であると判定してもよい。あるいは、その特徴が次第に消失して均一な管腔の壁面に特有の画像特徴が検出されたとき、撮影方向判定部25は、撮影方向が方向D2に切り替わったと判定してもよい。また、撮影方向判定部25は、特別なセンサまたは操作部のセンサによって検出された情報を使用することにより、方向D1および方向D2を判定してもよい。
また、撮影方向判定部25は、記憶部22から出力された複数の画像に基づいて、内視鏡10の進行方向を判定する。医師が内視鏡10を消化管内の検査対象に向かって移動させているとき、内視鏡10の進行方向は奥行き方向である。医師が内視鏡10を消化管から抜去される方向に移動させているとき、内視鏡10の進行方向は後退方向である。撮影方向判定部25は、内視鏡10の進行方向を示す進行方向情報を領域検出部23に出力する。
補助情報生成部26は、領域算出部24から出力された領域数情報に応じて補助情報を生成し、補助情報を表示部27に出力する。補助情報は、未観察領域の数に応じた態様で表示される。補助情報生成部26は、補助情報の態様を制御する。
表示部27は、液晶モニタなどである。表示部27は、記憶部22から出力された複数の画像を順次表示する。また、表示部27は、補助情報生成部26から出力された補助情報を画像と一緒に表示する。
画像取得部21、領域検出部23、領域算出部24、撮影方向判定部25、および補助情報生成部26の少なくとも1つは、CPU(Central Processing Unit)のようなプロセッサにより構成されてもよい。
コンピュータがプログラムを読み込み、かつ読み込まれたプログラムを実行してもよい。そのプログラムは、画像取得部21、領域検出部23、領域算出部24、撮影方向判定部25、および補助情報生成部26の少なくとも1つの動作を規定する命令を含む。つまり、画像取得部21、領域検出部23、領域算出部24、撮影方向判定部25、および補助情報生成部26の少なくとも1つの機能はソフトウェアにより実現されてもよい。
上記のプログラムは、例えばフラッシュメモリのような「コンピュータ読み取り可能な記録媒体」により提供されてもよい。そのプログラムは、そのプログラムを保持するコンピュータから、伝送媒体を経由して、あるいは伝送媒体中の伝送波により内視鏡システム1に伝送されてもよい。プログラムを伝送する「伝送媒体」は、情報を伝送する機能を有する媒体である。情報を伝送する機能を有する媒体は、インターネット等のネットワーク(通信網)および電話回線等の通信回線(通信線)を含む。上述したプログラムは、前述した機能の一部を実現してもよい。さらに、上述したプログラムは、差分ファイル(差分プログラム)であってもよい。前述した機能は、コンピュータに既に記録されているプログラムと差分プログラムとの組合せによって実現されてもよい。
図4を使用することにより、補助情報生成装置20の動作の例を説明する。図4は、補助情報生成装置20が実行する処理の手順の例を示す。
(ステップS100)
画像取得部21は、撮像部11から出力された画像を取得する。画像取得部21は、その画像を記憶部22に出力する。画像取得部21から出力された画像は、記憶部22に出力された後、領域検出部23、撮影方向判定部25、および表示部27に出力される。表示部27は、記憶部22から出力された画像を表示する。
画像取得部21は、撮像部11から出力された画像を取得する。画像取得部21は、その画像を記憶部22に出力する。画像取得部21から出力された画像は、記憶部22に出力された後、領域検出部23、撮影方向判定部25、および表示部27に出力される。表示部27は、記憶部22から出力された画像を表示する。
(ステップS101)
撮影方向判定部25は、記憶部22から出力された画像に基づいて、内視鏡10の進行方向が奥行き方向であるか否かを判定する。内視鏡10の進行方向が奥行き方向であるとき、撮影方向判定部25は、奥行き方向を示す進行方向情報を領域検出部23に出力する。このとき、ステップS102が実行される。内視鏡10の進行方向が奥行き方向ではないとき、ステップS108が実行される。
撮影方向判定部25は、記憶部22から出力された画像に基づいて、内視鏡10の進行方向が奥行き方向であるか否かを判定する。内視鏡10の進行方向が奥行き方向であるとき、撮影方向判定部25は、奥行き方向を示す進行方向情報を領域検出部23に出力する。このとき、ステップS102が実行される。内視鏡10の進行方向が奥行き方向ではないとき、ステップS108が実行される。
(ステップS102)
撮影方向判定部25は、記憶部22から出力された画像に基づいて、奥行き方向における撮影位置が変化したか否かを判定する。現在のフレームの画像と、現在のフレームの1つ前のフレームの画像との間の変化量が大きいとき、撮影方向判定部25は奥行き方向における撮影位置が変化したと判定する。その変化量が小さいとき、撮影方向判定部25は奥行き方向における撮影位置が変化していないと判定する。撮影位置が変化したとき、ステップS103が実行される。撮影位置が変化していないとき、ステップS100が実行される。
撮影方向判定部25は、記憶部22から出力された画像に基づいて、奥行き方向における撮影位置が変化したか否かを判定する。現在のフレームの画像と、現在のフレームの1つ前のフレームの画像との間の変化量が大きいとき、撮影方向判定部25は奥行き方向における撮影位置が変化したと判定する。その変化量が小さいとき、撮影方向判定部25は奥行き方向における撮影位置が変化していないと判定する。撮影位置が変化したとき、ステップS103が実行される。撮影位置が変化していないとき、ステップS100が実行される。
(ステップS103)
撮影方向判定部25から出力された進行方向情報が奥行き方向を示すとき、領域検出部23は、記憶部22から出力された画像に基づいて、現在の撮影位置と対応する区間における未観察領域を検出する。領域検出部23は、画像における未観察領域の位置を示す領域位置情報を領域算出部24に出力する。
撮影方向判定部25から出力された進行方向情報が奥行き方向を示すとき、領域検出部23は、記憶部22から出力された画像に基づいて、現在の撮影位置と対応する区間における未観察領域を検出する。領域検出部23は、画像における未観察領域の位置を示す領域位置情報を領域算出部24に出力する。
例えば、領域検出部23は、Visual SLAM(Simultaneous Localization and Mapping)と呼ばれる技術を使用することにより、カメラ位置の推定および3次元(3D)再構成を実行する。3D再構成を通して3Dモデルが復元される。3Dモデル上の位置と画像上の位置とは互いに関連付けられている。
消化管の一部の領域が画像に写っていない、または画像が3D再構成に適していない場合、3Dモデルの一部の領域が復元されない。領域検出部23は、その領域を未観察領域として検出する。
領域検出部23は、記憶部22から出力された画像を処理し、病変部を検出してもよい。撮影方向が図3Aに示す奥行き方向D1であるときに生成された画像に病変部が写っており、撮影方向が図3Bに示す方向D2であるときに生成された画像にその病変部が写っていない場合、領域検出部23は、その病変部を未観察領域として検出してもよい。後述するように、領域検出部23は、人工知能(AI)を使用することにより未観察領域を検出してもよい。
(ステップS104)
撮影方向判定部25は、記憶部22から出力された画像に基づいて、撮像部11の撮影方向が奥行き方向であるか否かを判定する。撮像部11の撮影方向が奥行き方向であるとき、撮影方向判定部25は奥行き方向を示す撮影方向情報を領域算出部24および補助情報生成部26に出力する。このとき、ステップS105が実行される。撮像部11の撮影方向が奥行き方向ではないとき、ステップS100が実行される。
撮影方向判定部25は、記憶部22から出力された画像に基づいて、撮像部11の撮影方向が奥行き方向であるか否かを判定する。撮像部11の撮影方向が奥行き方向であるとき、撮影方向判定部25は奥行き方向を示す撮影方向情報を領域算出部24および補助情報生成部26に出力する。このとき、ステップS105が実行される。撮像部11の撮影方向が奥行き方向ではないとき、ステップS100が実行される。
(ステップS105)
撮影方向判定部25から出力された撮影方向情報が奥行き方向を示すとき、領域算出部24は、未観察領域の数を算出する。例えば、領域算出部24は、記憶部22から出力された画像を時計方向に分割した複数の画像領域の各画像領域における未観察領域の数を算出する。
撮影方向判定部25から出力された撮影方向情報が奥行き方向を示すとき、領域算出部24は、未観察領域の数を算出する。例えば、領域算出部24は、記憶部22から出力された画像を時計方向に分割した複数の画像領域の各画像領域における未観察領域の数を算出する。
例えば、画像は、その画像の中心に対称な4つの画像領域に分割される。その4つの画像領域は、右上の画像領域、左上の画像領域、左下の画像領域、および右下の画像領域である。領域算出部24は、領域検出部23から出力された領域位置情報に基づいて、各画像領域における未観察領域の数を算出する。領域算出部24は、各画像領域における未観察領域の数を示す領域数情報を補助情報生成部26に出力する。
図5は、未観察領域の数を算出する方法の例を示す。内視鏡10は、後退方向に移動する。撮像部11は、撮影時刻t1において画像IMG1を生成し、撮影時刻t2において画像IMG2を生成し、撮影時刻t3において画像IMG3を生成する。
領域検出部23は、画像IMG1を使用することにより、画像IMG1に写っている未観察領域R1およびR2を検出する。領域検出部23は、画像IMG2を使用することにより、画像IMG2に写っている未観察領域R1およびR2を検出する。領域検出部23は、画像IMG3を使用することにより、画像IMG3に写っている未観察領域R3を検出する。未観察領域R1およびR2は画像IMG3に写っていない。内視鏡10が撮影時刻t1からt3まで消化管内の同一区間を通るとき、未観察領域R1からR3がその区間に含まれる。そのため、その区間における未観察領域の数は3である。
(ステップS106)
撮影方向判定部25から出力された撮影方向情報が奥行き方向を示すとき、補助情報生成部26は補助情報を生成し、補助情報を表示部27に出力する。ステップS106の詳細については、後述する。
撮影方向判定部25から出力された撮影方向情報が奥行き方向を示すとき、補助情報生成部26は補助情報を生成し、補助情報を表示部27に出力する。ステップS106の詳細については、後述する。
(ステップS107)
表示部27は、補助情報生成部26から出力された補助情報を表示する。補助情報の例については後述する。
表示部27は、補助情報生成部26から出力された補助情報を表示する。補助情報の例については後述する。
(ステップS108)
撮影方向判定部25は、記憶部22から出力された画像に基づいて、内視鏡10の進行方向が後退方向であるか否かを判定する。内視鏡10の進行方向が後退方向であるとき、撮影方向判定部25は、後退方向を示す進行方向情報を領域検出部23に出力する。このとき、ステップS109が実行される。内視鏡10の進行方向が後退方向ではないとき、ステップS100が実行される。
撮影方向判定部25は、記憶部22から出力された画像に基づいて、内視鏡10の進行方向が後退方向であるか否かを判定する。内視鏡10の進行方向が後退方向であるとき、撮影方向判定部25は、後退方向を示す進行方向情報を領域検出部23に出力する。このとき、ステップS109が実行される。内視鏡10の進行方向が後退方向ではないとき、ステップS100が実行される。
(ステップS109)
補助情報生成部26は、内視鏡10の挿入を補助するための挿入補助情報を表示部27に出力する。表示部27は、補助情報生成部26から出力された挿入補助情報を表示する。
補助情報生成部26は、内視鏡10の挿入を補助するための挿入補助情報を表示部27に出力する。表示部27は、補助情報生成部26から出力された挿入補助情報を表示する。
図6を使用することにより、ステップS106における補助情報生成装置20の動作の第1の例を説明する。図6は、補助情報生成装置20がステップS106において実行する処理の手順の例を示す。
(ステップS200)
補助情報生成部26は、変数nを初期値である0に設定する。
補助情報生成部26は、変数nを初期値である0に設定する。
(ステップS201)
補助情報生成部26は、変数nを1増加する。
補助情報生成部26は、変数nを1増加する。
(ステップS202)
補助情報生成部26は、領域算出部24から出力された領域数情報を参照し、第n領域における未観察領域の数が1以上であるか否かを判定する。第1領域は、右上の画像領域である。第2領域は、左上の画像領域である。第3領域は、左下の画像領域である。第4領域は、右下の画像領域である。第n領域における未観察領域の数が1以上であるとき、ステップS203が実行される。第n領域における未観察領域の数が0であるとき、ステップS206が実行される。
補助情報生成部26は、領域算出部24から出力された領域数情報を参照し、第n領域における未観察領域の数が1以上であるか否かを判定する。第1領域は、右上の画像領域である。第2領域は、左上の画像領域である。第3領域は、左下の画像領域である。第4領域は、右下の画像領域である。第n領域における未観察領域の数が1以上であるとき、ステップS203が実行される。第n領域における未観察領域の数が0であるとき、ステップS206が実行される。
(ステップS203)
補助情報生成部26は、第n領域における未観察領域の数が3よりも大きいか否かを判定する。第n領域における未観察領域の数が3よりも大きいとき、ステップS204が実行される。第n領域における未観察領域の数が3以下であるとき、ステップS205が実行される。ステップS203における閾値3は例である。閾値は3に限らない。
補助情報生成部26は、第n領域における未観察領域の数が3よりも大きいか否かを判定する。第n領域における未観察領域の数が3よりも大きいとき、ステップS204が実行される。第n領域における未観察領域の数が3以下であるとき、ステップS205が実行される。ステップS203における閾値3は例である。閾値は3に限らない。
(ステップS204)
補助情報生成部26は、表示部27の表示画面の第n領域の面積の30%の面積を持つ円を補助情報として生成する。
補助情報生成部26は、表示部27の表示画面の第n領域の面積の30%の面積を持つ円を補助情報として生成する。
(ステップS205)
補助情報生成部26は、表示部27の表示画面の第n領域の面積の10%の面積を持つ円を補助情報として生成する。
補助情報生成部26は、表示部27の表示画面の第n領域の面積の10%の面積を持つ円を補助情報として生成する。
(ステップS206)
補助情報生成部26は、変数nが4であるか否かを判定する。変数nが4であるとき、図4に示すステップS107が実行される。変数nが4ではないとき、ステップS201が実行される。
補助情報生成部26は、変数nが4であるか否かを判定する。変数nが4であるとき、図4に示すステップS107が実行される。変数nが4ではないとき、ステップS201が実行される。
補助情報生成部26は、ステップS204およびS205において、各画像領域の補助情報を示すアイコンの大きさを、未観察領域の数に応じて制御する。未観察領域の数が所定の数以上であるとき、補助情報生成部26は第1の態様で表示される補助情報を生成する。上記の例では、第1の態様は、表示画面の第n領域の面積の30%の面積を持つ円である。未観察領域の数が所定の数未満であるとき、補助情報生成部26は第1の態様と異なる第2の態様で表示される補助情報を生成する。上記の例では、第2の態様は、表示画面の第n領域の面積の10%の面積を持つ円である。
図7Aは、画像において検出された未観察領域の例を示す。領域検出部23は、記憶部22から出力された画像IMG10における第1領域の6つの未観察領域R10を検出する。また、領域検出部23は、画像IMG10における第3領域の2つの未観察領域R11を検出する。領域算出部24は、画像IMG10を時計方向D10に分割した複数の画像領域の各画像領域における未観察領域の数を算出する。時計方向D10は、画像IMG10の中心と一致する中心を持つ円の円周方向である。
図7Aに示す例では、消化管内の複数の区間は、画像IMG10を時計方向D10に分割した4つの領域と対応する。撮像部11の撮影方向が奥行き方向であるとき、時計方向D10は消化管の円周方向と対応する。消化管の円周方向は、奥行き方向と垂直な消化管の断面における時計方向である。
ユーザは、消化管内部など比較的平坦な面の濃淡または色合い、画像の階調表現の再現性、または画像のわかりやすさを重視して画像を観察し、細かな変化を見逃さないように観察対象の健康状態または病変の有無などを観察する。未観察領域R10および未観察領域R11を示す円または枠のように、輪郭部を持つ多数の図形が並ぶと、ユーザはそれらを煩わしく、煩雑に感じる可能性があった。もちろん、対象物を表示する画面と異なるサブ画面にそれらを表示する場合も、サブ画面の比較的小さい領域に雑多な情報が並ぶと、本来の簡単なガイドが複雑化して理解が困難になる可能性があった。小さな領域に細かな図形が並ぶと、ユーザがそれらの重なりなどの意味をとっさに判定することが困難になる。
図7Bは、表示部27に表示された画像および補助情報の例を示す。表示部27は、画像IMG11を表示する。補助情報を示すアイコンIC10およびIC11が画像IMG11に重畳される。
アイコンIC10は、画像IMG11の第1領域の面積の30%の面積を持つ円である。アイコンIC10は、第1領域の未観察領域の数を示す。アイコンIC10は、第1領域に重畳される。アイコンIC11は、画像IMG11の第3領域の面積の10%の面積を持つ円である。アイコンIC11は、第3領域の未観察領域の数を示す。アイコンIC11は、第3領域に重畳される。
アイコンIC10およびアイコンIC11は、単純化された円形で表示されるが、多角形または矢印などで表示されてもよい。あるいは、アイコンIC10およびアイコンIC11を示す枠が表示されてもよい。
例えば、未観察領域の位置または数を示す補助情報が多くの細かいアイコンまたは枠として表示されると、ユーザはそれらを煩雑に感じる。そのため、単純化かつ要約したアイコンまたは枠などで上記の情報が表示される。前述したように、ユーザは、比較的平坦な観察面の濃淡または色合い、画像の階調表現の再現性、または画像のわかりやすさを重視して画像を観察し、細かな変化を見逃さないように、観察対象の健康状態または病変の有無などを観察する。そのようなユーザのために、観察部位が表示された画像において観察部位と補助情報(アイコンIC10およびアイコンIC11)との視認性を両立させるためには、補助情報が単純化されることが好ましい場合がある。補助情報生成装置20は、このような補助情報の態様を特徴領域の数に応じて切り換えることにより、なるべく本来の観察部位の画像が観察されるように、煩雑感または違和感を抑えている。
医師は、アイコンIC10およびIC11に基づいて、未観察領域の存在を認識することができる。アイコンIC10がアイコンIC11よりも大きいため、医師は内視鏡10の視野における右上の領域に存在する未観察領域が内視鏡10の視野における左下の領域に存在する未観察領域よりも多いと判断することができる。
図8を使用することにより、ステップS106における補助情報生成装置20の動作の第2の例を説明する。図8は、補助情報生成装置20がステップS106において実行する処理の手順の例を示す。図6に示す処理と同じ処理については説明しない。図6に示す処理と異なる処理について説明する。
(ステップS210)
補助情報生成部26は、遠領域を処理対象として設定する。遠領域は、記憶部22から出力された画像の中心と画像の角との中点を通る楕円の内側の領域である。ステップS210が実行された後、ステップS200が実行される。
補助情報生成部26は、遠領域を処理対象として設定する。遠領域は、記憶部22から出力された画像の中心と画像の角との中点を通る楕円の内側の領域である。ステップS210が実行された後、ステップS200が実行される。
(ステップS211)
ステップS206において変数nが4であるとき、補助情報生成部26は、近領域が処理対象として設定されているか否かを判定する。近領域は、記憶部22から出力された画像の中心と画像の角との中点を通る楕円の外側の領域である。つまり、近領域は遠領域の外側の領域である。近領域が処理対象として設定されているとき、図4に示すステップS107が実行される。遠領域が処理対象として設定されているとき、ステップS212が実行される。
ステップS206において変数nが4であるとき、補助情報生成部26は、近領域が処理対象として設定されているか否かを判定する。近領域は、記憶部22から出力された画像の中心と画像の角との中点を通る楕円の外側の領域である。つまり、近領域は遠領域の外側の領域である。近領域が処理対象として設定されているとき、図4に示すステップS107が実行される。遠領域が処理対象として設定されているとき、ステップS212が実行される。
(ステップS212)
補助情報生成部26は、近領域を処理対象として設定する。ステップS212が実行された後、ステップS200が実行される。
補助情報生成部26は、近領域を処理対象として設定する。ステップS212が実行された後、ステップS200が実行される。
図8に示す例では、記憶部22から出力された画像は、遠領域における4つの画像領域と、近領域における4つの画像領域とに分割される。
図9Aは、画像において検出された未観察領域の例を示す。記憶部22から出力された画像IMG12において、遠領域は線L10の内側の領域であり、近領域は線L10の外側の領域である。領域検出部23は、画像IMG12の遠領域における第1領域の4つの未観察領域R12を検出する。また、領域検出部23は、画像IMG12の近領域における第1領域の2つの未観察領域R13と第3領域の2つの未観察領域R14とを検出する。
領域算出部24は、記憶部22から出力された画像IMG10を方向D11かつ時計方向D12に分割した複数の画像領域の各画像領域における未観察領域の数を算出する。方向D11は、画像IMG12の中心から画像IMG12の外周に向かう方向である。時計方向D12は、画像IMG12の中心と一致する中心を持つ円の円周方向である。
図9Aに示す例では、消化管内の各区間は、画像IMG12を方向D11かつ時計方向D12に分割した8つの領域と対応する。撮像部11の撮影方向が奥行き方向であるとき、方向D11は消化管の半径方向と対応し、時計方向D12は消化管の円周方向と対応する。消化管の半径方向は、奥行き方向と垂直な消化管の断面の中心を通り奥行き方向と垂直な直線と平行である。消化管の円周方向は、奥行き方向と垂直な消化管の断面における時計方向である。
未観察領域R12からR14を示す円または枠のように、輪郭部を持つ多数の図形が並ぶと、ユーザはそれらを煩わしく、煩雑に感じる可能性があった。対象物を表示する画面と異なるサブ画面にそれらを表示する場合も、サブ画面の比較的小さい領域に雑多な情報が並ぶと、本来の簡単なガイドが複雑化して理解が困難になる可能性があった。
図9Bは、表示部27に表示された画像および補助情報の例を示す。表示部27は、画像IMG13を表示する。補助情報を示すアイコンIC12、IC13、およびIC14が画像IMG13に重畳される。
アイコンIC12は、画像IMG13の遠領域における第1領域の面積の30%の面積を持つ円である。アイコンIC12は、遠領域における第1領域の未観察領域の数を示す。アイコンIC12は、遠領域における第1領域に重畳される。
アイコンIC13は、画像IMG13の近領域における第1領域の面積の10%の面積を持つ円である。アイコンIC13は、近領域における第1領域の未観察領域の数を示す。アイコンIC13は、近領域における第1領域に重畳される。
アイコンIC14は、画像IMG13の近領域における第3領域の面積の10%の面積を持つ円である。アイコンIC14は、近領域における第3領域の未観察領域の数を示す。アイコンIC14は、近領域における第3領域に重畳される。
例えば、未観察領域の位置または数を示す補助情報が多くの細かいアイコンまたは枠として表示されると、ユーザはそれらを煩雑に感じる。そのため、単純化かつ要約したアイコンまたは枠などで上記の情報が表示される。観察部位が表示された画像において観察部位と補助情報(アイコンIC12からIC14)との視認性を両立させるためには、補助情報が単純化されることが好ましい場合がある。補助情報生成装置20は、このような補助情報の態様を特徴領域の数に応じて切り換えることにより、なるべく本来の観察部位の画像が観察されるように、煩雑感または違和感を抑えている。
図10を使用することにより、ステップS106における補助情報生成装置20の動作の第3の例を説明する。図10は、補助情報生成装置20がステップS106において実行する処理の手順の例を示す。図8に示す処理と同じ処理については説明しない。図8に示す処理と異なる処理について説明する。
図8に示すステップS204はステップS204aに変更され、図8に示すステップS205はステップS205aに変更される。
(ステップS204a)
補助情報生成部26は、補助表示部の第n領域の色を第1の色に設定する。補助表示部は、表示部27の表示画面の一部である。第1の色は補助情報と対応する。例えば、第1の色は黄色であるが、これに限らない。
補助情報生成部26は、補助表示部の第n領域の色を第1の色に設定する。補助表示部は、表示部27の表示画面の一部である。第1の色は補助情報と対応する。例えば、第1の色は黄色であるが、これに限らない。
(ステップS205a)
補助情報生成部26は、補助表示部の第n領域の色を第1の色と異なる第2の色に設定する。第2の色は補助情報と対応する。例えば、第2の色は赤色であるが、これに限らない。
補助情報生成部26は、補助表示部の第n領域の色を第1の色と異なる第2の色に設定する。第2の色は補助情報と対応する。例えば、第2の色は赤色であるが、これに限らない。
図11は、表示部27の表示画面の例を示す。画像IMG14が表示画面SC10に表示される。表示画面SC10は、補助表示部SUB10を有する。
補助表示部SUB10の表示領域DR10は第1の色で表示される。表示領域DR10は遠領域における第1領域と対応する。補助表示部SUB10の表示領域DR11およびDR12は第2の色で表示される。表示領域DR11は近領域における第1領域と対応し、表示領域DR12は近領域における第3領域と対応する。
領域検出部23は、内視鏡10の撮像部11によって得られた複数の画像(画像コマ)を順次取得しながら、当該画像コマあるいは画像コマ群を利用して、例えば被験者の消化管内の複数の位置において特徴領域を検出する。領域検出部23は、画像内に現れた特徴情報を教師データとした深層学習等によって得られた推論モデル(AI)を使用することにより特徴領域を検出してもよい。また、領域検出部23は、3Dモデル構成の技術を使用することにより複数の画像をつなぎ合わせて、つなぎ合わせの材料となる画像コマがない場合に未観察領域(3Dモデルの穴)があると判断してもよい。領域検出部23は、単純に特徴情報をルールベースで判定するロジックまたは画像処理の演算等を利用することにより実現されてもよい。
本発明の各実施形態では、領域検出部23は、消化管内の複数の区間の各々において得られた画像または画像群を使用することにより上記特徴領域を検出する。補助情報生成部26は、特徴領域の数を判定し、特徴領域の数に応じて補助情報を生成する。補助情報は、表示部27において画像上に表示され、または表示部27において画像が表示される領域とは異なる領域(表示領域DR11)に表示される。この補助情報が表示部27に表示されるときに補助情報生成部26は、補助情報の態様を特徴領域の数に応じて制御する。そのため、補助情報生成部26は、状況に応じて、領域検出部23によって検出された情報の履歴を記録した結果を特徴領域の数として利用する必要がある場合がある。この場合、情報を記録する機能を領域検出部23が具備してもよい。
なお、上記の特徴領域は、見落としが発生しやすい特徴を有する領域と、見落としが実際に発生した領域(3Dモデルの穴)を想定している。見落としが発生しやすい特徴を有する領域として、具体的には以下のような例を想定している。
第1の例:残渣、泡、または便が付着している領域
第2の例:粘膜が収縮している領域
第3の例:管腔が湾曲している領域
第4の例:襞が多く存在する、または深い襞が存在する領域
第1の例:残渣、泡、または便が付着している領域
第2の例:粘膜が収縮している領域
第3の例:管腔が湾曲している領域
第4の例:襞が多く存在する、または深い襞が存在する領域
上記のように、補助情報生成部26は、未観察領域の数に応じて補助情報を生成する。補助情報が表示部27に表示されるとき、補助情報生成部26は補助情報の態様を未観察領域の数に応じて制御する。そのため、補助情報生成部26は、補助情報の煩雑な通知を避け、画像の視認性の低下を避けることができる。
(第2の実施形態)
本発明の第2の実施形態を説明する。第2の実施形態において、図1に示す内視鏡システム1が使用される。補助情報生成装置20は、図4に示す処理を実行する。
本発明の第2の実施形態を説明する。第2の実施形態において、図1に示す内視鏡システム1が使用される。補助情報生成装置20は、図4に示す処理を実行する。
図12を使用することにより、ステップS106における補助情報生成装置20の動作の第1の例を説明する。図12は、補助情報生成装置20がステップS106において実行する処理の手順の例を示す。
(ステップS220)
補助情報生成部26は、領域算出部24から出力された領域数情報を参照し、未観察領域の数が所定の数以上であるか否かを判定する。未観察領域の数が所定の数以上であるとき、ステップS221が実行される。未観察領域の数が所定の数未満であるとき、ステップS222が実行される。
補助情報生成部26は、領域算出部24から出力された領域数情報を参照し、未観察領域の数が所定の数以上であるか否かを判定する。未観察領域の数が所定の数以上であるとき、ステップS221が実行される。未観察領域の数が所定の数未満であるとき、ステップS222が実行される。
(ステップS221)
補助情報生成部26は、網羅率に応じて補助情報を生成する。網羅率は、未観察領域を含まない消化管の領域の面積が全体の領域の面積に占める割合を示す。あるいは、補助情報生成部26は、注意通知を補助情報として生成する。注意通知は、所定の数以上の未観察領域が存在することをユーザに通知するためのアイコンである。
補助情報生成部26は、網羅率に応じて補助情報を生成する。網羅率は、未観察領域を含まない消化管の領域の面積が全体の領域の面積に占める割合を示す。あるいは、補助情報生成部26は、注意通知を補助情報として生成する。注意通知は、所定の数以上の未観察領域が存在することをユーザに通知するためのアイコンである。
例えば、領域検出部23は、図4に示すステップS103において3D再構成を実行し、3Dモデルを構成する3D点群を生成する。領域検出部23は、3D点群における穴領域の3D点群を補間する。穴領域は、未観察領域と対応する。補助情報生成部26は、以下の式(1)に従って網羅率CO(%)を算出する。
CO=100*(1-N1/N2) (1)
CO=100*(1-N1/N2) (1)
式(1)におけるN1は、補間された3D点群の数を示す。式(1)におけるN2は、補間された3D点群を含む全体の3D点群の数を示す。
領域検出部23は、3D点群からメッシュ(ポリゴン)データを生成してもよい。領域検出部23は、複数のメッシュにおける穴領域のメッシュを補間してもよい。補助情報生成部26は、以下の式(2)または式(3)に従って網羅率CO(%)を算出してもよい。
CO=100*(1-A1/A2) (2)
CO=100*(1-N3/N4) (3)
CO=100*(1-A1/A2) (2)
CO=100*(1-N3/N4) (3)
式(2)におけるA1は、補間されたメッシュの面積を示す、式(2)におけるA2は、補間されたメッシュを含む全体のメッシュの面積を示す。式(3)におけるN3は、補間されたメッシュの数を示す。式(3)におけるN4は、補間されたメッシュを含む全体のメッシュの数を示す。
補助情報生成部26は、網羅率の代わりに、穴領域の数などに応じて補助情報を生成してもよい。
前述したように、ユーザは、比較的平坦な観察面の濃淡または色合い、画像の階調表現の再現性、または画像のわかりやすさを重視して画像を観察し、細かな変化を見逃さないように、観察対象の健康状態または病変の有無などを観察する。未観察領域R10および未観察領域R11を示す円または枠のように、輪郭部を持つ多数の図形が並ぶと、ユーザはそれらを煩わしく、煩雑に感じる可能性があった。
(ステップS222)
補助情報生成部26は、画像における未観察領域の位置に応じた補助情報を生成する。
補助情報生成部26は、画像における未観察領域の位置に応じた補助情報を生成する。
図13Aは、表示部27の表示画面の第1の例を示す。画像IMG20およびアイコンIC20が表示画面SC20に表示される。
アイコンIC20は、ステップS221において生成される補助情報を構成し、消化管内の複数の区間の各々の網羅率を示す。アイコンIC20は、棒状に構成されており、上下方向に複数の領域に分割されている。例えば、アイコンIC20における下側の領域は、画像IMG20に写っている消化管における手前側の区間の網羅率を示す。アイコンIC20における上側の領域は、画像IMG20に写っている消化管における奥側の区間の網羅率を示す。アイコンIC20における各領域は、その領域と対応する区間における網羅率に応じた色で表示される。
図13Bは、表示部27の表示画面の第2の例を示す。画像IMG20およびメッセージMS20が表示画面SC21に表示される。
メッセージMS20は、ステップS221において生成される補助情報を構成し、網羅率を示す。メッセージMS20における網羅率は、消化管内の複数の区間のうちの1つの区間の網羅率を示す。複数の区間の網羅率が表示画面SC21に表示されてもよい。
図13Cは、表示部27の表示画面の第3の例を示す。画像IMG20が表示画面SC22に表示される。表示画面SC22は、補助表示部SUB20を有する。
補助表示部SUB20は、画像IMG20に写っている襞の位置と対応する複数の線を表示する。複数の線は、ステップS221において生成される補助情報を構成する。消化管内の複数の区間は、襞によって区切られている。複数の線の各々は、各区間における網羅率に応じた色で表示される。
図14Aは、表示部27の表示画面の第4の例を示す。画像IMG20が表示画面SC23に表示される。表示画面SC23は、補助表示部SUB21を有する。
補助表示部SUB21は、ステップS221において生成される補助情報を構成する消化管の模式図を表示する。消化管内の複数の区間の各々は、直腸などの部位と対応する。複数の区間の各々は、各区間における網羅率に応じた色で表示される。
図14Bは、表示部27の表示画面の第5の例を示す。画像IMG20が表示画面SC24に表示される。
注意通知AN20が画像IMG20に重畳される。注意通知AN20は、所定の数以上の未観察領域が存在することを示す。
図15Bは、表示部27の表示画面の第6の例を示す。画像IMG20が表示画面SC25に表示される。
位置情報PI20が画像IMG20に重畳される。位置情報PI20は、ステップS222において生成される補助情報を構成し、未観察領域の位置を示す。位置情報PI20は、未観察領域の位置と対応する画像IMG20上の位置に表示される。位置情報PI20は、未観察領域の位置を示す矢印として表示されてもよい。
図15を使用することにより、ステップS106における補助情報生成装置20の動作の第2の例を説明する。図15は、補助情報生成装置20がステップS106において実行する処理の手順の例を示す。
(ステップS230)
図4に示すステップS105は、ステップS230に含まれる。領域算出部24は、現在の撮影位置と対応する区間(現在区間)における未観察領域の数を算出する。現在区間における未観察領域の数は、内視鏡10が既に通過した1つ以上の区間(過去区間)における未観察領域の数を含まない。領域算出部24は、未観察領域の数を示す領域数情報を補助情報生成部26に出力する。
図4に示すステップS105は、ステップS230に含まれる。領域算出部24は、現在の撮影位置と対応する区間(現在区間)における未観察領域の数を算出する。現在区間における未観察領域の数は、内視鏡10が既に通過した1つ以上の区間(過去区間)における未観察領域の数を含まない。領域算出部24は、未観察領域の数を示す領域数情報を補助情報生成部26に出力する。
(ステップS231)
補助情報生成部26は、領域算出部24から出力された領域数情報を参照し、未観察領域の数が所定の数以上であるか否かを判定する。未観察領域の数が所定の数以上であるとき、ステップS232が実行される。未観察領域の数が所定の数未満であるとき、ステップS234が実行される。
補助情報生成部26は、領域算出部24から出力された領域数情報を参照し、未観察領域の数が所定の数以上であるか否かを判定する。未観察領域の数が所定の数以上であるとき、ステップS232が実行される。未観察領域の数が所定の数未満であるとき、ステップS234が実行される。
(ステップS232)
補助情報生成部26は、未観察領域の数に応じて網羅率を算出する。網羅率を算出する方法は、図12に示すステップS221において網羅率を算出する方法と同じである。
補助情報生成部26は、未観察領域の数に応じて網羅率を算出する。網羅率を算出する方法は、図12に示すステップS221において網羅率を算出する方法と同じである。
(ステップS233)
補助情報生成部26は、網羅率に応じて補助情報を生成する。
補助情報生成部26は、網羅率に応じて補助情報を生成する。
(ステップS234)
補助情報生成部26は、画像における未観察領域の位置を示す補助情報を生成する。
補助情報生成部26は、画像における未観察領域の位置を示す補助情報を生成する。
図16を使用することにより、ステップS106における補助情報生成装置20の動作の第3の例を説明する。図16は、補助情報生成装置20がステップS106において実行する処理の手順の例を示す。図15に示す処理と同じ処理については説明しない。図15に示す処理と異なる処理について説明する。
図15に示すステップS230はステップS230aに変更される。
(ステップS230a)
領域算出部24は、内視鏡10が既に通過した1つ以上の区間(過去区間)における未観察領域の数を算出する。過去区間における未観察領域の数は、現在の撮影位置と対応する区間(現在区間)における未観察領域の数を含まない。領域算出部24は、未観察領域の数を示す領域数情報を補助情報生成部26に出力する。
領域算出部24は、内視鏡10が既に通過した1つ以上の区間(過去区間)における未観察領域の数を算出する。過去区間における未観察領域の数は、現在の撮影位置と対応する区間(現在区間)における未観察領域の数を含まない。領域算出部24は、未観察領域の数を示す領域数情報を補助情報生成部26に出力する。
ステップS232およびS233が一旦実行されると、ステップS231およびS234の実行が停止されてもよい。つまり、ステップS230aが実行された後、ステップS231が実行されずにステップS232が実行されてもよい。
上記のように、補助情報生成部26は、未観察領域の数に応じて補助情報を生成する。未観察領域の数が多いとき、補助情報生成部26は、網羅率を示す補助情報を生成する。ユーザは、未観察領域の存在を概略的に把握することができる。未観察領域の数が少ないとき、補助情報生成部26は、未観察領域の位置を示す補助情報を生成する。ユーザは、未観察領域の詳細な位置を把握することができる。
以上、本発明の好ましい実施形態を説明したが、本発明はこれら実施形態およびその変形例に限定されることはない。本発明の趣旨を逸脱しない範囲で、構成の付加、省略、置換、およびその他の変更が可能である。また、本発明は前述した説明によって限定されることはなく、添付のクレームの範囲によってのみ限定される。
本発明の各実施形態によれば、補助情報生成方法、補助情報生成装置、およびプログラムは、過去に取得された画像を含む複数の画像から得られる補助情報の煩雑な通知を避けることができる。ここでは、消化器内視鏡を例にしたが、奥行き方向に順次位置を変えて観察、測定、および検査を実施する測定機器または検査機器でありさえすれば、どのような機器にでも本発明の各実施形態を利用できることは言うまでもない。
1 内視鏡システム
10 内視鏡
11 撮像部
20 補助情報生成装置
21 画像取得部
22 記憶部
23 領域検出部
24 領域算出部
25 撮影方向判定部
26 補助情報生成部
27 表示部
10 内視鏡
11 撮像部
20 補助情報生成装置
21 画像取得部
22 記憶部
23 領域検出部
24 領域算出部
25 撮影方向判定部
26 補助情報生成部
27 表示部
Claims (9)
- 被験者の消化管内の複数の位置において内視鏡の撮像部によって得られた複数の画像を順次取得し、
前記複数の画像に基づいて、前記消化管における特徴領域を検出し、
前記消化管内の複数の区間の各々における前記特徴領域の数を算出し、
前記特徴領域の前記数に応じて補助情報を生成し、前記補助情報が表示部に表示されるときに前記補助情報の態様を前記特徴領域の前記数に応じて制御する
補助情報生成方法。 - 前記撮像部が前記消化管の奥行き方向に撮影を実行しているか否かを判定し、
前記撮像部が前記奥行き方向に撮影を実行していると判定されるときに前記補助情報を前記表示部に出力する
請求項1に記載の補助情報生成方法。 - 前記撮像部によって得られた画像を前記消化管の円周方向と対応する方向に分割した複数の画像領域の各画像領域の前記補助情報を生成する
請求項2に記載の補助情報生成方法。 - 前記複数の画像領域の各画像領域の前記補助情報を示すアイコンの大きさを、前記特徴領域の前記数に応じて制御する
請求項3に記載の補助情報生成方法。 - 前記撮像部によって得られた画像を前記消化管の半径方向と対応する方向に分割し、かつ前記消化管の円周方向と対応する方向に分割した複数の画像領域の各画像領域の前記補助情報を生成する
請求項2に記載の補助情報生成方法。 - 前記特徴領域の前記数が所定の数以上であるとき、第1の態様で表示される前記補助情報を生成し、
前記特徴領域の前記数が前記所定の数未満であるとき、前記第1の態様と異なる第2の態様で表示される前記補助情報を生成する
請求項1に記載の補助情報生成方法。 - 前記第2の態様で表示される前記補助情報は、前記特徴領域の位置を示す
請求項6に記載の補助情報生成方法。 - 被験者の消化管内の複数の位置において内視鏡の撮像部によって得られた複数の画像を順次取得する画像取得部と、
前記複数の画像に基づいて、前記消化管における特徴領域を検出する領域検出部と、
前記消化管内の複数の区間の各々における前記特徴領域の数を算出する領域算出部と、
前記特徴領域の前記数に応じて補助情報を生成し、前記補助情報が表示部に表示されるときに前記補助情報の態様を前記特徴領域の前記数に応じて制御する補助情報生成部と、
を備える補助情報生成装置。 - 被験者の消化管内の複数の位置において内視鏡の撮像部によって得られた複数の画像を順次取得するステップと、
前記複数の画像に基づいて、前記消化管における特徴領域を検出するステップと、
前記消化管内の複数の区間の各々における前記特徴領域の数を算出するステップと、
前記特徴領域の前記数に応じて補助情報を生成し、前記補助情報が表示部に表示されるときに前記補助情報の態様を前記特徴領域の前記数に応じて制御するステップと、
をコンピュータに実行させるためのプログラム。
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2023/025083 WO2025009144A1 (ja) | 2023-07-06 | 2023-07-06 | 補助情報生成方法、補助情報生成装置、およびプログラム |
| CN202380097423.7A CN121001637A (zh) | 2023-07-06 | 2023-07-06 | 辅助信息生成方法、辅助信息生成装置和程序 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2023/025083 WO2025009144A1 (ja) | 2023-07-06 | 2023-07-06 | 補助情報生成方法、補助情報生成装置、およびプログラム |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2025009144A1 true WO2025009144A1 (ja) | 2025-01-09 |
Family
ID=94171329
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2023/025083 Pending WO2025009144A1 (ja) | 2023-07-06 | 2023-07-06 | 補助情報生成方法、補助情報生成装置、およびプログラム |
Country Status (2)
| Country | Link |
|---|---|
| CN (1) | CN121001637A (ja) |
| WO (1) | WO2025009144A1 (ja) |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2016002206A (ja) * | 2014-06-16 | 2016-01-12 | オリンパス株式会社 | 医療情報処理システム |
| WO2017203814A1 (ja) * | 2016-05-25 | 2017-11-30 | オリンパス株式会社 | 内視鏡装置、内視鏡装置の作動方法 |
| WO2020054604A1 (ja) * | 2018-09-11 | 2020-03-19 | 日本電気株式会社 | 情報処理装置、制御方法、及びプログラム |
| WO2023286196A1 (ja) * | 2021-07-14 | 2023-01-19 | オリンパスメディカルシステムズ株式会社 | 画像処理装置、内視鏡装置及び画像処理方法 |
-
2023
- 2023-07-06 CN CN202380097423.7A patent/CN121001637A/zh active Pending
- 2023-07-06 WO PCT/JP2023/025083 patent/WO2025009144A1/ja active Pending
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2016002206A (ja) * | 2014-06-16 | 2016-01-12 | オリンパス株式会社 | 医療情報処理システム |
| WO2017203814A1 (ja) * | 2016-05-25 | 2017-11-30 | オリンパス株式会社 | 内視鏡装置、内視鏡装置の作動方法 |
| WO2020054604A1 (ja) * | 2018-09-11 | 2020-03-19 | 日本電気株式会社 | 情報処理装置、制御方法、及びプログラム |
| WO2023286196A1 (ja) * | 2021-07-14 | 2023-01-19 | オリンパスメディカルシステムズ株式会社 | 画像処理装置、内視鏡装置及び画像処理方法 |
Also Published As
| Publication number | Publication date |
|---|---|
| CN121001637A (zh) | 2025-11-21 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR101277040B1 (ko) | 화상 처리 장치, 그 제어 방법, 화상 처리 시스템 및 컴퓨터 판독가능 저장 매체 | |
| CN108135488B (zh) | 确定侧支的剖面视角的血管内成像系统和方法 | |
| CN101404924B (zh) | 医疗用图像处理装置 | |
| JP5444511B1 (ja) | 画像処理装置 | |
| US20180098690A1 (en) | Endoscope apparatus and method for operating endoscope apparatus | |
| JP4891636B2 (ja) | 画像解析装置 | |
| WO2003057017A1 (en) | Apparatus and method for displaying virtual endoscopy display | |
| WO2019244255A1 (ja) | 内視鏡画像処理装置および内視鏡画像処理方法 | |
| JP2012187161A (ja) | 画像処理装置、方法、及びプログラム | |
| JP2014230612A (ja) | 内視鏡観察支援装置 | |
| WO2019130390A1 (ja) | 推奨操作呈示システム、推奨操作呈示制御装置及び推奨操作呈示制御方法 | |
| WO2021171465A1 (ja) | 内視鏡システム及び内視鏡システムによる管腔走査方法 | |
| JP2011145527A (ja) | 内視鏡装置およびプログラム | |
| JP6956853B2 (ja) | 診断支援装置、診断支援プログラム、及び、診断支援方法 | |
| US20220409030A1 (en) | Processing device, endoscope system, and method for processing captured image | |
| JP5624336B2 (ja) | 医用画像処理装置、及び医用画像処理プログラム | |
| WO2025009144A1 (ja) | 補助情報生成方法、補助情報生成装置、およびプログラム | |
| JP2009165718A (ja) | 医用画像表示装置 | |
| WO2018230099A1 (ja) | 内視鏡システム、内視鏡システムの作動方法 | |
| JP2019098005A (ja) | 内視鏡画像処理プログラム、内視鏡システム及び内視鏡画像処理方法 | |
| KR101014562B1 (ko) | 자궁의 가상 내시경 영상을 형성하는 방법 | |
| JP4855912B2 (ja) | 内視鏡挿入形状解析システム | |
| JP2008054763A5 (ja) | ||
| CN117372326A (zh) | 图像处理装置、图像处理方法和记录介质 | |
| JP5366713B2 (ja) | 消化管画像表示装置及び消化管画像データ表示用制御プログラム |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 23944392 Country of ref document: EP Kind code of ref document: A1 |
|
| ENP | Entry into the national phase |
Ref document number: 2025530924 Country of ref document: JP Kind code of ref document: A |
|
| WWE | Wipo information: entry into national phase |
Ref document number: 2025530924 Country of ref document: JP |