[go: up one dir, main page]

WO2024202789A1 - 医療支援装置、内視鏡システム、医療支援方法、及びプログラム - Google Patents

医療支援装置、内視鏡システム、医療支援方法、及びプログラム Download PDF

Info

Publication number
WO2024202789A1
WO2024202789A1 PCT/JP2024/006789 JP2024006789W WO2024202789A1 WO 2024202789 A1 WO2024202789 A1 WO 2024202789A1 JP 2024006789 W JP2024006789 W JP 2024006789W WO 2024202789 A1 WO2024202789 A1 WO 2024202789A1
Authority
WO
WIPO (PCT)
Prior art keywords
display area
image
medical support
images
medical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
PCT/JP2024/006789
Other languages
English (en)
French (fr)
Inventor
星矢 竹之内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2025509987A priority Critical patent/JPWO2024202789A1/ja
Priority to CN202480022427.3A priority patent/CN120957648A/zh
Publication of WO2024202789A1 publication Critical patent/WO2024202789A1/ja
Anticipated expiration legal-status Critical
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof

Definitions

  • the technology disclosed herein relates to a medical support device, an endoscope system, a medical support method, and a program.
  • WO 2020/110214 discloses an endoscope system that includes an image input unit, a lesion detection unit, an oversight risk analysis unit, a notification control unit, and a notification unit.
  • the lesion detection unit detects the lesion, which is the subject of observation with the endoscope, from the observation images.
  • the oversight risk analysis unit determines the degree of oversight risk, which is the risk that the operator will overlook the lesion, based on the observation images.
  • the notification control unit controls the notification means and method for the detection of the lesion based on the degree of oversight risk.
  • the notification unit notifies the operator of the detection of the lesion based on the control of the notification control unit.
  • the oversight risk analysis unit includes a lesion analysis unit that analyzes the oversight risk based on the state of the lesion.
  • the lesion analysis unit includes a lesion size analysis unit that estimates the size of the lesion itself.
  • One embodiment of the technology disclosed herein provides a medical support device, an endoscope system, a medical support method, and a program that enable a user or the like to visually recognize multiple observation target areas shown in a medical image in a state in which the characteristics of each of the multiple observation target areas can be grasped without impairing the visibility of the medical image.
  • a first aspect of the technology disclosed herein is a medical support device that includes a processor, the processor performing a recognition process on a medical image showing multiple observation target regions to acquire the characteristics of each of the multiple observation target regions, displays the medical image in a first display area, and displays multiple extracted images in which the multiple observation target regions are individually extracted from the medical image in a second display area outside the first display area according to the characteristics.
  • a second aspect of the technology disclosed herein is a medical support device according to the first aspect, in which the characteristics include size.
  • a third aspect of the technology disclosed herein is a medical support device according to the second aspect, in which the second display area displays multiple extracted images in a display manner that allows visual identification of the size relationship between multiple observation target areas.
  • a fourth aspect of the technology disclosed herein is a medical support device according to the second or third aspect, in which the size is divided into a plurality of first ranges, and a plurality of extracted images are displayed in a grouped state according to the first range in the second display area.
  • a fifth aspect of the technology disclosed herein is a medical support device according to the fourth aspect, in which, when multiple extracted images are grouped according to a first range, an extracted image representative of the first range is displayed in the second display area, and information regarding the number of extracted images grouped into the first range is also displayed.
  • a sixth aspect of the technology disclosed herein is a medical support device according to the fourth or fifth aspect, in which the second display area displays the multiple extracted images grouped by the first range when the number of multiple extracted images exceeds a preset number.
  • a seventh aspect of the technology disclosed herein is a medical support device according to any one of the first to sixth aspects, in which the characteristic includes depth.
  • An eighth aspect of the technology disclosed herein is a medical support device according to the seventh aspect, in which the second display area displays multiple extracted images in a display manner that allows visual identification of the depth relationship between multiple observation target areas.
  • a ninth aspect of the technology disclosed herein is a medical support device according to the seventh or eighth aspect, in which the depth is divided into a plurality of second ranges, and a plurality of extracted images are displayed in a grouped state according to the second range in the second display area.
  • a tenth aspect of the technology disclosed herein is a medical support device according to the ninth aspect, in which, when multiple extracted images are grouped according to a second range, an extracted image representative of the second range is displayed in the second display area, and information regarding the number of extracted images grouped into the second range is also displayed.
  • An eleventh aspect of the technology disclosed herein is a medical support device according to the ninth or tenth aspect, in which the second display area displays the multiple extracted images grouped by second range when the number of multiple extracted images exceeds a preset number.
  • a twelfth aspect of the technology disclosed herein is a medical support device according to any one of the first to eleventh aspects, in which a processor displays positional relationship identification information on a screen, and the positional relationship identification information is information capable of identifying a correspondence between a first display position where at least one of a plurality of extracted images is displayed and a second display position where an observation target area shown in an extracted image displayed at the first display position is displayed in the first display area.
  • a thirteenth aspect of the technology disclosed herein is a medical support device according to any one of the first to twelfth aspects, in which the second display area displays a plurality of extracted images grouped according to a common characteristic.
  • a fourteenth aspect of the technology disclosed herein is a medical support device according to the thirteenth aspect, in which, when multiple extracted images are grouped according to a common characteristic, an extracted image representative of each common characteristic is displayed in the second display area, and information regarding the number of extracted images grouped into the common characteristic is also displayed.
  • a fifteenth aspect of the technology disclosed herein is a medical support device according to the thirteenth or fourteenth aspect, in which, when the number of extracted images exceeds a predetermined number, the second display area displays the extracted images grouped according to common characteristics.
  • a sixteenth aspect of the technology disclosed herein is a medical support device according to any one of the first to fifteenth aspects, in which the processor displays, in the third display area, position identification information that can identify the display position within the medical image of the observation target area included in the extracted image.
  • a seventeenth aspect of the technology disclosed herein is a medical support device according to the sixteenth aspect, in which the position identification information is a map that identifies the display position within the medical image.
  • An 18th aspect of the technology disclosed herein is a medical support device according to the 17th aspect, in which the recognition process is an object recognition process using machine learning, and the map is generated based on a probability map obtained by performing the object recognition process.
  • a 19th aspect of the technology disclosed herein is a medical support device according to any one of the 16th to 18th aspects, in which the third display area is located in a position different from the first and second display areas.
  • a twentieth aspect of the technology disclosed herein is a medical support device according to any one of the first to nineteenth aspects, in which the actual size of each of the multiple observation target regions is measured, and the second display region displays the actual sizes corresponding to the multiple extracted images in a state in which the correspondence with the multiple extracted images can be identified.
  • a twenty-first aspect of the technology disclosed herein is a medical support device according to any one of the first to twentieth aspects, in which the extracted image is an image extracted from a medical image using a frame that allows visual discrimination of the difference in size of the observation area between multiple extracted images when the multiple extracted images are compared.
  • a twenty-second aspect of the technology disclosed herein is a medical support device according to the twenty-first aspect, in which the frame has a common shape and size among multiple observation target regions.
  • a 23rd aspect of the technology disclosed herein is a medical support device according to any one of the 1st to 22nd aspects, in which the medical image is an endoscopic image obtained by capturing an image using an endoscopic scope.
  • the 24th aspect of the technology disclosed herein is a medical support device according to any one of the 1st to 23rd aspects, in which the observation target area is a lesion.
  • a twenty-fifth aspect of the technology disclosed herein is an endoscope system including a medical support device according to any one of the first to twenty-fourth aspects, and an endoscope scope that is inserted into the body to capture images of the inside of the body to obtain medical images.
  • a 26th aspect of the technology disclosed herein is a medical support method that includes performing a recognition process on a medical image showing multiple observation target regions, acquiring the characteristics of each of the multiple observation target regions recognized by the recognition process, displaying the medical image in a first display area, and displaying multiple extracted images in which the multiple observation target regions are individually extracted from the medical image in a second display area outside the first display area according to the characteristics.
  • a 27th aspect of the technology disclosed herein is a medical support method according to the 26th aspect, which includes the use of an endoscope that is inserted into the body to capture images of the inside of the body and thereby obtain medical images.
  • FIG. 1 is a conceptual diagram showing an example of an aspect in which an endoscope system is used.
  • 1 is a conceptual diagram showing an example of an overall configuration of an endoscope system.
  • 2 is a block diagram showing an example of a hardware configuration of an electrical system of the endoscope system.
  • FIG. 2 is a block diagram showing an example of main functions of a processor included in a medical support device according to an embodiment, and an example of information stored in an NVM.
  • FIG. FIG. 4 is a conceptual diagram showing an example of processing contents of a recognition unit and a control unit.
  • 11 is a conceptual diagram showing an example of processing content in which a recognition unit associates a unique identifier with each of a plurality of segmentation images.
  • FIG. 1 is a conceptual diagram showing an example of an aspect in which an endoscope system is used.
  • 1 is a conceptual diagram showing an example of an overall configuration of an endoscope system.
  • 2 is a block diagram showing an example of a hardware configuration of an electrical system of
  • FIG. 13 is a conceptual diagram showing an example of processing contents in which the control unit displays a frame 40 in the first display area, and also displays a plurality of local images in the second display area according to the size of the lesion.
  • FIG. 13 is a flowchart showing an example of the flow of a medical support process. This is a continuation of the flowchart shown in Figure 12A.
  • 13 is a conceptual diagram showing an example of a process in which an acquisition unit generates third information and stores it in a RAM.
  • FIG. 11 is a conceptual diagram showing an example of processing contents in which a control unit displays a frame 40 in a first display area, and also displays a plurality of local images in a second display area according to distance information.
  • FIG. 15 is a conceptual diagram showing an example of a manner in which the display contents of the screen shown in FIG. 11 and the display contents of the screen shown in FIG. 14 are switched in accordance with a given instruction.
  • 11 is a conceptual diagram showing an example of processing contents in which the control unit groups a plurality of local images by size range and displays them in the second display area.
  • FIG. 11 is a conceptual diagram showing an example of processing contents in which the control unit groups a plurality of local images by distance range and displays the grouped local images in the second display area.
  • FIG. 13 is a conceptual diagram showing an example of a process performed by a control unit to display a map in a third display area.
  • FIG. FIG. 2 is a conceptual diagram showing an example of an output destination of various information.
  • CPU is an abbreviation for "Central Processing Unit”.
  • GPU is an abbreviation for "Graphics Processing Unit”.
  • RAM is an abbreviation for "Random Access Memory”.
  • NVM is an abbreviation for "Non-volatile memory”.
  • EEPROM is an abbreviation for "Electrically Erasable Programmable Read-Only Memory”.
  • ASIC is an abbreviation for "Application Specific Integrated Circuit”.
  • PLD is an abbreviation for "Programmable Logic Device”.
  • FPGA is an abbreviation for "Field-Programmable Gate Array”.
  • SoC is an abbreviation for "System-on-a-chip”.
  • SSD is an abbreviation for "Solid State Drive”.
  • USB is an abbreviation for "Universal Serial Bus”.
  • HDD is an abbreviation for "Hard Disk Drive”.
  • EL is an abbreviation for "Electro-Luminescence”.
  • CMOS is an abbreviation for "Complementary Metal Oxide Semiconductor”.
  • CCD is an abbreviation for "Charge Coupled Device”.
  • AI is an abbreviation for "Artificial Intelligence”.
  • BLI is an abbreviation for "Blue Light Imaging”.
  • LCI is an abbreviation for "Linked Color Imaging”.
  • I/F is an abbreviation for "Interface”.
  • SSL is an abbreviation for "Sessile Serrated Lesion”.
  • LAN is an abbreviation for "Local Area Network”.
  • WAN is an abbreviation for "Wide Area Network”.
  • an endoscope system 10 is used by a doctor 12 in an endoscopic examination or the like.
  • the endoscopic examination is assisted by staff such as a nurse 14.
  • the endoscope system 10 is an example of an "endoscope system" according to the technology disclosed herein.
  • the endoscope system 10 is communicatively connected to a communication device (not shown), and information obtained by the endoscope system 10 is transmitted to the communication device.
  • a communication device is a server and/or a client terminal (e.g., a personal computer and/or a tablet terminal, etc.) that manages various information such as electronic medical records.
  • the communication device receives the information transmitted from the endoscope system 10 and executes processing using the received information (e.g., processing to store in an electronic medical record, etc.).
  • the endoscope system 10 includes an endoscope scope 16, a display device 18, a light source device 20, a control device 22, and a medical support device 24.
  • the endoscope scope 16 is an example of an "endoscope scope" according to the technology disclosed herein.
  • the endoscope system 10 is a modality for performing medical treatment on the large intestine 28 contained within the body of a subject 26 (e.g., a patient) using an endoscope scope 16.
  • a subject 26 e.g., a patient
  • an endoscope scope 16 In this embodiment, the large intestine 28 is the object observed by the doctor 12.
  • the endoscope 16 is used by the doctor 12 and inserted into the body cavity of the subject 26.
  • the endoscope 16 is inserted into the large intestine 28 of the subject 26.
  • the endoscope system 10 causes the endoscope 16 inserted into the large intestine 28 of the subject 26 to capture images of the inside of the large intestine 28 of the subject 26, and performs various medical procedures on the large intestine 28 as necessary.
  • the endoscope system 10 obtains and outputs an image showing the state inside the large intestine 28 by imaging the inside of the large intestine 28 of the subject 26.
  • the endoscope system 10 is an endoscope with an optical imaging function that irradiates light 30 inside the large intestine 28 and captures an image of the reflected light obtained by reflection from the intestinal wall 32 of the large intestine 28.
  • the light source device 20, the control device 22, and the medical support device 24 are installed on a wagon 34.
  • the wagon 34 has multiple platforms arranged in the vertical direction, and the medical support device 24, the control device 22, and the light source device 20 are installed from the lower platform to the upper platform.
  • the display device 18 is installed on the top platform of the wagon 34.
  • the control device 22 controls the entire endoscope system 10. Under the control of the control device 22, the medical support device 24 performs various image processing on the images obtained by capturing images of the intestinal wall 32 by the endoscope scope 16.
  • the display device 18 displays various information including images. Examples of the display device 18 include a liquid crystal display and an EL display. Also, a tablet terminal with a display may be used in place of the display device 18 or together with the display device 18.
  • a screen 35 is displayed on the display device 18.
  • the screen 35 includes a plurality of display areas.
  • the plurality of display areas are arranged side by side within the screen 35.
  • a first display area 36 and a second display area 38 are shown as examples of the plurality of display areas.
  • the size of the first display area 36 is larger than the size of the second display area 38.
  • the first display area 36 is used as the main display area, and the second display area 38 is used as the sub-display area. Note that the size relationship between the first display area 36 and the second display area 38 is not limited to this, and may be any size relationship that fits within the screen 35.
  • screen 35 is an example of a "screen” according to the technology of the present disclosure
  • first display area 36 is an example of a “first display area” according to the technology of the present disclosure
  • second display area 38 is an example of a "second display area” according to the technology of the present disclosure.
  • the first display area 36 displays an endoscopic moving image 39.
  • the endoscopic moving image 39 is a moving image acquired by imaging the intestinal wall 32 within the large intestine 28 of the subject 26 using the endoscope scope 16.
  • a moving image showing the intestinal wall 32 is shown as an example of the endoscopic moving image 39.
  • the intestinal wall 32 shown in the endoscopic video 39 includes multiple lesions 42 (e.g., one lesion 42 in the example shown in FIG. 1) as multiple regions of interest (i.e., multiple observation target regions) gazed upon by the physician 12, and the physician 12 can visually recognize the appearance of the intestinal wall 32 including the multiple lesions 42 through the endoscopic video 39.
  • the lesion 42 is an example of an "observation target region" and a "lesion” according to the technology disclosed herein.
  • neoplastic polyps examples include neoplastic polyps and non-neoplastic polyps.
  • examples of the types of neoplastic polyps include adenomatous polyps (e.g., SSL).
  • examples of the types of non-neoplastic polyps include hamartomatous polyps, hyperplastic polyps, and inflammatory polyps. Note that the types exemplified here are types that are anticipated in advance as types of lesions 42 when an endoscopic examination is performed on the large intestine 28, and the types of lesions will differ depending on the organ in which the endoscopic examination is performed.
  • a lesion 42 is shown as an example, but this is merely one example, and the area of interest (i.e., the area to be observed) that is gazed upon by the doctor 12 may be an organ (e.g., the duodenal papilla), a marked area, an artificial treatment tool (e.g., an artificial clip), or a treated area (e.g., an area where traces remain after the removal of a polyp, etc.), etc.
  • an organ e.g., the duodenal papilla
  • an artificial treatment tool e.g., an artificial clip
  • a treated area e.g., an area where traces remain after the removal of a polyp, etc.
  • the image displayed in the first display area 36 is one frame 40 included in a moving image that is composed of multiple frames 40 in chronological order.
  • the first display area 36 displays multiple frames 40 in chronological order at a default frame rate (e.g., several tens of frames per second).
  • the frame 40 is an example of a "medical image” and an "endoscopic image” related to the technology disclosed herein.
  • a moving image displayed in the first display area 36 is a moving image in a live view format.
  • the live view format is merely one example, and the moving image may be temporarily stored in a memory or the like and then displayed, like a moving image in a post-view format.
  • each frame included in a recording moving image stored in a memory or the like may be played back and displayed on the screen 35 (for example, the first display area 36) as an endoscopic moving image 39.
  • the second display area 38 exists outside the first display area 36.
  • the second display area 38 is adjacent to the first display area 36, and is displayed on the right side of the screen 35 when viewed from the front.
  • the display position of the second display area 38 may be anywhere different from the first display area 36, but it is preferable that it is displayed in a position that can be compared with the endoscopic video image 39 displayed in the first display area 36.
  • the second display area 38 displays medical information 44, which is information related to medical care.
  • the medical information 44 include information that assists the doctor 12 in making medical decisions.
  • information that assists the doctor 12 in making medical decisions is various information about the subject 26 into which the endoscope 16 is inserted, and/or various information obtained by performing AI-based processing on the endoscope video image 39. Further details of the medical information 44 will be described later.
  • the endoscope 16 includes an operating section 46 and an insertion section 48.
  • the insertion section 48 is partially curved by operating the operating section 46.
  • the insertion section 48 is inserted into the large intestine 28 (see FIG. 1) while curving in accordance with the shape of the large intestine 28, in accordance with the operation of the operating section 46 by the doctor 12 (see FIG. 1).
  • the tip 50 of the insertion section 48 is provided with a camera 52, a lighting device 54, and an opening 56 for a treatment tool.
  • the camera 52 and lighting device 54 are provided on the tip surface 50A of the tip 50. Note that, although an example in which the camera 52 and lighting device 54 are provided on the tip surface 50A of the tip 50 is given here, this is merely one example, and the camera 52 and lighting device 54 may be provided on the side surface of the tip 50, so that the endoscope 16 is configured as a side-viewing mirror.
  • the camera 52 is inserted into the body cavity of the subject 26 to capture an image of the observation area.
  • the camera 52 captures an image of the inside of the subject 26 (e.g., inside the large intestine 28) to obtain an endoscopic moving image 39.
  • One example of the camera 52 is a CMOS camera.
  • this is merely one example, and other types of cameras such as a CCD camera may also be used.
  • the illumination device 54 has illumination windows 54A and 54B.
  • the illumination device 54 irradiates light 30 (see FIG. 1) through the illumination windows 54A and 54B.
  • Examples of the type of light 30 irradiated from the illumination device 54 include visible light (e.g., white light) and non-visible light (e.g., near-infrared light).
  • the illumination device 54 also irradiates special light through the illumination windows 54A and 54B. Examples of the special light include light for BLI and/or light for LCI.
  • the camera 52 captures images of the inside of the large intestine 28 by optical techniques while the light 30 is irradiated inside the large intestine 28 by the illumination device 54.
  • the treatment tool opening 56 is an opening for allowing the treatment tool 58 to protrude from the tip 50.
  • the treatment tool opening 56 is also used as a suction port for sucking blood and internal waste, and as a delivery port for delivering fluids.
  • the operating section 46 is formed with a treatment tool insertion port 60, and the treatment tool 58 is inserted into the insertion section 48 from the treatment tool insertion port 60.
  • the treatment tool 58 passes through the insertion section 48 and protrudes to the outside from the treatment tool opening 56.
  • a puncture needle is shown as the treatment tool 58 protruding from the treatment tool opening 56.
  • a puncture needle is shown as the treatment tool 58, but this is merely one example, and the treatment tool 58 may be a grasping forceps, a papillotomy knife, a snare, a catheter, a guidewire, a cannula, and/or a puncture needle with a guide sheath, etc.
  • the endoscope scope 16 is connected to the light source device 20 and the control device 22 via a universal cord 62.
  • the medical support device 24 and the reception device 64 are connected to the control device 22.
  • the display device 18 is also connected to the medical support device 24.
  • the control device 22 is connected to the display device 18 via the medical support device 24.
  • the medical support device 24 is exemplified here as an external device for expanding the functions performed by the control device 22, an example is given in which the control device 22 and the display device 18 are indirectly connected via the medical support device 24, but this is merely one example.
  • the display device 18 may be directly connected to the control device 22.
  • the function of the medical support device 24 may be included in the control device 22, or the control device 22 may be equipped with a function for causing a server (not shown) to execute the same processing as that executed by the medical support device 24 (for example, the medical support processing described below) and for receiving and using the results of the processing by the server.
  • the reception device 64 receives instructions from the doctor 12 and outputs the received instructions as an electrical signal to the control device 22.
  • Examples of the reception device 64 include a keyboard, a mouse, a touch panel, a foot switch, a microphone, and/or a remote control device.
  • the control device 22 controls the light source device 20, exchanges various signals with the camera 52, and exchanges various signals with the medical support device 24.
  • the light source device 20 emits light under the control of the control device 22 and supplies the light to the illumination device 54.
  • the illumination device 54 has a built-in light guide, and the light supplied from the light source device 20 passes through the light guide and is irradiated from illumination windows 54A and 54B.
  • the control device 22 causes the camera 52 to capture an image, acquires an endoscopic video image 39 (see FIG. 1) from the camera 52, and outputs it to a predetermined output destination (e.g., the medical support device 24).
  • the medical support device 24 performs various types of image processing on the endoscopic video image 39 input from the control device 22 to provide medical support (here, endoscopic examination as an example).
  • the medical support device 24 outputs the endoscopic video image 39 that has been subjected to various types of image processing to a predetermined output destination (e.g., the display device 18).
  • the endoscopic video image 39 output from the control device 22 is output to the display device 18 via the medical support device 24, but this is merely one example.
  • the control device 22 and the display device 18 may be connected, and the endoscopic video image 39 that has been subjected to image processing by the medical support device 24 may be displayed on the display device 18 via the control device 22.
  • the control device 22 includes a computer 66, a bus 68, and an external I/F 70.
  • the computer 66 includes a processor 72, a RAM 74, and an NVM 76.
  • the processor 72, the RAM 74, the NVM 76, and the external I/F 70 are connected to the bus 68.
  • the processor 72 has at least one CPU and at least one GPU, and controls the entire control device 22.
  • the GPU operates under the control of the CPU, and is responsible for executing various graphic processing operations and performing calculations using neural networks.
  • the processor 72 may be one or more CPUs with integrated GPU functionality, or one or more CPUs without integrated GPU functionality.
  • the computer 66 is equipped with one processor 72, but this is merely one example, and the computer 66 may be equipped with multiple processors 72.
  • RAM 74 is a memory in which information is temporarily stored, and is used as a work memory by processor 72.
  • NVM 76 is a non-volatile storage device that stores various programs and various parameters, etc.
  • An example of NVM 76 is a flash memory (e.g., EEPROM and/or SSD). Note that flash memory is merely one example, and other non-volatile storage devices such as HDDs may also be used, or a combination of two or more types of non-volatile storage devices may also be used.
  • the external I/F 70 is responsible for transmitting various types of information between the processor 72 and one or more devices (hereinafter also referred to as "first external devices") that exist outside the control device 22.
  • first external devices One example of the external I/F 70 is a USB interface.
  • the camera 52 is connected to the external I/F 70 as one of the first external devices, and the external I/F 70 is responsible for the exchange of various information between the camera 52 and the processor 72.
  • the processor 72 controls the camera 52 via the external I/F 70.
  • the processor 72 also acquires, via the external I/F 70, endoscopic video images 39 (see FIG. 1) obtained by the camera 52 capturing an image of the inside of the large intestine 28 (see FIG. 1).
  • the light source device 20 is connected to the external I/F 70 as one of the first external devices, and the external I/F 70 is responsible for the exchange of various information between the light source device 20 and the processor 72.
  • the light source device 20 supplies light to the lighting device 54 under the control of the processor 72.
  • the lighting device 54 irradiates the light supplied from the light source device 20.
  • the external I/F 70 is connected to the reception device 64 as one of the first external devices, and the processor 72 acquires instructions received by the reception device 64 via the external I/F 70 and executes processing according to the acquired instructions.
  • the medical support device 24 includes a computer 78 and an external I/F 80.
  • the computer 78 includes a processor 82, a RAM 84, and an NVM 86.
  • the processor 82, the RAM 84, the NVM 86, and the external I/F 80 are connected to a bus 88.
  • the medical support device 24 is an example of a "medical support device” according to the technology of the present disclosure
  • the computer 78 is an example of a "computer” according to the technology of the present disclosure
  • the processor 82 is an example of a "processor" according to the technology of the present disclosure.
  • computer 78 i.e., processor 82, RAM 84, and NVM 86
  • processor 82, RAM 84, and NVM 86 is basically the same as the hardware configuration of computer 66, so a description of the hardware configuration of computer 78 will be omitted here.
  • the external I/F 80 is responsible for transmitting various types of information between the processor 82 and one or more devices (hereinafter also referred to as "second external devices") that exist outside the medical support device 24.
  • second external devices One example of the external I/F 80 is a USB interface.
  • the control device 22 is connected to the external I/F 80 as one of the second external devices.
  • the external I/F 70 of the control device 22 is connected to the external I/F 80.
  • the external I/F 80 is responsible for the exchange of various information between the processor 82 of the medical support device 24 and the processor 72 of the control device 22.
  • the processor 82 acquires endoscopic video images 39 (see FIG. 1) from the processor 72 of the control device 22 via the external I/Fs 70 and 80, and performs various image processing on the acquired endoscopic video images 39.
  • the display device 18 is connected to the external I/F 80 as one of the second external devices.
  • the processor 82 controls the display device 18 via the external I/F 80 to cause the display device 18 to display various information (e.g., endoscopic moving image 39 that has been subjected to various image processing).
  • the doctor 12 checks the endoscopic video 39 via the display device 18 and determines whether or not medical treatment is required for the lesion 42 shown in the endoscopic video 39, and performs medical treatment on the lesion 42 if necessary.
  • the size of the lesion 42 is an important factor in determining whether or not medical treatment is required.
  • the doctor 12 when the size of the lesion 42 is measured, it is necessary to communicate the measured size to the doctor 12 accurately and without interfering with the endoscopic examination.
  • the doctor 12 when multiple lesions 42 are shown in the frame 40, it is required that the doctor 12 be able to visually recognize the multiple lesions 42 shown in the frame 40 in a state in which the size and other characteristics of each of the multiple lesions 42 can be grasped without impairing the visibility of the frame 40 displayed on the screen 35.
  • medical support processing is performed by the processor 82 of the medical support device 24, as shown in FIG. 4.
  • NVM 86 stores a medical support program 90.
  • the medical support program 90 is an example of a "program" according to the technology of the present disclosure.
  • the processor 82 reads the medical support program 90 from NVM 86 and executes the read medical support program 90 on RAM 84 to perform medical support processing.
  • the medical support processing is realized by the processor 82 operating as a recognition unit 82A, an acquisition unit 82B, and a control unit 82C in accordance with the medical support program 90 executed on RAM 84.
  • the NVM 86 stores a recognition model 92 and a distance derivation model 94.
  • the recognition model 92 is used by the recognition unit 82A
  • the distance derivation model 94 is used by the acquisition unit 82B.
  • the recognition unit 82A and the control unit 82C acquire each of a plurality of frames 40 in chronological order contained in the endoscopic moving image 39 generated by the camera 52 capturing images at an imaging frame rate (e.g., several tens of frames/second) from the camera 52, one frame at a time in chronological order.
  • an imaging frame rate e.g., several tens of frames/second
  • the control unit 82C outputs the endoscopic moving image 39 to the display device 18. For example, the control unit 82C displays the endoscopic moving image 39 as a live view image in the first display area 36. That is, each time the control unit 82C acquires a frame 40 from the camera 52, the control unit 82C displays the acquired frame 40 in sequence in the first display area 36 according to the display frame rate (e.g., several tens of frames per second). The control unit 82C also displays medical information 44 in the second display area 38. For example, the control unit 82C also updates the display content of the second display area 38 (e.g., medical information 44) in accordance with the display content of the first display area 36.
  • the display frame rate e.g., several tens of frames per second.
  • the control unit 82C also displays medical information 44 in the second display area 38.
  • the control unit 82C also updates the display content of the second display area 38 (e.g., medical information 44) in accordance with the display content of the first display area
  • the recognition unit 82A uses the endoscopic video 39 acquired from the camera 52 to recognize the multiple lesions 42 that appear in the endoscopic video 39. That is, the recognition unit 82A recognizes the multiple lesions 42 that appear in the frames 40 by sequentially performing a recognition process 96 on each of the multiple frames 40 in a time series contained in the endoscopic video 39 acquired from the camera 52. For example, the recognition unit 82A recognizes the geometric characteristics (e.g., position and shape, etc.) of each of the multiple lesions 42, the type of each of the multiple lesions 42, and the type of each of the multiple lesions 42 (e.g., pedunculated, subpedunculated, sessile, surface elevated, surface flat, surface depressed, etc.).
  • geometric characteristics e.g., position and shape, etc.
  • the recognition process 96 is performed by the recognition unit 82A on the acquired frame 40 each time the frame 40 is acquired.
  • the recognition process 96 is a process for recognizing multiple lesions 42 using an AI-based method (i.e., object recognition process using machine learning).
  • object recognition process using AI in a segmentation method e.g., semantic segmentation, instance segmentation, and/or panoptic segmentation
  • a segmentation method e.g., semantic segmentation, instance segmentation, and/or panoptic segmentation
  • the recognition model 92 is a trained model for object recognition using an AI segmentation method.
  • An example of a trained model for object recognition using an AI segmentation method is a model for semantic segmentation.
  • An example of a model for semantic segmentation is a model with an encoder-decoder structure.
  • An example of a model with an encoder-decoder structure is U-Net or HRNet.
  • the recognition process 96 is an example of the "recognition process" and "object recognition process” related to the technology disclosed herein.
  • the recognition model 92 is optimized by performing machine learning on the neural network using the first training data.
  • the first training data is a data set including a plurality of data (i.e., a plurality of frames of data) in which the first example data and the first correct answer data are associated with each other.
  • the first example data is an image corresponding to frame 40.
  • the first correct answer data is correct answer data (i.e., annotations) for the first example data.
  • annotations that identify the geometric characteristics, type, and model of the lesion depicted in the image used as the first example data are used as an example of the first correct answer data.
  • the recognition unit 82A acquires a frame 40 from the camera 52 and inputs the acquired frame 40 to the recognition model 92. As a result, each time a frame 40 is input, the recognition model 92 identifies the geometric characteristics of each of the multiple lesions 42 depicted in the input frame 40, and outputs information that can identify the geometric characteristics of each of the multiple lesions 42. In the example shown in FIG. 5, a probability map 100 that is information that can identify the position of the lesion 42 in the frame 40 is shown as an example of information that can identify geometric characteristics.
  • the recognition unit 82A acquires from the recognition model 92 information indicating the type of each of the multiple lesions 42 depicted in the frame 40 input to the recognition model 92, and information indicating the type of each of the multiple lesions 42 depicted in the frame 40 input to the recognition model 92.
  • the recognition unit 82A obtains a probability map 100 for the frame 40 input to the recognition model 92 from the recognition model 92.
  • the probability map 100 is a map that expresses the distribution of the positions of the lesions 42 within the frame 40 in terms of probability, which is an example of an index of likelihood. In general, the probability map 100 is also called a reliability map or a certainty map.
  • the probability map 100 includes a plurality of segmentation images 102 that define a plurality of lesions 42 recognized by the recognition unit 82A.
  • the segmentation images 102 are image regions that identify the positions of the lesions 42 in the frame 40 that have been recognized by performing the recognition process 96 on the frame 40 (i.e., images displayed in a display manner that can identify the positions in the frame 40 where the lesions 42 are most likely to exist).
  • Each segmentation image 102 is associated with first position information 98 by the recognition unit 82A.
  • An example of the first position information 98 in this case is coordinates that can identify the position of the segmentation image 102 in the probability map 100 (in other words, coordinates that can identify the display position of the lesion 42 in the frame 40).
  • the position of the segmentation image 102 in the probability map 100 refers to, for example, the position of the outer contour of the segmentation image 102 in the probability map 100.
  • the probability map 100 may be displayed on the screen 35 (e.g., the second display area 38) as medical information 44 by the control unit 82C.
  • the probability map 100 displayed on the screen 35 is updated according to the display frame rate applied to the first display area 36. That is, the display of the probability map 100 in the second display area 38 (i.e., the display of the segmentation image 102) is updated in synchronization with the display timing of the endoscopic video 39 displayed in the first display area 36.
  • the doctor 12 can grasp the general position of the lesion 42 in the endoscopic video 39 displayed in the first display area 36 by referring to the probability map 100 displayed in the second display area 38 while observing the endoscopic video 39 displayed in the first display area 36.
  • the recognition unit 82A associates, with each of the multiple segmentation images 102 in the probability map 100, an identifier 104 that can individually identify each segmentation image 102.
  • the identifier 104 is a unique identifier for each segmentation image 102.
  • the association of the identifier 104 with the segmentation image 102 is achieved by assigning the identifier 104 to the first position information 98 that corresponds to the segmentation image 102.
  • the identifier 104 is an example of "positional relationship identifying information" related to the technology of the present disclosure.
  • the control unit 82C creates a first rectangular frame 106 circumscribing the segmentation image 102 based on the first position information 98.
  • the control unit 82C then creates multiple second rectangular frames 108 in the frame 40 based on the multiple first rectangular frames 106 created in the probability map 100.
  • the second rectangular frame 108 is a rectangular frame that surrounds the lesion 42 in the frame 40, and is assigned to each of the multiple lesions 42 shown in the frame 40.
  • the second rectangular frame 108 is obtained by enlarging the largest first rectangular frame 106 of the multiple first rectangular frames 106 created in the probability map 100 by a preset magnification (e.g., a magnification greater than 1).
  • the control unit 82C associates the same identifier 104 as the identifier 104 associated with the segmentation image 102 with the lesion 42 corresponding to the segmentation image 102 in the probability map 100. That is, a common identifier 104 is associated with the segmentation image 102 and the lesion 42 whose positions in the probability map 100 correspond to their positions in the frame 40. The association of the identifier 104 with the lesion 42 is achieved by assigning the identifier 104 associated with the segmentation image 102 corresponding to the lesion 42 to the second rectangular frame 108 assigned to the lesion 42 corresponding to the segmentation image 102.
  • the control unit 82C extracts multiple local images 110 showing different lesions 42 from a frame 40 in which a second rectangular frame 108 and an identifier 104 are associated with the lesions 42.
  • the local images 110 are local images within the frame 40.
  • an image surrounded by the second rectangular frame 108 within the frame 40 is shown as an example of a local image 110.
  • each of the multiple local images 110 is an image in which each of the multiple lesions 42 shown in the frame 40 is individually extracted (in other words, an image individually cut out) from the frame 40 using the second rectangular frame 108, which is a frame having the same shape and size.
  • each of the multiple local images 110 is an image in which each of the multiple lesions 42 is individually extracted from the frame 40 using the second rectangular frame 108, which is a frame having the same shape and size, so that when the multiple local images 110 are compared, the differences in the size of the lesions 42 between the multiple local images 110 can be visually distinguished.
  • the local image 110 is an example of an "extracted image” according to the technology disclosed herein.
  • the second rectangular frame 108 is an example of a "frame” according to the technology disclosed herein.
  • the control unit 82C generates first information 111 for each lesion 42 shown in the frame 40 and stores it in the RAM 84.
  • the first information 111 is information in which the identifier 104, the local image 110, and the second position information 109 are associated.
  • the control unit 82C generates the first information 111 by assigning the identifier 104 and the second position information 109 to the local image 110 extracted from the frame 40.
  • the identifier 104 assigned to the local image 110 is the identifier 104 assigned to the second rectangular frame 108 used to extract the local image 110 from the frame 40.
  • the second position information 109 is information (e.g., coordinates) that can identify the position of the local image 110 within the frame 40.
  • multiple local images 110 are extracted from the frame 40 using the second rectangular frame 108
  • multiple images may be extracted from the frame 40 using a frame of a different shape and size than the second rectangular frame 108.
  • a frame of a common shape and size is used among the multiple lesions 42, as with the second rectangular frame 108.
  • a frame is used that allows visual differentiation of the difference in size of the lesions 42 among the multiple extracted images when comparing the multiple extracted images extracted from the frame 40 (multiple local images 110 in the example shown in FIG. 8).
  • the acquisition unit 82B acquires a frame 40 from the camera 52 and acquires a size 112 of the lesion 42 captured in the frame 40 acquired from the camera 52 (here, as an example, the frame 40 used in the recognition process 96).
  • the acquisition of the size 112 of the lesion 42 captured in the frame 40 is realized by the acquisition unit 82B measuring the size 112.
  • the acquisition unit 82B measures the size 112 based on the frame 40.
  • the acquisition unit 82B measures the size 112 of the lesion 42 in time series based on each of the multiple frames 40 included in the endoscopic video image 39 acquired from the camera 52.
  • the size 112 of the lesion 42 refers to the size of the lesion 42 in real space.
  • the size of the lesion 42 in real space is also referred to as the "real size".
  • the size 112 is an example of the "characteristics”, "size”, and "real size” related to the technology disclosed herein.
  • the acquisition unit 82B acquires distance information 114 of the lesion 42 based on the frame 40 acquired from the camera 52.
  • the distance information 114 is information indicating the distance from the camera 52 (i.e., the observation position) to the intestinal wall 32 including the lesion 42 (see FIG. 1).
  • the distance from the camera 52 to the intestinal wall 32 including the lesion 42 is illustrated as an example, but this is merely one example, and instead of the distance, a numerical value indicating the depth from the camera 52 to the intestinal wall 32 including the lesion 42 (e.g., a plurality of numerical values that define the depth in stages (e.g., numerical values ranging from several stages to several tens of stages)) may be used.
  • acquisition unit 82B acquires distance information 114 here is that even if the lesion 42 is the same size, the size of the lesion 42 on the image becomes smaller the farther the position of the lesion 42 is from the camera 52, and therefore, when calculating the actual size, it is necessary to take into account how far the position of the lesion 42 is from the camera 52.
  • Distance information 114 is obtained for each of all pixels constituting frame 40. Note that distance information 114 may also be obtained for each block of frame 40 that is larger than a pixel (for example, a pixel group made up of several pixels to several hundred pixels).
  • the acquisition unit 82B acquires the distance information 114, for example, by deriving the distance information 114 using an AI method.
  • a distance derivation model 94 is used to derive the distance information 114.
  • the distance derivation model 94 is optimized by performing machine learning on the neural network using the second training data.
  • the second training data is a data set including multiple data (i.e., multiple frames of data) in which the second example data and the second answer data are associated with each other.
  • the second example data is an image corresponding to frame 40.
  • the second correct answer data is correct answer data (i.e., annotation) for the second example data.
  • an annotation that specifies the distance corresponding to each pixel in the image used as the second example data is used as an example of the second correct answer data.
  • the acquisition unit 82B acquires the frame 40 from the camera 52, and inputs the acquired frame 40 to the distance derivation model 94.
  • the distance derivation model 94 outputs distance information 114 in pixel units of the input frame 40. That is, in the acquisition unit 82B, information indicating the distance from the position of the camera 52 (e.g., the position of an image sensor or objective lens mounted on the camera 52) to the intestinal wall 32 shown in the frame 40 is output from the distance derivation model 94 as distance information 114 in pixel units of the frame 40.
  • the acquisition unit 82B generates a distance image 116 based on the distance information 114 output from the distance derivation model 94.
  • the distance image 116 is an image in which the distance information 114 is distributed in pixel units contained in the endoscopic moving image 39 (i.e., frame 40).
  • the acquisition unit 82B acquires the first position information 98 assigned to the segmentation image 102 in the probability map 100 obtained by the recognition unit 82A.
  • the acquisition unit 82B refers to the first position information 98 and extracts distance information 114 from the segmentation corresponding region 116A in the distance image 116.
  • the segmentation corresponding region 116A is a region corresponding to a position identified from the first position information 98 in the distance image 116.
  • the distance information 114 extracted from the segmentation corresponding region 116A may be, for example, distance information 114 corresponding to the position (e.g., center of gravity) of the lesion 42, or a statistical value (e.g., median, average, or mode) of the distance information 114 for multiple pixels (e.g., all pixels) included in the lesion 42.
  • the acquisition unit 82B extracts a number of pixels 118 from the frame 40.
  • the number of pixels 118 is the number of pixels on a line segment 120 that crosses an image area (i.e., an image area showing the lesion 42) at a position identified from the first position information 98 among all image areas of the frame 40 input to the distance derivation model 94.
  • An example of the line segment 120 is the longest line segment parallel to a long side of a rectangular frame 122 that circumscribes the image area showing the lesion 42. Note that the line segment 120 is merely an example, and instead of the line segment 120, the longest line segment parallel to a short side of the rectangular frame 122 that circumscribes the image area showing the lesion 42 may be applied.
  • the acquisition unit 82B calculates the size 112 of the lesion 42 based on the distance information 114 extracted from the segmentation corresponding area 116A in the distance image 116 and the number of pixels 118 extracted from the frame 40.
  • the calculation of the size 112 uses an arithmetic expression 124.
  • the arithmetic expression 124 is an arithmetic expression in which the distance information 114 and the number of pixels 118 are independent variables and the size 112 is a dependent variable.
  • the acquisition unit 82B inputs the distance information 114 extracted from the distance image 116 and the number of pixels 118 extracted from the frame 40 to the arithmetic expression 124.
  • the arithmetic expression 124 outputs the size 112 corresponding to the input distance information 114 and number of pixels 118.
  • the acquisition unit 82B generates second information 126.
  • the second information 126 is generated by associating the identifier 104 with the size 112 output from the arithmetic expression 124.
  • the identifier 104 associated with the size 112 is the identifier 104 associated with the segmentation image 102 that corresponds to the segmentation corresponding area 116A used to calculate the size 112.
  • the length of the lesion 42 in real space is exemplified as the size 112, but the technology of the present disclosure is not limited to this, and the size 112 may be the surface area or volume of the lesion 42 in real space.
  • an arithmetic formula 124 is used in which the number of pixels in the entire image area showing the lesion 42 and the distance information 114 are independent variables, and the surface area or volume of the lesion 42 in real space is a dependent variable.
  • the acquisition unit 82B acquires sizes 112 for other lesions 42 captured in the frame 40 in a manner similar to the example shown in FIG. 9, and generates second information 126 by assigning to the acquired size 112 an identifier 104 associated with the segmentation image 102 corresponding to the segmentation corresponding area 116A used to calculate the size 112.
  • the acquisition unit 82B then stores in the RAM 84 each piece of second information 126 generated for each of the multiple lesions 42 captured in the frame 40.
  • the control unit 82C acquires the size 112 from the acquisition unit 82B.
  • the control unit 82C also acquires the frame 40 used to measure the size 112 by the acquisition unit 82B from the camera 52.
  • the control unit 82C displays the frame 40 acquired from the camera 52 in the first display area 36.
  • the control unit 82C also acquires from the RAM 84 a plurality of pieces of first information 111 and a plurality of pieces of second information 126 corresponding to a plurality of lesions 42 shown in the frame 40.
  • the control unit 82C displays a plurality of identifiers 104 within the frame 40 displayed in the first display area 36 based on the plurality of pieces of first information 111 and the plurality of pieces of second information 126 acquired from the RAM 84.
  • the control unit 82C also displays a plurality of identifiers 104, a plurality of local images 110, and a plurality of sizes 112 in the second display area 38 as part of the medical information 44 based on the plurality of pieces of first information 111 and the plurality of pieces of second information 126 acquired from the RAM 84.
  • the control unit 82C displays the latest identifier 104, the latest local image 110, and the latest size 112 on the screen 35 each time the acquisition unit 82B acquires the size 112. That is, the identifier 104, the local image 110, and the size 112 displayed on the screen 35 are updated to the latest identifier 104, the latest local image 110, and the latest size 112 each time the acquisition unit 82B acquires the size 112.
  • a plurality of identifiers 104 are superimposed on the frame 40 in the first display area 36.
  • the plurality of identifiers 104 may be superimposed on the frame 40 using an alpha blending method.
  • the position at which each identifier 104 is displayed within the frame 40 is adjacent to the corresponding lesion 42 (hereinafter also referred to as the "lesion-adjacent position").
  • the control unit 82C selects one of the multiple pieces of first information 111, and determines the lesion-adjacent position by referring to the second position information 109 included in the selected first information, which is the selected first information 111.
  • the control unit 82C displays the identifier 104 included in the selected first information at the lesion-adjacent position.
  • the "lesion-adjacent position" is an example of a "second display position" according to the technology of the present disclosure.
  • the control unit 82C displays the multiple local images 110 contained in the multiple pieces of first information 111 acquired from the RAM 84 according to the multiple sizes 112 contained in the multiple pieces of second information 126 acquired from the RAM 84.
  • the position at which the local image 110 is displayed in the second display area 38 is an example of a "first display position" according to the technology of the present disclosure.
  • the multiple local images 110 included in the multiple pieces of first information 111 acquired from the RAM 84 are displayed in a comparatively arranged state.
  • the multiple local images 110 are displayed along the vertical direction (in other words, the up-down direction when viewed from the front).
  • the multiple local images 110 are displayed in a display manner that allows the relative size 112 to be visually identified.
  • the multiple local images 110 are arranged from top to bottom in descending order of size 112.
  • the multiple sizes 112 included in the multiple pieces of first information 111 acquired from the RAM 84 are displayed in a state in which their correspondence with the multiple local images 110 can be identified.
  • each of the multiple sizes 112 is displayed in a position adjacent to the corresponding local image 110.
  • the correspondence between the local image 110 included in the first information 111 and the size 112 included in the second information 126 is determined by matching the identifier 104 included in the first information 111 with the identifier 104 included in the second information 126.
  • an identifier 104 corresponding to each local image 110 is displayed in a position adjacent to each local image 110. This allows the doctor 12 to visually identify where in the frame 40 the lesion 42 depicted in the local image 110 is located by comparing the identifier 104 displayed in the lesion-adjacent position in the first display area 36 with the identifier 104 displayed in the second display area 38.
  • the identifier 104 is displayed to the left of the corresponding local image 110 when viewed from the front, and the size 112 is displayed to the right of the corresponding local image 110 when viewed from the front, but this is merely an example, and the identifier 104, local image 110, and size 112 may be displayed in the second display area 38 in a layout that allows the correspondence between them to be identified.
  • the multiple local images 110 may be displayed in the second display area 38 in a layout that allows the size relationship between the multiple lesions 42 in terms of size 112 to be visually identified.
  • a form example is given in which the correspondence between the lesion 42 shown in the frame 40 and the local image 110 is visually identified by the identifier 104, but this is merely one example.
  • a first rectangular frame 106 (see FIG. 7) may be displayed within the frame 40, and a second rectangular frame 108 of the local image 110 displayed in the second display area 38 may be displayed in the same display mode (e.g., color and/or brightness, etc.) as the corresponding first rectangular frame 106.
  • the lesion 42 in the frame 40 and the corresponding local image 110 may be displayed in a linked state via a line, etc.
  • the size 112 is displayed in the second display area 38, but this is merely one example, and the size 112 may be displayed within the frame 40 displayed in the first display area 36. In this case, for example, the size 112 may be displayed superimposed on the frame 40 using an alpha blending method.
  • FIG. 11 The flow of the medical support process shown in Figure 11 is an example of a "medical support method" related to the technology of the present disclosure.
  • step ST10 the recognition unit 82A and the control unit 82C acquire a frame 40 obtained by imaging the large intestine 28 with the camera 52.
  • the control unit 82C displays the frame 40 in the first display area 36 (see FIGS. 5 and 11).
  • the following description will be given on the assumption that multiple lesions 42 are shown in the frame 40.
  • step ST12 the recognition unit 82A performs a recognition process 96 on the frame 40 acquired in step ST10 to recognize the lesion 42 shown in the frame 40 (see FIG. 5). After the process of step ST12 is executed, the medical support process proceeds to step ST14.
  • step ST14 the recognition unit 82A obtains the probability map 100 from the recognition model 92 (see FIG. 6). After the processing of step ST14 is executed, the medical support processing proceeds to step ST16.
  • step ST16 the recognition unit 82A assigns first position information 98 to each of the multiple segmentation images 102 in the probability map 100 acquired in step ST14 (see FIG. 6). After the processing of step ST16 is executed, the medical support processing proceeds to step ST18.
  • step ST18 the recognition unit 82A assigns an identifier 104 to each of the first position information 98 assigned to each of the multiple segmentation images 102 in the probability map 100, thereby associating the identifier 104 with each of the multiple segmentation images 102 (see FIG. 6).
  • step ST20 the medical support processing proceeds to step ST20.
  • step ST20 the control unit 82C sets a second rectangular frame 108 for each of the multiple image regions showing the multiple lesions 42 in the frame 40 based on the first position information 98 assigned to each of the multiple segmentation images 102 in the probability map 100 in step ST16 (see FIG. 7).
  • step ST20 the medical support processing proceeds to step ST22.
  • step ST22 the control unit 82C extracts multiple local images 110 from the frame 40 using the multiple second rectangular frames 108 set for the frame 40 in step ST20 (see FIG. 8). After the processing of step ST22 is executed, the medical support processing proceeds to step ST24.
  • step ST24 the control unit 82C generates a plurality of pieces of first information 111 by assigning an identifier 104 and second position information 109 to each of the plurality of local images 110 extracted from the frame 40, and stores the first information 111 in the RAM 84 (see FIG. 8).
  • step ST24 the medical support processing proceeds to step ST26 shown in FIG. 12B.
  • step ST26 the acquisition unit 82B acquires the size 112 of each of the multiple lesions 42 shown in the frame 40 based on the frame 40 acquired in step ST10 and the probability map 100 in which the first position information 98 is associated with the segmentation image 102 (see FIG. 9).
  • step ST28 the medical support processing proceeds to step ST28.
  • step ST28 the acquisition unit 82B generates second information 126 by associating the size 112 acquired in step ST26 for each of the multiple lesions 42 shown in the frame 40 with the identifier 104 associated with the segmentation image 102 used to acquire the size 112, and stores the second information 126 in the RAM 84 (see FIG. 10).
  • step ST30 the medical support processing proceeds to step ST30.
  • step ST30 the control unit 82C displays the identifier 104 at a position adjacent to the lesion in the frame 40 based on the first information 111 stored in the RAM 84 (see FIG. 11).
  • step ST32 the medical support processing proceeds to step ST32.
  • step ST32 the control unit 82C displays the local image 110 and size 112 for each identifier 104 in the second display area 38 based on the first information 111 and second information 126 stored in the RAM 84 (see FIG. 11).
  • step ST34 the medical support processing proceeds to step ST34.
  • step ST34 the control unit 82C determines whether or not a condition for terminating the medical support process has been satisfied.
  • a condition for terminating the medical support process is a condition in which an instruction to terminate the medical support process has been given to the endoscope system 10 (for example, a condition in which an instruction to terminate the medical support process has been accepted by the acceptance device 64).
  • step ST34 If the conditions for terminating the medical support process are not met in step ST34, the determination is negative, and the medical support process proceeds to step ST10 shown in FIG. 12A. If the conditions for terminating the medical support process are met in step ST34, the determination is positive, and the medical support process ends.
  • the recognition process 96 is performed on the frame 40 showing the multiple lesions 42, and the size 112 is acquired as a characteristic of each of the multiple lesions 42 recognized.
  • the frame 40 is then displayed in the first display area 36, and multiple local images 110 in which the multiple lesions 42 are individually extracted from the frame 40 are displayed in the second display area 38 according to the size 112 of each of the multiple lesions 42. Therefore, the doctor 12 can visually recognize the multiple lesions 42 shown in the frame 40 in a state in which the size 112 of each of the multiple lesions 42 can be grasped without impairing the visibility of the frame 40 displayed in the first display area 36.
  • the multiple local images 110 are displayed in the second display area 38 according to the respective sizes 112 (i.e., actual sizes) of the multiple lesions 42, this is merely one example.
  • the difference in size 112 between the multiple lesions 42 can also be identified from the difference in size (i.e., size on the image) of the first rectangular frame 106 set for each of the multiple lesions 42, so the multiple local images 110 may be displayed in the second display area 38 according to the size of the first rectangular frame 106 set for each of the multiple lesions 42.
  • the multiple local images 110 may be displayed in the second display area 38 according to the sizes of the multiple segmentation images 102 corresponding to the multiple lesions 42.
  • the multiple local images 110 are displayed in the second display area 38 in a display format that allows the doctor 12 to visually identify the size relationship of the sizes 112 between the multiple lesions 42.
  • the multiple local images 110 and their corresponding sizes 112 are displayed in the second display area 38 in a state in which the correspondence between the multiple local images 110 can be identified. This allows the doctor 12 to visually recognize the differences in the sizes 112 of the multiple lesions 42.
  • the doctor 12 can visually recognize the difference in size 112 of each of the multiple lesions 42.
  • a frame having a common shape and size among the multiple lesions 42 is used as the second rectangular frame 108. Therefore, by displaying the multiple local images 110 extracted from the frame 40 using the second rectangular frame 108 in a comparable state in the second display area 38, the doctor 12 can visually recognize the differences in the sizes 112 of the multiple lesions 42.
  • an identifier 104 is displayed in the second display area 38 at a position adjacent to the local image 110, and an identifier 104 is also displayed in the first display area 36 at a position adjacent to the lesion. Therefore, the doctor 12 can visually recognize the correspondence between the display position of the local image 110 in the second display area 38 and the display position of the lesion 42 shown in the frame 40 in the first display area 36.
  • the acquisition unit 82B acquires the sizes 112 of the lesions 42, and the second information 126 is generated by associating the identifiers 104 with the sizes 112.
  • the technology disclosed herein is not limited to this.
  • the acquisition unit 82B may generate a plurality of third information 128 based on a plurality of distance information 114 acquired for the lesions 42 and store the third information 128 in the RAM 84.
  • the third information 128 differs from the second information 126 in that the distance information 114 is used instead of the size 112.
  • the distance information 114 used in the third information 128 is the distance information 114 extracted from the segmentation corresponding region 116A when calculating the size 112.
  • the distance information 114 is an example of the "depth" related to the technology disclosed herein.
  • the control unit 82C acquires the plurality of pieces of first information 111 and the plurality of pieces of third information 128 from the RAM 84, and displays a plurality of identifiers 104, a plurality of local images 110, and a plurality of pieces of distance information 114 in the second display area 38 based on the plurality of pieces of first information 111 and the plurality of pieces of third information 128 acquired from the RAM 84.
  • the display content of the second display area 38 shown in FIG. 14 differs from the display content of the second display area 38 shown in FIG.
  • the second display area 38 displays a plurality of local images 110 in a display mode that allows visual identification of the depth relationship between a plurality of lesions 42.
  • the corresponding distance information 114 i.e., the depth from the camera 52 to the lesion 42 captured in the local image 110
  • the doctor 12 can visually recognize the multiple lesions 42 shown in the frame 40 in a state in which the distance information 114 for each of the multiple lesions 42 is graspable, without impairing the visibility of the frame 40 displayed in the first display area 36.
  • the doctor 12 since the distance information 114 corresponding to each of the multiple local images 110 is displayed in a position adjacent to the corresponding local image 110, the doctor 12 can visually recognize the relationship in depth from the observation position between the multiple lesions 42.
  • FIG. 11 shows an example of a form in which multiple local images 110 are displayed in the second display area 38 according to the size 112
  • the example shown in Fig. 14 shows an example of a form in which multiple local images 110 are displayed in the second display area 38 according to the distance information 114, but the display contents of the second display area 38 shown in Fig. 11 and the display contents of the second display area 38 shown in Fig. 14 may be selectively displayed.
  • the display contents of the second display area 38 shown in Fig. 11 and the display contents of the second display area 38 shown in Fig. 14 may be switched according to an instruction 129 (e.g., an instruction given by the doctor 12) received by the reception device 64.
  • an instruction 129 e.g., an instruction given by the doctor 12
  • the number of lesions 42 captured in the frame 40 increases, the number of local images 110 to be displayed in the second display area 38 also increases, and if there are too many lesions 42, it becomes difficult to display all of the local images 110 in the second display area 38. All of the local images 110 may be displayed in the second display area 38 by reducing the size of the local images 110, but this reduces the visibility of the local images 110.
  • the control unit 82C displays a plurality of local images 110 in a grouped state in the second display area 38.
  • the control unit 82C determines whether the number of local images 110 stored in the RAM 84 (i.e., the number corresponding to the number of lesions 42 recognized by the recognition unit 82A) exceeds a preset number (e.g., four).
  • a preset number e.g., four.
  • the preset number is a number derived in advance by testing an actual device and/or computer simulation, etc., as the number at which visibility becomes poor when all local images 110 stored in the RAM 84 are displayed in the second display area 38.
  • control unit 82C executes the same process as in the above embodiment. If the number of local images 110 stored in the RAM 84 exceeds the preset number, the control unit 82C groups the local images 110 by size range by dividing the local images 110 stored in the RAM 84 into multiple size ranges.
  • the multiple size ranges include a first size range 130 and a second size range 132.
  • the first size range 130 is a range in which the size 112 is 4.0 mm or more
  • the second size range 132 is a range in which the size 112 is less than 4.0 mm.
  • the size 112 in the range of 4.0 mm or more and the size 112 in the range of less than 4.0 mm are each an example of a "common characteristic" related to the technology of the present disclosure.
  • the multiple size ranges may be determined based on a reference value that is used by the physician 12 for clinical decision-making based on medical knowledge (e.g., a reference value (e.g., 5 mm and/or 10 mm, etc.) that the physician 12 uses to determine whether or not to remove the lesion 42), or may be determined based on a variable value that is changed depending on instructions given by the physician 12 and/or various conditions.
  • a reference value e.g., 5 mm and/or 10 mm, etc.
  • the control unit 82C groups the local images 110 by size range by dividing the local images 110 into a first size range 130 and a second size range 132 based on the first information 111 and the second information 126 stored in the RAM 84.
  • the control unit 82C then displays the local images 110 in the second display area 38 in a state where they are grouped by size range.
  • a local image 110 representative of the first size range 130 and a local image 110 representative of the second size range 132 are displayed in the second display area 38.
  • the size 112 of the lesion 42 depicted in the local image 110 representative of the first size range 130 and the size 112 of the lesion 42 depicted in the local image 110 representative of the second size range 132 are displayed in the second display area 38.
  • first size range 130 and the second size range 132 are examples of the "multiple first ranges" according to the technology disclosed herein.
  • the second display area 38 displays first number information 134 indicating the number of local images 110 allocated to the first size range 130 and second number information 136 indicating the number of local images 110 allocated to the second size range 132.
  • the first number information 134 displays information indicating that the number of local images 110 allocated to the first size range 130 is two
  • the second number information 136 displays information indicating that the number of local images 110 allocated to the second size range 132 is three.
  • a specific number is illustrated, but this is merely an example and may be a general indicator that can specify whether the number is large or small.
  • the first number information 134 and the second number information 136 are examples of "information regarding the number of extracted images grouped into the first range" related to the technology disclosed herein.
  • An example of a local image 110 representative of the first size range 130 is a local image 110 that depicts the lesion 42 with the largest size 112 out of all the local images 110 assigned to the first size range 130.
  • An example of a local image 110 representative of the second size range 132 is a local image 110 that depicts the lesion 42 with the largest size 112 out of all the local images 110 assigned to the second size range 132.
  • a local image 110 depicting a lesion 42 with the largest size 112 has been exemplified as a local image 110 representative of the size range, but this is merely one example.
  • a local image 110 representative of the size range may be a local image 110 depicting a lesion 42 with the smallest size 112, a local image 110 depicting a lesion 42 with a median size 112, a local image 110 depicting a lesion 42 with a mode size 112, or a local image 110 selected randomly.
  • an identifier 104 corresponding to a local image 110 representative of the first size range 130 is displayed in the second display area 38
  • an identifier 104 corresponding to a local image 110 representative of the second size range 132 is displayed in the second display area 38.
  • the multiple sizes 112 for the multiple lesions 42 captured in the multiple local images 110 are divided into a first size range 130 and a second size range 132, and the multiple local images 110 divided into the first size range 130 and the second size range 132 are displayed in a grouped state in the second display area 38. Therefore, better visibility in the second display area 38 can be achieved compared to a case in which all of the local images 110 are displayed separately in the second display area 38.
  • a local image 110 representative of all the local images 110 sorted into the first size range 130 is displayed in the second display area 38, and first number information 134 is displayed in the second display area 38 as information regarding the number of local images 110 grouped into the first size range 130.
  • a local image 110 representative of all the local images 110 sorted into the second size range 132 is displayed in the second display area 38, and second number information 136 is displayed in the second display area 38 as information regarding the number of local images 110 grouped into the second size range 132. This allows the doctor 12 to roughly grasp the difference between the first size range 130 and the second size range 132.
  • the local images 110 stored in the RAM 84 exceeds a preset number, the local images 110 are displayed in the second display area 38 in a grouped state according to size range. Therefore, according to this configuration, a number of local images 110 that does not impair visibility can be displayed in the second display area 38, and a number of local images 110 that impair visibility can be grouped and displayed in the second display area 38. As a result, visual discomfort experienced by the doctor 12 observing the second display area 38 can be suppressed.
  • multiple local images 110 are grouped by size range, but the technology of the present disclosure is not limited to this.
  • multiple local images 110 may be grouped by distance range.
  • the distance information 114 is displayed in the second display area 38, but in the example shown in FIG. 17, instead of the distance information 114, an indicator 141 indicating the depth to the lesion 42 is displayed in the second display area 38.
  • the indicator 141 is expressed as "deep” or "shallow”. Note that, in the example shown in FIG.
  • control unit 82C divides the local images 110 stored in RAM 84 into multiple distance ranges, thereby grouping the local images 110 by distance range.
  • the multiple distance ranges include a first distance range 138 and a second distance range 140.
  • first distance range 138 is a range in which the distance indicated by distance information 114 is 4.0 mm or more
  • second distance range 140 is a range in which the distance indicated by distance information 114 is less than 4.0 mm.
  • each of the distances in the range of 4.0 mm or more and the distances in the range of less than 4.0 mm is an example of a "common characteristic" related to the technology disclosed herein.
  • two distance ranges are exemplified here, but this is merely one example, and for example, three or more distance ranges may be used, as long as they are multiple distance ranges that separate multiple pieces of distance information 114.
  • the multiple distance ranges may be fixed values, or may be variable values that are changed according to instructions given by the doctor 12 and/or various conditions.
  • the control unit 82C groups the local images 110 by distance range by dividing the local images 110 into a first distance range 138 and a second distance range 140 based on the first information 111 and the third information 128 (see FIG. 14) stored in the RAM 84.
  • the control unit 82C then displays the local images 110 in the second display area 38 in a state where the local images 110 are grouped by distance range.
  • a local image 110 representing the first distance range 138 and a local image 110 representing the second distance range 140 are displayed in the second display area 38.
  • the first distance range 138 and the second distance range 140 are examples of "multiple second ranges" according to the technology disclosed herein.
  • the second display area 38 displays an index 141 indicating the depth of the lesion 42 captured in the local image 110 assigned to the first distance range 138, and an index 141 indicating the depth of the lesion 42 captured in the local image 110 assigned to the second distance range 140.
  • the second display area 38 displays third number information 142 indicating the number of local images 110 assigned to the first distance range 138, and fourth number information 144 indicating the number of local images 110 assigned to the second distance range 140.
  • the third number information 142 displays information indicating that the number of local images 110 assigned to the first distance range 138 is two
  • the fourth number information 144 displays information indicating that the number of local images 110 assigned to the second distance range 140 is three.
  • the third number information 142 and the fourth number information 144 are examples of "information regarding the number of extracted images grouped in the second range" according to the technology disclosed herein.
  • An example of a local image 110 representative of the first distance range 138 is a local image 110 in which the lesion 42 at the greatest distance indicated by the distance information 114 is shown among all the local images 110 assigned to the first distance range 138.
  • An example of a local image 110 representative of the second distance range 140 is a local image 110 in which the lesion 42 at the greatest distance indicated by the distance information 114 is shown among all the local images 110 assigned to the second distance range 140.
  • a local image 110 showing a lesion 42 at the maximum distance has been exemplified as a local image 110 representative of the distance range, but this is merely one example.
  • the local image 110 representative of the distance range may be a local image 110 showing a lesion 42 at the minimum distance, a local image 110 showing a lesion 42 at the median distance, a local image 110 showing a lesion 42 at the most frequent distance, or a local image 110 selected randomly.
  • an identifier 104 corresponding to a local image 110 representing the first distance range 138 is displayed in the second display area 38
  • an identifier 104 corresponding to a local image 110 representing the second distance range 140 is displayed in the second display area 38.
  • the multiple distance information 114 for the multiple lesions 42 captured in the multiple local images 110 are divided into a first distance range 138 and a second distance range 140, and the multiple local images 110 divided into the first distance range 138 and the second distance range 140 are displayed in a grouped state in the second display area 38. Therefore, better visibility in the second display area 38 can be achieved compared to a case in which all of the local images 110 are displayed separately in the second display area 38.
  • a local image 110 representative of all the local images 110 assigned to the first distance range 138 is displayed in the second display area 38, and third number information 142 is displayed in the second display area 38 as information regarding the number of local images 110 grouped in the first distance range 138.
  • a local image 110 representative of all the local images 110 assigned to the second distance range 140 is displayed in the second display area 38, and fourth number information 144 is displayed in the second display area 38 as information regarding the number of local images 110 grouped in the second distance range 140. This allows the doctor 12 to roughly grasp the difference between the first distance range 138 and the second distance range 140.
  • the control unit 82C may generate a map 146 that allows the display position within the frame 40 of the lesion 42 included in the local image 110 to be identified, and display the generated map 146 in the third display area 148.
  • the map 146 is generated by associating an identifier 104 with each of the multiple segmentation images 102 included in the probability map 100.
  • the identifier 104 associated with each of the multiple segmentation images 102 is the same identifier as the identifier 104 shown in FIG. 7.
  • the third display area 148 in the screen 35 is a display area different from the first display area 36 and the second display area 38, and is arranged in a position in the screen 35 that can be compared with the first display area 36 and the second display area 38.
  • the third display area 148 displays the probability map 100, and multiple identifiers 104 are displayed in the probability map 100. For example, the multiple identifiers 104 are displayed superimposed on the probability map 100.
  • the position at which the identifiers 104 are displayed in the probability map 100 is adjacent to the segmentation image 102, and is determined based on the first position information 98 (see FIG. 7).
  • the map 146 is an example of the "position identification information" and “map” according to the technology of the present disclosure.
  • the third display area 148 is an example of the "third display area” according to the technology of the present disclosure.
  • a map 146 is displayed in the third display area 148. Since multiple segmentation images 102 are distributed in the map 146 at positions where multiple lesions 42 are present, the doctor 12 can visually identify the display position within the frame 40 of the lesion 42 included in the local image 110 by referring to the map 146.
  • the map 146 is generated based on the probability map 100 obtained by performing the recognition process 96, it is possible to easily obtain a map that can identify the display position within the frame 40 of the lesion 42 contained in the local image 110.
  • the map 146 is displayed in the third display area 148, which is different from the first display area 36 and the second display area 38, the visibility of the first display area 36 and the second display area 38 can be maintained better than when the map 146 is displayed in the first display area 36 or when the map 146 is displayed in the second display area 38.
  • third display area 148 may also display probability map 100 itself, or a map that has been modified from probability map 100, etc.
  • map 146 includes multiple segmentation images 102
  • an image in which the frame 40 is thumbnailed, or an image using an outer frame that is homothetic with the outer frame of the frame 40 may be used.
  • first display area 36, the second display area 38, and the third display area 148 within the screen 35 may be changed in response to given instructions and/or various conditions.
  • one or two of the information displayed in the first display area 36, the information displayed in the second display area 38, and the information displayed in the third display area 148 may be displayed on one or more display devices other than the display device 18.
  • the local image 110 may be sorted for each size 112 and for each distance information 114 and displayed in the second display area 38.
  • the local image 110 may be sorted for each type of lesion 42 and displayed in the second display area 38, or the local image 110 may be sorted for each type of lesion 42 and displayed in the second display area 38.
  • the local image 110 may be sorted for each type of lesion 42 and/or each type of lesion 42 and for each size 112 and displayed in the second display area 38.
  • the local image 110 may be sorted for each type of lesion 42 and/or each type of lesion 42 and for each distance information 114 and displayed in the second display area 38.
  • the local images 110 may be sorted according to the characteristics (e.g., the above-mentioned size 112, distance information 114, type of lesion 42, and/or model of lesion 42) selected according to instructions received by the reception device 64 (e.g., instructions given by the doctor 12) and displayed in the second display area 38.
  • the characteristics e.g., the above-mentioned size 112, distance information 114, type of lesion 42, and/or model of lesion 42
  • size 112, distance information 114, type of lesion 42, and form of lesion 42 are exemplified here as characteristics of lesion 42, these are merely examples.
  • the characteristics of lesion 42 may be the severity of lesion 42 and/or the state of the mucosa of lesion 42, or may be a combination of the above-mentioned characteristics (e.g., a combination of two or more of size 112, distance information 114, type of lesion 42, form of lesion 42, severity of lesion 42, and state of the mucosa of lesion 42, etc.).
  • an example was given in which the identifier 104 and size 112 are displayed on the screen 35, but the technology of the present disclosure is not limited to this, and the technology of the present disclosure can be applied even if the identifier 104 and/or size 112 are not displayed on the screen 35.
  • an example shown in FIG. 14 an example was given in which the identifier 104 and distance information 114 are displayed on the screen 35, but the technology of the present disclosure can be applied even if the identifier 104 and/or distance information 114 are not displayed on the screen 35.
  • an example was given in which an image cut out from the frame 40 using the second rectangular frame 108 is used as the local image 110, but the technology of the present disclosure is not limited to this.
  • an image obtained by performing image processing (e.g., commonly known image processing) on an image cut out from the frame 40 using the second rectangular frame 108 may be used as the local image 110.
  • an image cut out from the frame 40 using the largest first rectangular frame 106 out of all the first rectangular frames 106 (see FIG. 7) set for the probability map 100 may be used as the local image 110.
  • object recognition processing using AI with a segmentation method is exemplified as the recognition processing 96, but the technology disclosed herein is not limited to this, and the recognition processing 96 may be object recognition processing using AI with a bounding box method.
  • a bounding box is used instead of the segmentation image 102 (see FIG. 5), and the bounding box is used as a frame equivalent to the first rectangular frame 106 (see FIG. 7).
  • the endoscopic video 39 is displayed in the first display area 36, but the result of performing the recognition process 96 on the endoscopic video 39 may be superimposed on the endoscopic video 39 in the first display area 36. Also, at least a portion of the segmentation image 102 obtained as a result of performing the recognition process 96 on the endoscopic video 39 may be superimposed on the endoscopic video 39.
  • One example of superimposing at least a portion of the segmentation image 102 on the endoscopic video 39 is an example in which the outer contour of the segmentation image 102 is superimposed on the endoscopic video 39 using an alpha blending method.
  • a bounding box may be superimposed on the endoscopic video 39 in the first display area 36.
  • at least a portion of the segmentation image 102 and/or the bounding box may be superimposed on the first display area 36 as information that makes it possible to visually identify which lesion 42 corresponds to the measured size 112.
  • the control unit 82C generates the distance image 116 (see FIG. 9) from the frame 40 using the distance derivation model 94 (see FIG. 9), but the technology of the present disclosure is not limited to this.
  • the depth of the large intestine 28 in the depth direction may be measured by a depth sensor (e.g., a sensor that measures distance using a laser distance measurement method and/or a phase difference method, etc.) provided at the tip portion 50 (see FIG. 2), and the processor 82 may generate the distance image 116 based on the measured depth.
  • the length in real space of the longest range that crosses the lesion 42 along the line segment 120 is measured as the size 112, but the technology disclosed herein is not limited to this.
  • the length in real space of the range that corresponds to the longest line segment that is parallel to the short side of the rectangular frame 122 for the image area showing the lesion 42 may be measured as the size 112 and displayed on the screen 35.
  • the doctor 12 can be made to understand the length in real space of the longest range that crosses the lesion 42 along the longest line segment that is parallel to the short side of the rectangular frame 122 for the image area showing the lesion 42.
  • the actual size of the lesion 42 in terms of the radius and/or diameter of the circumscribing circle for the image area showing the lesion 42 may be measured and displayed on the screen 35.
  • the doctor 12 can be made to understand the actual size of the lesion 42 in terms of the radius and/or diameter of the circumscribing circle for the image area showing the lesion 42.
  • the size 112 is displayed within the second display area 38, but this is merely one example, and the size 112 may be displayed in a pop-up format from within the second display area 38 to outside the second display area 38, or the size 112 may be displayed outside the second display area 38 on the screen 35.
  • the type of lesion and/or the form of lesion may also be displayed within the first display area 36 and/or the second display area 38, or may be displayed on a screen other than the screen 35.
  • the size 112 was measured in units of one frame, but this is merely one example, and the size 112 may be measured in units of multiple frames. Furthermore, a representative size (e.g., average, median, maximum, minimum, deviation, standard deviation, and/or mode, etc.) obtained by measuring the size 112 in units of multiple frames may be used for the second information 126 (see Figures 10 and 11).
  • a representative size e.g., average, median, maximum, minimum, deviation, standard deviation, and/or mode, etc.
  • an AI-based object recognition process is exemplified as the recognition process 96, but the technology disclosed herein is not limited to this, and the lesion 42 shown in the frame 40 may be recognized by the recognition unit 82A by executing a non-AI-based object recognition process (e.g., template matching, etc.).
  • a non-AI-based object recognition process e.g., template matching, etc.
  • the arithmetic formula 124 was used to calculate the size 112
  • the technology disclosed herein is not limited to this, and the size 112 may be measured by performing AI processing on the frame 40.
  • a trained model may be used that outputs the size 112 of the lesion 42 when a frame 40 including a lesion 42 is input.
  • deep learning may be performed on the neural network using teacher data that has annotations indicating the size of the lesion as correct answer data for the lesions shown in the images used as example data.
  • deriving distance information 114 using distance derivation model 94 has been described, but the technology of the present disclosure is not limited to this.
  • other methods of deriving distance information 114 using an AI method include a method that combines segmentation and depth estimation (for example, regression learning that provides distance information 114 for the entire image (for example, all pixels that make up the image), or unsupervised learning that learns the distance for the entire image in an unsupervised manner).
  • an endoscopic video image 39 is exemplified, but the technology of the present disclosure is not limited to this, and the technology of the present disclosure can also be applied to medical video images other than endoscopic video images 39 (e.g., video images obtained by a modality other than the endoscopic system 10 (e.g., a radiological diagnostic device or an ultrasonic diagnostic device), such as a radiological video image or an ultrasonic video image).
  • a modality other than the endoscopic system 10 e.g., a radiological diagnostic device or an ultrasonic diagnostic device
  • distance information 114 extracted from the segmentation corresponding region 116A in the distance image 116 is input to the calculation formula 124, but the technology of the present disclosure is not limited to this.
  • distance information 114 corresponding to the position identified from the first position information 98 may be extracted from all distance information 114 output from the distance derivation model 94, and the extracted distance information 114 may be input to the calculation formula 124.
  • the display device 18 is exemplified as an output destination of the size 112, etc., but the technology of the present disclosure is not limited to this, and the output destination of various information such as the frame 40, medical information 44, and/or map 146 (hereinafter referred to as "various information") may be other than the display device 18.
  • an output destination of information that can be output as audio among the various information is an audio playback device 150.
  • Information that can be output as audio among the various information may be output as audio by the audio playback device 150.
  • an output destination of the various information is a printer 152 and/or an electronic medical record management device 154, etc.
  • the various information may be printed as text, etc. on a medium (e.g., paper) by the printer 152, or may be stored in an electronic medical record 156 managed by the electronic medical record management device 154.
  • various information is displayed on the screen 35 or is not displayed on the screen 35.
  • Displaying various information on the screen 35 means that the information is displayed in a manner that is perceptible to the user (e.g., doctor 12).
  • the concept of not displaying various information on the screen 35 also includes the concept of lowering the display level of the information (e.g., the level perceived by the display).
  • the concept of not displaying various information on the screen 35 also includes the concept of displaying the information in a manner that is not visually perceptible to the user.
  • examples of the display manner include reducing the font size of the information, displaying the information in thin lines, displaying the information in dotted lines, blinking the information, displaying the information for a display time that is not perceptible, and making the information transparent to an imperceptible level.
  • the various outputs such as the audio output, printing, and saving described above.
  • the medical support processing is performed by the processor 82 included in the endoscope system 10, but the technology disclosed herein is not limited to this, and a device that performs at least a portion of the processing included in the medical support processing may be provided outside the endoscope system 10.
  • an external device 160 may be used that is communicatively connected to the endoscope system 10 via a network 158 (e.g., a WAN and/or a LAN, etc.).
  • a network 158 e.g., a WAN and/or a LAN, etc.
  • An example of the external device 160 is at least one server that directly or indirectly transmits and receives data to and from the endoscope system 10 via the network 158.
  • the external device 160 receives a processing execution instruction provided from the processor 82 of the endoscope system 10 via the network 158.
  • the external device 160 then executes processing according to the received processing execution instruction and transmits the processing results to the endoscope system 10 via the network 158.
  • the processor 82 receives the processing results transmitted from the external device 160 via the network 158 and executes processing using the received processing results.
  • the processing execution instruction may be, for example, an instruction to have the external device 160 execute at least a part of the medical support processing.
  • a first example of at least a part of the medical support processing i.e., a processing to be executed by the external device 160
  • the external device 160 executes the recognition processing 96 in accordance with the processing execution instruction provided from the processor 82 of the endoscope system 10 via the network 158, and transmits the recognition processing result (e.g., the first position information 98 and/or the probability map 100, etc.) to the endoscope system 10 via the network 158.
  • the processor 82 receives the recognition processing result and executes the same processing as in the above embodiment using the received recognition processing result.
  • a second example of at least a portion of the medical support process is the process by the acquisition unit 82B.
  • the process by the acquisition unit 82B refers to, for example, the process of measuring the size 112 of the lesion 42.
  • the external device 160 executes the process by the acquisition unit 82B in accordance with a process execution instruction given from the processor 82 of the endoscope system 10 via the network 158, and transmits the measurement process result (e.g., the size 112, etc.) to the endoscope system 10 via the network 158.
  • the processor 82 receives the measurement process result, and executes the same process as in the above embodiment using the received measurement process result.
  • a third example of at least a portion of the medical support process is at least one of the processes of steps ST12 to ST28 included in the medical support process shown in Figures 12A and 12B.
  • a fourth example of at least a portion of the medical support process is the process of generating the third information 128 and storing it in the storage area.
  • a fifth example of at least a portion of the medical support process is a process of grouping multiple local images 110 by size range.
  • a sixth example of at least a part of the medical support process is a process of grouping multiple local images 110 by distance range.
  • a seventh example of at least a portion of the medical support process is a process for generating the display content of the first display area 36, the display content of the second display area 38, and/or the display content of the third display area 148.
  • the external device 160 is realized by cloud computing.
  • cloud computing is merely one example, and the external device 160 may be realized by network computing such as fog computing, edge computing, or grid computing.
  • network computing such as fog computing, edge computing, or grid computing.
  • at least one personal computer or the like may be used as the external device 160.
  • the external device 160 may be a computing device with a communication function equipped with multiple types of AI functions.
  • the medical support program 90 is stored in the NVM 86 , but the technology of the present disclosure is not limited to this.
  • the medical support program 90 may be stored in a portable, computer-readable, non-transitory storage medium such as an SSD or USB memory.
  • the medical support program 90 stored in the non-transitory storage medium is installed in the computer 78 of the endoscope system 10.
  • the processor 82 executes the medical support process in accordance with the medical support program 90.
  • the medical support program 90 may be stored in a storage device such as another computer or server connected to the endoscope system 10 via a network, and the medical support program 90 may be downloaded and installed in the computer 78 upon request from the endoscope system 10.
  • processors listed below can be used as hardware resources for executing medical support processing.
  • An example of a processor is a CPU, which is a general-purpose processor that functions as a hardware resource for executing medical support processing by executing software, i.e., a program.
  • Another example of a processor is a dedicated electrical circuit, which is a processor with a circuit configuration designed specifically for executing specific processing, such as an FPGA, PLD, or ASIC. All of these processors have built-in or connected memory, and all of these processors execute medical support processing by using the memory.
  • the hardware resource that executes the medical support processing may be composed of one of these various processors, or may be composed of a combination of two or more processors of the same or different types (for example, a combination of multiple FPGAs, or a combination of a CPU and an FPGA). Also, the hardware resource that executes the medical support processing may be a single processor.
  • a configuration using a single processor first, there is a configuration in which one processor is configured using a combination of one or more CPUs and software, and this processor functions as a hardware resource that executes medical support processing. Secondly, there is a configuration in which a processor is used that realizes the functions of the entire system, including multiple hardware resources that execute medical support processing, on a single IC chip, as typified by SoCs. In this way, medical support processing is realized using one or more of the various processors listed above as hardware resources.
  • the hardware structure of these various processors can be an electric circuit that combines circuit elements such as semiconductor elements.
  • the above medical support process is merely one example. It goes without saying that unnecessary steps can be deleted, new steps can be added, and the processing order can be changed without departing from the spirit of the invention.
  • a and/or B is synonymous with “at least one of A and B.”
  • a and/or B means that it may be just A, or just B, or a combination of A and B.
  • the same concept as “A and/or B” is also applied when three or more things are expressed by linking them with “and/or.”

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Endoscopes (AREA)

Abstract

医療支援装置は、プロセッサを備える。プロセッサは、複数の観察対象領域が写っている医用画像に対して認識処理が行われることによって認識された複数の観察対象領域のそれぞれの特性を取得する。プロセッサは、医用画像を第1表示領域に表示する。プロセッサは、医用画像から複数の観察対象領域が個別に抽出された複数の抽出画像を特性に応じて、第1表示領域外の第2表示領域に表示する。

Description

医療支援装置、内視鏡システム、医療支援方法、及びプログラム
 本開示の技術は、医療支援装置、内視鏡システム、医療支援方法、及びプログラムに関する。
 国際公開第2020/110214号には、画像入力部、病変検出部、見落としリスク解析部、報知制御部、及び報知部を備える内視鏡システムが開示されている。
 国際公開第2020/110214号に記載の内視鏡システムにおいて、画像入力部には、被写体を内視鏡にて撮像して得られた複数の観察画像が順次入力される。病変検出部は、内視鏡の観察対象である病変部を観察画像から検出する。見落としリスク解析部は、観察画像に基づき、操作者が病変部を見落とすリスクである見落としリスクの度合いを判断する。報知制御部は、見落としリスクの度合いに基づき、病変部の検出の報知手段及び報知方法を制御する。報知部は、報知制御部の制御に基づき病変部の検出を操作者に対して報知する。
 国際公開第2020/110214号に記載の内視鏡システムにおいて、見落としリスク解析部は、病変部の状態に基づき見落としリスクを解析する病変解析部を備える。病変解析部は、病変部自体の大きさを推定する病変サイズ解析部を備える。
 本開示の技術に係る一つの実施形態は、医用画像に対する視認性を損ねることなく、医用画像に写っている複数の観察対象領域を、複数の観察対象領域のそれぞれの特性が把握可能な状態でユーザ等に対して視覚的に認識させることができる医療支援装置、内視鏡システム、医療支援方法、及びプログラムを提供する。
 本開示の技術に係る第1の態様は、プロセッサを備え、プロセッサが、複数の観察対象領域が写っている医用画像に対して認識処理が行われることによって認識された複数の観察対象領域のそれぞれの特性を取得し、医用画像を第1表示領域に表示し、医用画像から複数の観察対象領域が個別に抽出された複数の抽出画像を特性に応じて、第1表示領域外の第2表示領域に表示する、医療支援装置である。
 本開示の技術に係る第2の態様は、特性が、サイズを含む、第1の態様に係る医療支援装置である。
 本開示の技術に係る第3の態様は、第2表示領域には、複数の観察対象領域間でのサイズの大小関係が視覚的に特定可能な表示態様で複数の抽出画像が表示される、第2の態様に係る医療支援装置である。
 本開示の技術に係る第4の態様は、サイズが複数の第1範囲で区切られており、第2表示領域には、第1範囲別に複数の抽出画像がグループ化された状態で表示される、第2の態様又は第3の態様に係る医療支援装置である。
 本開示の技術に係る第5の態様は、第2表示領域には、第1範囲別に複数の抽出画像がグループ化された場合に、第1範囲を代表する抽出画像が表示され、かつ、第1範囲にグループ化されている抽出画像の枚数に関する情報が表示される、第4の態様に係る医療支援装置である。
 本開示の技術に係る第6の態様は、第2表示領域には、複数の抽出画像の枚数が既定枚数を超えた場合に、第1範囲別に複数の抽出画像がグループ化された状態で表示される、第4の態様又は第5の態様に係る医療支援装置である。
 本開示の技術に係る第7の態様は、特性が、深度を含む、第1の態様から第6の態様の何れか1つの態様に係る医療支援装置である。
 本開示の技術に係る第8の態様は、第2表示領域には、複数の観察対象領域間での深度の深浅関係が視覚的に特定可能な表示態様で複数の抽出画像が表示される、第7の態様に係る医療支援装置である。
 本開示の技術に係る第9の態様は、深度が複数の第2範囲で区切られており、第2表示領域には、第2範囲別に複数の抽出画像がグループ化された状態で表示される、第7の態様又は第8の態様に係る医療支援装置である。
 本開示の技術に係る第10の態様は、第2表示領域には、第2範囲別に複数の抽出画像がグループ化された場合に、第2範囲を代表する抽出画像が表示され、かつ、第2範囲にグループ化されている抽出画像の枚数に関する情報が表示される、第9の態様に係る医療支援装置である。
 本開示の技術に係る第11の態様は、第2表示領域には、複数の抽出画像の枚数が既定枚数を超えた場合に、第2範囲別に複数の抽出画像がグループ化された状態で表示される、第9の態様又は第10の態様に係る医療支援装置である。
 本開示の技術に係る第12の態様は、プロセッサが、画面に位置関係特定情報を表示し、位置関係特定情報が、複数の抽出画像のうちの少なくとも1つが表示されている第1表示位置と、第1表示位置に表示されている抽出画像に写っている観察対象領域が第1表示領域に表示されている第2表示位置とが対応関係にあることを特定可能な情報である、第1の態様から第11の態様の何れか1つの態様に係る医療支援装置である。
 本開示の技術に係る第13の態様は、第2表示領域には、共通する特性別に複数の抽出画像がグループ化された状態で表示される、第1の態様から第12の態様の何れか1つの態様に係る医療支援装置である。
 本開示の技術に係る第14の態様は、第2表示領域には、共通する特性別に複数の抽出画像がグループ化された場合に、共通する特性毎に、特性を代表する抽出画像が表示され、かつ、共通する特性にグループ化されている抽出画像の枚数に関する情報が表示される、第13の態様に係る医療支援装置である。
 本開示の技術に係る第15の態様は、第2表示領域には、複数の抽出画像の枚数が既定枚数を超えた場合に、共通する特性別に複数の抽出画像がグループ化された状態で表示される、第13の態様又は第14の態様に係る医療支援装置である。
 本開示の技術に係る第16の態様は、プロセッサが、抽出画像に含まれる観察対象領域の医用画像内での表示位置が特定可能な位置特定情報を第3表示領域に表示する、第1の態様から第15の態様の何れか1つの態様に係る医療支援装置である。
 本開示の技術に係る第17の態様は、位置特定情報が、医用画像内での表示位置が特定可能なマップである、第16の態様に係る医療支援装置である。
 本開示の技術に係る第18の態様は、認識処理が、機械学習を用いた物体認識処理であり、マップが、物体認識処理が行われることによって得られる確率マップに基づいて生成される、第17の態様に係る医療支援装置である。
 本開示の技術に係る第19の態様は、第3表示領域が、第1表示領域及び第2表示領域とは異なる位置にある、第16の態様から第18の態様の何れか1つの態様に係る医療支援装置である。
 本開示の技術に係る第20の態様は、複数の観察対象領域のそれぞれの実サイズが測定され、第2表示領域には、複数の抽出画像と対応する実サイズが、複数の抽出画像との対応関係が特定可能な状態で表示される、第1の態様から第19の態様の何れか1つの態様に係る医療支援装置である。
 本開示の技術に係る第21の態様は、抽出画像が、複数の抽出画像を対比した場合に複数の抽出画像間で観察対象領域のサイズの違いが視覚的に弁別可能な枠を用いて医用画像から抽出された画像である、第1の態様から第20の態様の何れか1つの態様に係る医療支援装置である。
 本開示の技術に係る第22の態様は、枠が、複数の観察対象領域間で共通の形状及びサイズを有する、第21の態様に係る医療支援装置である。
 本開示の技術に係る第23の態様は、医用画像が、内視鏡スコープによって撮像されることによって得られた内視鏡画像である、第1の態様から第22の態様の何れか1つの態様に係る医療支援装置である。
 本開示の技術に係る第24の態様は、観察対象領域が、病変である、第1の態様から第23の態様の何れか1つの態様に係る医療支援装置である。
 本開示の技術に係る第25の態様は、第1の態様から第24の態様の何れか1つの態様に係る医療支援装置と、体内に挿入されて体内を撮像することで医用画像を取得する内視鏡スコープと、を備える内視鏡システムである。
 本開示の技術に係る第26の態様は、複数の観察対象領域が写っている医用画像に対して認識処理が行われることによって認識された複数の観察対象領域のそれぞれの特性を取得すること、医用画像を第1表示領域に表示すること、及び、医用画像から複数の観察対象領域が個別に抽出された複数の抽出画像を特性に応じて、第1表示領域外の第2表示領域に表示することを含む、医療支援方法である。
 本開示の技術に係る第27の態様は、体内に挿入されて体内を撮像することで医用画像を取得する内視鏡スコープを用いることを含む、第26の態様に係る医療支援方法である。
 本開示の技術に係る第28の態様は、複数の観察対象領域が写っている医用画像に対して認識処理が行われることによって認識された複数の観察対象領域のそれぞれの特性を取得すること、医用画像を第1表示領域に表示すること、及び、医用画像から複数の観察対象領域が個別に抽出された複数の抽出画像を特性に応じて、第1表示領域外の第2表示領域に表示することを含む医療支援処理をコンピュータに実行させるためのプログラムである。
内視鏡システムが用いられている態様の一例を示す概念図である。 内視鏡システムの全体構成の一例を示す概念図である。 内視鏡システムの電気系のハードウェア構成の一例を示すブロック図である。 医療支援装置に含まれるプロセッサの実施形態に係る要部機能の一例、及びNVMに格納されている情報の一例を示すブロック図である。 認識部及び制御部の処理内容の一例を示す概念図である。 認識部が複数のセグメンテーション画像のそれぞれに固有の識別子を対応付ける処理内容の一例を示す概念図である。 制御部がフレームに写っている複数の病変のそれぞれに対して第2矩形枠を設定し、かつ、識別子を付与する処理内容の一例を示す概念図である。 制御部が第1情報を生成してRAMに格納する処理内容の一例を示す概念図である。 取得部が病変のサイズを測定する処理内容の一例を示す概念図である。 取得部が第2情報を生成してRAMに格納する処理内容の一例を示す概念図である。 制御部が第1表示領域にフレーム40を表示し、かつ、第2表示領域に病変のサイズに応じて複数の局所画像を表示する処理内容の一例を示す概念図である。 医療支援処理の流れの一例を示すフローチャートである。 図12Aに示すフローチャートの続きである。 取得部が第3情報を生成してRAMに格納する処理内容の一例を示す概念図である。 制御部が第1表示領域にフレーム40を表示し、かつ、第2表示領域に距離情報に応じて複数の局所画像を表示する処理内容の一例を示す概念図である。 図11に示す画面の表示内容と図14に示す画面の表示内容とが、与えられた指示に従って切り替えられる態様の一例を示す概念図である。 制御部が複数の局所画像をサイズ範囲別にグループ化して第2表示領域に表示する処理内容の一例を示す概念図である。 制御部が複数の局所画像を距離範囲別にグループ化して第2表示領域に表示する処理内容の一例を示す概念図である。 制御部が第3表示領域にマップを表示する処理内容の一例を示す概念図である。 各種情報の出力先の一例を示す概念図である。 内視鏡システムのプロセッサがネットワークを介して外部装置に対して処理実行要求を与え、外部装置が処理実行要求に応じた処理を実行し、内視鏡システムのプロセッサが外部装置から処理結果を受け取るという一連の処理の一例を示す概念図である。
 以下、添付図面に従って本開示の技術に係る医療支援装置、内視鏡システム、医療支援方法、及びプログラムの実施形態の一例について説明する。
 先ず、以下の説明で使用される文言について説明する。
 CPUとは、“Central Processing Unit”の略称を指す。GPUとは、“Graphics Processing Unit”の略称を指す。RAMとは、“Random Access Memory”の略称を指す。NVMとは、“Non-volatile memory”の略称を指す。EEPROMとは、“Electrically Erasable Programmable Read-Only Memory”の略称を指す。ASICとは、“Application Specific Integrated Circuit”の略称を指す。PLDとは、“Programmable Logic Device”の略称を指す。FPGAとは、“Field-Programmable Gate Array”の略称を指す。SoCとは、“System-on-a-chip”の略称を指す。SSDとは、“Solid State Drive”の略称を指す。USBとは、“Universal Serial Bus”の略称を指す。HDDとは、“Hard Disk Drive”の略称を指す。ELとは、“Electro-Luminescence”の略称を指す。CMOSとは、“Complementary Metal Oxide Semiconductor”の略称を指す。CCDとは、“Charge Coupled Device”の略称を指す。AIとは、“Artificial Intelligence”の略称を指す。BLIとは、“Blue Light Imaging”の略称を指す。LCIとは、“Linked Color Imaging”の略称を指す。I/Fとは、“Interface”の略称を指す。SSLとは、“Sessile Serrated Lesion”の略称を指す。LANとは、“Local Area Network”の略称を指す。WANとは、“Wide Area Network”の略称を指す。
 一例として図1に示すように、内視鏡システム10は、内視鏡検査等において医師12によって用いられる。内視鏡検査は、看護師14等のスタッフによって補助される。本実施形態において、内視鏡システム10は、本開示の技術に係る「内視鏡システム」の一例である。
 内視鏡システム10は、通信装置(図示省略)と通信可能に接続されており、内視鏡システム10によって得られた情報は、通信装置に送信される。通信装置の一例としては、電子カルテ等の各種情報を管理するサーバ及び/又はクライアント端末(例えば、パーソナル・コンピュータ及び/又はタブレット端末等)が挙げられる。通信装置は、内視鏡システム10から送信された情報を受信し、受信した情報を用いた処理(例えば、電子カルテ等に保存する処理)を実行する。
 内視鏡システム10は、内視鏡スコープ16、表示装置18、光源装置20、制御装置22、及び医療支援装置24を備えている。本実施形態において、内視鏡スコープ16は、本開示の技術に係る「内視鏡スコープ」の一例である。
 内視鏡システム10は、内視鏡スコープ16を用いて被検体26(例えば、患者)の体内に含まれる大腸28に対する診療を行うためのモダリティである。本実施形態において、大腸28は、医師12によって観察される対象である。
 内視鏡スコープ16は、医師12によって用いられ、被検体26の体腔に挿入される。本実施形態では、内視鏡スコープ16が被検体26の大腸28に挿入される。内視鏡システム10は、被検体26の大腸28に挿入された内視鏡スコープ16に対して、被検体26の大腸28内を撮像させ、かつ、必要に応じて大腸28に対して医療的な各種処置を行う。
 内視鏡システム10は、被検体26の大腸28内を撮像することで大腸28内の態様を示す画像を取得して出力する。本実施形態において、内視鏡システム10は、大腸28内で光30を照射することにより大腸28の腸壁32で反射されて得られた反射光を撮像する光学式撮像機能を有する内視鏡である。
 なお、ここでは、大腸28に対する内視鏡検査を例示しているが、これは、あくまでも一例に過ぎず、食道、胃、十二指腸、又は気管等の管腔臓器に対する内視鏡検査であっても本開示の技術は成立する。
 光源装置20、制御装置22、及び医療支援装置24は、ワゴン34に設置されている。ワゴン34には、上下方向に沿って複数の台が設けられており、下段側の台から上段側の台にかけて、医療支援装置24、制御装置22、及び光源装置20が設置されている。また、ワゴン34の最上段の台には、表示装置18が設置されている。
 制御装置22は、内視鏡システム10の全体を制御する。医療支援装置24は、制御装置22の制御下で、内視鏡スコープ16によって腸壁32が撮像されることで得られた画像に対して各種の画像処理を行う。
 表示装置18は、画像を含めた各種情報を表示する。表示装置18の一例としては、液晶ディスプレイ又はELディスプレイ等が挙げられる。また、表示装置18に代えて、又は、表示装置18と共に、ディスプレイ付きのタブレット端末を用いてもよい。
 表示装置18には、画面35が表示される。画面35は、複数の表示領域を含む。複数の表示領域は、画面35内で並べて配置されている。図1に示す例では、複数の表示領域の一例として、第1表示領域36及び第2表示領域38が示されている。第1表示領域36のサイズは、第2表示領域38のサイズよりも大きい。第1表示領域36は、メインの表示領域として用いられ、第2表示領域38は、サブの表示領域として用いられる。なお、第1表示領域36及び第2表示領域38のサイズ関係は、これに限定されるものではなく、画面35に収まるサイズ関係であればよい。
 本実施形態において、画面35は、本開示の技術に係る「画面」の一例であり、第1表示領域36は、本開示の技術に係る「第1表示領域」の一例であり、第2表示領域38は、本開示の技術に係る「第2表示領域」の一例である。
 第1表示領域36には、内視鏡動画像39が表示される。内視鏡動画像39は、被検体26の大腸28内で内視鏡スコープ16によって腸壁32が撮像されることによって取得された動画像である。図1に示す例では、内視鏡動画像39の一例として、腸壁32が写っている動画像が示されている。
 内視鏡動画像39に写っている腸壁32には、医師12によって注視される複数の関心領域(すなわち、複数の観察対象領域)として、複数の病変42(例えば、図1に示す例では、1つの病変42)が含まれており、医師12は、内視鏡動画像39を通して、複数の病変42を含む腸壁32の態様を視覚的に認識することができる。本実施形態において、病変42は、本開示の技術に係る「観察対象領域」及び「病変」の一例である。
 病変42には様々な種類があり、病変42の種類としては、例えば、腫瘍性ポリープ及び非腫瘍性ポリープ等が挙げられる。腫瘍性ポリープの種類としては、例えば、腺腫性ポリープ(例えば、SSL)等が挙げられる。非腫瘍性ポリープの種類としては、例えば、過誤腫性ポリープ、過形成性ポリープ、及び炎症性ポリープ等が挙げられる。なお、ここで例示されている種類は、大腸28に対する内視鏡検査が行われる場合の病変42の種類として事前に想定される種類であり、内視鏡検査が行われる臓器が異なれば、病変の種類も異なる。
 本実施形態では、病変42を例示しているが、これは、あくまでも一例に過ぎず、医師12によって注視される関心領域(すなわち、観察対象領域)は、臓器(例えば、十二指腸乳頭)、マーキングした領域、人工処置具(例えば、人工クリップ)、又は処置済みの領域(例えば、ポリープ等を除去した痕跡が残っている領域)等であってもよい。
 第1表示領域36に表示される画像は、時系列に沿った複数のフレーム40を含んで構成される動画像に含まれる1つのフレーム40である。つまり、第1表示領域36には、時系列に沿った複数のフレーム40が既定のフレームレート(例えば、数十フレーム/秒)で表示される。本実施形態において、フレーム40は、本開示の技術に係る「医用画像」及び「内視鏡画像」の一例である。
 第1表示領域36に表示される動画像の一例としては、ライブビュー方式の動画像が挙げられる。ライブビュー方式は、あくまでも一例に過ぎず、ポストビュー方式の動画像のように、メモリ等に一時的に保存されてから表示される動画像であってもよい。また、メモリ等の保存されている記録用動画像に含まれる各フレームが内視鏡動画像39として画面35(例えば、第1表示領域36)に再生表示されてもよい。
 画面35内で、第2表示領域38は、第1表示領域36外に存在している。図1に示す例において、第2表示領域38は、第1表示領域36に隣接しており、画面35内の正面視右側に表示されている。第2表示領域38の表示位置は、第1表示領域36と異なる位置であれば、どこでもよいが、第1表示領域36内に表示される内視鏡動画像39と対比可能な位置に表示されることが好ましい。
 第2表示領域38には、医療に関する情報である医療情報44が表示される。医療情報44としては、例えば、医師12による医療的な判断等を補助する情報等が挙げられる。医師12による医療的な判断等を補助する情報等の一例としては、内視鏡スコープ16が挿入されている被検体26に関する各種情報、及び/又は、内視鏡動画像39に対してAIを用いた処理が行われることによって得られた各種情報等が挙げられる。なお、医療情報44の更なる詳細については後述する。
 一例として図2に示すように、内視鏡スコープ16は、操作部46及び挿入部48を備えている。挿入部48は、操作部46が操作されることにより部分的に湾曲する。挿入部48は、医師12(図1参照)による操作部46の操作に従って、大腸28(図1参照)の形状に応じて湾曲しながら大腸28に挿入される。
 挿入部48の先端部50には、カメラ52、照明装置54、及び処置具用開口56が設けられている。カメラ52及び照明装置54は、先端部50の先端面50Aに設けられている。なお、ここでは、カメラ52及び照明装置54が先端部50の先端面50Aに設けられる形態例を挙げているが、これは、あくまでも一例に過ぎず、カメラ52及び照明装置54は、先端部50の側面に設けられることにより、内視鏡スコープ16が側視鏡として構成されていてもよい。
 カメラ52は、被検体26の体腔に挿入されて観察対象領域を撮像する。本実施形態では、カメラ52が、被検体26の体内(例えば、大腸28内)を撮像することにより内視鏡動画像39を取得する。カメラ52の一例としては、CMOSカメラが挙げられる。但し、これは、あくまでも一例に過ぎず、CCDカメラ等の他種のカメラであってもよい。
 照明装置54は、照明窓54A及び54Bを有する。照明装置54は、照明窓54A及び54Bを介して光30(図1参照)を照射する。照明装置54から照射される光30の種類としては、例えば、可視光(例えば、白色光等)及び非可視光(例えば、近赤外光等)が挙げられる。また、照明装置54は、照明窓54A及び54Bを介して特殊光を照射する。特殊光としては、例えば、BLI用の光及び/又はLCI用の光が挙げられる。カメラ52は、大腸28内で照明装置54によって光30が照射された状態で、大腸28内を光学的手法で撮像する。
 処置具用開口56は、処置具58を先端部50から突出させるための開口である。また、処置具用開口56は、血液及び体内汚物等を吸引する吸引口、並びに流体を送出する送出口としても用いられる。
 操作部46には、処置具挿入口60が形成されており、処置具58は、処置具挿入口60から挿入部48内に挿入される。処置具58は、挿入部48内を通過して処置具用開口56から外部に突出する。図2に示す例では、処置具58として、穿刺針が処置具用開口56から突出している態様が示されている。ここでは、処置具58として、穿刺針を例示しているが、これは、あくまでも一例に過ぎず、処置具58は、把持鉗子、パピロトミーナイフ、スネア、カテーテル、ガイドワイヤ、カニューレ、及び/又はガイドシース付き穿刺針等であってもよい。
 内視鏡スコープ16は、ユニバーサルコード62を介して光源装置20及び制御装置22に接続されている。制御装置22には、医療支援装置24及び受付装置64が接続されている。また、医療支援装置24には、表示装置18が接続されている。すなわち、制御装置22は、医療支援装置24を介して表示装置18に接続されている。
 なお、ここでは、制御装置22によって行われる機能を拡張させるための外付け装置という位置付けで医療支援装置24を例示しているため、制御装置22と表示装置18とが医療支援装置24を介して間接的に接続されている形態例を挙げているが、これは、あくまでも一例に過ぎない。例えば、表示装置18は、制御装置22に直接接続されていてもよい。この場合、例えば、医療支援装置24の機能が制御装置22に搭載されているか、或いは、医療支援装置24によって実行される処理(例えば、後述する医療支援処理)と同じ処理をサーバ(図示省略)に対して実行させ、サーバによる処理結果を受信して使用する機能が制御装置22に搭載されていればよい。
 受付装置64は、医師12からの指示を受け付け、受け付けた指示を電気信号として制御装置22に出力する。受付装置64の一例として、キーボード、マウス、タッチパネル、フットスイッチ、マイクロフォン、及び/又は遠隔操作機器等が挙げられる。
 制御装置22は、光源装置20を制御したり、カメラ52との間で各種信号の授受を行ったり、医療支援装置24との間で各種信号の授受を行ったりする。
 光源装置20は、制御装置22の制御下で発光し、光を照明装置54に供給する。照明装置54には、ライトガイドが内蔵されており、光源装置20から供給された光はライトガイドを経由して照明窓54A及び54Bから照射される。制御装置22は、カメラ52に対して撮像を行わせ、カメラ52から内視鏡動画像39(図1参照)を取得して既定の出力先(例えば、医療支援装置24)に出力する。
 医療支援装置24は、制御装置22から入力された内視鏡動画像39に対して各種の画像処理を行うことにより医療(ここでは、一例として、内視鏡検査)の支援を行う。医療支援装置24は、各種の画像処理を施した内視鏡動画像39を既定の出力先(例えば、表示装置18)へ出力する。
 なお、ここでは、制御装置22から出力された内視鏡動画像39が、医療支援装置24を介して、表示装置18へ出力される形態例を挙げて説明したが、これはあくまでも一例に過ぎない。例えば、制御装置22と表示装置18とが接続されており、医療支援装置24によって画像処理が施された内視鏡動画像39が、制御装置22を介して表示装置18に表示される態様であってもよい。
 一例として図3に示すように、制御装置22は、コンピュータ66、バス68、及び外部I/F70を備えている。コンピュータ66は、プロセッサ72、RAM74、及びNVM76を備えている。プロセッサ72、RAM74、NVM76、及び外部I/F70は、バス68に接続されている。
 例えば、プロセッサ72は、少なくとも1つのCPU及び少なくとも1つのGPUを有しており、制御装置22の全体を制御する。GPUは、CPUの制御下で動作し、グラフィック系の各種処理の実行及びニューラルネットワークを用いた演算等を担う。なお、プロセッサ72は、GPU機能を統合した1つ以上のCPUであってもよいし、GPU機能を統合していない1つ以上のCPUであってもよい。また、図3に示す例では、コンピュータ66に1つのプロセッサ72が搭載されている態様が示されているが、これは、あくまでも一例に過ぎず、コンピュータ66に複数のプロセッサ72が搭載されていてもよい。
 RAM74は、一時的に情報が格納されるメモリであり、プロセッサ72によってワークメモリとして用いられる。NVM76は、各種プログラム及び各種パラメータ等を記憶する不揮発性の記憶装置である。NVM76の一例としては、フラッシュメモリ(例えば、EEPROM及び/又はSSD)が挙げられる。なお、フラッシュメモリは、あくまでも一例に過ぎず、HDD等の他の不揮発性の記憶装置であってもよいし、2種類以上の不揮発性の記憶装置の組み合わせであってもよい。
 外部I/F70は、制御装置22の外部に存在する1つ以上の装置(以下、「第1外部装置」とも称する)とプロセッサ72との間の各種情報の授受を司る。外部I/F70の一例としては、USBインタフェースが挙げられる。
 外部I/F70には、第1外部装置の1つとしてカメラ52が接続されており、外部I/F70は、カメラ52とプロセッサ72との間の各種情報の授受を司る。プロセッサ72は、外部I/F70を介してカメラ52を制御する。また、プロセッサ72は、カメラ52によって大腸28(図1参照)内が撮像されることで得られた内視鏡動画像39(図1参照)を外部I/F70を介して取得する。
 外部I/F70には、第1外部装置の1つとして光源装置20が接続されており、外部I/F70は、光源装置20とプロセッサ72との間の各種情報の授受を司る。光源装置20は、プロセッサ72の制御下で、照明装置54に光を供給する。照明装置54は、光源装置20から供給された光を照射する。
 外部I/F70には、第1外部装置の1つとして受付装置64が接続されており、プロセッサ72は、受付装置64によって受け付けられた指示を、外部I/F70を介して取得し、取得した指示に応じた処理を実行する。
 医療支援装置24は、コンピュータ78及び外部I/F80を備えている。コンピュータ78は、プロセッサ82、RAM84、及びNVM86を備えている。プロセッサ82、RAM84、NVM86、及び外部I/F80は、バス88に接続されている。本実施形態において、医療支援装置24は、本開示の技術に係る「医療支援装置」の一例であり、コンピュータ78は、本開示の技術に係る「コンピュータ」の一例であり、プロセッサ82は、本開示の技術に係る「プロセッサ」の一例である。
 なお、コンピュータ78のハードウェア構成(すなわち、プロセッサ82、RAM84、及びNVM86)は、コンピュータ66のハードウェア構成と基本的に同じなので、ここでは、コンピュータ78のハードウェア構成に関する説明は省略する。
 外部I/F80は、医療支援装置24の外部に存在する1つ以上の装置(以下、「第2外部装置」とも称する)とプロセッサ82との間の各種情報の授受を司る。外部I/F80の一例としては、USBインタフェースが挙げられる。
 外部I/F80には、第2外部装置の1つとして制御装置22が接続されている。図3に示す例では、外部I/F80に、制御装置22の外部I/F70が接続されている。外部I/F80は、医療支援装置24のプロセッサ82と制御装置22のプロセッサ72との間の各種情報の授受を司る。例えば、プロセッサ82は、制御装置22のプロセッサ72から外部I/F70及び80を介して内視鏡動画像39(図1参照)を取得し、取得した内視鏡動画像39に対して各種の画像処理を行う。
 外部I/F80には、第2外部装置の1つとして表示装置18が接続されている。プロセッサ82は、外部I/F80を介して表示装置18を制御することにより、表示装置18に対して各種情報(例えば、各種の画像処理が行われた内視鏡動画像39等)を表示させる。
 ところで、内視鏡検査では、医師12が、表示装置18を介して内視鏡動画像39を確認しながら、内視鏡動画像39に写っている病変42に対して医療的な処置が必要か否かを判断し、必要ならば病変42に対して医療的な処置を行う。医療的な処置が必要か否かの判断を行う上で、病変42のサイズは重要な判断要素となる。
 近年、機械学習の発達により、AI方式で内視鏡動画像39に基づいて病変42の検出及び鑑別ができるようになった。この技術を応用することで内視鏡動画像39から病変42のサイズを測定することが可能となる。病変42のサイズを高精度に測定し、測定結果を医師12に提示することは、医師12が病変に対して医療的な処置を行う上で非常に有用なことである。
 一方、病変42のサイズが測定された場合、測定されたサイズを医師12に対して、的確に且つ内視鏡検査の妨げにならないように邪魔しない範囲で伝える必要がある。特に、フレーム40に複数の病変42が写っている場合には、画面35に表示されるフレーム40に対する視認性を損ねることなく、フレーム40に写っている複数の病変42を、複数の病変42のそれぞれのサイズ等の特性が把握可能な状態で医師12に対して視覚的に認識させることが求められる。
 そこで、このような事情に鑑み、本実施形態では、一例として図4に示すように、医療支援装置24のプロセッサ82によって医療支援処理が行われる。
 NVM86には、医療支援プログラム90が格納されている。医療支援プログラム90は、本開示の技術に係る「プログラム」の一例である。プロセッサ82は、NVM86から医療支援プログラム90を読み出し、読み出した医療支援プログラム90をRAM84上で実行することにより医療支援処理を行う。医療支援処理は、プロセッサ82がRAM84上で実行する医療支援プログラム90に従って、認識部82A、取得部82B、及び制御部82Cとして動作することによって実現される。
 NVM86には、認識モデル92及び距離導出モデル94が格納されている。詳しくは後述するが、認識モデル92は、認識部82Aによって用いられ、距離導出モデル94は、取得部82Bによって用いられる。
 一例として図5に示すように、認識部82A及び制御部82Cは、カメラ52によって撮像フレームレート(例えば、数十フレーム/秒)に従って撮像されることで生成された内視鏡動画像39に含まれる時系列に沿った複数のフレーム40のそれぞれをカメラ52から時系列に沿って1フレーム単位で取得する。
 制御部82Cは、内視鏡動画像39を表示装置18に出力する。例えば、制御部82Cは、内視鏡動画像39をライブビュー画像として第1表示領域36に表示する。すなわち、制御部82Cは、カメラ52からフレーム40を取得する毎に、取得したフレーム40を順に表示フレームレート(例えば、数十フレーム/秒)に従って第1表示領域36に表示する。また、制御部82Cは、医療情報44を第2表示領域38に表示する。また、例えば、制御部82Cは、第1表示領域36の表示内容に伴って第2表示領域38の表示内容(例えば、医療情報44)を更新する。
 認識部82Aは、カメラ52から取得した内視鏡動画像39を用いて、内視鏡動画像39に写っている複数の病変42を認識する。すなわち、認識部82Aは、カメラ52から取得した内視鏡動画像39に含まれる時系列に沿った複数のフレーム40のそれぞれに対して認識処理96を順次に行うことで、フレーム40に写っている複数の病変42を認識する。例えば、認識部82Aは、複数の病変42のそれぞれの幾何学特性(例えば、位置及び形状等)、複数の病変42のそれぞれの種類、及び複数の病変42のそれぞれの型(例えば、有茎性、亜有茎性、無茎性、表面隆起型、表面平坦型、及び表面陥凹型等)等を認識する。
 認識処理96は、認識部82Aによって、フレーム40が取得される毎に、取得されたフレーム40に対して行われる。認識処理96は、AIを用いた方式で複数の病変42を認識する処理(すなわち、機械学習を用いた物体認識処理)である。本実施形態では、例えば、認識処理96として、セグメンテーション方式でのAIを用いた物体認識処理(例えば、セマンティックセグメンテーション、インスタンスセグメンテーション、及び/又はパノプティックセグメンテーション)が用いられる。
 ここでは、認識処理96として、認識モデル92を用いた処理が行われる。認識モデル92は、AIによるセグメンテーション方式での物体認識用の学習済みモデルである。AIによるセグメンテーション方式での物体認識用の学習済みモデルの一例としては、セマンティックセグメンテーション用のモデルが挙げられる。セマンティックセグメンテーション用のモデルの一例としては、エンコーダ・デコーダ構造のモデルが挙げられる。エンコーダ・デコーダ構造のモデルの一例としては、U-Net又はHRNet等が挙げられる。本実施形態において、認識処理96は、本開示の技術に係る「認識処理」及び「物体認識処理」の一例である。
 認識モデル92は、ニューラルネットワークに対して第1教師データを用いた機械学習が行われることによって最適化されている。第1教師データは、第1例題データと第1正解データとが対応付けられた複数のデータ(すなわち、複数フレーム分のデータ)を含むデータセットである。
 第1例題データは、フレーム40に相当する画像である。第1正解データは、第1例題データに対する正解データ(すなわち、アノテーション)である。ここでは、第1正解データの一例として、第1例題データとして用いられている画像に写っている病変の幾何学特性、種類、及び型を特定するアノテーションが用いられる。
 認識部82Aは、カメラ52からフレーム40を取得し、取得したフレーム40を認識モデル92に入力する。これにより、認識モデル92は、フレーム40が入力される毎に、入力されたフレーム40に写っている複数の病変42のそれぞれの幾何学特性を特定し、複数の病変42のそれぞれの幾何学特性を特定可能な情報を出力する。図5に示す例では、幾何学特性を特定可能な情報の一例として、フレーム40内での病変42の位置を特定可能な情報である確率マップ100が示されている。また、認識部82Aは、認識モデル92に入力されたフレーム40に写っている複数の病変42のそれぞれの種類を示す情報、及び認識モデル92に入力されたフレーム40に写っている複数の病変42のそれぞれの型を示す情報を認識モデル92から取得する。
 認識部82Aは、フレーム40が認識モデル92に入力される毎に、認識モデル92に入力されたフレーム40に関する確率マップ100を認識モデル92から取得する。確率マップ100は、フレーム40内での病変42の位置の分布を、尤もらしさを示す指標の一例である確率で表現したマップである。なお、一般的に、確率マップ100は、信頼度マップ又は確信度マップ等とも呼ばれている。
 確率マップ100には、認識部82Aによって認識された複数の病変42を規定する複数のセグメンテーション画像102が含まれている。セグメンテーション画像102は、フレーム40に対して認識処理96が行われることによって認識された病変42のフレーム40内での位置を特定する画像領域(すなわち、フレーム40内において病変42が存在する確率が最も高い位置を特定可能な表示態様で表示された画像)である。各セグメンテーション画像102には、認識部82Aによって第1位置情報98が対応付けられる。この場合の第1位置情報98の一例としては、確率マップ100内でのセグメンテーション画像102の位置を特定可能な座標(換言すると、フレーム40内での病変42の表示位置を特定可能な座標)が挙げられる。確率マップ100内でのセグメンテーション画像102の位置とは、例えば、確率マップ100内でのセグメンテーション画像102の外輪郭の位置を指す。
 確率マップ100は、医療情報44として、制御部82Cによって、画面35(例えば、第2表示領域38)に表示されてもよい。この場合、画面35に表示される確率マップ100は、第1表示領域36に対して適用される表示フレームレートに従って更新される。すなわち、第2表示領域38内の確率マップ100の表示(すなわち、セグメンテーション画像102の表示)は、第1表示領域36に表示される内視鏡動画像39の表示タイミングに同期して更新される。このように構成することで、医師12は、第1表示領域36に表示される内視鏡動画像39を観察しながら、第2表示領域38に表示される確率マップ100を参照することで、第1表示領域36に表示されている内視鏡動画像39内での病変42の概略的な位置を把握することが可能となる。
 一例として図6に示すように、認識部82Aは、確率マップ100内の複数のセグメンテーション画像102のそれぞれに対して、各セグメンテーション画像102を個別に識別可能な識別子104を対応付ける。識別子104は、各セグメンテーション画像102に対して固有の識別子である。セグメンテーション画像102に対する識別子104の対応付けは、セグメンテーション画像102に対応する第1位置情報98に対して識別子104が付与されることによって実現される。本実施形態において、識別子104は、本開示の技術に係る「位置関係特定情報」の一例である。
 一例として図7に示すように、制御部82Cは、確率マップ100内の複数のセグメンテーション画像102のそれぞれについて、第1位置情報98に基づいて、セグメンテーション画像102に対して外接する第1矩形枠106を作成する。そして、制御部82Cは、確率マップ100内に作成した複数の第1矩形枠106に基づいて、フレーム40内に複数の第2矩形枠108を作成する。第2矩形枠108は、フレーム40内での病変42を取り囲む矩形状の枠であり、フレーム40に写っている複数の病変42のそれぞれに対して割り当てられる。第2矩形枠108は、確率マップ100内に作成された複数の第1矩形枠106のうちの最も大きな第1矩形枠106が既定倍率(例えば、1よりも大きな倍率)で拡大されることによって得られる。
 制御部82Cは、確率マップ100内のセグメンテーション画像102に対応する病変42に対して、セグメンテーション画像102に対応付けられている識別子104と同じ識別子104を対応付ける。すなわち、確率マップ100内での位置とフレーム40内での位置とが対応関係にあるセグメンテーション画像102と病変42とに対して共通の識別子104が対応付けられる。病変42に対する識別子104の対応付けは、病変42に対応するセグメンテーション画像102に対応付けられている識別子104が、セグメンテーション画像102に対応する病変42に割り当てられた第2矩形枠108に対して付与されることによって実現される。
 一例として図8に示すように、制御部82Cは、病変42に対して第2矩形枠108及び識別子104が対応付けられたフレーム40から、異なる病変42が写っている複数の局所画像110を抽出する。局所画像110は、フレーム40内の局所的な画像である。図8に示す例では、局所画像110の一例として、フレーム40内で第2矩形枠108によって囲まれている画像が示されている。すなわち、複数の局所画像110のそれぞれは、フレーム40に写っている複数の病変42の各々がフレーム40から同形状及び同サイズを有する枠である第2矩形枠108を用いて個別に抽出された画像(換言すると、個別に切り出された画像)である。
 このように、複数の局所画像110のそれぞれは、同形状及び同サイズを有する枠である第2矩形枠108を用いて複数の病変42の各々がフレーム40から個別に抽出された画像であるため、複数の局所画像110を対比した場合に複数の局所画像110間で病変42のサイズの違いが視覚的に弁別可能となる。
 本実施形態において、局所画像110は、本開示の技術に係る「抽出画像」の一例である。本実施形態において、第2矩形枠108は、本開示の技術に係る「枠」の一例である。
 制御部82Cは、フレーム40に写っている病変42毎に第1情報111を生成してRAM84に格納する。第1情報111は、識別子104、局所画像110、及び第2位置情報109が関連付けられた情報である。この場合、例えば、制御部82Cは、フレーム40から抽出した局所画像110に対して識別子104及び第2位置情報109を付与することにより第1情報111を生成する。局所画像110に対して付与される識別子104は、フレーム40からの局所画像110の抽出に用いた第2矩形枠108に付与されている識別子104である。第2位置情報109は、フレーム40内での局所画像110の位置を特定可能な情報(例えば、座標)である。
 なお、ここでは、第2矩形枠108を用いてフレーム40から複数の局所画像110が抽出される形態例を挙げたが、これは、あくまでも一例に過ぎない。例えば、第2矩形枠108とは異なる形状及びサイズの枠を用いて、フレーム40から複数の画像が抽出されるようにしてもよい。但し、この場合も、第2矩形枠108と同様に、複数の病変42間で共通の形状及びサイズの枠を用いるようにする。すなわち、フレーム40から抽出された複数の抽出画像(図8に示す例では、複数の局所画像110)を対比した場合に複数の抽出画像間で病変42のサイズの違いが視覚的に弁別可能な枠を用いるようにする。
 一例として図9に示すように、取得部82Bは、カメラ52からフレーム40を取得し、カメラ52から取得したフレーム40(ここでは、一例として、認識処理96に用いられたフレーム40)に写っている病変42のサイズ112を取得する。フレーム40に写っている病変42のサイズ112の取得は、取得部82Bによるサイズ112の測定によって実現される。取得部82Bによるサイズ112の測定は、フレーム40に基づいて行われる。本実施形態では、取得部82Bが、カメラ52から取得した内視鏡動画像39に含まれる複数のフレーム40のそれぞれに基づいて病変42のサイズ112を時系列で測定する。病変42のサイズ112とは、病変42の実空間上でのサイズを指す。以下では、説明の便宜上、病変42の実空間上でのサイズを「実サイズ」とも称する。本実施形態において、サイズ112は、本開示の技術に係る「特性」、「サイズ」、及び「実サイズ」の一例である。
 病変42のサイズ112の測定を実現するために、取得部82Bは、カメラ52から取得したフレーム40に基づいて病変42の距離情報114を取得する。距離情報114は、カメラ52(すなわち、観察位置)から、病変42を含めた腸壁32(図1参照)までの距離を示す情報である。ここでは、カメラ52から、病変42を含めた腸壁32までの距離を例示しているが、これは、あくまでも一例に過ぎず、距離に代えて、カメラ52から、病変42を含めた腸壁32までの深度が表示された数値(例えば、深度が段階的に規定された複数の数値(例えば、数段階~数十段階の数値))であってもよい。
 なお、ここで、取得部82Bが距離情報114を取得する理由は、同一サイズの病変42であったとしても、病変42の位置がカメラ52から離れるほど、画像上での病変42のサイズが小さくなるので、実サイズを求める上で、病変42の位置がカメラ52からどの程度離れているかを考慮する必要があるからである。
 距離情報114は、フレーム40を構成している全画素の各々について取得される。なお、距離情報114は、フレーム40を画素よりも大きいブロック(例えば、数ピクセル~数百ピクセル単位で構成された画素群)毎に取得されてもよい。
 取得部82Bによる距離情報114の取得は、例えば、距離情報114がAI方式で導出されることによって実現される。本実施形態では、距離情報114を導出するために距離導出モデル94が用いられる。
 距離導出モデル94は、ニューラルネットワークに対して第2教師データを用いた機械学習が行われることによって最適化されている。第2教師データは、第2例題データと第2正解データとが対応付けられた複数のデータ(すなわち、複数フレーム分のデータ)を含むデータセットである。
 第2例題データは、フレーム40に相当する画像である。第2正解データは、第2例題データに対する正解データ(すなわち、アノテーション)である。ここでは、第2正解データの一例として、第2例題データとして用いられている画像に写っている各画素に対応する距離を特定するアノテーションが用いられる。
 取得部82Bは、カメラ52からフレーム40を取得し、取得したフレーム40を距離導出モデル94に入力する。これにより、距離導出モデル94は、入力されたフレーム40の画素単位で距離情報114を出力する。すなわち、取得部82Bでは、カメラ52の位置(例えば、カメラ52に搭載されているイメージセンサ又は対物レンズ等の位置)から、フレーム40に写っている腸壁32までの距離を示す情報が、フレーム40の画素単位で、距離情報114として距離導出モデル94から出力される。
 取得部82Bは、距離導出モデル94から出力された距離情報114に基づいて距離画像116を生成する。距離画像116は、内視鏡動画像39(すなわち、フレーム40)に含まれる画素単位で距離情報114が分布している画像である。
 取得部82Bは、認識部82Aによって得られた確率マップ100内のセグメンテーション画像102に付与されている第1位置情報98を取得する。取得部82Bは、第1位置情報98を参照して、距離画像116内のセグメンテーション対応領域116Aから距離情報114を抽出する。セグメンテーション対応領域116Aは、距離画像116内の第1位置情報98から特定される位置に対応する領域である。セグメンテーション対応領域116Aから抽出される距離情報114としては、例えば、病変42の位置(例えば、重心)に対応する距離情報114、又は、病変42に含まれる複数の画素(例えば、全画素)についての距離情報114の統計値(例えば、中央値、平均値、又は最頻値)が挙げられる。
 取得部82Bは、フレーム40から画素数118を抽出する。画素数118は、距離導出モデル94に入力されたフレーム40の全画像領域のうちの第1位置情報98から特定される位置の画像領域(すなわち、病変42を示す画像領域)を横断する線分120上の画素数である。線分120の一例としては、病変42を示す画像領域に対して外接する矩形枠122の長辺に平行な最長の線分が挙げられる。なお、線分120は、あくまでも一例に過ぎず、線分120に代えて、病変42を示す画像領域に対して外接する矩形枠122の短辺に平行な最長の線分を適用してもよい。
 取得部82Bは、距離画像116内のセグメンテーション対応領域116Aから抽出した距離情報114とフレーム40から抽出した画素数118とに基づいて病変42のサイズ112を算出する。サイズ112の算出には、演算式124が用いられる。演算式124は、距離情報114及び画素数118を独立変数とし、サイズ112を従属変数とした演算式である。取得部82Bは、距離画像116から抽出した距離情報114と、フレーム40から抽出した画素数118とを演算式124に入力する。演算式124は、入力された距離情報114及び画素数118に対応するサイズ112を出力する。取得部82Bは、第2情報126を生成する。第2情報126は、演算式124から出力されたサイズ112に対して識別子104が対応付けられることによって生成される。サイズ112に対して対応付けられる識別子104は、サイズ112の算出に用いられたセグメンテーション対応領域116Aに対応するセグメンテーション画像102に対応付けられている識別子104である。
 また、ここでは、サイズ112として、実空間上での病変42の長さが例示されているが、本開示の技術はこれに限定されず、サイズ112は、実空間上での病変42の表面積又は体積であってもよい。この場合、例えば、演算式124として、病変42を示す全画像領域の画素数と距離情報114とを独立変数とし、実空間上での病変42の表面積又は体積を従属変数とする演算式が用いられる。
 一例として図10に示すように、取得部82Bは、フレーム40に写っている他の病変42に対しても、図9に示す例と同様の要領で、サイズ112を取得し、取得したサイズ112に対して、サイズ112の算出に用いられたセグメンテーション対応領域116Aに対応するセグメンテーション画像102に対応付けられている識別子104を付与することにより第2情報126を生成する。そして、取得部82Bは、フレーム40に写っている複数の病変42のそれぞれについて生成した各第2情報126をRAM84に格納する。
 一例として図11に示すように、制御部82Cは、取得部82Bからサイズ112を取得する。また、制御部82Cは、取得部82Bによるサイズ112の測定に用いられたフレーム40をカメラ52から取得する。制御部82Cは、カメラ52から取得したフレーム40を第1表示領域36に表示する。
 また、制御部82Cは、フレーム40に写っている複数の病変42に対応する複数の第1情報111及び複数の第2情報126をRAM84から取得する。制御部82Cは、RAM84から取得した複数の第1情報111及び複数の第2情報126に基づいて、第1表示領域36に表示されているフレーム40内に複数の識別子104を表示する。また、制御部82Cは、RAM84から取得した複数の第1情報111及び複数の第2情報126に基づいて、医療情報44の一部として、複数の識別子104、複数の局所画像110、及び複数のサイズ112を第2表示領域38に表示する。
 制御部82Cは、取得部82Bによってサイズ112が取得される毎に、最新の識別子104、最新の局所画像110、及び最新のサイズ112を画面35に表示する。すなわち、画面35に表示される識別子104、局所画像110、及びサイズ112は、取得部82Bによってサイズ112が取得される毎に、最新の識別子104、最新の局所画像110、及び最新のサイズ112に更新される。
 第1表示領域36内のフレーム40には、複数の識別子104が重畳表示される。この場合、例えば、アルファブレンド方式で複数の識別子104がフレーム40に重畳表示されるようにしてもよい。
 フレーム40内で各識別子104が表示される位置は、対応する病変42に隣接する位置(以下、「病変隣接位置」とも称する)である。制御部82Cは、複数の第1情報111のうちの1つを選択し、選択した第1情報111である選択第1情報に含まれる第2位置情報109を参照して病変隣接位置を決定する。そして、制御部82Cは、選択第1情報に含まれる識別子104を病変隣接位置に表示する。本実施形態において、「病変隣接位置」は、本開示の技術に係る「第2表示位置」の一例である。
 第2表示領域38には、制御部82Cによって、RAM84から取得された複数の第1情報111に含まれる複数の局所画像110が、RAM84から取得された複数の第2情報126に含まれる複数のサイズ112に応じて表示される。本実施形態において、第2表示領域38内で局所画像110が表示される位置は、本開示の技術に係る「第1表示位置」の一例である。
 第2表示領域38には、RAM84から取得された複数の第1情報111に含まれる複数の局所画像110が対比可能に並べられた状態で表示される。例えば、第2表示領域38内において、複数の局所画像110は、縦方向(換言すると、正面視上下方向)に沿って表示される。
 また、第2表示領域38には、複数の局所画像110は、サイズ112の大小関係が視覚的に特定可能な表示態様で表示される。例えば、第2表示領域38内において、複数の局所画像110は、サイズ112の降順で上から下にかけて配置されている。
 また、第2表示領域38には、RAM84から取得された複数の第1情報111に含まれる複数のサイズ112が、複数の局所画像110との対応関係が特定可能な状態で表示される。例えば、第2表示領域38内において、複数のサイズ112のそれぞれは、対応する局所画像110と隣接する位置に表示される。
 第1情報111に含まれる局所画像110と第2情報126に含まれるサイズ112との対応関係は、第1情報111に含まれる識別子104と第2情報126に含まれる識別子104とが照合されることによって特定される。
 また、第2表示領域38には、各局所画像110に対応する識別子104が、各局所画像110と隣接する位置に表示される。これにより、医師12は、第1表示領域36内の病変隣接位置に表示されている識別子104と第2表示領域38に表示されている識別子104とを照合することで、局所画像110に写っている病変42がフレーム40内のどこに写っている病変42なのかを視覚的に特定することが可能となる。
 図11に示す例では、識別子104が、対応する局所画像110の正面視左横に表示されており、サイズ112が、対応する局所画像110の正面視右横に表示されているが、これは、あくまでも一例に過ぎず、識別子104、局所画像110、及びサイズ112は、互いの対応関係が特定可能なレイアウトで第2表示領域38に表示されていればよい。また、複数の局所画像110は、複数の病変42間でのサイズ112の大小関係が視覚的に特定可能なレイアウトで第2表示領域38に表示されていればよい。
 図11に示す例では、フレーム40に写っている病変42と局所画像110との対応関係が識別子104によって視覚的に特定される形態例を挙げたが、これは、あくまでも一例に過ぎない。例えば、フレーム40内に第1矩形枠106(図7参照)が表示され、第2表示領域38に表示される局所画像110の第2矩形枠108が、対応関係にある第1矩形枠106と同一の表示態様(例えば、色及び/又は輝度等)で表示されるようにしてもよい。また、フレーム40内の病変42と対応する局所画像110とが線等を介して紐付けられた状態で表示されるようにしてもよい。
 図11に示す例では、サイズ112が、第2表示領域38に表示される形態例を挙げたが、これは、あくまでも一例に過ぎず、サイズ112は、第1表示領域36に表示されているフレーム40内に表示されてもよい。この場合、例えば、アルファブレンド方式でサイズ112がフレーム40に重畳表示されるようにしてもよい。
 次に、内視鏡システム10の本開示の技術に係る部分の作用について図12A及び図12Bを参照しながら説明する。図11に示す医療支援処理の流れは、本開示の技術に係る「医療支援方法」の一例である。
 図12Aに示す医療支援処理では、先ず、ステップST10で、認識部82A及び制御部82Cは、カメラ52によって大腸28が撮像されることによって得られたフレーム40を取得する。そして、制御部82Cは、フレーム40を第1表示領域36に表示する(図5及び図11参照)。なお、ここでは、説明の便宜上、フレーム40に複数の病変42が写っていることを前提として説明する。ステップST10の処理が実行された後、医療支援処理はステップST12へ移行する。
 ステップST12で、認識部82Aは、ステップST10で取得したフレーム40に対して認識処理96を行うことにより、フレーム40に写っている病変42を認識する(図5参照)。ステップST12の処理が実行された後、医療支援処理はステップST14へ移行する。
 ステップST14で、認識部82Aは、認識モデル92から確率マップ100を取得する(図6参照)。ステップST14の処理が実行された後、医療支援処理はステップST16へ移行する。
 ステップST16で、認識部82Aは、ステップST14で取得した確率マップ100内の複数のセグメンテーション画像102のそれぞれに第1位置情報98を付与する(図6参照)。ステップST16の処理が実行された後、医療支援処理はステップST18へ移行する。
 ステップST18で、認識部82Aは、確率マップ100内の複数のセグメンテーション画像102のそれぞれに付与された第1位置情報98のそれぞれに対して識別子104を付与することにより複数のセグメンテーション画像102のそれぞれに対して識別子104を対応付ける(図6参照)。ステップST18の処理が実行された後、医療支援処理はステップST20へ移行する。
 ステップST20で、制御部82Cは、ステップST16で確率マップ100内の複数のセグメンテーション画像102のそれぞれに付与された第1位置情報98に基づいて、フレーム40内の複数の病変42を示す複数の画像領域のそれぞれに対して第2矩形枠108を設定する(図7参照)。ステップST20の処理が実行された後、医療支援処理はステップST22へ移行する。
 ステップST22で、制御部82Cは、ステップST20でフレーム40に対して設定した複数の第2矩形枠108を用いて、フレーム40から複数の局所画像110を抽出する(図8参照)。ステップST22の処理が実行された後、医療支援処理はステップST24へ移行する。
 ステップST24で、制御部82Cは、フレーム40から抽出した複数の局所画像110のそれぞれに対して識別子104及び第2位置情報109を付与することにより複数の第1情報111を生成してRAM84に格納する(図8参照)。ステップST24の処理が実行された後、医療支援処理は、図12Bに示すステップST26へ移行する。
 ステップST26で、取得部82Bは、ステップST10で取得されたフレーム40と、第1位置情報98がセグメンテーション画像102に対応付けられた確率マップ100とに基づいて、フレーム40に写っている複数の病変42のそれぞれのサイズ112を取得する(図9参照)。ステップST26の処理が実行された後、医療支援処理はステップST28へ移行する。
 ステップST28で、取得部82Bは、フレーム40に写っている複数の病変42のそれぞれについて、ステップST26で取得したサイズ112に対して、サイズ112を取得する上で用いられたセグメンテーション画像102に対応付けられている識別子104を対応付けることで第2情報126を生成してRAM84に格納する(図10参照)。ステップST28の処理が実行された後、医療支援処理はステップST30へ移行する。
 ステップST30で、制御部82Cは、RAM84に格納されている第1情報111に基づいて識別子104をフレーム40内の病変隣接位置に表示する(図11参照)。ステップST30の処理が実行された後、医療支援処理はステップST32へ移行する。
 ステップST32で、制御部82Cは、RAM84に格納されている第1情報111及び第2情報126に基づいて、識別子104毎に局所画像110及びサイズ112を第2表示領域38に表示する(図11参照)。ステップST32の処理が実行された後、医療支援処理はステップST34へ移行する。
 ステップST34で、制御部82Cは、医療支援処理を終了する条件を満足したか否かを判定する。医療支援処理を終了する条件の一例としては、内視鏡システム10に対して、医療支援処理を終了させる指示が与えられたという条件(例えば、医療支援処理を終了させる指示が受付装置64によって受け付けられたという条件)が挙げられる。
 ステップST34において、医療支援処理を終了する条件を満足していない場合は、判定が否定されて、医療支援処理は、図12Aに示すステップST10へ移行する。ステップST34において、医療支援処理を終了する条件を満足した場合は、判定が肯定されて、医療支援処理が終了する。
 以上説明したように、内視鏡システム10では、複数の病変42が写っているフレーム40に対して認識処理96が行われることによって認識された複数の病変42のそれぞれの特性としてサイズ112が取得される。そして、第1表示領域36には、フレーム40が表示され、第2表示領域38には、フレーム40から複数の病変42が個別に抽出された複数の局所画像110が、複数の病変42のそれぞれのサイズ112に応じて表示される。従って、第1表示領域36に表示されるフレーム40に対する視認性を損ねることなく、フレーム40に写っている複数の病変42を、複数の病変42のそれぞれのサイズ112が把握可能な状態で医師12に対して視覚的に認識させることができる。
 なお、ここでは、複数の局所画像110が、複数の病変42のそれぞれのサイズ112(すなわち、実サイズ)に応じて第2表示領域38に表示される形態例を挙げたが、これは、あくまでも一例に過ぎない。例えば、複数の病変42間のサイズ112の違いは、複数の病変42のそれぞれに対して設定された第1矩形枠106のサイズ(すなわち、画像上でのサイズ)の違いからも特定可能であるので、複数の局所画像110は、複数の病変42のそれぞれに対して設定された第1矩形枠106のサイズに応じて第2表示領域38に表示されるようにしてもよい。また、複数の局所画像110は、複数の病変42に対応している複数のセグメンテーション画像102のサイズに応じて第2表示領域38に表示されるようにしてもよい。
 また、内視鏡システム10では、複数の病変42間でのサイズ112の大小関係が視覚的に特定可能な表示態様で複数の局所画像110が第2表示領域38に表示される。これにより、複数の病変42間でのサイズ112の大小関係を医師12に対して視覚的に認識させることができる。
 また、内視鏡システム10では、複数の局所画像110と対応するサイズ112が、複数の局所画像110との対応関係が特定可能な状態で第2表示領域38に表示される。これにより、複数の病変42のそれぞれのサイズ112の違いを医師12に対して視覚的に認識させることができる。
 また、内視鏡システム10では、局所画像110として、複数の局所画像110を対比した場合に複数の局所画像110間で病変42のサイズ112の違いが視覚的に弁別可能な第2矩形枠108を用いてフレーム40から抽出された画像が用いられている。従って、複数の病変42のそれぞれのサイズ112の違いを医師12に対して視覚的に認識させることができる。
 また、内視鏡システム10では、第2矩形枠108として、複数の病変42間で共通の形状及びサイズを有する枠が用いられている。従って、第2矩形枠108を用いてフレーム40から抽出された複数の局所画像110が対比可能な状態で第2表示領域38に表示されることで、複数の病変42のそれぞれのサイズ112の違いを医師12に対して視覚的に認識させることができる。
 また、内視鏡システム10では、第2表示領域38内に局所画像110と隣接する位置に識別子104が表示され、第1表示領域36の病変隣接位置にも識別子104が表示される。従って、第2表示領域38内の局所画像110の表示位置と第1表示領域36内のフレーム40に写っている病変42の表示位置との対応関係を医師12に対して視覚的に認識させることができる。
 なお、上記実施形態では、取得部82Bによって複数の病変42のそれぞれのサイズ112が取得され、サイズ112に対して識別子104が対応付けられることによって第2情報126が生成される形態例を挙げたが、本開示の技術はこれに限定されない。例えば、図13に示すように、取得部82Bは、複数の病変42について得られた複数の距離情報114に基づいて複数の第3情報128を生成してRAM84に格納してもよい。第3情報128は、第2情報126に比べ、サイズ112に代えて距離情報114を適用した点が異なる。第3情報128に用いられる距離情報114は、サイズ112を求める上でセグメンテーション対応領域116Aから抽出された距離情報114である。ここで、距離情報114は、本開示の技術に係る「深度」の一例である。
 RAM84に複数の第1情報111及び複数の第3情報128が格納されている場合、一例として図14に示すように、制御部82Cは、RAM84から複数の第1情報111及び複数の第3情報128を取得し、RAM84から取得した複数の第1情報111及び複数の第3情報128に基づいて、複数の識別子104、複数の局所画像110、及び複数の距離情報114を第2表示領域38に表示する。図14に示す第2表示領域38の表示内容は、図11に示す第2表示領域38の表示内容に比べ、サイズ112に代えて距離情報114が表示される点が異なる。すなわち、第2表示領域38には、複数の病変42間での深度の深浅関係が視覚的に特定可能な表示態様で複数の局所画像110が表示される。図14に示す例では、各局所画像110と隣接する位置に、対応する距離情報114(すなわち、カメラ52から、局所画像110に写っている病変42までの深度)が表示される。
 このように、複数の局所画像110が距離情報114に応じて第2表示領域38に表示されることで、第1表示領域36に表示されるフレーム40に対する視認性を損ねることなく、フレーム40に写っている複数の病変42を、複数の病変42のそれぞれの距離情報114が把握可能な状態で医師12に対して視覚的に認識させることができる。また、複数の局所画像110のそれぞれに対応する距離情報114が、対応する局所画像110と隣接する位置に表示されるので、複数の病変42間での観察位置からの深度の深浅関係を医師12に対して視覚的に認識させることができる。
 なお、図14に示す例では、第2表示領域38に複数の距離情報114が表示される形態例が示されているが、これは、あくまでも一例に過ぎず、第2表示領域38には、複数のサイズ112と複数の距離情報114とが並べられて表示されるようにしてもよい。
 図11に示す例では、複数の局所画像110がサイズ112に応じて第2表示領域38に表示される形態例が示されており、図14に示す例では、複数の局所画像110が距離情報114に応じて第2表示領域38に表示される形態例が示されているが、図11に示す第2表示領域38の表示内容と図14に示す第2表示領域38の表示内容とが選択的に表示されるようにしてもよい。この場合、例えば、図15に示すように、受付装置64によって受け付けられた指示129(例えば、医師12によって与えられた指示)に従って、図11に示す第2表示領域38の表示内容と図14に示す第2表示領域38の表示内容とが切り替えられるようにしてもよい。これにより、医師12の意思に従って、フレーム40に写っている複数の病変42を、複数の病変42のそれぞれのサイズ112が把握可能な状態で第2表示領域38に表示させたり、フレーム40に写っている複数の病変42を、複数の病変42のそれぞれの距離情報114が把握可能な状態で第2表示領域38に表示させたりすることができる。
 ところで、フレーム40に写っている病変42の個数が多くなると、第2表示領域38に表示させる局所画像110の枚数も多くなり、病変42の個数が多過ぎると、第2表示領域38に局所画像110の全てを表示することが困難になる。局所画像110を縮小化することで、第2表示領域38に局所画像110の全てを表示するようにしてもよいが、そうすると、局所画像110の視認性が悪くなる。
 そこで、一例として図16に示すように、制御部82Cは、複数の局所画像110をグループ化した状態で第2表示領域38に表示する。図16に示す例では、制御部82Cが、RAM84に格納されている局所画像110の枚数(すなわち、認識部82Aによって認識された病変42の個数に相当する枚数)が既定枚数(例えば、4枚)を超えているか否かを判定する。既定枚数の一例としては、RAM84に格納されている全ての局所画像110が第2表示領域38に表示された場合に視認性が悪くなる枚数として実機による試験及び/又はコンピュータ・シミュレーション等によって事前に導出された枚数が挙げられる。
 RAM84に格納されている局所画像110の枚数が既定枚数を超えていない場合、制御部82Cは、上記実施形態と同様の処理を実行する。RAM84に格納されている局所画像110の枚数が既定枚数を超えている場合、制御部82Cは、RAM84に格納されている複数の局所画像110を複数のサイズ範囲に振り分けることにより複数の局所画像110をサイズ範囲別にグループ化する。
 ここで、複数のサイズ範囲としては、第1サイズ範囲130と第2サイズ範囲132とが挙げられる。例えば、第1サイズ範囲130は、サイズ112が4.0mm以上の範囲であり、第2サイズ範囲132は、サイズ112が4.0mm未満の範囲である。ここで、4.0mm以上の範囲内のサイズ112及び4.0mm未満の範囲内のサイズ112のそれぞれは、本開示の技術に係る「共通する特性」の一例である。
 ここでは、説明の便宜上、2つのサイズ範囲を例示しているが、これは、あくまでも一例に過ぎず、例えば、3つ以上のサイズ範囲であってもよく、複数のサイズ112が区切られる複数のサイズ範囲であればよい。
 また、複数のサイズ範囲は、医学的知見に基づく臨床的な意思決定のために医師12によって参考にされる基準値(例えば、医師12が病変42の切除を行うか否かの判断を下す基準値(例えば、5mm及び/又は10mm等))に基づいて定められていてもよいし、医師12によって与えられた指示及び/又は各種条件に応じて変更される可変値に基づいて定められてもよい。
 制御部82Cは、RAM84に格納されている第1情報111及び第2情報126に基づいて、複数の局所画像110を第1サイズ範囲130及び第2サイズ範囲132に振り分けることで複数の局所画像110をサイズ範囲別にグループ化する。そして、制御部82Cは、複数の局所画像110をサイズ範囲別にグループ化された状態で第2表示領域38に表示する。図16に示す例では、第1サイズ範囲130を代表する局所画像110と、第2サイズ範囲132を代表する局所画像110とが第2表示領域38に表示されている。また、図16に示す例では、第1サイズ範囲130を代表する局所画像110に写っている病変42のサイズ112と、第2サイズ範囲132を代表する局所画像110に写っている病変42のサイズ112とが第2表示領域38に表示されている。
本実施形態において、第1サイズ範囲130及び第2サイズ範囲132は、本開示の技術に係る「複数の第1範囲」の一例である。
 また、第2表示領域38には、第1サイズ範囲130に振り分けられた局所画像110の枚数を示す第1枚数情報134と、第2サイズ範囲132に振り分けられた局所画像110の枚数を示す第2枚数情報136とが表示される。図16に示す例では、第1枚数情報134として、第1サイズ範囲130に振り分けられた局所画像110の枚数が2枚であることを示す情報が表示されており、第2枚数情報136として、第2サイズ範囲132に振り分けられた局所画像110の枚数が3枚であることを示す情報が表示されている。ここでは、具体的な枚数を例示しているが、これは、あくまでも一例に過ぎず、枚数が多いか少ないかを特定可能な概略的な指標であってもよい。本実施形態において、第1枚数情報134及び第2枚数情報136は、本開示の技術に係る「第1範囲にグループ化されている抽出画像の枚数に関する情報」の一例である。
 また、第1サイズ範囲130を代表する局所画像110の一例としては、第1サイズ範囲130に振り分けられた全ての局所画像110のうち、サイズ112が最大の病変42が写っている局所画像110が挙げられる。また、第2サイズ範囲132を代表する局所画像110の一例として、第2サイズ範囲132に振り分けられた全ての局所画像110のうち、サイズ112が最大の病変42が写っている局所画像110が挙げられる。
 なお、ここでは、サイズ範囲を代表する局所画像110として、サイズ112が最大の病変42が写っている局所画像110を例示したが、これは、あくまでも一例に過ぎない。例えば、サイズ範囲を代表する局所画像110は、サイズ112が最小の病変42が写っている局所画像110であってもよいし、中央値のサイズ112の病変42が写っている局所画像110であってもよいし、最頻値のサイズ112の病変42が写っている局所画像110であってもよいし、ランダムに選ばれた局所画像110であってもよい。
 また、図16に示す例では、上記実施形態と同様の要領で、第1サイズ範囲130を代表する局所画像110に対応する識別子104が第2表示領域38に表示され、第2サイズ範囲132を代表する局所画像110に対応する識別子104が第2表示領域38に表示される。
 このように、図16に示す例では、複数の局所画像110に写っている複数の病変42についての複数のサイズ112が第1サイズ範囲130と第2サイズ範囲132とで区切られており、第1サイズ範囲130と第2サイズ範囲132とに振り分けられた複数の局所画像110がグループ化された状態で第2表示領域38に表示される。よって、第2表示領域38に全ての局所画像110のそれぞれが別々に表示される場合に比べ、第2表示領域38に対する良好な視認性を実現することができる。
 また、図16に示す例では、第1サイズ範囲130に振り分けられた全ての局所画像110を代表する局所画像110が第2表示領域38に表示され、かつ、第1サイズ範囲130にグループ化されている局所画像110の枚数に関する情報として第1枚数情報134が第2表示領域38に表示される。また、第2サイズ範囲132に振り分けられた全ての局所画像110を代表する局所画像110が第2表示領域38に表示され、かつ、第2サイズ範囲132にグループ化されている局所画像110の枚数に関する情報として第2枚数情報136が第2表示領域38に表示される。よって、第1サイズ範囲130と第2サイズ範囲132との違いを医師12に対して概略的に把握させることができる。
 また、図16に示す例では、RAM84に格納されている複数の局所画像110の枚数が既定枚数を超えた場合に、サイズ範囲別に複数の局所画像110がグループ化された状態で第2表示領域38に表示される。よって、本構成によれば、視認性が悪くならない枚数の局所画像110を第2表示領域38に表示させ、視認性が悪くなる枚数の局所画像110をグループ化して第2表示領域38に表示させることができる。この結果、第2表示領域38を観察する医師12が受ける視覚的な不快感を抑制することができる。
 図16に示す例では、複数の局所画像110がサイズ範囲別にグループ化される形態例を挙げたが、本開示の技術はこれに限定されない。例えば、図17に示すように、複数の局所画像110が距離範囲別にグループ化されるようにしてもよい。
 図17に示す例は、図16に示す例に比べ、第1サイズ範囲130に代えて第1距離範囲138を用いる点、及び、第2サイズ範囲140に代えて第2距離範囲140を用いる点が異なる。また、図14に示す例では、距離情報114が第2表示領域38に表示されているが、図17に示す例では、距離情報114に代えて、病変42に対する深度を示す指標141が第2表示領域38に表示されている。指標141は、「深い」又は「浅い」で表現される。なお、図17に示す例では、第2表示領域38に指標141が表示される形態例が示されているが、これは、あくまでも一例に過ぎず、図16に示す例においてサイズ範囲を代表する局所画像110に写っている病変42のサイズ112が第2表示領域38に表示されるのと同様の要領で、距離範囲を代表する局所画像110に写っている病変42の距離情報114が第2表示領域38に表示されるようにしてもよい。
 RAM84に格納されている局所画像110の枚数が既定枚数を超えている場合、制御部82Cは、RAM84に格納されている複数の局所画像110を複数の距離範囲に振り分けることにより複数の局所画像110を距離範囲別にグループ化する。ここで、複数の距離範囲としては、第1距離範囲138と第2距離範囲140とが挙げられる。例えば、第1距離範囲138は、距離情報114により示される距離が4.0mm以上の範囲であり、第2距離範囲140は、距離情報114により示される距離が4.0mm未満の範囲である。ここで、4.0mm以上の範囲内の距離及び4.0mm未満の範囲内の距離のそれぞれは、本開示の技術に係る「共通する特性」の一例である。
 ここでは、説明の便宜上、2つの距離範囲を例示しているが、これは、あくまでも一例に過ぎず、例えば、3つ以上の距離範囲であってもよく、複数の距離情報114が区切られる複数の距離範囲であればよい。また、複数の距離範囲は、固定値であってもよいし、医師12によって与えられた指示及び/又は各種条件に応じて変更される可変値であってもよい。
 制御部82Cは、RAM84に格納されている第1情報111及び第3情報128(図14参照)に基づいて、複数の局所画像110を第1距離範囲138及び第2距離範囲140に振り分けることで複数の局所画像110を距離範囲別にグループ化する。そして、制御部82Cは、複数の局所画像110を距離範囲別にグループ化された状態で第2表示領域38に表示する。図17に示す例では、第1距離範囲138を代表する局所画像110と、第2距離範囲140を代表する局所画像110とが第2表示領域38に表示されている。本実施形態において、第1距離範囲138及び第2距離範囲140は、本開示の技術に係る「複数の第2範囲」の一例である。
 また、第2表示領域38には、第1距離範囲138に振り分けられた局所画像110に写っている病変42の深度を示す指標141と、第2距離範囲140に振り分けられた局所画像110に写っている病変42の深度を示す指標141とが表示される。また、第2表示領域38には、第1距離範囲138に振り分けられた局所画像110の枚数を示す第3枚数情報142と、第2距離範囲140に振り分けられた局所画像110の枚数を示す第4枚数情報144とが表示される。図17に示す例では、第3枚数情報142として、第1距離範囲138に振り分けられた局所画像110の枚数が2枚であることを示す情報が表示されており、第4枚数情報144として、第2距離範囲140に振り分けられた局所画像110の枚数が3枚であることを示す情報が表示されている。本実施形態において、第3枚数情報142及び第4枚数情報144は、本開示の技術に係る「第2範囲にグループ化されている抽出画像の枚数に関する情報」の一例である。
 また、第1距離範囲138を代表する局所画像110の一例としては、第1距離範囲138に振り分けられた全ての局所画像110のうち、距離情報114により示される距離が最大の病変42が写っている局所画像110が挙げられる。また、第2距離範囲140を代表する局所画像110の一例として、第2距離範囲140に振り分けられた全ての局所画像110のうち、距離情報114により示される距離が最大の病変42が写っている局所画像110が挙げられる。
 なお、ここでは、距離範囲を代表する局所画像110として、距離が最大の病変42が写っている局所画像110を例示したが、これは、あくまでも一例に過ぎない。例えば、距離範囲を代表する局所画像110は、距離が最小の病変42が写っている局所画像110であってもよいし、中央値の距離の病変42が写っている局所画像110であってもよいし、最頻値の距離の病変42が写っている局所画像110であってもよいし、ランダムに選ばれた局所画像110であってもよい。
 また、図17に示す例では、上記実施形態と同様の要領で、第1距離範囲138を代表する局所画像110に対応する識別子104が第2表示領域38に表示され、第2距離範囲140を代表する局所画像110に対応する識別子104が第2表示領域38に表示される。
 このように、図17に示す例では、複数の局所画像110に写っている複数の病変42についての複数の距離情報114が第1距離範囲138と第2距離範囲140とで区切られており、第1距離範囲138と第2距離範囲140とに振り分けられた複数の局所画像110がグループ化された状態で第2表示領域38に表示される。よって、第2表示領域38に全ての局所画像110のそれぞれが別々に表示される場合に比べ、第2表示領域38に対する良好な視認性を実現することができる。
 また、図17に示す例では、第1距離範囲138に振り分けられた全ての局所画像110を代表する局所画像110が第2表示領域38に表示され、かつ、第1距離範囲138にグループ化されている局所画像110の枚数に関する情報として第3枚数情報142が第2表示領域38に表示される。また、第2距離範囲140に振り分けられた全ての局所画像110を代表する局所画像110が第2表示領域38に表示され、かつ、第2距離範囲140にグループ化されている局所画像110の枚数に関する情報として第4枚数情報144が第2表示領域38に表示される。よって、第1距離範囲138と第2距離範囲140との違いを医師12に対して概略的に把握させることができる。
 また、図17に示す例では、RAM84に格納されている複数の局所画像110の枚数が既定枚数を超えた場合に、距離範囲別に複数の局所画像110がグループ化された状態で第2表示領域38に表示される。よって、本構成によれば、視認性が悪くならない枚数の局所画像110を第2表示領域38に表示させ、視認性が悪くなる枚数の局所画像110をグループ化して第2表示領域38に表示させることができる。この結果、第2表示領域38を観察する医師12が受ける視覚的な不快感を抑制することができる。
 一例として図18に示すように、制御部82Cは、局所画像110に含まれる病変42のフレーム40内での表示位置が特定可能なマップ146を生成し、生成したマップ146を第3表示領域148に表示するようにしてもよい。マップ146は、確率マップ100に含まれる複数のセグメンテーション画像102のそれぞれに識別子104が対応付けられることによって生成される。複数のセグメンテーション画像102のそれぞれに対応付けられる識別子104は、図7に示す識別子104と同一の識別子である。
 画面35内の第3表示領域148は、第1表示領域36及び第2表示領域38とは異なる表示領域であり、画面35内において第1表示領域36及び第2表示領域38と対比可能な位置に配置されている。第3表示領域148には、確率マップ100が表示され、かつ、確率マップ100内に複数の識別子104が表示される。例えば、複数の識別子104は、確率マップ100に重畳表示される。確率マップ100内で識別子104が表示される位置は、セグメンテーション画像102と隣接する位置であり、第1位置情報98(図7参照)に基づいて決定される。なお、本実施形態において、マップ146は、本開示の技術に係る「位置特定情報」及び「マップ」の一例である。また、本実施形態において、第3表示領域148は、本開示の技術に係る「第3表示領域」の一例である。
 このように、図18に示す例では、第3表示領域148にマップ146が表示される。マップ146には、複数の病変42が存在する位置に複数のセグメンテーション画像102が分布しているため、医師12は、マップ146を参照することにより、局所画像110に含まれる病変42のフレーム40内での表示位置を視覚的に特定することができる。
 また、マップ146は、認識処理96が行われることによって得られた確率マップ100に基づいて生成されるので、局所画像110に含まれる病変42のフレーム40内での表示位置を特定可能なマップを容易に入手することができる。
 また、マップ146は、第1表示領域36及び第2表示領域38とは異なる第3表示領域148に表示されるので、第1表示領域36にマップ146が表示されたり、第2表示領域38にマップ146が表示されたりする場合に比べ、第1表示領域36及び第2表示領域38に対する視認性を良好に保つことができる。
 なお、図18に示す例では、マップ146が第3表示領域148に表示される形態例を挙げたが、第3表示領域148には、確率マップ100そのもの、又は、確率マップ100が加工されたマップ等が表示されるようにしてもよい。
 また、マップ146には、複数のセグメンテーション画像102が含まれているが、マップ146に対して複数のセグメンテーション画像102を用いずに、マップ146内での複数のセグメンテーション画像102のそれぞれの位置に、セグメンテーション画像102に対応する識別子104が表示されるようにしてもよい。この場合、確率マップ100ではなく、フレーム40がサムネイル化された画像、又は、フレーム40の外枠と相似関係にある外枠が用いられた画像が用いられるようにしてもよい。
 また、画面35内での第1表示領域36、第2表示領域38、及び第3表示領域148の形状、大きさ、及び/又は位置は、与えられた指示及び/又は各種条件に応じて変更されるようにしてもよい。
 また、第1表示領域36に表示される情報、第2表示領域38に表示される情報、及び第3表示領域148に表示される情報のうちの1つ又は2つは、表示装置18とは別の1つ以上の表示装置に表示されるようにしてもよい。
 上記実施形態では、サイズ112毎に局所画像110が第2表示領域38に表示される形態例を挙げたが、本開示の技術はこれに限定されない。例えば、サイズ112毎に且つ距離情報114毎に局所画像110が振り分けられて第2表示領域38に表示されるようにしてもよい。また、病変42の種類毎に局所画像110が振り分けられて第2表示領域38に表示されてもよいし、病変42の型毎に局所画像110が振り分けられて第2表示領域38に表示されてもよい。また、病変42の種類毎及び/又は病変42の型毎に且つサイズ112毎に局所画像110が振り分けられて第2表示領域38に表示されるようにしてもよい。また、病変42の種類毎及び/又は病変42の型毎に且つ距離情報114毎に局所画像110が振り分けられて第2表示領域38に表示されるようにしてもよい。
 また、受付装置64によって受け付けられた指示(例えば、医師12によって与えられた指示)に従って選択された特性(例えば、上述したサイズ112、距離情報114、病変42の種類、及び/又は病変42の型)毎に局所画像110が振り分けられて第2表示領域38に表示されてもよい。
 なお、ここでは、病変42の特性として、サイズ112、距離情報114、病変42の種類、及び病変42の型を例示したが、これは、あくまでも一例に過ぎない。病変42の特性は、病変42の重症度及び/又は病変42の粘膜の状態等であってもよいし、上述した複数の特性を複合化した特性(例えば、サイズ112、距離情報114、病変42の種類、病変42の型、病変42の重症度、及び病変42の粘膜の状態等のうちの2つ以上の特性を組み合わせた特性)であってもよい。
 上記実施形態では、識別子104及びサイズ112が画面35に表示される形態例を挙げたが、本開示の技術はこれに限定されず、識別子104及び/又はサイズ112が画面35に表示されなくても本開示の技術は成立する。また、図14に示す例では、識別子104及び距離情報114が画面35に表示される形態例を挙げたが、識別子104及び/又は距離情報114が画面35に表示されなくても本開示の技術は成立する。
 上記実施形態では、フレーム40から第2矩形枠108を用いて切り出された画像が局所画像110として用いられる形態例を挙げたが、本開示の技術はこれに限定されない。例えば、フレーム40から第2矩形枠108を用いて切り出された画像に対して画像処理(例えば、一般的に知られている画像処理)が行われて得られた画像が局所画像110として用いられるようにしてもよい。また、確率マップ100に対して設定された全ての第1矩形枠106(図7参照)のうちの最も大きな第1矩形枠106を用いてフレーム40から切り出された画像が局所画像110として用いられるようにしてもよい。
 上記実施形態では、認識処理96として、セグメンテーション方式のAIを用いた物体認識処理を例示したが、本開示の技術は、これに限定されず、認識処理96は、バウンディングボックス方式のAIを用いた物体認識処理であってもよい。この場合、例えば、セグメンテーション画像102(図5参照)に代えてバウンディングボックスが用いられ、第1矩形枠106(図7参照)に相当する枠としてバウンディングボックスが用いられる。
 上記実施形態では、第1表示領域36に内視鏡動画像39が表示される形態例を挙げたが、内視鏡動画像39に対して認識処理96が行われた結果が第1表示領域36内の内視鏡動画像39に重畳表示されてもよい。また、内視鏡動画像39に対して認識処理96が行われた結果として得られたセグメンテーション画像102の少なくとも一部が内視鏡動画像39に重畳表示されてもよい。セグメンテーション画像102の少なくとも一部を内視鏡動画像39に重畳表示させる一例としては、セグメンテーション画像102の外輪郭がアルファブレンド方式で内視鏡動画像39に重畳表示される形態例が挙げられる。
 また、例えば、認識処理96がAIによるバウンディングボックス方式で行われる場合は、第1表示領域36内の内視鏡動画像39に対してバウンディングボックスが重畳表示されてもよい。また、例えば、内視鏡動画像39に複数の病変42が写っている場合、測定されたサイズ112に対応する病変42がどれかを視覚的に特定可能にする情報として、セグメンテーション画像102の少なくとも一部及び/又はバウンディングボックスが第1表示領域36に重畳表示されるようにしてもよい。
 上記実施形態では、制御部82Cが、距離導出モデル94(図9参照)を用いてフレーム40から距離画像116(図9参照)を生成する形態例を挙げたが、本開示の技術はこれに限定されない。例えば、先端部50(図2参照)に設けられた深度センサ(例えば、レーザ測距方式及び/又は位相差方式等で測距を行うセンサ)によって大腸28の奥行方向の深度が測定され、測定された深度に基づいて距離画像116がプロセッサ82によって生成されるようにしてもよい。
 上記実施形態では、線分120に沿って病変42を横断する最長範囲の実空間上の長さをサイズ112として測定される形態例を挙げたが、本開示の技術はこれに限定されない。例えば、病変42を示す画像領域に対する矩形枠122の短辺に平行な最長の線分に対応する範囲の実空間上の長さがサイズ112として測定されて画面35に表示されてもよい。この場合、病変42を示す画像領域に対する矩形枠122の短辺に平行な最長の線分に沿って病変42を横断する最長範囲の実空間上の長さを医師12に把握させることができる。
 また、病変42を示す画像領域に対する外接円の半径及び/又は直径についての病変42の実サイズが測定されて画面35に表示されてもよい。この場合、病変42を示す画像領域に対する外接円の半径及び/又は直径についての病変42の実サイズを医師12に把握させることができる。
 上記実施形態では、第2表示領域38内にサイズ112が表示される形態例を挙げたが、これは、あくまでも一例に過ぎず、第2表示領域38内から第2表示領域38外にポップアップ方式でサイズ112が表示されてもよいし、画面35内の第2表示領域38以外にサイズ112が表示されるようにしてもよい。また、病変の種類及び/又は病変の型等も第1表示領域36内及び/又は第2表示領域38内に表示されてもよいし、画面35以外の画面に表示されてもよい。
 上記実施形態では、1フレーム単位でサイズ112の測定が行われる形態例を挙げたが、これは、あくまでも一例に過ぎず、複数フレーム単位でサイズ112の測定が行われるようにしてもよい。また、複数フレーム単位でサイズ112の測定が行われて得られた代表サイズ(例えば、平均値、中央値、最大値、最小値、偏差、標準偏差、及び/又は最頻値等)が第2情報126(図10及び図11参照)に用いられてもよい。
 上記実施形態では、認識処理96として、AI方式の物体認識処理を例示したが、本開示の技術はこれに限定されず、非AI方式の物体認識処理(例えば、テンプレートマッチング等)が実行されることによってフレーム40に写っている病変42が認識部82Aによって認識されるようにしてもよい。
 上記実施形態では、サイズ112の算出のために演算式124を用いる形態例を挙げて説明したが、本開示の技術はこれに限定されず、フレーム40に対してAIを用いた処理が行われることによりサイズ112が測定されるようにしてもよい。この場合、例えば、病変42を含むフレーム40が入力されると、病変42のサイズ112を出力する学習済みモデルを用いればよい。学習済みモデルを作成する場合、例題データとして用いられる画像に写っている病変に対して、正解データとして病変のサイズを示すアノテーションを付与した教師データを用いた深層学習がニューラルネットワークに対して行われるようにすればよい。
 上記実施形態では、距離導出モデル94を用いて距離情報114を導出する形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、距離情報114をAI方式で導出する他の方法としては、例えば、セグメンテーションと深度推定とを組み合わせる方法(例えば、画像全体(例えば、画像を構成する全画素)に距離情報114を与える回帰学習、又は、無教師で画像全体の距離を学習する無教師学習)等が挙げられる。
 上記実施形態では、内視鏡動画像39を例示したが、本開示の技術はこれに限定されず、内視鏡動画像39以外の医用動画像(例えば、放射線動画像又は超音波動画像等のように、内視鏡システム10以外のモダリティ(例えば、放射線診断装置又は超音波診断装置等)によって得られた動画像)であっても本開示の技術は成立する。
 上記実施形態では、動画像に写っている病変42のサイズ112を測定する形態例を挙げたが、これは、あくまでも一例に過ぎず、コマ送り画像又は静止画像に写っている病変42のサイズ112を測定する場合であっても本開示の技術は成立する。
 上記実施形態では、距離画像116内のセグメンテーション対応領域116Aから抽出した距離情報114を演算式124に入力する形態例を挙げたが、本開示の技術はこれに限定されない。例えば、距離画像116を生成せずに、距離導出モデル94から出力された全ての距離情報114から、第1位置情報98から特定される位置に対応する距離情報114を抽出し、抽出した距離情報114を演算式124に入力するようにすればよい。
 上述した例では、サイズ112等の出力先として表示装置18を例示したが、本開示の技術はこれに限定されず、フレーム40、医療情報44、及び/又はマップ146等の各種情報(以下、「各種情報」と称する)の出力先は、表示装置18以外であってもよい。一例として図19に示すように、各種情報のうちの音声出力が可能な情報の出力先としては、音声再生装置150が挙げられる。各種情報のうちの音声出力が可能な情報は、音声再生装置150によって音声として出力されてもよい。また、各種情報の出力先としては、プリンタ152及び/又は電子カルテ管理装置154等が挙げられる。各種情報は、プリンタ152によって媒体(例えば、用紙)等にテキスト等として印刷されてもよいし、電子カルテ管理装置154によって管理されている電子カルテ156に保存されてもよい。
 上述した例では、各種情報が画面35に表示されたり、各種情報が画面35に表示されなかったりする形態例を挙げて説明したが、各種情報の画面35への表示は、ユーザ等(例えば、医師12)に対して各種情報の知覚可能な表示を意味する。また、各種情報が画面35に表示されないという概念には、各種情報の表示レベル(例えば、表示によって知覚されるレベル)を落とすという概念も含まれる。例えば、各種情報が画面35に表示されないという概念には、各種情報がユーザ等によって視覚的に知覚されない表示態様で各種情報が表示されるという概念も含まれる。この場合の表示態様としては、例えば、各種情報のフォントサイズを小さくしたり、各種情報を細線化したり、各種情報を点線化したり、各種情報を点滅させたり、知覚不可な表示時間で各種情報を表示させたり、各種情報を知覚不可レベルに透明化したりする表示態様が挙げられる。なお、上述した音声出力、印刷、及び保存等の各種出力についても同様のことが言える。
 上記実施形態では、内視鏡システム10に含まれるプロセッサ82によって医療支援処理が行われる形態例を挙げて説明したが、本開示の技術はこれに限定されず、医療支援処理に含まれる少なくとも一部の処理を行うデバイスは、内視鏡システム10の外部に設けられていてもよい。
 この場合、例えば、図20に示すように、内視鏡システム10とネットワーク158(例えば、WAN及び/又はLAN等)を介して通信可能に接続された外部装置160を用いればよい。
 外部装置160の一例としては、ネットワーク158を介して内視鏡システム10と直接的に又は間接的にデータの送受信を行う少なくとも1台のサーバが挙げられる。外部装置160は、内視鏡システム10のプロセッサ82からネットワーク158を介して与えられた処理実行指示を受信する。そして、外部装置160は、受信した処理実行指示に応じた処理を実行し、処理結果を、ネットワーク158を介して内視鏡システム10に送信する。内視鏡システム10では、プロセッサ82が、外部装置160からネットワーク158を介して送信された処理結果を受信し、受信した処理結果を用いた処理を実行する。
 処理実行指示としては、例えば、医療支援処理の少なくとも一部を外部装置160に対して実行させる指示が挙げられる。医療支援処理の少なくとも一部(すなわち、外部装置160に対して実行させる処理)の第1例としては、認識処理96が挙げられる。この場合、外部装置160は、内視鏡システム10のプロセッサ82からネットワーク158を介して与えられた処理実行指示に従って認識処理96を実行し、認識処理結果(例えば、第1位置情報98及び/又は確率マップ100等)を、ネットワーク158を介して内視鏡システム10に送信する。内視鏡システム10では、プロセッサ82が、認識処理結果を受信し、受信した認識処理結果を用いて上記実施形態と同様の処理を実行する。
 医療支援処理の少なくとも一部(すなわち、外部装置160に対して実行させる処理)の第2例としては、取得部82Bによる処理が挙げられる。取得部82Bによる処理とは、例えば、病変42のサイズ112を測定する処理を指す。この場合、外部装置160は、内視鏡システム10のプロセッサ82からネットワーク158を介して与えられた処理実行指示に従って、取得部82Bによる処理を実行し、測定処理結果(例えば、サイズ112等)を、ネットワーク158を介して内視鏡システム10に送信する。内視鏡システム10では、プロセッサ82が、測定処理結果を受信し、受信した測定処理結果を用いて上記実施形態と同様の処理を実行する。
 医療支援処理の少なくとも一部(すなわち、外部装置160に対して実行させる処理)の第3例としては、図12A及び図12Bに示す医療支援処理に含まれるステップST12~ステップST28の処理のうちの少なくとも1つの処理が挙げられる。
 医療支援処理の少なくとも一部(すなわち、外部装置160に対して実行させる処理)の第4例としては、第3情報128を生成して格納領域に格納する処理が挙げられる。
 医療支援処理の少なくとも一部(すなわち、外部装置160に対して実行させる処理)の第5例としては、複数の局所画像110をサイズ範囲別にグループ化する処理が挙げられる。
 医療支援処理の少なくとも一部(すなわち、外部装置160に対して実行させる処理)の第6例としては、複数の局所画像110を距離範囲別にグループ化する処理が挙げられる。
 医療支援処理の少なくとも一部(すなわち、外部装置160に対して実行させる処理)の第7例としては、第1表示領域36の表示内容、第2表示領域38の表示内容、及び/又は第3表示領域148の表示内容を生成する処理が挙げられる。
 例えば、外部装置160は、クラウドコンピューティングによって実現される。なお、クラウドコンピューティングは、あくまでも一例に過ぎず、フォグコンピューティング、エッジコンピューティング、又はグリッドコンピューティング等のネットワークコンピューティングによって実現されてもよい。サーバに代えて、少なくとも1台のパーソナル・コンピュータ等を外部装置160として用いてもよい。また、複数種類のAI機能が搭載された通信機能付き演算装置であってもよい。
 上記実施形態では、NVM86に医療支援プログラム90が記憶されている形態例を挙げて説明したが、本開示の技術はこれに限定されない。例えば、医療支援プログラム90がSSD又はUSBメモリなどの可搬型のコンピュータ読み取り可能な非一時的格納媒体に格納されていてもよい。非一時的格納媒体に格納されている医療支援プログラム90は、内視鏡システム10のコンピュータ78にインストールされる。プロセッサ82は、医療支援プログラム90に従って医療支援処理を実行する。
 また、ネットワークを介して内視鏡システム10に接続される他のコンピュータ又はサーバ等の格納装置に医療支援プログラム90を格納させておき、内視鏡システム10の要求に応じて医療支援プログラム90がダウンロードされ、コンピュータ78にインストールされるようにしてもよい。
 なお、内視鏡システム10に接続される他のコンピュータ又はサーバ装置等の格納装置に医療支援プログラム90の全てを格納させておいたり、NVM86に医療支援プログラム90の全てを記憶させたりしておく必要はなく、医療支援プログラム90の一部を格納させておいてもよい。
 医療支援処理を実行するハードウェア資源としては、次に示す各種のプロセッサを用いることができる。プロセッサとしては、例えば、ソフトウェア、すなわち、プログラムを実行することで、医療支援処理を実行するハードウェア資源として機能する汎用的なプロセッサであるCPUが挙げられる。また、プロセッサとしては、例えば、FPGA、PLD、又はASICなどの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路が挙げられる。何れのプロセッサにもメモリが内蔵又は接続されており、何れのプロセッサもメモリを使用することで医療支援処理を実行する。
 医療支援処理を実行するハードウェア資源は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ、又はCPUとFPGAとの組み合わせ)で構成されてもよい。また、医療支援処理を実行するハードウェア資源は1つのプロセッサであってもよい。
 1つのプロセッサで構成する例としては、第1に、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが、医療支援処理を実行するハードウェア資源として機能する形態がある。第2に、SoCなどに代表されるように、医療支援処理を実行する複数のハードウェア資源を含むシステム全体の機能を1つのICチップで実現するプロセッサを使用する形態がある。このように、医療支援処理は、ハードウェア資源として、上記各種のプロセッサの1つ以上を用いて実現される。
 更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路を用いることができる。また、上記の医療支援処理はあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。
 以上に示した記載内容及び図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、及び効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、及び効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容及び図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことは言うまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容及び図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。
 本明細書において、「A及び/又はB」は、「A及びBのうちの少なくとも1つ」と同義である。つまり、「A及び/又はB」は、Aだけであってもよいし、Bだけであってもよいし、A及びBの組み合わせであってもよい、という意味である。また、本明細書において、3つ以上の事柄を「及び/又は」で結び付けて表現する場合も、「A及び/又はB」と同様の考え方が適用される。
 本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。

Claims (28)

  1.  プロセッサを備え、
     前記プロセッサは、
     複数の観察対象領域が写っている医用画像に対して認識処理が行われることによって認識された前記複数の観察対象領域のそれぞれの特性を取得し、
     前記医用画像を第1表示領域に表示し、
     前記医用画像から前記複数の観察対象領域が個別に抽出された複数の抽出画像を前記特性に応じて、前記第1表示領域外の第2表示領域に表示する
     医療支援装置。
  2.  前記特性は、サイズを含む
     請求項1に記載の医療支援装置。
  3.  前記第2表示領域には、前記複数の観察対象領域間での前記サイズの大小関係が視覚的に特定可能な表示態様で前記複数の抽出画像が表示される
     請求項2に記載の医療支援装置。
  4.  前記サイズが複数の第1範囲で区切られており、
     前記第2表示領域には、前記第1範囲別に前記複数の抽出画像がグループ化された状態で表示される
     請求項2に記載の医療支援装置。
  5.  前記第2表示領域には、前記第1範囲別に前記複数の抽出画像がグループ化された場合に、前記第1範囲を代表する前記抽出画像が表示され、かつ、前記第1範囲にグループ化されている前記抽出画像の枚数に関する情報が表示される
     請求項4に記載の医療支援装置。
  6.  前記第2表示領域には、前記複数の抽出画像の枚数が既定枚数を超えた場合に、前記第1範囲別に前記複数の抽出画像がグループ化された状態で表示される
     請求項4に記載の医療支援装置。
  7.  前記特性は、深度を含む
     請求項1に記載の医療支援装置。
  8.  前記第2表示領域には、前記複数の観察対象領域間での前記深度の深浅関係が視覚的に特定可能な表示態様で前記複数の抽出画像が表示される
     請求項7に記載の医療支援装置。
  9.  前記深度が複数の第2範囲で区切られており、
     前記第2表示領域には、前記第2範囲別に前記複数の抽出画像がグループ化された状態で表示される
     請求項7に記載の医療支援装置。
  10.  前記第2表示領域には、前記第2範囲別に前記複数の抽出画像がグループ化された場合に、前記第2範囲を代表する前記抽出画像が表示され、かつ、前記第2範囲にグループ化されている前記抽出画像の枚数に関する情報が表示される
     請求項9に記載の医療支援装置。
  11.  前記第2表示領域には、前記複数の抽出画像の枚数が既定枚数を超えた場合に、前記第
    2範囲別に前記複数の抽出画像がグループ化された状態で表示される
     請求項9に記載の医療支援装置。
  12.  前記プロセッサは、画面に位置関係特定情報を表示し、
     前記位置関係特定情報は、前記複数の抽出画像のうちの少なくとも1つが表示されている第1表示位置と、前記第1表示位置に表示されている前記抽出画像に写っている前記観察対象領域が前記第1表示領域に表示されている第2表示位置とが対応関係にあることを特定可能な情報である
     請求項1に記載の医療支援装置。
  13.  前記第2表示領域には、共通する前記特性別に前記複数の抽出画像がグループ化された状態で表示される
     請求項1に記載の医療支援装置。
  14.  前記第2表示領域には、共通する前記特性別に前記複数の抽出画像がグループ化された場合に、共通する前記特性毎に、前記特性を代表する前記抽出画像が表示され、かつ、共通する前記特性にグループ化されている前記抽出画像の枚数に関する情報が表示される
     請求項13に記載の医療支援装置。
  15.  前記第2表示領域には、前記複数の抽出画像の枚数が既定枚数を超えた場合に、共通する前記特性別に前記複数の抽出画像がグループ化された状態で表示される
     請求項13に記載の医療支援装置。
  16.  前記プロセッサは、前記抽出画像に含まれる前記観察対象領域の前記医用画像内での表示位置が特定可能な位置特定情報を第3表示領域に表示する
     請求項1に記載の医療支援装置。
  17.  前記位置特定情報は、前記医用画像内での前記表示位置が特定可能なマップである
     請求項16に記載の医療支援装置。
  18.  前記認識処理は、機械学習を用いた物体認識処理であり、
     前記マップは、前記物体認識処理が行われることによって得られる確率マップに基づいて生成される
     請求項17に記載の医療支援装置。
  19.  前記第3表示領域は、前記第1表示領域及び前記第2表示領域とは異なる位置にある
     請求項16に記載の医療支援装置。
  20.  前記複数の観察対象領域のそれぞれの実サイズが測定され、
     前記第2表示領域には、前記複数の抽出画像と対応する前記実サイズが、前記複数の抽出画像との対応関係が特定可能な状態で表示される
     請求項1に記載の医療支援装置。
  21.  前記抽出画像は、前記複数の抽出画像を対比した場合に前記複数の抽出画像間で前記観察対象領域のサイズの違いが視覚的に弁別可能な枠を用いて前記医用画像から抽出された画像である
     請求項1に記載の医療支援装置。
  22.  前記枠は、前記複数の観察対象領域間で共通の形状及びサイズを有する
     請求項21に記載の医療支援装置。
  23.  前記医用画像は、内視鏡スコープによって撮像されることによって得られた内視鏡画像である
     請求項1に記載の医療支援装置。
  24.  前記観察対象領域は、病変である
     請求項1に記載の医療支援装置。
  25.  請求項1から請求項24の何れか一項に記載の医療支援装置と、
     体内に挿入されて前記体内を撮像することで前記医用画像を取得する内視鏡スコープと、を備える
     内視鏡システム。
  26.  複数の観察対象領域が写っている医用画像に対して認識処理が行われることによって認識された前記複数の観察対象領域のそれぞれの特性を取得すること、
     前記医用画像を第1表示領域に表示すること、及び、
     前記医用画像から前記複数の観察対象領域が個別に抽出された複数の抽出画像を前記特性に応じて、前記第1表示領域外の第2表示領域に表示することを含む
     医療支援方法。
  27.  体内に挿入されて前記体内を撮像することで前記医用画像を取得する内視鏡スコープを用いることを含む
     請求項26に記載の医療支援方法。
  28.  複数の観察対象領域が写っている医用画像に対して認識処理が行われることによって認識された前記複数の観察対象領域のそれぞれの特性を取得すること、
     前記医用画像を第1表示領域に表示すること、及び、
     前記医用画像から前記複数の観察対象領域が個別に抽出された複数の抽出画像を前記特性に応じて、前記第1表示領域外の第2表示領域に表示することを含む医療支援処理をコンピュータに実行させるためのプログラム。
PCT/JP2024/006789 2023-03-28 2024-02-26 医療支援装置、内視鏡システム、医療支援方法、及びプログラム Pending WO2024202789A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2025509987A JPWO2024202789A1 (ja) 2023-03-28 2024-02-26
CN202480022427.3A CN120957648A (zh) 2023-03-28 2024-02-26 医疗辅助装置、内窥镜系统、医疗辅助方法及程序

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2023-052125 2023-03-28
JP2023052125 2023-03-28

Publications (1)

Publication Number Publication Date
WO2024202789A1 true WO2024202789A1 (ja) 2024-10-03

Family

ID=92905191

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2024/006789 Pending WO2024202789A1 (ja) 2023-03-28 2024-02-26 医療支援装置、内視鏡システム、医療支援方法、及びプログラム

Country Status (3)

Country Link
JP (1) JPWO2024202789A1 (ja)
CN (1) CN120957648A (ja)
WO (1) WO2024202789A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016098665A1 (ja) * 2014-12-15 2016-06-23 オリンパス株式会社 医療機器システム、医療機器システムの作動方法
WO2019049503A1 (ja) * 2017-09-07 2019-03-14 富士フイルム株式会社 診断支援システム、内視鏡システム、プロセッサ、及び診断支援方法
WO2019220801A1 (ja) * 2018-05-15 2019-11-21 富士フイルム株式会社 内視鏡画像処理装置、内視鏡画像処理方法、及びプログラム
WO2020183770A1 (ja) * 2019-03-08 2020-09-17 富士フイルム株式会社 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理方法、及びプログラム
JP2020171599A (ja) * 2019-04-12 2020-10-22 Hoya株式会社 画像生成装置、コンピュータプログラム及び画像生成方法
WO2023276158A1 (ja) * 2021-07-02 2023-01-05 オリンパスメディカルシステムズ株式会社 内視鏡プロセッサ、内視鏡装置及び診断用画像表示方法
WO2023281607A1 (ja) * 2021-07-05 2023-01-12 オリンパスメディカルシステムズ株式会社 内視鏡プロセッサ、内視鏡装置、および診断用画像生成方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016098665A1 (ja) * 2014-12-15 2016-06-23 オリンパス株式会社 医療機器システム、医療機器システムの作動方法
WO2019049503A1 (ja) * 2017-09-07 2019-03-14 富士フイルム株式会社 診断支援システム、内視鏡システム、プロセッサ、及び診断支援方法
WO2019220801A1 (ja) * 2018-05-15 2019-11-21 富士フイルム株式会社 内視鏡画像処理装置、内視鏡画像処理方法、及びプログラム
WO2020183770A1 (ja) * 2019-03-08 2020-09-17 富士フイルム株式会社 医用画像処理装置、プロセッサ装置、内視鏡システム、医用画像処理方法、及びプログラム
JP2020171599A (ja) * 2019-04-12 2020-10-22 Hoya株式会社 画像生成装置、コンピュータプログラム及び画像生成方法
WO2023276158A1 (ja) * 2021-07-02 2023-01-05 オリンパスメディカルシステムズ株式会社 内視鏡プロセッサ、内視鏡装置及び診断用画像表示方法
WO2023281607A1 (ja) * 2021-07-05 2023-01-12 オリンパスメディカルシステムズ株式会社 内視鏡プロセッサ、内視鏡装置、および診断用画像生成方法

Also Published As

Publication number Publication date
CN120957648A (zh) 2025-11-14
JPWO2024202789A1 (ja) 2024-10-03

Similar Documents

Publication Publication Date Title
EP3930610B1 (en) Ai systems for detecting and sizing lesions
US20250078267A1 (en) Medical support device, endoscope apparatus, medical support method, and program
US20250049291A1 (en) Medical support device, endoscope apparatus, medical support method, and program
US20250086838A1 (en) Medical support device, endoscope apparatus, medical support method, and program
US20250037278A1 (en) Method and system for medical endoscopic imaging analysis and manipulation
WO2024202789A1 (ja) 医療支援装置、内視鏡システム、医療支援方法、及びプログラム
JP2025130538A (ja) 医療支援装置、内視鏡システム、及び医療支援方法
US20250387008A1 (en) Medical support device, endoscope system, medical support method, and program
US20250387009A1 (en) Medical support device, endoscope system, medical support method, and program
US20240335093A1 (en) Medical support device, endoscope system, medical support method, and program
US20250352027A1 (en) Medical support device, endoscope, medical support method, and program
WO2024190272A1 (ja) 医療支援装置、内視鏡システム、医療支援方法、及びプログラム
CN119365136A (zh) 诊断支援装置、超声波内窥镜、诊断支援方法及程序
US20250366701A1 (en) Medical support device, endoscope, medical support method, and program
WO2024185468A1 (ja) 医療支援装置、内視鏡システム、医療支援方法、及びプログラム
WO2024185357A1 (ja) 医療支援装置、内視鏡システム、医療支援方法、及びプログラム
US20250356494A1 (en) Image processing device, endoscope, image processing method, and program
US20250104242A1 (en) Medical support device, endoscope apparatus, medical support system, medical support method, and program
US20250221607A1 (en) Medical support device, endoscope, medical support method, and program
JP2025091360A (ja) 医療支援装置、内視鏡装置、医療支援方法、及びプログラム
US20250111509A1 (en) Image processing apparatus, endoscope, image processing method, and program
JP2025012153A (ja) 医療支援装置、内視鏡、医療支援方法、及びプログラム
US20250185883A1 (en) Medical support device, endoscope apparatus, medical support method, and program
US20250235079A1 (en) Medical support device, endoscope, medical support method, and program
JP2025079621A (ja) 医療支援装置、医療支援システム、医療支援方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 24778932

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2025509987

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2025509987

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE