WO2021199152A1 - 情報処理装置、表示方法、及びプログラムが格納された非一時的なコンピュータ可読媒体 - Google Patents
情報処理装置、表示方法、及びプログラムが格納された非一時的なコンピュータ可読媒体 Download PDFInfo
- Publication number
- WO2021199152A1 WO2021199152A1 PCT/JP2020/014537 JP2020014537W WO2021199152A1 WO 2021199152 A1 WO2021199152 A1 WO 2021199152A1 JP 2020014537 W JP2020014537 W JP 2020014537W WO 2021199152 A1 WO2021199152 A1 WO 2021199152A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- lesion
- detection
- acquisition unit
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00043—Operational features of endoscopes provided with output arrangements
- A61B1/00045—Display arrangement
- A61B1/0005—Display arrangement combining images e.g. side-by-side, superimposed or tiled
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00006—Operational features of endoscopes characterised by electronic signal processing of control signals
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00043—Operational features of endoscopes provided with output arrangements
- A61B1/00055—Operational features of endoscopes provided with output arrangements for alerting the user
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/20—Drawing from basic elements, e.g. lines or circles
- G06T11/206—Drawing of charts or graphs
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
- G06T7/0014—Biomedical image inspection using an image reference approach
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
- G06T7/0014—Biomedical image inspection using an image reference approach
- G06T7/0016—Biomedical image inspection using an image reference approach involving temporal comparison
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/98—Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
- G06V10/987—Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns with the intervention of an operator
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00039—Operational features of endoscopes provided with input arrangements for the user
- A61B1/0004—Operational features of endoscopes provided with input arrangements for the user for electronic operation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Definitions
- the present disclosure relates to an information processing device, a display method, and a non-temporary computer-readable medium in which a program is stored.
- Patent Document 1 discloses an image display device that displays an image taken by a capsule endoscope. In this image display device, when the operation of selecting the "Auto" icon is performed, a process of automatically extracting an image of the bleeding site is performed.
- the present disclosure has been made to solve such a problem, and is an information processing device capable of easily recognizing a discrepancy between the detection result of the detection process for the captured image of the endoscope and the detection result by the user. , Display methods, and programs.
- the information processing device is Of the series of images taken by the endoscope during the examination using the endoscope, the first acquisition unit that acquires the time of taking the lesion image that the user has instructed to save, and the first acquisition unit.
- a second acquisition unit that acquires a time point of photographing a lesion image detected by a detection process on the series of images taken by the endoscope during the examination, and a second acquisition unit.
- a display in which the first shooting time point, which is the shooting time point acquired by the first acquisition unit, and the second shooting time point, which is the shooting time point acquired by the second acquisition unit, are plotted on the time axis is displayed. It has a display control unit for the device.
- the time point of taking the lesion image instructed to be saved by the user is acquired.
- the time point at which the lesion image detected by the detection process on the series of images taken by the endoscope during the examination is taken is acquired.
- a display in which the first imaging time point, which is the time point of capturing the lesion image instructed to be saved by the user, and the second imaging time point, which is the time point of capturing the lesion image detected by the detection process, are plotted on the time axis. Perform on the display device.
- the program according to the third aspect of the present disclosure is Of the series of images taken by the endoscope during the examination using the endoscope, the first acquisition step of acquiring the time of taking the lesion image that the user has instructed to save, and A second acquisition step of acquiring a time point of photographing a lesion image detected by a detection process on the series of images taken by the endoscope during the examination, and a second acquisition step.
- an information processing device capable of easily recognizing a discrepancy between a detection result by a detection process for an image captured by an endoscope and a detection result by a user.
- FIG. It is a block diagram which shows an example of the structure of the information processing apparatus which concerns on Embodiment 1.
- FIG. It is a block diagram which shows the structure of the inspection support system which concerns on Embodiment 2.
- FIG. It is a schematic diagram which shows an example of the display screen generated by a processor apparatus.
- It is a block diagram which shows an example of the functional structure of the information processing apparatus which concerns on Embodiment 2.
- FIG. It is a schematic diagram which shows the display example based on the control of an input / output control part.
- a display example when the scale of the time axis shown in FIG. 5 is enlarged is shown.
- a display example when the scale of the time axis shown in FIG. 6 is enlarged is shown.
- FIG. It is a schematic diagram which shows an example of the hardware configuration of the information processing apparatus which concerns on Embodiment 1.
- FIG. It is a flowchart which shows an example of the operation of the information processing apparatus which concerns on Embodiment 1.
- FIG. It is a block diagram which shows an example of the functional structure of the information processing apparatus which concerns on Embodiment 3.
- FIG. It is a flowchart which shows an example of the operation of the information processing apparatus which concerns on Embodiment 3.
- FIG. It is a block diagram which shows an example of the functional structure of the information processing apparatus which concerns on Embodiment 4.
- FIG. It is a schematic diagram which shows the display example when a failure detection part detects a failure.
- FIG. It is a block diagram which shows an example of the functional structure of the information processing apparatus which concerns on Embodiment 5. It is a schematic diagram which shows the display example of the screen which is displayed for generating feedback data. It is a schematic diagram which shows the display example of the screen which is displayed for generating feedback data. It is a flowchart which shows an example of the operation of the information processing apparatus which concerns on Embodiment 5.
- FIG. 1 is a block diagram showing an example of the configuration of the information processing apparatus 1 according to the first embodiment.
- the information processing device 1 is a device that supports an examination by a user (for example, a doctor) using an endoscope, and performs display processing related to detection of a lesion.
- the information processing apparatus 1 includes a first acquisition unit 2, a second acquisition unit 3, and a display control unit 4.
- the first acquisition unit 2 acquires the time when the lesion image that the user has instructed to save is taken from the series of images taken by the endoscope during the examination using the endoscope.
- the shooting time may be an absolute time such as the system time at the time of shooting, or may be a relative time with respect to the shooting start time.
- the first acquisition unit 2 may acquire the above-mentioned shooting time point based on the log data of the endoscope system, or may analyze the moving image output from the endoscope system to describe the above. You may specify the shooting time point and acquire this shooting time point.
- the lesion image is an image including the lesion site, that is, an image in which the lesion site is detected.
- the lesion refers to an abnormality in a living tissue caused by a disease or the like, and includes, but is not limited to, for example, a polyp or a tumor.
- the user instructs the endoscopic system to save an image showing the lesion site seen by the user during the endoscopic examination. Therefore, the lesion image instructed to be saved by the user can be regarded as a lesion image showing the lesion site visually recognized by the user.
- the second acquisition unit 3 acquires the acquisition time point of the lesion image detected by the detection process for a series of images taken by the endoscope during the examination.
- This detection process is a process of performing an arbitrary image recognition process to detect the lesion site captured in the image. Therefore, the second acquisition unit 3 acquires the acquisition time of the image (lesion image) in which the lesion site is detected by the detection process, in other words, the acquisition time of the lesion image in which the lesion site detected by the detection process is copied. do.
- the display control unit 4 controls the display of information on the display device. Specifically, the display control unit 4 has a first shooting time point, which is the shooting time acquired by the first acquisition unit 2, and a second shooting time point, which is the shooting time point acquired by the second acquisition unit 3. Is plotted on the time axis and displayed on the display device.
- the detection process is the time when the lesion image that the user has instructed to save during the examination using the endoscope is taken, that is, the time when the lesion image is taken for the lesion detected by the user, and the detection process.
- the time when the lesion image of the detected lesion is taken is plotted on the time axis. Therefore, it is possible to compare the shooting time points of both on the time axis. That is, according to the present embodiment, it is possible to show the detection by the user and the detection by the detection process in comparison with each other at what time during the examination the lesion to be imaged is detected. Therefore, it is possible to easily recognize the discrepancy between the detection result of the detection process for the image captured by the endoscope and the detection result by the user.
- the information processing device 1 includes a processor and a memory as a configuration (not shown).
- the processor reads a computer program in which the above-mentioned processing of the information processing apparatus 1 is implemented from the memory, and executes the computer program. As a result, the processor realizes the functions of the first acquisition unit 2, the second acquisition unit 3, and the display control unit 4.
- the first acquisition unit 2, the second acquisition unit 3, and the display control unit 4 may each be realized by dedicated hardware.
- a part or all of each component of each device may be realized by a general-purpose or dedicated circuitry, a processor, or a combination thereof. These may be composed of a single chip or may be composed of a plurality of chips connected via a bus.
- a part or all of each component of each device may be realized by a combination of the above-mentioned circuit or the like and a program.
- a processor a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), or the like can be used as a processor.
- each component of the information processing device 1 when a part or all of each component of the information processing device 1 is realized by a plurality of information processing devices and circuits, the plurality of information processing devices and circuits may be centrally arranged. It may be distributed.
- the information processing device, the circuit, and the like may be realized as a form in which each of the client-server system, the cloud computing system, and the like is connected via a communication network.
- the function of the information processing device 1 may be provided in the SaaS (Software as a Service) format.
- FIG. 2 is a block diagram showing a configuration of the inspection support system 10 according to the second embodiment.
- the inspection support system 10 includes an endoscope system 100, an information processing device 200, and a display device 300.
- the endoscopic system 100 is used to inspect the lumen in the living body of the subject to be inspected. For example, it is used to examine the large intestine, but it may also be used to examine other gastrointestinal tracts and the like.
- the endoscope system 100 includes an endoscope 110, a light source device 120, a processor device 130, and a display device 140.
- the endoscope 110 is optically connected to the light source device 120 and further electrically connected to the processor device 130.
- the endoscope 110 has an insertion unit 111 to be inserted into the body of a person to be inspected, and an operation unit 112 for operating the direction of the tip of the insertion unit 111.
- the endoscope 110 is provided with an imaging unit 113 for photographing the inside of the body.
- the image pickup unit 113 includes, for example, various lenses, an image pickup sensor, a signal processing circuit, and the like.
- As the image pickup sensor for example, a sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor) is used.
- the various lenses and the image sensor are arranged at the tip of the insertion unit 111, for example, and the other signal processing circuits are arranged at the operation unit 112, for example.
- the imaging unit 113 outputs an image signal of the captured image to the processor device 130 under the control of the processor device 130.
- the insertion portion 111 Inside the insertion portion 111, a light guide that propagates the illumination light from the light source device 120 to the tip of the insertion portion 111 is provided, and the inside of the body can be illuminated by the illumination light. Further, the insertion portion 111 is provided with a treatment tool insertion passage for guiding a treatment tool such as an electronic knife from the operation portion 112 to the tip of the insertion portion 111. Therefore, the user (doctor) can excise the lesion site or the like with the treatment tool while looking at the image taken by the endoscope 110. Further, the insertion portion 111 is provided with a nozzle for injecting air, water, or the like from the tip of the insertion portion 111.
- a treatment tool insertion passage for guiding a treatment tool such as an electronic knife from the operation portion 112 to the tip of the insertion portion 111. Therefore, the user (doctor) can excise the lesion site or the like with the treatment tool while looking at the image taken by the endoscope 110. Further
- the light source device 120 is a device that supplies illumination light to the above-mentioned light guide provided in the endoscope 110 under the control of the processor device 130.
- the illumination light output from the light source device 120 passes through the light guide and is emitted from the tip of the endoscope 110. As a result, the observation site in the body is irradiated.
- the processor device 130 is electrically connected to the endoscope 110, the light source device 120, the display device 140, and the information processing device 200. Further, the processor device 130 is connected to an input device that receives an input of an instruction from the user. In particular, in the present embodiment, this input device receives an input instructing the storage of an image taken by the endoscope 110 during an examination using the endoscope 110.
- Such an input device may be provided as a function of the operation unit 112, or when the display device 140 is composed of a touch panel, the touch panel may function as such an input device.
- An input device provided independently of the above-described configuration, such as a keyboard or a mouse, may be used.
- the processor device 130 comprehensively controls the operation of the endoscope system 100.
- the processor device 130 performs predetermined image processing on the image signal received from the endoscope 110 to generate a captured image to be displayed on the display device 140.
- the processor device 130 arranges the photographed image in the photographed image area 50, and arranges characters or images of various reference information such as information of the inspection target person in the non-photographed image area 51.
- Image 52 is generated.
- the display image 52 is an image displayed on the entire screen of the display device 140.
- the processor device 130 controls the display image 52 to be displayed on the display device 140.
- the processor device 130 outputs the display image 52 to the information processing device 200.
- the processor device 130 may output the captured image to the information processing device 200.
- the processor device 130 outputs the display image 52 or the captured image to the information processing device 200, so that the current captured image by the endoscope 110 is sequentially output to the information processing device 200.
- the processor device 130 outputs to the information processing device 200 in real time a moving image taken by the endoscope 110, that is, a series of images taken continuously in time of the lumen in the living body.
- the processor device 130 outputs an image to the information processing device 200 in real time in order to detect the lesion site in real time during the examination in the information processing device 200 described later, but the image is not necessarily output in real time. It is not necessary to output.
- the processor device 130 does not have to output the captured image in real time.
- the photographed image taken during the inspection may be output to the information processing apparatus 200 at any time after the inspection is completed and the series of photographing is completed.
- the processor device 130 functions as an image output device that outputs an image captured by the endoscope 110.
- the processor device 130 when the processor device 130 receives an input instructing the storage of the captured image during the imaging of the endoscope 110, the processor device 130 stores the image data of the captured image at the timing of receiving the input in a storage device such as a memory. For example, the user sets a captured image showing the lesion site as a storage target. Therefore, when the user inputs an instruction to save the lesion image during the imaging of the endoscope 110, the processor device 130 saves the image data of the captured image at the timing when the input is accepted. That is, the processor device 130 saves the lesion image that the user has instructed to save out of the series of images taken by the endoscope 110 during the examination using the endoscope 110.
- the processor device 130 when the user instructs to save the lesion image during the examination using the endoscope 110, the processor device 130 is predetermined from the time of the instruction until a certain time elapses. Outputs an image with the characteristics of. Specifically, for example, the processor device 130 outputs a captured image to be saved from the point of instruction until a certain time elapses. That is, during this period, the processor device 130 continuously outputs the same image. In other words, the processor device 130 outputs an image having the feature of being the same as the previous image during this period. As a result, the frozen image is output to the display device 140 and the information processing device 200 as an image of a series of images during this period. By such processing, an image having a predetermined feature is displayed on the display device 140 from the time of the instruction until a certain time elapses. Therefore, the user can grasp that the captured image has been saved by the processor device 130 in response to his / her instruction.
- the predetermined feature is not limited to the above, but may be another feature.
- the display image 52 in which not only the captured image but also the thumbnail image of the image to be saved is arranged is output to the display device 140 and the information processing device 200. May be good.
- the processor device 130 outputs an image having a feature that the thumbnail image is arranged in a predetermined area during this period.
- the processor device 130 includes, for example, a memory and a processor such as a CPU and a GPU, and the processor reads software (computer program) including one or more instructions from the memory and executes it to realize the processing of the processor device 130. do.
- software computer program
- the display device 140 displays the display image 52 generated by the processor device 130.
- the display device 140 is a platform panel display such as a liquid crystal display, a plasma display, or an organic EL (Electro-Luminescence) display.
- the display device 300 is a device that is electrically connected to the information processing device 200 and displays an image under the control of the information processing device 200.
- the display device 300 is a platform panel display such as a liquid crystal display, a plasma display, or an organic EL display.
- the display device 300 is configured as a touch panel and also functions as an input device that receives input from the user.
- the information processing device 200 corresponds to the information processing device 1 of FIG. 1 and is a device that supports the inspection of a user (for example, a doctor). The details of the information processing apparatus 200 will be described below.
- FIG. 4 is a block diagram showing an example of the functional configuration of the information processing device 200.
- the information processing apparatus 200 includes an output image acquisition unit 210, a lesion detection unit 220, an operation log acquisition unit 230, a detection log acquisition unit 240, an image selection unit 250, and an input / output control unit. Has 260 and.
- the output image acquisition unit 210 acquires an image group (each frame image (still image) constituting the captured moving image) output by the processor device 130. That is, the output image acquisition unit 210 acquires a series of images taken by the endoscope 110 during the examination using the endoscope 110. More specifically, the output image acquisition unit 210 acquires a series of images of the lumen in the living body taken continuously in time from the processor device 130. In the present embodiment, the output image acquisition unit 210 sequentially acquires the images currently captured by the endoscope 110 in real time, but does not necessarily have to acquire them in real time.
- the output image acquisition unit 210 is arranged from the display image 52 to the photographed image area 50 in order to obtain a photographed image used for processing the lesion detection unit 220. Performs the process of cutting out the captured image.
- the lesion detection unit 220 sequentially performs a lesion site detection process on the image acquired by the output image acquisition unit 210. That is, the lesion site is sequentially detected for each frame image constituting the captured moving image.
- the lesion detection unit 220 performs the lesion site detection process in real time. For example, it is preferable that the lesion detection unit 220 performs the detection process at a processing speed faster than the frame rate of the captured moving image.
- the lesion detection unit 220 performs a known image recognition process to detect the lesion site from the image. In this detection process, the position of the lesion site in the image is also detected.
- the lesion detection unit 220 performs a lesion site detection process by inputting an image acquired by the output image acquisition unit 210 into a model learned in advance by a machine learning algorithm.
- This model is, for example, a model learned by deep learning such as CNN (Convolution Neural Network), but may be a model learned by using another machine learning algorithm.
- the lesion detection unit 220 displays the image based on whether or not the index value (accuracy) indicating the probability that the lesion site is captured in the image, which is output from the above-mentioned model, exceeds a predetermined threshold value. Determine if the lesion site is visible.
- the lesion detection unit 220 detects the lesion site, the lesion image, the position information in the image of the detected lesion site in the image, the above-mentioned index value, and the time when the lesion image is taken are stored in a storage device such as a memory 291 described later.
- Information (hereinafter referred to as shooting time information) representing the above is stored as a log.
- the shooting time point information may be any information that can identify the time point when the shooting was performed.
- the shooting time information is the system time at the time when shooting is performed.
- the captured image is acquired by the output image acquisition unit 210 in real time, and the lesion detection process is performed in real time.
- the lesion detection unit 220 may use the time when the information processing apparatus 200 acquires the image as the image acquisition time point information, or the lesion detection unit 220 may use the time when the lesion detection process is performed as the image acquisition time point information. May be. Further, the shooting time information may be attached to the image data by the processor device 130 as incidental information. As described above, the shooting time information may be any information that can specify the time when the shooting was performed, so that the frame number of the moving image may be used instead of the system time.
- the operation log acquisition unit 230 corresponds to the first acquisition unit 2 in FIG.
- the operation log acquisition unit 230 acquires the time when the lesion image that the user has instructed to save is taken from the series of images taken by the endoscope 110 during the examination using the endoscope 110.
- the operation log acquisition unit 230 acquires a lesion image that the user has instructed to save.
- the acquired imaging time and lesion image may be referred to as a log.
- the operation log acquisition unit 230 acquires the time of shooting the lesion image instructed to be saved by the user and the lesion image by analyzing a series of frame images (that is, moving images) output by the processor device 130. do. Specifically, the operation log acquisition unit 230 determines whether or not the shooting time of the captured image is the time when the storage instruction is generated, based on the presence or absence of a predetermined feature in the acquired captured image. When the acquired captured image has a predetermined feature, the operation log acquisition unit 230 determines that the save instruction has been input at the time of capturing the captured image.
- a series of frame images that is, moving images
- the operation log acquisition unit 230 acquires the captured image as a lesion image instructed to be saved by the user, and acquires the capture time of the captured image as the imaging time of the lesion image instructed to be saved by the user.
- the operation log acquisition unit 230 may acquire a time point around a predetermined time from the time point of taking the photographed image as the time point of capturing the lesion image instructed to be saved by the user. In this way, the operation log acquisition unit 230 determines the time point at which the storage instruction is generated based on the presence or absence of a predetermined feature in the image acquired by the output image acquisition unit 210, so that the lesion image instructed by the user to be stored. The time of imaging and the image of the lesion are acquired.
- the operation log acquisition unit 230 determines the time when the storage instruction is generated based on whether or not the image to be determined is the same as the image one frame before this image. Acquires the time when the lesion image instructed to be saved by the user is taken and the lesion image.
- the operation log acquisition unit 230 has the presence or absence of the other feature. Should be determined. For example, the operation log acquisition unit 230 may determine whether or not a thumbnail image is arranged in the image acquired by the output image acquisition unit 210.
- the lesion image instructed to be saved by the user and the information indicating the imaging time of the lesion image are obtained without acquiring the log data from the processor device 130. Is obtained.
- the lesion image acquired by the operation log acquisition unit 230 is an image presumed to be a lesion image instructed to be saved by the user. That is, the operation log acquisition unit 230 searches for an image presumed to be a lesion image that the user has instructed to save from the image group acquired by the output image acquisition unit 210, and acquires the image.
- the imaging time point information acquired by the operation log acquisition unit 230 may be, for example, the system time at the time when the imaging is performed, similar to the imaging time point information stored by the lesion detection unit 220.
- the operation log acquisition unit 230 may use the time when the output image acquisition unit 210 acquires the image in real time as the imaging time information of the image, or the time when the lesion detection unit 220 performs the lesion detection process in real time. It may be information at the time of shooting the image.
- the shooting time point information acquired by the operation log acquisition unit 230 may be incidental to the image data as incidental information by the processor device 130. Further, as the shooting time information, the frame number of the moving image may be used instead of the system time.
- the log data may be acquired from the processor device 130. That is, the operation log acquisition unit 230 may acquire the time point of photographing the lesion image instructed to be saved by the user and the lesion image, which is output as log data by the processor device 130. In this case, in the operation log acquisition unit 230, the determination process at the time of occurrence of the storage instruction based on the presence or absence of the predetermined feature described above can be omitted.
- the detection log acquisition unit 240 corresponds to the second acquisition unit 3 in FIG.
- the detection log acquisition unit 240 acquires the acquisition time point of the lesion image detected by the detection process on the series of images taken by the endoscope 110 during the examination using the endoscope 110.
- the detection log acquisition unit 240 acquires the lesion image detected by the detection process.
- the detection log acquisition unit 240 acquires the lesion image stored in the storage device as log data by the lesion detection unit 220 and the imaging time information of the lesion image from the storage device.
- the image selection unit 250 identifies a plurality of lesion images in which the same lesion site is detected in the detection process of the lesion detection unit 220, and one image (hereinafter, a representative image) from the identified plurality of lesion images. Select).
- the image selection unit 250 identifies a plurality of lesion images in which the same lesion site is detected from the lesion image group acquired by the detection log acquisition unit 240, and selects a representative image from them. ..
- the image selection unit 250 identifies a plurality of lesion images in which the same lesion site is detected by comparing the lesion images with each other.
- the image selection unit 250 uses the feature points of the lesion site with respect to the continuous captured image (frame image) constituting the captured moving image among the lesion images acquired by the detection log acquisition unit 240. Performs the tracking process of the existing object. As a result, the image selection unit 250 identifies a plurality of lesion images in which the same lesion site is detected. By such a process, a plurality of images showing the same lesion site, which are obtained when the same lesion site is continuously photographed in a timely manner, are specified. Then, the image selection unit 250 selects a representative image from a plurality of lesion images in which the same lesion site is detected.
- the image selection unit 250 selects, for example, a lesion image having the highest detection accuracy in the detection process from among these plurality of lesion images.
- an image in which the lesion site can be easily seen may be selected from among these images.
- the image selection unit 250 may select an image in which the position of the lesion site is closest to the center in the image as an image in which the lesion site is easy to see, or an image in which the contrast between the lesion site and the non-lesion site is maximum. May be selected.
- the image selection unit 250 may specify a plurality of lesion images in which the same lesion site is detected by performing a process of calculating the similarity of images instead of the object tracking process.
- the image selection unit 250 may select a plurality of images as representative images.
- the image selection unit 250 may select two or more images having different imaging conditions from a plurality of lesion images in which the same lesion site is detected.
- the image selection unit 250 may select two or more images having different shooting angles, or two or more images having different shooting distances. As a result, various images will be displayed as representative images.
- the input / output control unit 260 controls the input / output of information in the information processing device 200.
- the information processing device 200 is connected to an input device that receives an input of an instruction from a user, and the input / output control unit 260 performs an input receiving process from the input device.
- this input device receives an input from a user who sees the display of the display device 300.
- the display device 300 is configured as a touch panel, and the display device 300 also functions as an input device.
- the input / output control unit 260 controls the display of the display device 300.
- the input / output control unit 260 corresponds to the display control unit 4 of FIG. Therefore, in particular, the input / output control unit 260 displays on the display device 300 a time axis plotting the shooting time acquired by the operation log acquisition unit 230 and the shooting time acquired by the detection log acquisition unit 240. That is, the input / output control unit 260 plots the time point of capturing the lesion image saved by the user's instruction and the time point of capturing the lesion image in which the lesion is detected by the lesion detection unit 220 on the time axis. Control to do. Further, in the present embodiment, the input / output control unit 260 further displays the lesion image in association with the time of imaging.
- the input / output control unit 260 displays the lesion image in association with the time when the lesion image saved according to the instruction from the user is taken. Similarly, the input / output control unit 260 displays the lesion image in association with the time when the lesion image in which the lesion is detected by the lesion detection unit 220 is captured. More specifically, as shown in FIG. 5 and the like described later, the input / output control unit 260 displays a thumbnail image of the lesion image.
- FIG. 5 is a schematic diagram showing a display example of the display device 300 based on the control of the input / output control unit 260.
- the display control of the input / output control unit 260 of the present embodiment will be described with reference to FIG.
- the input / output control unit 260 displays a list of inspections capable of displaying logs in the log list area 60 on the screen of the display device 300. In the example shown in FIG. 5, three tests performed on July 19, 2019 are listed. In the example shown in FIG. 5, the time during which the inspection was performed is displayed as each item in the list. That is, the start time and end time of the inspection are displayed. For example, the input / output control unit 260 sets the shooting time of the first image of the series of images acquired by the output image acquisition unit 210 as the inspection start time, and sets the shooting time of the last image of the series of images as the inspection end time. Is specified, and the display as shown in FIG. 5 is performed.
- the input / output control unit 260 When the input / output control unit 260 receives an input from the user to select any item from the list displayed in the log list area 60, the input / output control unit 260 displays the operation log acquisition unit in the log display area 61 on the screen of the display device 300. The information acquired by 230 and the detection log acquisition unit 240 is displayed. In the example shown in FIG. 5, the log for the inspection whose inspection time is from 14:00 to 14:33 is displayed.
- the input / output control unit 260 has a time axis 62, a mark 63 indicating the shooting time acquired by the operation log acquisition unit 230 on the time axis 62, and a shooting time acquired by the detection log acquisition unit 240 in the log display area 61. Is displayed with the mark 64 clearly indicated on the time axis 62. Further, the input / output control unit 260 displays a lesion image corresponding to the imaging time acquired by the operation log acquisition unit 230 and a lesion image corresponding to the imaging time acquired by the detection log acquisition unit 240. In more detail, a thumbnail image of the lesion image is displayed. In the example shown in FIG.
- lesion images 65a and 65b are displayed as lesion images corresponding to the imaging time acquired by the operation log acquisition unit 230, and the lesion images corresponding to the imaging time acquired by the detection log acquisition unit 240.
- the lesion images 66a, 66b, and 66c are displayed as.
- the marks 63 and 64 are arrows as an example.
- the information acquired by the operation log acquisition unit 230 is displayed on the upper side of the time axis 62. That is, the lesion image saved by the user is displayed on the upper side of the time axis 62.
- the input / output control unit 260 displays the lesion image acquired by the operation log acquisition unit 230 as the lesion image detected by the user (for example, a doctor).
- the information acquired by the detection log acquisition unit 240 is displayed on the lower side of the time axis 62. That is, on the lower side of the time axis 62, the lesions automatically detected by the lesion detection unit 220 by the detection process are displayed.
- the example shown in FIG. 5 is only an example, and it goes without saying that the display content on the upper side and the display content on the lower side of the time axis 62 may be reversed. Further, in the example shown in FIG. 5, the time axis 62 extends in the horizontal direction of the screen, but of course, the time axis 62 may extend in another direction.
- the input / output control unit 260 displays the scale on the time axis 62, but the display of the scale on the time axis 62 may be omitted.
- the inspection start time is displayed as the scale at the start end of the time axis 62
- the inspection end time is displayed as the scale at the end of the time axis 62, but the scale is not necessarily inspected. It does not have to be associated with the time.
- the value of the scale at the beginning of the time axis 62 may be 0, and the value of the scale at the end of the time axis 62 may be a value corresponding to the time length of the captured image.
- the input / output control unit 260 may display the position of the lesion site detected by the lesion detection unit 220 in the image. In the example shown in FIG. 5, specifically, the input / output control unit 260 displays a frame 67 surrounding the lesion site.
- the input / output control unit 260 displays the scale of the time axis 62 in an enlarged or reduced manner based on an instruction input from the user.
- the input / output control unit 260 may change the scale of the time axis 62 when, for example, an operation of touching (tapping) or clicking the time axis 62 is performed as such an instruction. By doing so, it is possible to improve the convenience in viewing the log.
- FIG. 6 shows a display example when the scale of the time axis 62 shown in FIG. 5 is enlarged.
- the scale of the time axis 62 is enlarged as compared with the example shown in FIG. 5, and the log of the time zone from 14:15 to 14:18 is displayed.
- FIG. 7 shows a display example when the scale of the time axis 62 shown in FIG. 6 is enlarged.
- the scale of the time axis 62 is enlarged as compared with the example shown in FIG. 6, and the log of the time zone from 14:16:20 to 14:16:50 is displayed. ing.
- the input / output control unit 260 may change the log actually displayed among the logs of the time zone to be displayed according to the scale of the time axis 62. As shown in FIG. 5, in the display in which the scale is reduced, all the logs belonging to the time zone to be displayed (specifically, from 14:00 to 14:33 in FIG. 5) are displayed. May be complicated. Therefore, for example, when the input / output control unit 260 is displayed using the time axis 62 of a scale smaller than a predetermined scale, the input / output control unit 260 displays only a part of the logs of the time zone to be displayed. You may do so.
- the input / output control unit 260 may display only a part of the shooting time points and the shot images corresponding to the shooting time points. In this case, as for the shooting time point, all the shooting time points in the time zone to be displayed may be displayed, and the display may be limited to a part of the shot image only for the shot image.
- the input / output control unit 260 may select it according to an arbitrary selection criterion. For example, the input / output control unit 260 may be selected based on the magnitude of the detection accuracy in the detection process.
- lesion images 66a, 66d, and 66b are displayed as a log of the detection process of the lesion detection unit 220 between 14:15 and 14:18.
- lesion images 66a, 66d, and 66b are displayed as the log of the detection process of the lesion detection unit 220.
- lesion images 66d, 66b, 66e are displayed as a log of the detection process of the lesion detection unit 220 between 14:16:20 and 14:16:50.
- the lesion images 66d and 66b are displayed as the log of the detection process of the lesion detection unit 220.
- the input / output control unit 260 may display only the lesion image selected as the representative image by the image selection unit 250 described above among the plurality of lesion images in which the same lesion site is detected. That is, among the plurality of lesion images in which the same lesion site is detected, the display of the lesion image that is not selected as the representative image may be omitted.
- the input / output control unit 260 displays the imaging time of the lesion image selected as the representative image, and among the plurality of lesion images in which the same lesion site is detected, the lesion image not selected as the representative image. The display at the time of shooting may be omitted. By doing so, the display of overlapping lesions is omitted, and the visibility is improved.
- the input / output control unit 260 represents a plurality of lesion images in which the same lesion site is detected. Only the lesion image selected as the image is displayed. A specific example of this will be described with reference to the figure. In the example shown in FIG. 7, the lesion image 66b and the lesion image 66e in which the same lesion site is photographed are displayed, whereas in the example shown in FIG. 6, the lesion which is a representative image among the photographed images is displayed. Only image 66b is displayed.
- FIG. 8 is a schematic diagram showing an example of the hardware configuration of the information processing apparatus 200.
- the information processing apparatus 200 includes an input / output interface 290, a memory 291 and a processor 292.
- the input / output interface 290 is an input / output circuit for communicating with any other device such as the processor device 130 and the display device 300.
- the memory 291 is composed of, for example, a combination of a volatile memory and a non-volatile memory.
- the memory 291 is used to store software (computer program) including one or more instructions executed by the processor 292, data used for various processes of the information processing apparatus 200, and the like.
- the processor 292 reads software (computer program) from the memory 291 and executes it to process each component shown in FIG. Specifically, the processor 292 processes the output image acquisition unit 210, the lesion detection unit 220, the operation log acquisition unit 230, the detection log acquisition unit 240, the image selection unit 250, and the input / output control unit 260.
- the processor 292 may be, for example, a CPU, a GPU, or the like. Processor 292 may include a plurality of processors. As described above, the information processing apparatus 200 has a function as a computer.
- Non-transitory computer-readable media include various types of tangible storage media (tangible storage media).
- Examples of non-temporary computer-readable media include magnetic recording media (eg, flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (eg, magneto-optical disks), CD-ROMs (Read Only Memory) CD-Rs, CDs. -R / W, including semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (Random Access Memory)).
- the program may also be supplied to the computer by various types of temporary computer-readable media.
- Examples of temporary computer-readable media include electrical, optical, and electromagnetic waves.
- the temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.
- FIG. 9 is a flowchart showing an example of the operation of the information processing device 200.
- an operation example will be described with reference to the flowchart of FIG.
- step S100 the output image acquisition unit 210 acquires each frame image constituting the captured moving image output by the processor device 130. After step S100, the process proceeds to step S110 and step S120.
- the processes from step S110 to step S112 and the processes from step S120 to step S121 are performed in parallel, for example, but may be performed in order.
- step S110 the lesion detection unit 220 sequentially performs a lesion site detection process on the image acquired in step S110.
- the lesion detection unit 220 detects the lesion site, it stores a log.
- step S111 the detection log acquisition unit 240 acquires the lesion image stored as a log and the imaging time information of the lesion image.
- step S112 the image selection unit 250 identifies a plurality of lesion images in which the same lesion site is detected with respect to the lesion image acquired in step S111, and among the identified plurality of lesion images. Select a representative image from. If the input / output control unit 260 does not display a collection of a plurality of lesion images in which the same lesion site is detected, this step may be omitted.
- step S120 the operation log acquisition unit 230 identifies the timing at which the user has instructed to save by analyzing the image acquired in step S100. That is, the operation log acquisition unit 230 specifies the occurrence timing of the storage operation of the still image (lesion image). Then, in step S121, the operation log acquisition unit 230 acquires a log of the operation of the save instruction performed during the inspection. Specifically, the operation log acquisition unit 230 acquires the time of photographing the lesion image instructed by the user to save and the lesion image based on the timing specified in step S120.
- step S130 the input / output control unit 260 displays the log on the display device 300.
- the second embodiment has been described above.
- the endoscope 110 is first inserted up to the starting end side of the large intestine (the end side connected to the small intestine). After that, a substantive inspection is started. That is, observation by the endoscope 110 is performed in order from the start side of the large intestine to the end side of the large intestine (the end side connected to the anus). In this way, the actual examination is started after the position of the endoscope 110 reaches the start position of the examination.
- the lesion detection unit 220 can also detect the lesion image from the image taken until the position of the endoscope 110 reaches the start position of the examination.
- the lesion detection unit 220 can also detect the lesion image from the image taken until the position of the endoscope 110 reaches the start position of the examination.
- the actual examination of the user is performed after the position of the endoscope 110 reaches the start position of the examination, until the position of the endoscope 110 reaches the start position of the examination.
- the advantage of displaying the log of the above on the display device 300 is scarce.
- the information processing device 201 is used instead of the information processing device 200.
- FIG. 10 is a block diagram showing an example of the functional configuration of the information processing apparatus 201 according to the third embodiment.
- the information processing device 201 is different from the information processing device 200 according to the second embodiment in that it further includes a predetermined part image specifying unit 265.
- the process of the predetermined part image specifying unit 265 is realized, for example, by the processor 292 reading the software (computer program) from the memory 291 and executing it.
- the predetermined site image specifying unit 265 identifies an image in which a predetermined site of the lumen in the living body is captured from a series of images taken by the endoscope 110 during the examination using the endoscope 110. ..
- this predetermined site may be a site existing on the distal end side of the large intestine.
- the predetermined site may be an ileocecal valve or an entrance portion of the appendix. It should be noted that these are only examples, and the predetermined portion may be a portion near the start position of the inspection.
- the predetermined part image specifying unit 265 performs a known image recognition process on the image taken by the endoscope 110 to specify the image in which the predetermined part is taken. For example, the predetermined part image specifying unit 265 determines whether or not the image is an image in which the predetermined part is photographed by inputting an image to the model learned in advance by the machine learning algorithm.
- This model is, for example, a model learned by deep learning such as CNN, but may be a model learned by using another machine learning algorithm.
- the input / output control unit 260 of the present embodiment targets the log after the time of shooting of the image in which the predetermined part is shot as the display target. That is, the input / output control unit 260 plots the shooting time after the shooting time of the image in which the predetermined portion is shot on the time axis 62. Similarly, the input / output control unit 260 displays the lesion image taken after the time of taking the image in which the predetermined part was taken. That is, the input / output control unit 260 excludes the log up to the time of taking the image in which the predetermined part is taken (that is, the time of taking the lesion image and the lesion image) from the display target.
- the lesion detection unit 220 is the endoscope 110. Lesion images can be detected regardless of whether the position has reached the starting position of the examination. Therefore, it is preferable that the input / output control unit 260 restricts the display of the detection processing log of the lesion detection unit 220 as described above.
- FIG. 11 is a flowchart showing an example of the operation of the information processing device 201.
- the flowchart shown in FIG. 11 is different from the flowchart shown in FIG. 9 in that steps S140 and S141 are added.
- steps S140 and S141 are added.
- points different from the flowchart shown in FIG. 9 will be described.
- the information processing device 201 further performs the processes of steps S140 and S141 after the process of step S100.
- the processing from step S110 to step S112, the processing from step S120 to step S121, and the processing from step S140 to step S141 are performed in parallel, for example, but may be performed in order.
- step S140 the predetermined site image specifying unit 265 identifies an image in which the predetermined site is captured from a series of images captured by the endoscope 110 during the examination using the endoscope 110.
- step S141 the input / output control unit 260 identifies the actual start time of the inspection based on the processing result in step S140. That is, the input / output control unit 260 sets the shooting time of the image in which the predetermined portion is taken as the actual start time of the inspection.
- step S130 the input / output control unit 260 makes the log after the time point specified in step S141 a display target.
- the information processing apparatus 201 sets the log display target after the time when the predetermined portion is photographed. Therefore, only the log after the position of the endoscope 110 reaches the actual start position of the examination can be displayed. That is, it is possible to prevent the display of the log before the start of the actual inspection. Therefore, the visibility of the actual inspection log display can be improved.
- the information processing device 202 is used instead of the information processing device 200.
- FIG. 12 is a block diagram showing an example of the functional configuration of the information processing apparatus 202 according to the fourth embodiment.
- the information processing device 202 is different from the information processing device 200 according to the second embodiment in that it further includes a failure detection unit 270.
- the process of the failure detection unit 270 is realized, for example, by the processor 292 reading the software (computer program) from the memory 291 and executing it.
- the failure detection unit 270 detects the failure of detection of the lesion site in the user or the detection process. That is, the failure detection unit 270 detects the failure of the user to detect the lesion site during the examination using the endoscope 110, or the failure of the lesion detection unit 220 to detect the lesion site.
- the detection failure includes a failure due to omission of detection of the lesion site and a failure due to erroneous detection of a normal site as a lesion site (that is, a failure due to erroneous detection).
- the failure detection unit 270 detects a failure by checking the correspondence between the log acquired by the operation log acquisition unit 230 and the log acquired by the detection log acquisition unit 240. The failure detected by the failure detection unit 270 may not actually be a failure. Therefore, it can be said that the failure detection unit 270 has detected the failure candidate.
- the failure detection unit 270 of the present embodiment fails to detect the lesion site in the user or the detection process by comparing the lesion image acquired by the operation log acquisition unit 230 with the lesion image acquired by the detection log acquisition unit 240. Is detected. Specifically, in the failure detection unit 270, whether or not the detection log acquisition unit 240 has acquired a lesion image in which the same lesion site as the lesion image captured in the lesion image acquired by the operation log acquisition unit 230 is captured. Is determined. Similarly, the failure detection unit 270 determines whether or not the operation log acquisition unit 230 has acquired a lesion image showing the same lesion site as the lesion image captured by the detection log acquisition unit 240. judge.
- the failure detection unit 270 calculates, for example, the similarity between the lesion image acquired by the operation log acquisition unit 230 and the lesion image acquired by the detection log acquisition unit 240, so that the lesion site shown in one of the lesion images can be determined. It is determined whether or not it is reflected in the other lesion image.
- the failure detection unit 270 does not acquire the lesion image of the same lesion as the lesion image captured by the operation log acquisition unit 230, the failure detection unit 270 acquires the lesion. Detects detection failure for a site. That is, the failure detection unit 270 detects that a failure has occurred in the lesion image in which the lesion site is captured.
- the failure detection unit 270 does not acquire the lesion image of the same lesion as the lesion image captured by the detection log acquisition unit 240 by the operation log acquisition unit 230, the failure detection unit 270 causes the lesion. Detects detection failure for a site. That is, the failure detection unit 270 detects that a failure has occurred in the lesion image in which the lesion site is captured.
- FIG. 13 shows a display example of the display device 300 when the failure detection unit 270 detects a failure. In the example shown in FIG. 13, it is displayed that a failure was detected for the lesion image 66b, the lesion image 65b, and the lesion image 66c.
- the failure detection unit 270 detects the failure by comparing the lesion images, but the failure detection unit 270 may detect the failure by comparing the imaging time points. For example, the failure detection unit 270 determines the failure of detection of the lesion site in the user or the detection process by comparing the imaging time acquired by the operation log acquisition unit 230 with the imaging time acquired by the detection log acquisition unit 240. It may be detected. That is, the failure detection unit 270 may detect the failure by comparing the time when the lesion image that the user has instructed to save with the time when the lesion image detected by the detection process is taken. Specifically, the failure detection unit 270 acquires only one of the time point of photographing the lesion image instructed to be saved by the user and the time point of photographing the lesion image detected by the detection process every predetermined unit time. Check if it has not been done.
- the failure detection unit 270 detects the failure of detection of the lesion site imaged in this unit time.
- the failure detection unit 270 detects the failure of detection of the lesion site imaged in this unit time.
- the input / output control unit 260 may display which shooting time point the failure was detected.
- the lesion detection unit 220 may detect the failure by comparing the lesion images, or may detect the failure by comparing the imaging time points. However, it is preferable to detect the failure by comparing the lesion images in the following points.
- comparing the time points of imaging even if the user and the lesion detection unit 220 properly detect the same lesion site, a detection failure occurs if there is no temporal correspondence between the lesion images. It will be judged that it is.
- comparing lesion images since the image contents are compared, it is possible to suppress the occurrence of such a determination result.
- FIG. 14 is a flowchart showing an example of the operation of the information processing device 202.
- the flowchart shown in FIG. 14 is different from the flowchart shown in FIG. 9 in that step S150 is added and step S130 is replaced with step S151.
- steps different from the flowchart shown in FIG. 9 will be described.
- step S150 the failure detection unit 270 fails to detect the lesion site in the user or the detection process by checking the correspondence between the log acquired by the operation log acquisition unit 230 and the log acquired by the detection log acquisition unit 240. Is detected.
- step S151 the input / output control unit 260 displays the log and the failure detection result on the display device 300.
- the embodiment 4 has been described above. According to the present embodiment, failure to detect the lesion site is detected by checking the correspondence between the log acquired by the operation log acquisition unit 230 and the log acquired by the detection log acquisition unit 240. Therefore, the user can more easily grasp the discrepancy between the detection result of the detection process for the captured image of the endoscope 110 and the detection result of the user.
- the fifth embodiment will be described.
- a configuration for generating feedback data for improving the detection accuracy of the lesion detection unit 220 will be described.
- the points different from those of the second embodiment will be described, and duplicated explanations will be omitted as appropriate.
- the information processing device 203 is used instead of the information processing device 200.
- FIG. 15 is a block diagram showing an example of the functional configuration of the information processing apparatus 203 according to the fifth embodiment.
- the information processing device 203 is different from the information processing device 200 according to the second embodiment in that it further includes a feedback data generation unit 275.
- the processing of the feedback data generation unit 275 is realized, for example, by the processor 292 reading the software (computer program) from the memory 291 and executing it.
- the feedback data generation unit 275 generates feedback data based on the information input by the user. Specifically, the feedback data generation unit 275 generates data in which the lesion image and the detection failure information are associated with each other as feedback data.
- the detection failure information is the analysis information about the detection failure by the lesion detection unit 220, and the type of detection failure (failure due to omission of detection of the lesion or failure due to false detection of the lesion) and the cause of the failure. including. However, the detection failure information does not necessarily have to include the cause of the failure.
- the feedback data generation unit 275 generates feedback data based on the instruction for selecting the lesion image input from the user and the detection failure information input from the user for the selected lesion image.
- the input / output control unit 260 further provides a user interface for generating feedback data. That is, the input / output control unit 260 performs the process of accepting the input of the instruction to select the lesion image and the process of accepting the input of the detection failure information for the selected lesion image. Further, the input / output control unit 260 displays a screen for those processes.
- 16 and 17 are schematic views showing a display example of a screen displayed on the display device 300 for generating feedback data.
- the input / output control unit 260 displays for inputting detection failure information in the failure information area 70 on the screen of the display device 300.
- the input / output control unit 260 receives an input from the user to select one of the lesion images displayed on the log display screen shown in FIG. 5 or the like, the input / output control unit 260 displays a screen for inputting detection failure information. ..
- the lesion image may be selected by selecting the lesion image acquired by the detection log acquisition unit 240 or by selecting the lesion image acquired by the operation log acquisition unit 230. For example, the lesion image is selected by the user performing an operation of touching (tapping) or clicking one of the lesion images.
- the selected lesion image 71 is displayed, and the detection failure information input field 72 is displayed.
- the input field 72 includes a type input field 721 which is an input field for the type of detection failure and a factor input field 722 which is an input field for the cause of the detection failure.
- the user looks at the lesion image 71 and inputs the detection failure information. For example, the user selects an appropriate type of failure detection from the options and selects an appropriate cause of the failure from the options.
- FIG. 16 shows an example of a detection failure information input screen for a lesion image showing a lesion erroneously detected by the lesion detection unit 220.
- erroneous detection due to reflection of an instrument erroneous detection due to blurring of the captured image
- erroneous detection due to detection of bubbles as lesions and captured image are selected. False positives due to being too dark are shown.
- FIG. 17 shows an example of a detection failure information input screen for a lesion image showing a lesion detected by the user although the detection was overlooked by the lesion detection unit 220.
- detection omission due to reflection of the instrument detection omission due to blurring of the captured image, detection omission due to reflection of bubbles, etc., and detection omission due to a flat lesion are difficult to detect. It is shown that there was a detection omission that was presumed to have occurred.
- the feedback data generation unit 275 generates, as feedback data, data in which the selected lesion image and the input detection failure information are associated with each other. Note that the feedback data generation unit 275 may generate feedback data associated with the detection failure information input for the selected lesion image, even for a lesion image similar to the selected lesion image. good.
- the feedback data generation unit 275 may store the generated feedback data in a storage device such as a memory 291 or may provide the generated feedback data to another device. Further, the input / output control unit 260 may display the generated feedback data as a history on the display device 300.
- FIG. 18 is a flowchart showing an example of the operation of the information processing device 203.
- the flowchart shown in FIG. 18 is different from the flowchart shown in FIG. 9 in that steps S160 to S162 are added.
- steps S160 to S162 are added.
- points different from the flowchart shown in FIG. 9 will be described.
- step S160 the input / output control unit 260 receives an input for selecting a lesion image. Then, the input / output control unit 260 displays the above-mentioned input failure information input screen.
- step S161 the input / output control unit 260 accepts the input of the detection failure information.
- step S162 the feedback data generation unit 275 generates feedback data based on the inputs received in steps S160 and S161.
- the embodiment 5 has been described above. According to this embodiment, feedback data about the failure of detection of the lesion detection unit 220 is generated. Therefore, useful data can be obtained for improving the accuracy of the detection process of the lesion detection unit 220.
- the output image acquisition unit 210 acquires the captured image from the processor device 130 in real time, and the lesion detection unit 220 performs the lesion detection process in real time, but these processes are performed in real time. You don't have to be a lesion.
- the information processing devices 200, 201, 202, and 203 have the lesion detection unit 220, but the information processing devices 200, 201, 202, and 203 only need to be able to acquire the log of the detection process.
- the lesion detection unit 220 may be provided in another device. In this case, the detection log acquisition unit 240 acquires the detection processing log from the other device.
- the features of the above-described embodiments 2 to 5 may be arbitrarily combined.
- the inspection support system 10 includes the display device 140 and the display device 300, but all the displays may be performed on any one of the display devices.
- a second acquisition unit that acquires a time point of photographing a lesion image detected by a detection process on the series of images taken by the endoscope during the examination, and a second acquisition unit.
- a display in which the first shooting time point, which is the shooting time point acquired by the first acquisition unit, and the second shooting time point, which is the shooting time point acquired by the second acquisition unit, are plotted on the time axis is displayed.
- An information processing device having a display control unit performed on the device.
- the first acquisition unit further acquires a first lesion image, which is a lesion image instructed to be saved by the user.
- the second acquisition unit further acquires a second lesion image, which is a lesion image detected by the detection process.
- the display control unit displays the first lesion image in association with the first imaging time point, and displays the second lesion image in association with the second imaging time point.
- Information processing device (Appendix 3) It further has an image selection unit that identifies a plurality of the second lesion images in which the same lesion site is detected and selects a representative image from the plurality of the second lesion images.
- the information processing device wherein the display control unit displays the second lesion image selected as the representative image among the plurality of second lesion images in which the same lesion site is detected.
- the lesion image and the said lesion image based on the instruction to select the first lesion image or the second lesion image input from the user and the detection failure information input from the user for the selected lesion image. It also has a feedback data generator that generates feedback data associated with detection failure information.
- a predetermined part image specifying part for specifying a photographed image of a predetermined part of the lumen in the living body is further provided.
- the information processing device according to any one of Supplementary note 1 to 4, wherein the display control unit plots the second imaging time point after the imaging time of the image in which the predetermined portion is captured on the time axis.
- Appendix 6 It further has an output image acquisition unit that acquires the series of images output by the image output device that outputs the image taken by the endoscope.
- the image output device outputs an image having a predetermined feature from the time of the instruction until a certain time elapses.
- the first acquisition unit determines the time when the storage instruction is generated based on the presence or absence of the feature in the image acquired by the output image acquisition unit, so that the time and time when the lesion image that the user has instructed to save is taken and The information processing device according to Appendix 2 that acquires the lesion image.
- Appendix 7 The information processing device according to any one of Supplementary note 1 to 6, wherein the display control unit displays the scale of the time axis by enlarging or reducing the scale based on an instruction input from the user.
- the first acquisition unit further acquires a first lesion image, which is a lesion image instructed to be saved by the user.
- the second acquisition unit further acquires a second lesion image, which is a lesion image detected by the detection process.
- the information processing apparatus further includes a failure detection unit that detects a failure in detecting a lesion site in the user or the detection process by comparing the first lesion image with the second lesion image.
- the information processing apparatus according to any one of 7 to 7. (Appendix 9) Any one of Appendix 1 to 7, further comprising a failure detection unit that detects a failure in detection of a lesion site in the user or the detection process by comparing the first imaging time point with the second imaging time point.
- the time point of taking the lesion image instructed to be saved by the user is acquired.
- the time point at which the lesion image detected by the detection process on the series of images taken by the endoscope during the examination is taken is acquired.
- a display in which the first imaging time point, which is the time point of capturing the lesion image instructed to be saved by the user, and the second imaging time point, which is the time point of capturing the lesion image detected by the detection process, are plotted on the time axis.
- the first acquisition step of acquiring the time of taking the lesion image that the user has instructed to save and A second acquisition step of acquiring a time point of photographing a lesion image detected by a detection process on the series of images taken by the endoscope during the examination, and a second acquisition step.
- Information processing device 2 First acquisition unit 3 Second acquisition unit 4
- Display control unit 10 Inspection support system 62 Time axis 63 Mark 64 Mark 100 Endoscope system 110 Endoscope 111 Insertion unit 112 Operation unit 113 Imaging unit 120 Light source device 130 Processor device 140
- Information processing device 201 Information processing device 202
- Information processing device 203 Information processing device 210
- Operation log acquisition unit 240 Detection log acquisition unit 250
- Image selection unit 260
- Input / output Control unit 265 Predetermined part image identification unit 270 Failure detection unit 275
- Feedback data generation unit 300 Display device
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- Pathology (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Optics & Photonics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Endoscopes (AREA)
Abstract
内視鏡の撮影画像に対する検出処理による検出結果とユーザによる検出結果との食い違いを容易に認識することができる情報処理装置、表示方法、及びプログラムを提供する。情報処理装置(1)は、内視鏡を用いた検査の最中に前記内視鏡が撮影した一連の画像のうち、ユーザが保存を指示した病変画像の撮影時点を取得する第一の取得部(2)と、前記検査の最中に前記内視鏡が撮影した前記一連の画像に対する検出処理により検出された病変画像の撮影時点を取得する第二の取得部(3)と、前記第一の取得部(2)が取得した撮影時点である第一の撮影時点と、前記第二の取得部(3)が取得した撮影時点である第二の撮影時点とを、時間軸にプロットした表示を、表示装置に行う表示制御部(4)とを有する。
Description
本開示は、情報処理装置、表示方法、及びプログラムが格納された非一時的なコンピュータ可読媒体に関する。
内視鏡を用いた医療を支援するシステムが知られている。例えば、特許文献1は、カプセル型内視鏡により撮影された画像を表示する画像表示装置について開示している。この画像表示装置では、「Auto」アイコンを選択する操作が行なわれると、出血部位の画像を自動的に抽出する処理が行われる。
内視鏡を用いた生体内の検査中に、ユーザ(例えば医師)による病変の検出に加え、内視鏡の撮影画像に対する検出処理によるリアルタイムな病変の検出が行われる場合、ユーザによる検出結果と検出処理による検出結果とが食い違うことがある。しかしながら、このような食い違いを容易に認識することが困難であった。これに対し特許文献1に開示された技術では、自動的に出血部位の画像を抽出するだけであり、自動的な抽出結果とユーザによる検出結果との比較については考慮されていない。
本開示はこのような問題点を解決するためになされたものであり、内視鏡の撮影画像に対する検出処理による検出結果とユーザによる検出結果との食い違いを容易に認識することができる情報処理装置、表示方法、及びプログラムを提供することを目的とする。
本開示の第1の態様にかかる情報処理装置は、
内視鏡を用いた検査の最中に前記内視鏡が撮影した一連の画像のうち、ユーザが保存を指示した病変画像の撮影時点を取得する第一の取得部と、
前記検査の最中に前記内視鏡が撮影した前記一連の画像に対する検出処理により検出された病変画像の撮影時点を取得する第二の取得部と、
前記第一の取得部が取得した撮影時点である第一の撮影時点と、前記第二の取得部が取得した撮影時点である第二の撮影時点とを、時間軸にプロットした表示を、表示装置に行う表示制御部と
を有する。
内視鏡を用いた検査の最中に前記内視鏡が撮影した一連の画像のうち、ユーザが保存を指示した病変画像の撮影時点を取得する第一の取得部と、
前記検査の最中に前記内視鏡が撮影した前記一連の画像に対する検出処理により検出された病変画像の撮影時点を取得する第二の取得部と、
前記第一の取得部が取得した撮影時点である第一の撮影時点と、前記第二の取得部が取得した撮影時点である第二の撮影時点とを、時間軸にプロットした表示を、表示装置に行う表示制御部と
を有する。
本開示の第2の態様にかかる表示方法では、
内視鏡を用いた検査の最中に前記内視鏡が撮影した一連の画像のうち、ユーザが保存を指示した病変画像の撮影時点を取得し、
前記検査の最中に前記内視鏡が撮影した前記一連の画像に対する検出処理により検出された病変画像の撮影時点を取得し、
ユーザが保存を指示した病変画像の撮影時点である第一の撮影時点と、前記検出処理により検出された病変画像の撮影時点である第二の撮影時点とを、時間軸にプロットした表示を、表示装置に行う。
内視鏡を用いた検査の最中に前記内視鏡が撮影した一連の画像のうち、ユーザが保存を指示した病変画像の撮影時点を取得し、
前記検査の最中に前記内視鏡が撮影した前記一連の画像に対する検出処理により検出された病変画像の撮影時点を取得し、
ユーザが保存を指示した病変画像の撮影時点である第一の撮影時点と、前記検出処理により検出された病変画像の撮影時点である第二の撮影時点とを、時間軸にプロットした表示を、表示装置に行う。
本開示の第3の態様にかかるプログラムは、
内視鏡を用いた検査の最中に前記内視鏡が撮影した一連の画像のうち、ユーザが保存を指示した病変画像の撮影時点を取得する第一の取得ステップと、
前記検査の最中に前記内視鏡が撮影した前記一連の画像に対する検出処理により検出された病変画像の撮影時点を取得する第二の取得ステップと、
前記第一の取得ステップで取得された撮影時点である第一の撮影時点と、前記第二の取得ステップで取得された撮影時点である第二の撮影時点とを、時間軸にプロットした表示を、表示装置に行う表示制御ステップと
をコンピュータに実行させる。
内視鏡を用いた検査の最中に前記内視鏡が撮影した一連の画像のうち、ユーザが保存を指示した病変画像の撮影時点を取得する第一の取得ステップと、
前記検査の最中に前記内視鏡が撮影した前記一連の画像に対する検出処理により検出された病変画像の撮影時点を取得する第二の取得ステップと、
前記第一の取得ステップで取得された撮影時点である第一の撮影時点と、前記第二の取得ステップで取得された撮影時点である第二の撮影時点とを、時間軸にプロットした表示を、表示装置に行う表示制御ステップと
をコンピュータに実行させる。
本開示によれば、内視鏡の撮影画像に対する検出処理による検出結果とユーザによる検出結果との食い違いを容易に認識することができる情報処理装置、表示方法、及びプログラムを提供できる。
説明の明確化のため、以下の記載及び図面は、適宜、省略、及び簡略化がなされている。各図面において、同一又は対応する要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略される。また、各実施の形態の特徴は、技術的な矛盾が生じない限り組み合わせることができる。
<実施の形態1>
図1は、実施の形態1にかかる情報処理装置1の構成の一例を示すブロック図である。情報処理装置1は、内視鏡を用いたユーザ(例えば医師)による検査を支援する装置であり、病変の検出に関する表示処理を行う。図1に示すように、情報処理装置1は、第一の取得部2と、第二の取得部3と、表示制御部4とを有する。
図1は、実施の形態1にかかる情報処理装置1の構成の一例を示すブロック図である。情報処理装置1は、内視鏡を用いたユーザ(例えば医師)による検査を支援する装置であり、病変の検出に関する表示処理を行う。図1に示すように、情報処理装置1は、第一の取得部2と、第二の取得部3と、表示制御部4とを有する。
第一の取得部2は、内視鏡を用いた検査の最中に当該内視鏡が撮影した一連の画像のうち、ユーザが保存を指示した病変画像の撮影時点を取得する。なお、この撮影時点は、撮影が行われた時点のシステム時刻などのような絶対的な時刻であってもよいし、撮影開始時点を基準とした相対的な時刻であってもよい。例えば、第一の取得部2は、内視鏡システムのログデータに基づいて、上述した撮影時点を取得してもよいし、内視鏡システムから出力される動画を解析することにより、上述した撮影時点を特定して、この撮影時点を取得してもよい。病変画像とは、病変部位を含む画像、すなわち、病変部位が検出された画像をいう。ここで、病変とは、病気等に起因する生体組織の異常を言い、例えばポリープ又は腫瘍などが含まれるが、これらに限られない。ユーザは、内視鏡を用いた検査中にユーザが視認した病変部位が写った画像を保存するよう内視鏡システムに対して指示する。このため、ユーザが保存を指示した病変画像は、ユーザが視認した病変部位が写った病変画像であるとみなすことができる。
第二の取得部3は、検査の最中に内視鏡が撮影した一連の画像に対する検出処理により検出された病変画像の撮影時点を取得する。この検出処理は、任意の画像認識処理を行って、画像に写された病変部位を検出する処理である。したがって、第二の取得部3は、検出処理により病変部位が検出された画像(病変画像)の撮影時点、換言すると、検出処理により検出された病変部位が写された病変画像の撮影時点を取得する。
表示制御部4は、表示装置における情報の表示を制御する。具体的には、表示制御部4は、第一の取得部2が取得した撮影時点である第一の撮影時点と、第二の取得部3が取得した撮影時点である第二の撮影時点とを、時間軸にプロットした表示を、表示装置に行う。
本実施の形態によれば、内視鏡を用いた検査の最中にユーザが保存を指示した病変画像の撮影時点、すなわち、ユーザが検出した病変についての病変画像の撮影時点と、検出処理が検出した病変についての病変画像の撮影時点とが時間軸にプロットされる。このため、両者の撮影時点を時間軸上で対比させることができる。つまり、本実施の形態によれば、ユーザによる検出と、検出処理による検出とについて、それぞれ、検査中のどの時点で撮影対象となった病変を検出しているかを対比して示すことができる。このため、内視鏡の撮影画像に対する検出処理による検出結果とユーザによる検出結果との食い違いを容易に認識することができる。例えば、検査中のある時間帯において、一方の検出では病変画像が得られており、他方の検出では病変画像が得られていない場合、当該時間帯の検出において、検出結果の食い違いが生じている可能性があることを容易に把握することができる。
なお、情報処理装置1は、図示しない構成としてプロセッサ及びメモリを備えるものである。当該プロセッサは、当該メモリから、情報処理装置1の上述の処理が実装されたコンピュータプログラムを読み出して、当該コンピュータプログラムを実行する。これにより、当該プロセッサは、第一の取得部2、第二の取得部3、及び表示制御部4の機能を実現する。
または、第一の取得部2、第二の取得部3、及び表示制御部4は、それぞれが専用のハードウェアで実現されていてもよい。また、各装置の各構成要素の一部又は全部は、汎用または専用の回路(circuitry)、プロセッサ等やこれらの組合せによって実現されもよい。これらは、単一のチップによって構成されてもよいし、バスを介して接続される複数のチップによって構成されてもよい。各装置の各構成要素の一部又は全部は、上述した回路等とプログラムとの組合せによって実現されてもよい。また、プロセッサとして、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)等を用いることができる。
また、情報処理装置1の各構成要素の一部又は全部が複数の情報処理装置や回路等により実現される場合には、複数の情報処理装置や回路等は、集中配置されてもよいし、分散配置されてもよい。例えば、情報処理装置や回路等は、クライアントサーバシステム、クラウドコンピューティングシステム等、各々が通信ネットワークを介して接続される形態として実現されてもよい。また、情報処理装置1の機能がSaaS(Software as a Service)形式で提供されてもよい。
以下、実施の形態1をより具体的にした実施の形態について説明する。
<実施の形態2>
図2は、実施の形態2にかかる検査支援システム10の構成を示すブロック図である。検査支援システム10は、内視鏡システム100と情報処理装置200と表示装置300とを備える。内視鏡システム100は、検査対象者の生体内の管腔を検査するために用いられる。例えば、大腸を検査するために用いられるが、他の消化管などの検査に用いられてもよい。
<実施の形態2>
図2は、実施の形態2にかかる検査支援システム10の構成を示すブロック図である。検査支援システム10は、内視鏡システム100と情報処理装置200と表示装置300とを備える。内視鏡システム100は、検査対象者の生体内の管腔を検査するために用いられる。例えば、大腸を検査するために用いられるが、他の消化管などの検査に用いられてもよい。
内視鏡システム100は、内視鏡110と、光源装置120と、プロセッサ装置130と、表示装置140とを有する。内視鏡110は、光源装置120と光学的に接続され、さらに、プロセッサ装置130と電気的に接続している。
内視鏡110は、検査対象者である人物の体内に挿入される挿入部111と、挿入部111の先端の方向などを操作するための操作部112とを有する。内視鏡110には、体内を撮影する撮像部113が設けられている。撮像部113は、例えば、各種レンズ、撮像センサ、信号処理回路などを有している。この撮像センサとしては、例えば、CCD(Charge Coupled Device)又はCMOS(Complementary Metal-Oxide Semiconductor)などのセンサが用いられる。各種レンズ及び撮像センサは、例えば、挿入部111の先端に配置されており、その他の信号処理回路は、例えば、操作部112に配置されている。撮像部113は、プロセッサ装置130の制御に従い、撮影した画像についての画像信号をプロセッサ装置130に出力する。
挿入部111の内部には、光源装置120からの照明光を挿入部111の先端まで伝搬するライトガイドが設けられており、体内を照明光により照らすことができる。また、挿入部111には、電子メスなどの処置具を操作部112から挿入部111の先端へと導く処置具挿通路が設けられている。このため、ユーザ(医師)は、内視鏡110の撮影画像を見ながら、処置具により病変部位の切除などを行うことができる。また、挿入部111には、空気又は水などを挿入部111の先端から射出するためのノズルが設けられている。
光源装置120は、プロセッサ装置130の制御に従って、内視鏡110内に設けられた上述したライトガイドに、照明光を供給する装置である。光源装置120から出力された照明光は、ライトガイドを通って、内視鏡110の先端から射出される。これにより、体内の観察部位が照射される。
プロセッサ装置130は、内視鏡110、光源装置120、表示装置140、及び情報処理装置200と電気的に接続している。また、プロセッサ装置130は、ユーザからの指示の入力を受付ける入力装置と接続されている。特に、本実施の形態では、この入力装置は、内視鏡110を用いた検査の最中に内視鏡110が撮影した画像の保存を指示する入力を受付ける。このような入力装置は、操作部112の機能として設けられてもよいし、表示装置140がタッチパネルにより構成されている場合には、このタッチパネルがそのような入力装置として機能してもよい。なお、キーボード又はマウスなどのように、上述した構成とは独立して設けられた入力装置が用いられてもよい。
プロセッサ装置130は、内視鏡システム100の動作を統括的に制御する。特に、プロセッサ装置130は、内視鏡110から受信した画像信号に対して所定の画像処理を行って、表示装置140に表示するための撮影画像を生成する。また、プロセッサ装置130は、図3に示すように、撮影画像領域50に撮影画像を配置し、非撮影画像領域51に検査対象者の情報などの様々な参考情報の文字又は画像を配置した表示画像52を生成する。表示画像52は、表示装置140の画面全体に表示される画像である。プロセッサ装置130は、表示画像52を表示装置140に表示するよう制御する。また、プロセッサ装置130は、表示画像52を情報処理装置200に出力する。なお、プロセッサ装置130は、撮影画像を情報処理装置200に出力してもよい。このように、プロセッサ装置130は、表示画像52又は撮影画像を情報処理装置200に出力することにより、内視鏡110による現在の撮影画像を情報処理装置200に順次出力する。換言すると、プロセッサ装置130は、内視鏡110が撮影した動画、すなわち、生体内の管腔を時間的に連続して撮影した一連の画像をリアルタイムに情報処理装置200に出力する。なお、本実施の形態では、後述する情報処理装置200において検査中にリアルタイムに病変部位を検出するために、プロセッサ装置130は情報処理装置200にリアルタイムに画像を出力するが、必ずしもリアルタイムに画像を出力しなくてもよい。すなわち、情報処理装置200によるリアルタイムな病変部位の検出が必要とされない場合においては、プロセッサ装置130は、リアルタイムに撮影画像を出力しなくてもよい。例えば、検査が終了し、一連の撮影が終わった後の任意の時点で、検査中に撮影された撮影画像を情報処理装置200に出力してもよい。このように、プロセッサ装置130は、内視鏡110が撮影した画像を出力する画像出力装置として機能する。
また、プロセッサ装置130は、内視鏡110の撮影中に、撮影画像の保存を指示する入力を受付けると、当該入力を受付けたタイミングの撮影画像の画像データをメモリ等の記憶装置に保存する。ユーザは、例えば、病変部位が写った撮影画像を保存対象とする。したがって、プロセッサ装置130は、内視鏡110の撮影中に、ユーザが病変画像の保存を指示する入力をすると、当該入力が受付けられたタイミングの撮影画像の画像データを保存する。すなわち、プロセッサ装置130は、内視鏡110を用いた検査の最中に内視鏡110が撮影した一連の画像のうち、ユーザが保存を指示した病変画像を保存する。
ここで、本実施の形態では、プロセッサ装置130は、内視鏡110を用いた検査の最中にユーザが病変画像の保存を指示すると、指示時点から一定の時間が経過するまでの間、所定の特徴を有する画像を出力する。具体的には、例えば、プロセッサ装置130は、指示時点から一定の時間が経過するまでの間、保存対象の撮影画像を出力する。すなわち、この間、プロセッサ装置130は、同じ画像を連続して出力する。換言すると、プロセッサ装置130は、この間、一つ前の画像と同じであるという特徴を有する画像を出力する。これにより、表示装置140及び情報処理装置200には、この間の一連の画像による映像として、フリーズした映像が出力される。このような処理により、表示装置140には、指示時点から一定の時間が経過するまでの間、所定の特徴を有する画像が表示される。このため、ユーザは、自らの指示に応じて、プロセッサ装置130による撮影画像の保存処理が行われたことを把握することができる。
なお、所定の特徴としては上述に限らず他の特徴であってもよい。例えば、指示時点から一定の時間が経過するまでの間、撮影画像だけではなく、保存対象となった画像のサムネイル画像も配置された表示画像52を表示装置140及び情報処理装置200に出力してもよい。この場合、プロセッサ装置130は、この間、所定の領域にサムネイル画像が配置されているという特徴を有する画像を出力する。
プロセッサ装置130は、例えば、メモリと、CPU、GPUなどのプロセッサとを備え、プロセッサが1以上の命令を含むソフトウェア(コンピュータプログラム)をメモリから読み出して実行することで、プロセッサ装置130の処理を実現する。
表示装置140は、プロセッサ装置130が生成した表示画像52を表示する。表示装置140は、具体的には、例えば、液晶ディスプレイ、プラズマディスプレイ、有機EL(Electro-Luminescence)ディスプレイなどのプラットパネルディスプレイである。
次に、情報処理装置200及び表示装置300について説明する。
表示装置300は、情報処理装置200と電気的に接続されており、情報処理装置200の制御にしたがって画像を表示する装置である。表示装置300は、具体的には、例えば、液晶ディスプレイ、プラズマディスプレイ、有機ELディスプレイなどのプラットパネルディスプレイである。本実施の形態では、表示装置300は、タッチパネルとして構成され、ユーザからの入力を受付ける入力装置としても機能する。
表示装置300は、情報処理装置200と電気的に接続されており、情報処理装置200の制御にしたがって画像を表示する装置である。表示装置300は、具体的には、例えば、液晶ディスプレイ、プラズマディスプレイ、有機ELディスプレイなどのプラットパネルディスプレイである。本実施の形態では、表示装置300は、タッチパネルとして構成され、ユーザからの入力を受付ける入力装置としても機能する。
情報処理装置200は、図1の情報処理装置1に対応しており、ユーザ(例えば医師)の検査を支援する装置である。以下、情報処理装置200の詳細について説明する。
図4は、情報処理装置200の機能構成の一例を示すブロック図である。図4に示すように、情報処理装置200は、出力画像取得部210と、病変検出部220と、操作ログ取得部230と、検出ログ取得部240と、画像選択部250と、入出力制御部260とを有する。
出力画像取得部210は、プロセッサ装置130が出力した画像群(撮影された動画を構成する各フレーム画像(静止画))を取得する。すなわち、出力画像取得部210は、内視鏡110を用いた検査の最中に内視鏡110が撮影した一連の画像を取得する。より詳細には、出力画像取得部210は、生体内の管腔を時間的に連続して撮影した一連の画像をプロセッサ装置130から取得する。本実施の形態では、出力画像取得部210は、内視鏡110による現在の撮影画像をリアルタイムに順次取得するが、必ずしもリアルタイムに取得しなくてもよい。なお、プロセッサ装置130からの出力が表示画像52である場合、出力画像取得部210は、病変検出部220の処理に用いる撮影画像を得るために、表示画像52から撮影画像領域50に配置された撮影画像を切り出す処理を行う。
病変検出部220は、出力画像取得部210が取得した画像に対して、病変部位の検出処理を順次行う。すなわち、撮影された動画を構成する各フレーム画像に対して、順次、病変部位の検出処理を行う。本実施の形態では、病変検出部220は、病変部位の検出処理をリアルタイムに行う。例えば、病変検出部220は、撮影された動画のフレームレートよりも早い処理速度で検出処理を行うことが好ましい。病変検出部220は、公知の画像認識処理を行なって、画像から病変部位を検出する。この検出処理では、病変部位の画像内における位置も検出される。例えば、病変検出部220は、機械学習アルゴリズムにより予め学習されたモデルに対して、出力画像取得部210が取得した画像を入力することにより、病変部位の検出処理を行う。このモデルは、例えば、CNN(Convolution Neural Network)などの深層学習により学習されたモデルであるが、他の機械学習アルゴリズムを用いて学習されたモデルであってもよい。病変検出部220は、例えば、上述したモデルから出力された、画像に病変部位が写されている確率を表わす指標値(確度)が、所定の閾値を超えるか否かに基づいて、当該画像に病変部位が写されているか否かを判定する。
病変検出部220は、病変部位を検出すると、後述するメモリ291などの記憶装置に、病変画像と、検出された病変部位の画像内の位置情報と、上述した指標値と、病変画像の撮影時点を表わす情報(以下、撮影時点情報と称す)とをログとして記憶する。ここで、撮影時点情報は、撮影が行われた時点が特定できる情報であればよい。例えば、撮影時点情報は、撮影が行われた時点のシステム時刻である。上述の通り、撮影された画像はリアルタイムで出力画像取得部210に取得され、リアルタイムで病変検出処理が行われる。このため、病変検出部220は、情報処理装置200が画像を取得した時刻を当該画像の撮影時点情報としてもよいし、病変検出部220が病変検出処理を行った時刻を当該画像の撮影時点情報としてもよい。また、撮影時点情報は、プロセッサ装置130が付帯情報として画像データに付帯したものであってもよい。なお、撮影時点情報は、上述の通り、撮影が行われた時点を特定できる情報であればよいため、システム時刻ではなく、動画のフレーム番号が用いられてもよい。
操作ログ取得部230は、図1の第一の取得部2に対応している。操作ログ取得部230は、内視鏡110を用いた検査の最中に内視鏡110が撮影した一連の画像のうち、ユーザが保存を指示した病変画像の撮影時点を取得する。また、操作ログ取得部230は、ユーザが保存を指示した病変画像を取得する。以下の説明では、取得された撮影時点及び病変画像をログと称すことがある。
本実施の形態では、操作ログ取得部230は、プロセッサ装置130が出力した一連のフレーム画像(すなわち動画)を解析することにより、ユーザが保存を指示した病変画像の撮影時点及び当該病変画像を取得する。具体的には、操作ログ取得部230は、取得した撮影画像における所定の特徴の有無に基づいて、当該撮影画像の撮影時点が、保存の指示の発生時点であるか否かを判定する。操作ログ取得部230は、取得した撮影画像に所定の特徴が存在する場合、当該撮影画像の撮影時点に、保存の指示が入力されたと判定する。そして、操作ログ取得部230は、この撮影画像をユーザが保存を指示した病変画像として取得するととともに、当該撮影画像の撮影時点を、ユーザが保存を指示した病変画像の撮影時点として取得する。なお、操作ログ取得部230は、当該撮影画像の撮影時点から所定の時間だけ前後した時点をユーザが保存を指示した病変画像の撮影時点として取得してもよい。このように、操作ログ取得部230は、出力画像取得部210が取得した画像における所定の特徴の有無に基づいて、保存の指示の発生時点を判定することにより、ユーザが保存を指示した病変画像の撮影時点及び当該病変画像を取得する。
上述の通り、本実施の形態では、プロセッサ装置130は、内視鏡110を用いた検査の最中にユーザが病変画像の保存を指示すると、指示時点から一定の時間が経過するまでの間、撮影画像としてフリーズした映像を出力する。したがって、本実施の形態では、操作ログ取得部230は、判定対象の画像が、この画像の1フレーム前の画像と同じであるか否かに基づいて、保存の指示の発生時点を判定することにより、ユーザが保存を指示した病変画像の撮影時点及び当該病変画像を取得する。なお、プロセッサ装置130が、指示時点から一定の時間が経過するまでの間、所定の特徴として他の特徴を有する画像を出力する場合には、操作ログ取得部230は、この他の特徴の有無を判定すればよい。例えば、操作ログ取得部230は、出力画像取得部210が取得した画像にサムネイル画像が配置されているか否かを判定してもよい。
このような操作ログ取得部230の処理によれば、プロセッサ装置130からログデータを取得することなく、ユーザが保存を指示した病変画像と当該病変画像の撮影時点を表わす情報(撮影時点情報)とが取得される。なお、操作ログ取得部230が取得する病変画像は、上述の通り、ユーザが保存を指示した病変画像であると推定された画像である。すなわち、操作ログ取得部230は、出力画像取得部210が取得した画像群の中から、ユーザが保存を指示した病変画像であると推定される画像を探して、これを取得する。また、操作ログ取得部230が取得する撮影時点情報は、病変検出部220により記憶される撮影時点情報と同様、例えば、撮影が行われた時点のシステム時刻であってもよい。この場合、操作ログ取得部230は、出力画像取得部210がリアルタイムに画像を取得した時刻を当該画像の撮影時点情報としてもよいし、病変検出部220がリアルタイムに病変検出処理を行った時刻を当該画像の撮影時点情報としてもよい。また、操作ログ取得部230が取得する撮影時点情報は、プロセッサ装置130が付帯情報として画像データに付帯したものであってもよい。また、撮影時点情報は、システム時刻ではなく、動画のフレーム番号が用いられてもよい。
なお、操作ログ取得部230は、上述の処理により、検査中の保存指示の操作に関する情報を取得したが、ログデータをプロセッサ装置130から取得してもよい。すなわち、操作ログ取得部230は、プロセッサ装置130がログデータとして出力した、ユーザが保存を指示した病変画像の撮影時点及び当該病変画像を取得してもよい。この場合、操作ログ取得部230において、上述した、所定の特徴の有無に基づく、保存の指示の発生時点の判定処理は省略できる。
検出ログ取得部240は、図1の第二の取得部3に対応している。検出ログ取得部240は、内視鏡110を用いた検査の最中に内視鏡110が撮影した一連の画像に対する検出処理により検出された病変画像の撮影時点を取得する。また、検出ログ取得部240は、当該検出処理により検出された病変画像を取得する。本実施の形態では、検出ログ取得部240は、病変検出部220がログデータとして記憶装置に記憶した病変画像及び当該病変画像の撮影時点情報を当該記憶装置から取得する。
画像選択部250は、病変検出部220の検出処理で同一の病変部位が検出された複数の病変画像を特定し、特定された当該複数の病変画像の中から一つの画像(以下、代表画像と称す)を選択する。本実施の形態では、画像選択部250は、検出ログ取得部240が取得した病変画像群から、同一の病変部位が検出された複数の病変画像を特定し、それらの中から代表画像を選択する。例えば、画像選択部250は、病変画像を相互に比較することにより、同一の病変部位が検出された複数の病変画像を特定する。より詳細には、画像選択部250は、検出ログ取得部240が取得した病変画像のうち、撮影された動画を構成する連続する撮影画像(フレーム画像)に対して、病変部位の特徴点を用いた物体追跡処理を行う。これにより、画像選択部250は、同一の病変部位が検出された複数の病変画像を特定する。このような処理により、同一の病変部位が時間的に連続して撮影され続けた際に得られる、同一の病変部位が写った複数の画像が特定される。そして、画像選択部250は、同一の病変部位が検出された複数の病変画像の中から代表画像を選択する。画像選択部250は、例えば、これら複数の病変画像のうち、検出処理における検出の確度が最も高い病変画像を選択する。なお、検出処理における検出の確度が最も高い病変画像が複数存在する場合には、これらのうち、病変部位を見やすい画像を選択してもよい。例えば、画像選択部250は、病変部位を見やすい画像として、病変部位の画像内での位置が最も中心に近い画像を選択してもよいし、病変部位と病変部位以外のコントラストが最大である画像を選択してもよい。なお、画像選択部250は、物体追跡処理ではなく、画像の類似度を算出する処理を行うことにより、同一の病変部位が検出された複数の病変画像を特定してもよい。この場合、同一の病変部位が時間的に連続して撮影されていなくても、同一の病変部位が写った複数の画像の特定が可能である。
なお、画像選択部250は、代表画像として、複数の画像を選択してもよい。特に、画像選択部250は、同一の病変部位が検出された複数の病変画像の中から、撮影条件が異なる2以上の画像を選択してもよい。例えば、画像選択部250は、撮影アングルが異なる2以上の画像を選択してもよいし、撮影距離が異なる2以上の画像を選択してもよい。これにより、代表画像として、様々な画像が表示されることとなる。
なお、画像選択部250は、代表画像として、複数の画像を選択してもよい。特に、画像選択部250は、同一の病変部位が検出された複数の病変画像の中から、撮影条件が異なる2以上の画像を選択してもよい。例えば、画像選択部250は、撮影アングルが異なる2以上の画像を選択してもよいし、撮影距離が異なる2以上の画像を選択してもよい。これにより、代表画像として、様々な画像が表示されることとなる。
入出力制御部260は、情報処理装置200における情報の入出力を制御する。情報処理装置200は、ユーザからの指示の入力を受付ける入力装置と接続されており、入出力制御部260は、当該入力装置からの入力の受付処理を行う。特に、本実施の形態では、この入力装置は、表示装置300の表示を見るユーザからの入力を受付ける。本実施の形態では、表示装置300がタッチパネルとして構成され、表示装置300が入力装置としても機能する。なお、キーボード又はマウスなどのように、表示装置300とは独立して設けられた入力装置が用いられてもよい。
また、入出力制御部260は、表示装置300の表示を制御する。入出力制御部260は、図1の表示制御部4に対応している。したがって、特に、入出力制御部260は、操作ログ取得部230が取得した撮影時点と、検出ログ取得部240が取得した撮影時点とを、時間軸にプロットした表示を、表示装置300に行う。すなわち、入出力制御部260は、ユーザからの指示により保存が行われた病変画像の撮影時点と、病変検出部220により病変が検出された病変画像の撮影時点とを、時間軸にプロットした表示を行うよう制御する。また、本実施の形態では、入出力制御部260は、さらに、撮影時点と対応付けて病変画像を表示する。すなわち、入出力制御部260は、ユーザからの指示により保存が行われた病変画像の撮影時点と対応付けて、この病変画像を表示する。同様に、入出力制御部260は、病変検出部220により病変が検出された病変画像の撮影時点と対応付けて、この病変画像を表示する。より詳細には、後述する図5などに示されるように、入出力制御部260は、病変画像のサムネイル画像を表示する。
図5は、入出力制御部260の制御に基づく表示装置300の表示例を示す模式図である。図5を参照しつつ、本実施の形態の入出力制御部260の表示制御について説明する。
入出力制御部260は、表示装置300の画面におけるログ一覧領域60に、ログの表示が可能な検査のリストを表示する。図5に示した例では、2019年7月19日に行われた3つの検査がリストに挙げられている。図5に示した例では、リストの各項目として、検査が行われた時間が表示されている。すなわち、検査の開始時刻と終了時刻が表示されている。入出力制御部260は、例えば、出力画像取得部210が取得した一連の画像の最初の画像の撮影時刻を検査の開始時刻とし、当該一連の画像の最後の画像の撮影時刻を検査の終了時刻と特定し、図5のような表示を行う。
入出力制御部260は、ログ一覧領域60に表示されているリストの中からいずれかの項目を選択する入力をユーザから受付けると、表示装置300の画面におけるログ表示領域61に、操作ログ取得部230及び検出ログ取得部240が取得した情報を表示する。図5に示した例では、検査時刻が14時00分から14時33分である検査についてのログが表示されている。
入出力制御部260は、ログ表示領域61に、時間軸62と、操作ログ取得部230が取得した撮影時点を時間軸62上で明示する印63と、検出ログ取得部240が取得した撮影時点を時間軸62上で明示する印64とを表示する。また、さらに、入出力制御部260は、操作ログ取得部230が取得した撮影時点に対応する病変画像と、検出ログ取得部240が取得した撮影時点に対応する病変画像を表示する。なお、より詳細には、病変画像のサムネイル画像が表示される。図5に示した例では、操作ログ取得部230が取得した撮影時点に対応する病変画像として病変画像65a及び65bが表示されており、検出ログ取得部240が取得した撮影時点に対応する病変画像として病変画像66a、66b、及び66cが表示されている。また、図5に示した例では、印63及び印64は、一例として矢印である。また、図5に示した例では、時間軸62の上側に、操作ログ取得部230が取得した情報についての表示が行われている。すなわち、時間軸62の上側に、ユーザが保存した病変画像についての表示が行われている。入出力制御部260は、操作ログ取得部230が取得した病変画像をユーザ(たとえば医師)の検出した病変画像として表示する。これに対し、時間軸62の下側に、検出ログ取得部240が取得した情報についての表示が行われている。すなわち、時間軸62の下側に、病変検出部220が検出処理により自動的に検出された病変についての表示が行われている。なお、図5に示した例は、一例に過ぎず、時間軸62の上側の表示内容と下側の表示内容が逆であってもよいことは言うまでもない。また、図5に示した例では、時間軸62は画面の横方向に延在しているが、もちろん、時間軸62は他の方向に延在していてもよい。
また、図5に示した例では、入出力制御部260は、時間軸62の目盛りを表示しているが、時間軸62の目盛りの表示が省略されてもよい。なお、図5に示した例では、時間軸62の始端の目盛りとして、検査開始時刻が表示され、時間軸62の終端の目盛りとして、検査終了時刻が表示されているが、必ずしも、目盛りを検査時刻と対応付けていなくてもよい。例えば、時間軸62の始端の目盛りの値を0とし、時間軸62の終端の目盛りの値を、撮影された映像の時間長に相当する値としてもよい。
なお、入出力制御部260は、病変検出部220により検出された病変部位の画像内の位置を示すよう表示してもよい。図5に示した例では、具体的には、入出力制御部260は、病変部位を囲む枠67を表示している。
また、図5から図7に示すように、入出力制御部260は、ユーザから入力された指示に基づいて、時間軸62のスケールを拡大又は縮小して表示する。入出力制御部260は、そのような指示として、例えば、時間軸62をタッチ(タップ)又はクリックする操作が行なわれると、時間軸62のスケールを変更してもよい。このようにすることにより、ログの閲覧における利便性を向上することができる。
図6は、図5に示した時間軸62のスケールを拡大した場合の表示例を示している。図6に示した例では、図5に示した例よりも時間軸62のスケールが拡大され、検査時刻が14時15分から14時18分までの時間帯のログが表示されている。また、図7は、図6に示した時間軸62のスケールを拡大した場合の表示例を示している。図7に示した例では、図6に示した例よりも時間軸62のスケールが拡大され、検査時刻が14時16分20秒から14時16分50秒までの時間帯のログが表示されている。
入出力制御部260は、表示対象の時間帯のログのうち、実際に表示するログを、時間軸62のスケールに応じて変更してもよい。図5に示したように、スケールが縮小されている表示では、表示対象の時間帯(図5では、具体的には14時00分から14時33分)に属する全てのログを表示すると、表示が煩雑になる恐れがある。このため、例えば、入出力制御部260は、所定のスケールよりも縮小されたスケールの時間軸62を用いて表示される場合、表示対象の時間帯のログのうち一部のログだけを表示するようにしてもよい。すなわち、入出力制御部260は、一部の撮影時点及び当該撮影時点に対応する撮影画像だけを表示してもよい。なお、この場合において、撮影時点については、表示対象の時間帯の全ての撮影時点を表示し、撮影画像についてだけ、一部の撮影画像に表示を限定してもよい。入出力制御部260は、一部の撮影画像を選択する際、任意の選択基準により選択すればよい。例えば、入出力制御部260は、検出処理における検出の確度の大きさに基づいて選択してもよい。
図を参照し、上述した一部のログの表示について具体的に説明する。図6に示した例では、14時15分から14時18分の間に、病変検出部220の検出処理のログとして、病変画像66a、66d、66bが表示されている。これに対して、図5に示した例では、図6と同じ時間帯に着目すると、病変検出部220の検出処理のログとして、病変画像66a、66bだけが表示されている。同様に、図7に示した例では、14時16分20秒から14時16分50秒の間に、病変検出部220の検出処理のログとして、病変画像66d、66b、66eが表示されている。これに対して、図6に示した例では、図7と同じ時間帯に着目すると、病変検出部220の検出処理のログとして、病変画像66d、66bだけが表示されている。
また、入出力制御部260は、同一の病変部位が検出された複数の病変画像のうち、上述した画像選択部250により代表画像として選択された病変画像だけを表示してもよい。すなわち、同一の病変部位が検出された複数の病変画像のうち、代表画像として選択されていない病変画像については、表示を割愛してもよい。このとき、入出力制御部260は、代表画像として選択されている病変画像の撮影時点を表示し、同一の病変部位が検出された複数の病変画像のうち代表画像として選択されていない病変画像の撮影時点の表示を割愛してもよい。このようにすることにより、重複した病変についての表示が割愛され、視認性が向上する。本実施の形態では、所定のスケールよりも縮小されたスケールの時間軸62を用いて表示される場合に、入出力制御部260は、同一の病変部位が検出された複数の病変画像のうち代表画像として選択された病変画像だけを表示する。これについて、図を参照して具体例を述べる。図7に示した例では、同一の病変部位が撮影されてる病変画像66bと病変画像66eが表示されているのに対し、図6に示した例では、それら撮影画像のうち代表画像である病変画像66bだけが表示されている。
次に、情報処理装置200のハードウェア構成の一例について説明する。図8は、情報処理装置200のハードウェア構成の一例を示す模式図である。図8に示すように、情報処理装置200は、入出力インタフェース290、メモリ291、及びプロセッサ292を含む。
入出力インタフェース290は、プロセッサ装置130、及び表示装置300などの他の任意の装置と通信するための入出力回路である。
メモリ291は、例えば、揮発性メモリ及び不揮発性メモリの組み合わせによって構成される。メモリ291は、プロセッサ292により実行される、1以上の命令を含むソフトウェア(コンピュータプログラム)、及び情報処理装置200の各種処理に用いるデータなどを格納するために使用される。
プロセッサ292は、メモリ291からソフトウェア(コンピュータプログラム)を読み出して実行することで、図4に示した各構成要素の処理を行う。具体的には、プロセッサ292は、出力画像取得部210、病変検出部220、操作ログ取得部230、検出ログ取得部240、画像選択部250、及び入出力制御部260の処理を行う。
プロセッサ292は、例えば、CPU、GPUなどであってもよい。プロセッサ292は、複数のプロセッサを含んでもよい。
このように、情報処理装置200は、コンピュータとしての機能を備えている。
このように、情報処理装置200は、コンピュータとしての機能を備えている。
なお、上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
次に、情報処理装置200の動作例について説明する。図9は、情報処理装置200の動作の一例を示すフローチャートである。以下、図9のフローチャートを参照しつつ、動作例について説明する。
ステップS100において、出力画像取得部210は、プロセッサ装置130が出力した、撮影された動画を構成する各フレーム画像を取得する。ステップS100の後、処理はステップS110及びステップS120へ移行する。ステップS110からステップS112までの処理と、ステップS120からステップS121までの処理は、例えば並行して行われるが、順番に行われてもよい。
ステップS110からステップS112の処理について説明する。
ステップS110において、病変検出部220は、ステップS110で取得した画像に対して、病変部位の検出処理を順次行う。病変検出部220は、病変部位を検出すると、ログを記憶する。
次に、ステップS111において、検出ログ取得部240は、ログとして記憶された病変画像及び当該病変画像の撮影時点情報を取得する。
次に、ステップS112において、画像選択部250は、ステップS111で取得された病変画像に対し、同一の病変部位が検出された複数の病変画像を特定し、特定された当該複数の病変画像の中から代表画像を選択する。なお、同一の病変部位が検出された複数の病変画像を集約した表示を入出力制御部260が行わない場合には、本ステップは省略されてもよい。
ステップS110において、病変検出部220は、ステップS110で取得した画像に対して、病変部位の検出処理を順次行う。病変検出部220は、病変部位を検出すると、ログを記憶する。
次に、ステップS111において、検出ログ取得部240は、ログとして記憶された病変画像及び当該病変画像の撮影時点情報を取得する。
次に、ステップS112において、画像選択部250は、ステップS111で取得された病変画像に対し、同一の病変部位が検出された複数の病変画像を特定し、特定された当該複数の病変画像の中から代表画像を選択する。なお、同一の病変部位が検出された複数の病変画像を集約した表示を入出力制御部260が行わない場合には、本ステップは省略されてもよい。
ステップS120からステップS121の処理について説明する。
ステップS120において、操作ログ取得部230は、ステップS100で取得された画像を解析することにより、ユーザが保存を指示したタイミングを特定する。すなわち、操作ログ取得部230は、静止画(病変画像)の保存操作の発生タイミングを特定する。そして、ステップS121において、操作ログ取得部230は、検査中に行われた保存指示の操作についてのログを取得する。具体的には、操作ログ取得部230は、ステップS120で特定されたタイミングに基づいて、ユーザが保存を指示した病変画像の撮影時点及び当該病変画像を取得する。
ステップS120において、操作ログ取得部230は、ステップS100で取得された画像を解析することにより、ユーザが保存を指示したタイミングを特定する。すなわち、操作ログ取得部230は、静止画(病変画像)の保存操作の発生タイミングを特定する。そして、ステップS121において、操作ログ取得部230は、検査中に行われた保存指示の操作についてのログを取得する。具体的には、操作ログ取得部230は、ステップS120で特定されたタイミングに基づいて、ユーザが保存を指示した病変画像の撮影時点及び当該病変画像を取得する。
ステップS112及びステップS121の処理の後、処理はステップS130へ移行する。ステップS130において、入出力制御部260は、表示装置300において、ログを表示する。
以上、実施の形態2について説明した。本実施の形態によれば、内視鏡を用いた検査の最中にユーザが保存を指示した病変画像の撮影時点と、情報処理装置200が検出した病変についての病変画像の撮影時点とが病変画像とともに時間軸にプロットされる。すなわち、ユーザが検出した病変についての病変画像の撮影時点と、自動的に検出された病変についての病変画像の撮影時点とが病変画像とともに時間軸にプロットされる。このため、両者の検出状況を時間軸上で対比させることができる。したがって、自動的な検出処理による検出結果とユーザによる検出結果との食い違いを容易に認識することができる。
<実施の形態3>
次に、実施の形態3について説明する。例えば、大腸の内視鏡検査では、まず、内視鏡110を大腸の始端側(小腸と接続している端部側)まで挿入する。その後、実質的な検査が開始される。つまり、大腸の始端側から大腸の終端側(肛門と接続している端部側)に向けて順番に内視鏡110による観察が行われる。このように、内視鏡110の位置が検査のスタート位置に到達した後に、実際の検査が開始される。つまり、ユーザは、内視鏡110の位置が検査のスタート位置に到達するまでは、病変の検出は行わない、すなわち病変画像の保存指示は行わないことが想定される。一方、病変検出部220は、内視鏡110の位置が検査のスタート位置に到達するまでの間に撮影された画像からも病変画像を検出しうる。しかしながら、上述した通り、ユーザの実質的な検査は、内視鏡110の位置が検査のスタート位置に到達した後に行われるため、内視鏡110の位置が検査のスタート位置に到達するまでの間のログを表示装置300に表示する利点は乏しい。
次に、実施の形態3について説明する。例えば、大腸の内視鏡検査では、まず、内視鏡110を大腸の始端側(小腸と接続している端部側)まで挿入する。その後、実質的な検査が開始される。つまり、大腸の始端側から大腸の終端側(肛門と接続している端部側)に向けて順番に内視鏡110による観察が行われる。このように、内視鏡110の位置が検査のスタート位置に到達した後に、実際の検査が開始される。つまり、ユーザは、内視鏡110の位置が検査のスタート位置に到達するまでは、病変の検出は行わない、すなわち病変画像の保存指示は行わないことが想定される。一方、病変検出部220は、内視鏡110の位置が検査のスタート位置に到達するまでの間に撮影された画像からも病変画像を検出しうる。しかしながら、上述した通り、ユーザの実質的な検査は、内視鏡110の位置が検査のスタート位置に到達した後に行われるため、内視鏡110の位置が検査のスタート位置に到達するまでの間のログを表示装置300に表示する利点は乏しい。
そこで、本実施の形態では、内視鏡110の位置が検査のスタート位置に到達した後のログを表示装置300に表示する構成について説明する。
以下、実施の形態2と異なる点について説明し、重複する説明は適宜割愛する。本実施の形態では、情報処理装置200の代わりに、情報処理装置201が用いられる。
以下、実施の形態2と異なる点について説明し、重複する説明は適宜割愛する。本実施の形態では、情報処理装置200の代わりに、情報処理装置201が用いられる。
図10は、実施の形態3にかかる情報処理装置201の機能構成の一例を示すブロック図である。図10に示すように、情報処理装置201は、所定部位画像特定部265をさらに有する点で、実施の形態2にかかる情報処理装置200と異なっている。なお、所定部位画像特定部265の処理は、例えば、プロセッサ292が、メモリ291からソフトウェア(コンピュータプログラム)を読み出して実行することで実現される。
所定部位画像特定部265は、内視鏡110を用いた検査の最中に内視鏡110が撮影した一連の画像のうち、生体内の管腔の所定の部位が撮影された画像を特定する。例えば、大腸の内視鏡検査の場合、この所定の部位は、大腸の始端側に存在する部位であってもよい。この場合、具体的には、例えば、所定の部位は、回盲弁であってもよいし、虫垂の入口部であってもよい。なお、これらは一例に過ぎず、所定の部位は、検査のスタート位置の近傍の部位であればよい。所定部位画像特定部265は、内視鏡110が撮影した画像に対して、公知の画像認識処理を行って、所定の部位が撮影された画像を特定する。例えば、所定部位画像特定部265は、機械学習アルゴリズムにより予め学習されたモデルに対して、画像を入力することにより、当該画像が所定の部位が撮影された画像であるか否かを判定する。このモデルは、例えば、CNNなどの深層学習により学習されたモデルであるが、他の機械学習アルゴリズムを用いて学習されたモデルであってもよい。
本実施の形態の入出力制御部260は、所定の部位が撮影された画像の撮影時点以降のログを表示対象とする。すなわち、入出力制御部260は、所定の部位が撮影された画像の撮影時点以降の撮影時点を時間軸62にプロットする。同様に、入出力制御部260は、所定の部位が撮影された画像の撮影時点以降に撮影された病変画像を表示する。すなわち、入出力制御部260は、所定の部位が撮影された画像の撮影時点までのログ(すなわち、病変画像の撮影時点及び当該病変画像)については表示対象から除外する。上述の通り、ユーザは、内視鏡110の位置が検査のスタート位置に到達するまでは、病変画像の保存指示は行わないことが想定されるが、病変検出部220は、内視鏡110の位置が検査のスタート位置に到達した後であるかにかかわらず病変画像を検出しうる。このため、入出力制御部260は、特に、病変検出部220の検出処理のログの表示に対して、上述のような表示の制限を行うことが好ましい。
次に、情報処理装置201の動作例について説明する。図11は、情報処理装置201の動作の一例を示すフローチャートである。図11に示したフローチャートは、ステップS140及びステップS141が追加されている点で、図9に示したフローチャートと異なっている。以下、図9に示したフローチャートと異なる点について説明する。
情報処理装置201は、ステップS100の処理の後、さらにステップS140及びステップS141の処理を行う。ステップS110からステップS112までの処理と、ステップS120からステップS121までの処理と、ステップS140からステップS141までの処理とは、例えば並行して行われるが、順番に行われてもよい。
ステップS140において、所定部位画像特定部265は、内視鏡110を用いた検査の最中に内視鏡110が撮影した一連の画像から、所定の部位が撮影された画像を特定する。
次に、ステップS141において、入出力制御部260は、ステップS140による処理結果に基づいて、検査の実際の開始時点を特定する。すなわち、入出力制御部260は、所定の部位が撮影された画像の撮影時点を検査の実際の開始時点とする。
そして、ステップS130では、入出力制御部260は、ステップS141で特定された時点以降のログを表示対象とする。
次に、ステップS141において、入出力制御部260は、ステップS140による処理結果に基づいて、検査の実際の開始時点を特定する。すなわち、入出力制御部260は、所定の部位が撮影された画像の撮影時点を検査の実際の開始時点とする。
そして、ステップS130では、入出力制御部260は、ステップS141で特定された時点以降のログを表示対象とする。
以上、実施の形態3について説明した。本実施の形態によれば、情報処理装置201は、所定の部位が撮影された時点以降をログの表示対象とする。このため、内視鏡110の位置が実質的な検査のスタート位置に到達した後のログだけを表示対象とすることができる。すなわち、実質的な検査の開始前のログの表示をしないようにすることができる。このため、実質的な検査のログの表示の視認性を向上できる。
<実施の形態4>
次に、実施の形態4について説明する。上述した実施の形態では、内視鏡110の撮影画像に対する検出処理による検出結果とユーザによる検出結果との食い違いについては、表示装置300の表示を見たユーザにより見出される。本実施の形態では、この食い違いを自動的に検出するための構成について説明する。
次に、実施の形態4について説明する。上述した実施の形態では、内視鏡110の撮影画像に対する検出処理による検出結果とユーザによる検出結果との食い違いについては、表示装置300の表示を見たユーザにより見出される。本実施の形態では、この食い違いを自動的に検出するための構成について説明する。
以下、実施の形態2と異なる点について説明し、重複する説明は適宜割愛する。本実施の形態では、情報処理装置200の代わりに、情報処理装置202が用いられる。
図12は、実施の形態4にかかる情報処理装置202の機能構成の一例を示すブロック図である。図12に示すように、情報処理装置202は、失敗検出部270をさらに有する点で、実施の形態2にかかる情報処理装置200と異なっている。なお、失敗検出部270の処理は、例えば、プロセッサ292が、メモリ291からソフトウェア(コンピュータプログラム)を読み出して実行することで実現される。
失敗検出部270は、ユーザ又は検出処理における病変部位の検出の失敗を検出する。すなわち、失敗検出部270は、内視鏡110を用いた検査中におけるユーザによる病変部位の検出の失敗、又は、病変検出部220による病変部位の検出の失敗を検出する。ここで、検出の失敗は、病変部位の検出漏れによる失敗と、正常な部位を誤って病変部位として検出する失敗(すなわち、誤検出による失敗)とを含む。失敗検出部270は、操作ログ取得部230が取得したログと検出ログ取得部240が取得したログとの対応関係をチェックすることにより、失敗を検出する。なお、失敗検出部270による検出された失敗は、実際には失敗ではない可能性もある。このため、失敗検出部270は、失敗候補を検出していると言うこともできる。
本実施の形態の失敗検出部270は、操作ログ取得部230が取得した病変画像と検出ログ取得部240が取得した病変画像とを比較することにより、ユーザ又は検出処理における病変部位の検出の失敗を検出する。具体的には、失敗検出部270は、操作ログ取得部230が取得した病変画像に写されている病変部位と同一の病変部位を写した病変画像が検出ログ取得部240により取得されているか否かを判定する。同様に、失敗検出部270は、検出ログ取得部240が取得した病変画像に写されている病変部位と同一の病変部位を写した病変画像が操作ログ取得部230により取得されているか否かを判定する。失敗検出部270は、例えば、操作ログ取得部230が取得した病変画像と検出ログ取得部240が取得した病変画像の類似度を算出することにより、一方の病変画像に写されている病変部位が他方の病変画像に写されているか否かを判定する。
操作ログ取得部230が取得した病変画像に写されている病変部位と同一の病変部位を写した病変画像が検出ログ取得部240により取得されていない場合、病変検出部220による検出漏れ、又は、ユーザによる誤検出が発生している恐れがある。したがって、失敗検出部270は、操作ログ取得部230が取得した病変画像に写されている病変部位と同一の病変部位を写した病変画像が検出ログ取得部240により取得されていない場合、当該病変部位についての検出の失敗を検出する。すなわち、失敗検出部270は、当該病変部位が写されている病変画像に関して失敗が発生していることを検出する。
また、検出ログ取得部240が取得した病変画像に写されている病変部位と同一の病変部位を写した病変画像が操作ログ取得部230により取得されていない場合、ユーザによる検出漏れ、又は、病変検出部220による誤検出が発生している恐れがある。したがって、失敗検出部270は、検出ログ取得部240が取得した病変画像に写されている病変部位と同一の病変部位を写した病変画像が操作ログ取得部230により取得されていない場合、当該病変部位についての検出の失敗を検出する。すなわち、失敗検出部270は、当該病変部位が写されている病変画像に関して失敗が発生していることを検出する。
本実施の形態の入出力制御部260は、失敗検出部270が失敗を検出した場合、どの病変画像に関して失敗を検出したかを表わす表示を行う。図13は、失敗検出部270が失敗を検出した場合の表示装置300の表示例を示す。図13に示した例では、病変画像66b、病変画像65b、及び病変画像66cに関して失敗が検出されたことが表示されている。
なお、上述した説明では、失敗検出部270は、病変画像を比較することにより失敗を検出したが、失敗検出部270は、撮影時点を比較することにより失敗を検出してもよい。例えば、失敗検出部270は、操作ログ取得部230により取得された撮影時点と検出ログ取得部240により取得された撮影時点とを比較することにより、ユーザ又は検出処理における病変部位の検出の失敗を検出してもよい。すなわち、失敗検出部270は、ユーザが保存を指示した病変画像の撮影時点と検出処理により検出された病変画像の撮影時点とを比較することにより、失敗を検出してもよい。具体的には、失敗検出部270は、所定の単位時間毎に、ユーザが保存を指示した病変画像の撮影時点と検出処理により検出された病変画像の撮影時点のうち、いずれか一方だけが取得されていないかどうかをチェックする。
チェック対象の単位時間において、ユーザが保存を指示した病変画像の撮影時点だけが取得されている場合、病変検出部220による検出漏れ、又は、ユーザによる誤検出が発生している恐れがある。したがって、この場合、失敗検出部270は、この単位時間において撮影された病変部位についての検出の失敗を検出する。また、チェック対象の単位時間において、検出処理により検出された病変画像の撮影時点だけが取得されている場合、ユーザによる検出漏れ、又は、病変検出部220による誤検出が発生している恐れがある。したがって、この場合、失敗検出部270は、この単位時間において撮影された病変部位についての検出の失敗を検出する。撮影時点の比較により失敗検出部270が失敗を検出した場合、入出力制御部260は、どの撮影時点に関して失敗を検出したかを表わす表示を行ってもよい。
このように、病変検出部220は、病変画像を比較することにより失敗を検出してもよいし、撮影時点を比較することにより失敗を検出してもよい。ただし、病変画像を比較することにより失敗を検出する方が、以下の点で好ましい。撮影時点を比較する場合、同一の病変部位に対してユーザ及び病変検出部220が適切に検出を行っていたとしても、病変画像に時間的な対応関係がない場合には検出の失敗が発生していると判定されてしまう。これに対して、病変画像を比較する場合、画像内容の比較が行われるため、そのような判定結果の発生を抑制することができる。
次に、情報処理装置202の動作例について説明する。図14は、情報処理装置202の動作の一例を示すフローチャートである。図14に示したフローチャートは、ステップS150が追加され、ステップS130がステップS151に置き換わっている点で、図9に示したフローチャートと異なっている。以下、図9に示したフローチャートと異なる点について説明する。
図14に示したフローチャートでは、ステップS112及びステップS121の処理の後、処理はステップS150へ移行する。ステップS150において、失敗検出部270は、操作ログ取得部230が取得したログと検出ログ取得部240が取得したログとの対応関係をチェックすることにより、ユーザ又は検出処理における病変部位の検出の失敗を検出する。ステップS150の後、処理はステップS151へ移行する。ステップS151において、入出力制御部260は、表示装置300において、ログと、失敗の検出結果とを表示する。
以上、実施の形態4について説明した。本実施の形態によれば、操作ログ取得部230が取得したログと検出ログ取得部240が取得したログとの対応関係をチェックすることにより、病変部位の検出の失敗が検出される。このため、ユーザは、より簡単に、内視鏡110の撮影画像に対する検出処理による検出結果とユーザによる検出結果との食い違いについて把握することができる。
<実施の形態5>
次に、実施の形態5について説明する。本実施の形態では、病変検出部220の検出精度を改善するためのフィードバックデータを生成する構成について説明する。
以下、実施の形態2と異なる点について説明し、重複する説明は適宜割愛する。本実施の形態では、情報処理装置200の代わりに、情報処理装置203が用いられる。
次に、実施の形態5について説明する。本実施の形態では、病変検出部220の検出精度を改善するためのフィードバックデータを生成する構成について説明する。
以下、実施の形態2と異なる点について説明し、重複する説明は適宜割愛する。本実施の形態では、情報処理装置200の代わりに、情報処理装置203が用いられる。
図15は、実施の形態5にかかる情報処理装置203の機能構成の一例を示すブロック図である。図15に示すように、情報処理装置203は、フィードバックデータ生成部275をさらに有する点で、実施の形態2にかかる情報処理装置200と異なっている。なお、フィードバックデータ生成部275の処理は、例えば、プロセッサ292が、メモリ291からソフトウェア(コンピュータプログラム)を読み出して実行することで実現される。
フィードバックデータ生成部275は、ユーザから入力された情報に基づいて、フィードバックデータを生成する。フィードバックデータ生成部275は、具体的には、フィードバックデータとして、病変画像と検出失敗情報とを対応付けたデータを生成する。ここで、検出失敗情報は、病変検出部220による検出の失敗についての分析情報であり、検出の失敗の種類(病変の検出漏れによる失敗か、病変の誤検出による失敗か)と失敗の要因とを含む。ただし、検出失敗情報は、必ずしも失敗の要因を含まなくてもよい。フィードバックデータ生成部275は、ユーザから入力された、病変画像を選択する指示と、選択された病変画像に対する、当該ユーザから入力された検出失敗情報とに基づいて、フィードバックデータを生成する。
本実施の形態では、入出力制御部260は、さらに、フィードバックデータを生成するためのユーザインタフェースを提供する。つまり、入出力制御部260は、病変画像を選択する指示の入力の受け付け処理、選択された病変画像に対する検出失敗情報の入力の受け付け処理を行う。また、入出力制御部260は、それらの処理のための画面の表示を行う。
図16及び図17は、フィードバックデータの生成のために表示装置300に表示される画面の表示例を示す模式図である。入出力制御部260は、表示装置300の画面における失敗情報領域70に、検出失敗情報を入力するための表示を行う。入出力制御部260は、図5などに示したログの表示画面において表示されている病変画像のいずれかを選択する入力をユーザから受け付けると、検出失敗情報を入力するための画面の表示を行う。なお、病変画像の選択は、検出ログ取得部240が取得した病変画像を選択するものであってもよいし、操作ログ取得部230が取得した病変画像を選択するものであってもよい。例えば、いずれかの病変画像をタッチ(タップ)又はクリックする操作がユーザによって行なわれることにより、当該病変画像が選択される。
失敗情報領域70には、選択された病変画像71が表示されるとともに、検出失敗情報の入力欄72が表示される。入力欄72は、検出の失敗の種類についての入力欄である種類入力欄721と、検出の失敗の要因についての入力欄である要因入力欄722とを含む。ユーザは、病変画像71を見て、検出失敗情報を入力する。例えば、ユーザは、失敗の検出の種類として適切なものを選択肢から選ぶとともに、失敗が発生した要因として適切なものを選択肢から選ぶ。
図16は、病変検出部220により誤検出された病変が写った病変画像についての検出失敗情報の入力画面の一例を示している。図16に示した例では、誤検出の要因の選択肢として、器具の映り込みによる誤検出、撮影画像がボケていることによる誤検出、泡などを病変として検出したことによる誤検出、撮影画像が暗すぎることによる誤検出、などが示されている。
図17は、病変検出部220により検出が見過ごされたもののユーザにより検出された病変が写った病変画像についての検出失敗情報の入力画面の一例を示している。図17では、検出漏れの要因の選択肢として、器具の映り込みによる検出漏れ、撮影画像がボケていることによる検出漏れ、泡などの映り込みによる検出漏れ、平坦型の病変のため検出が困難であったと推測される検出漏れ、などが示されている。
フィードバックデータ生成部275は、フィードバックデータとして、選択された病変画像と入力された検出失敗情報とを対応付けたデータを生成する。なお、フィードバックデータ生成部275は、選択された病変画像と類似する病変画像に対しても、選択された病変画像に対して入力された検出失敗情報と対応付けられたフィードバックデータを生成してもよい。フィードバックデータ生成部275は、生成したフィードバックデータをメモリ291などの記憶装置に記憶してもよいし、他の装置に提供してもよい。また、入出力制御部260は、生成されたフィードバックデータを、履歴として表示装置300に表示してもよい
次に、情報処理装置203の動作例について説明する。図18は、情報処理装置203の動作の一例を示すフローチャートである。図18に示したフローチャートは、ステップS160からステップS162が追加されている点で、図9に示したフローチャートと異なっている。以下、図9に示したフローチャートと異なる点について説明する。
図18に示したフローチャートでは、ステップS130の処理の後、処理はステップS160へ移行する。ステップS160において、入出力制御部260は、病変画像を選択する入力を受け付ける。そして、入出力制御部260は、上述した検出失敗情報の入力画面を表示する。次に、ステップS161において、入出力制御部260は、検出失敗情報の入力を受け付ける。そして、ステップS162において、フィードバックデータ生成部275は、ステップS160及びステップS161で受け付けられた入力に基づいて、フィードバックデータを生成する。
以上、実施の形態5について説明した。本実施の形態によれば、病変検出部220の検出の失敗についてのフィードバックデータが生成される。このため、病変検出部220の検出処理の精度の改善に有益なデータを得ることができる。
上述した各実施の形態については、様々な変形例が考えられ得る。例えば、上述した実施の形態では、出力画像取得部210がプロセッサ装置130からリアルタイムに撮影画像を取得し、病変検出部220がリアルタイムに病変の検出処理を行ったが、これらの処理はリアルタイムに行われなくてもよい。また、上述した実施の形態では、情報処理装置200、201、202、203が病変検出部220を有したが、情報処理装置200、201、202、203は、検出処理のログを取得できればよいため、病変検出部220は他の装置に設けられていてもよい。この場合、検出ログ取得部240は、当該他の装置から検出処理のログを取得する。また、上述した実施の形態2乃至5の特徴を任意に組み合わせてもよい。また、上述した実施の形態では、検査支援システム10は、表示装置140及び表示装置300を含んだが、いずれか一つの表示装置に全ての表示が行われてもよい。
以上、実施の形態を参照して本願発明を説明したが、本願発明は上記によって限定されるものではない。本願発明の構成や詳細には、発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
(付記1)
内視鏡を用いた検査の最中に前記内視鏡が撮影した一連の画像のうち、ユーザが保存を指示した病変画像の撮影時点を取得する第一の取得部と、
前記検査の最中に前記内視鏡が撮影した前記一連の画像に対する検出処理により検出された病変画像の撮影時点を取得する第二の取得部と、
前記第一の取得部が取得した撮影時点である第一の撮影時点と、前記第二の取得部が取得した撮影時点である第二の撮影時点とを、時間軸にプロットした表示を、表示装置に行う表示制御部と
を有する情報処理装置。
(付記2)
前記第一の取得部は、さらに、ユーザが保存を指示した病変画像である第一の病変画像を取得し、
前記第二の取得部は、さらに、前記検出処理により検出された病変画像である第二の病変画像を取得し、
前記表示制御部は、前記第一の撮影時点と対応付けて前記第一の病変画像を表示し、前記第二の撮影時点と対応付けて前記第二の病変画像を表示する
付記1に記載の情報処理装置。
(付記3)
同一の病変部位が検出された複数の前記第二の病変画像を特定し、当該複数の前記第二の病変画像の中から代表画像を選択する画像選択部をさらに有し、
前記表示制御部は、同一の病変部位が検出された複数の前記第二の病変画像のうち、前記代表画像として選択された前記第二の病変画像を表示する
付記2に記載の情報処理装置。
(付記4)
ユーザから入力された前記第一の病変画像又は前記第二の病変画像を選択する指示と、選択された病変画像に対する、当該ユーザから入力された検出失敗情報とに基づいて、当該病変画像と当該検出失敗情報とを対応付けたフィードバックデータを生成するフィードバックデータ生成部
をさらに有し、
前記検出失敗情報は、病変の誤検出又は病変の検出漏れのいずれかを検出の失敗の種類として示す情報である
付記2または3に記載の情報処理装置。
(付記5)
前記一連の画像のうち、生体内の管腔の所定の部位が撮影された画像を特定する所定部位画像特定部をさらに有し、
前記表示制御部は、前記所定の部位が撮影された画像の撮影時点以降の前記第二の撮影時点を前記時間軸にプロットする
付記1乃至4のいずれか1項に記載の情報処理装置。
(付記6)
前記内視鏡が撮影した画像を出力する画像出力装置が出力した前記一連の画像を取得する出力画像取得部をさらに有し、
前記画像出力装置は、前記内視鏡を用いた検査の最中にユーザが病変画像の保存を指示すると、指示時点から一定の時間が経過するまでの間、所定の特徴を有する画像を出力する装置であり、
前記第一の取得部は、前記出力画像取得部が取得した画像における前記特徴の有無に基づいて、保存の指示の発生時点を判定することにより、ユーザが保存を指示した病変画像の撮影時点及び当該病変画像を取得する
付記2に記載の情報処理装置。
(付記7)
前記表示制御部は、ユーザから入力された指示に基づいて、前記時間軸のスケールを拡大又は縮小して表示する
付記1乃至6のいずれか一項に記載の情報処理装置。
(付記8)
前記第一の取得部は、さらに、ユーザが保存を指示した病変画像である第一の病変画像を取得し、
前記第二の取得部は、さらに、前記検出処理により検出された病変画像である第二の病変画像を取得し、
前記情報処理装置は、前記第一の病変画像と前記第二の病変画像とを比較することにより、前記ユーザ又は前記検出処理における病変部位の検出の失敗を検出する失敗検出部をさらに有する
付記1乃至7のいずれか一項に記載の情報処理装置。
(付記9)
前記第一の撮影時点と前記第二の撮影時点とを比較することにより、前記ユーザ又は前記検出処理における病変部位の検出の失敗を検出する失敗検出部をさらに有する
付記1乃至7のいずれか一項に記載の情報処理装置。
(付記10)
内視鏡を用いた検査の最中に前記内視鏡が撮影した一連の画像のうち、ユーザが保存を指示した病変画像の撮影時点を取得し、
前記検査の最中に前記内視鏡が撮影した前記一連の画像に対する検出処理により検出された病変画像の撮影時点を取得し、
ユーザが保存を指示した病変画像の撮影時点である第一の撮影時点と、前記検出処理により検出された病変画像の撮影時点である第二の撮影時点とを、時間軸にプロットした表示を、表示装置に行う
表示方法。
(付記11)
内視鏡を用いた検査の最中に前記内視鏡が撮影した一連の画像のうち、ユーザが保存を指示した病変画像の撮影時点を取得する第一の取得ステップと、
前記検査の最中に前記内視鏡が撮影した前記一連の画像に対する検出処理により検出された病変画像の撮影時点を取得する第二の取得ステップと、
前記第一の取得ステップで取得された撮影時点である第一の撮影時点と、前記第二の取得ステップで取得された撮影時点である第二の撮影時点とを、時間軸にプロットした表示を、表示装置に行う表示制御ステップと
をコンピュータに実行させるプログラムが格納された非一時的なコンピュータ可読媒体。
(付記1)
内視鏡を用いた検査の最中に前記内視鏡が撮影した一連の画像のうち、ユーザが保存を指示した病変画像の撮影時点を取得する第一の取得部と、
前記検査の最中に前記内視鏡が撮影した前記一連の画像に対する検出処理により検出された病変画像の撮影時点を取得する第二の取得部と、
前記第一の取得部が取得した撮影時点である第一の撮影時点と、前記第二の取得部が取得した撮影時点である第二の撮影時点とを、時間軸にプロットした表示を、表示装置に行う表示制御部と
を有する情報処理装置。
(付記2)
前記第一の取得部は、さらに、ユーザが保存を指示した病変画像である第一の病変画像を取得し、
前記第二の取得部は、さらに、前記検出処理により検出された病変画像である第二の病変画像を取得し、
前記表示制御部は、前記第一の撮影時点と対応付けて前記第一の病変画像を表示し、前記第二の撮影時点と対応付けて前記第二の病変画像を表示する
付記1に記載の情報処理装置。
(付記3)
同一の病変部位が検出された複数の前記第二の病変画像を特定し、当該複数の前記第二の病変画像の中から代表画像を選択する画像選択部をさらに有し、
前記表示制御部は、同一の病変部位が検出された複数の前記第二の病変画像のうち、前記代表画像として選択された前記第二の病変画像を表示する
付記2に記載の情報処理装置。
(付記4)
ユーザから入力された前記第一の病変画像又は前記第二の病変画像を選択する指示と、選択された病変画像に対する、当該ユーザから入力された検出失敗情報とに基づいて、当該病変画像と当該検出失敗情報とを対応付けたフィードバックデータを生成するフィードバックデータ生成部
をさらに有し、
前記検出失敗情報は、病変の誤検出又は病変の検出漏れのいずれかを検出の失敗の種類として示す情報である
付記2または3に記載の情報処理装置。
(付記5)
前記一連の画像のうち、生体内の管腔の所定の部位が撮影された画像を特定する所定部位画像特定部をさらに有し、
前記表示制御部は、前記所定の部位が撮影された画像の撮影時点以降の前記第二の撮影時点を前記時間軸にプロットする
付記1乃至4のいずれか1項に記載の情報処理装置。
(付記6)
前記内視鏡が撮影した画像を出力する画像出力装置が出力した前記一連の画像を取得する出力画像取得部をさらに有し、
前記画像出力装置は、前記内視鏡を用いた検査の最中にユーザが病変画像の保存を指示すると、指示時点から一定の時間が経過するまでの間、所定の特徴を有する画像を出力する装置であり、
前記第一の取得部は、前記出力画像取得部が取得した画像における前記特徴の有無に基づいて、保存の指示の発生時点を判定することにより、ユーザが保存を指示した病変画像の撮影時点及び当該病変画像を取得する
付記2に記載の情報処理装置。
(付記7)
前記表示制御部は、ユーザから入力された指示に基づいて、前記時間軸のスケールを拡大又は縮小して表示する
付記1乃至6のいずれか一項に記載の情報処理装置。
(付記8)
前記第一の取得部は、さらに、ユーザが保存を指示した病変画像である第一の病変画像を取得し、
前記第二の取得部は、さらに、前記検出処理により検出された病変画像である第二の病変画像を取得し、
前記情報処理装置は、前記第一の病変画像と前記第二の病変画像とを比較することにより、前記ユーザ又は前記検出処理における病変部位の検出の失敗を検出する失敗検出部をさらに有する
付記1乃至7のいずれか一項に記載の情報処理装置。
(付記9)
前記第一の撮影時点と前記第二の撮影時点とを比較することにより、前記ユーザ又は前記検出処理における病変部位の検出の失敗を検出する失敗検出部をさらに有する
付記1乃至7のいずれか一項に記載の情報処理装置。
(付記10)
内視鏡を用いた検査の最中に前記内視鏡が撮影した一連の画像のうち、ユーザが保存を指示した病変画像の撮影時点を取得し、
前記検査の最中に前記内視鏡が撮影した前記一連の画像に対する検出処理により検出された病変画像の撮影時点を取得し、
ユーザが保存を指示した病変画像の撮影時点である第一の撮影時点と、前記検出処理により検出された病変画像の撮影時点である第二の撮影時点とを、時間軸にプロットした表示を、表示装置に行う
表示方法。
(付記11)
内視鏡を用いた検査の最中に前記内視鏡が撮影した一連の画像のうち、ユーザが保存を指示した病変画像の撮影時点を取得する第一の取得ステップと、
前記検査の最中に前記内視鏡が撮影した前記一連の画像に対する検出処理により検出された病変画像の撮影時点を取得する第二の取得ステップと、
前記第一の取得ステップで取得された撮影時点である第一の撮影時点と、前記第二の取得ステップで取得された撮影時点である第二の撮影時点とを、時間軸にプロットした表示を、表示装置に行う表示制御ステップと
をコンピュータに実行させるプログラムが格納された非一時的なコンピュータ可読媒体。
1 情報処理装置
2 第一の取得部
3 第二の取得部
4 表示制御部
10 検査支援システム
62 時間軸
63 印
64 印
100 内視鏡システム
110 内視鏡
111 挿入部
112 操作部
113 撮像部
120 光源装置
130 プロセッサ装置
140 表示装置
200 情報処理装置
201 情報処理装置
202 情報処理装置
203 情報処理装置
210 出力画像取得部
220 病変検出部
230 操作ログ取得部
240 検出ログ取得部
250 画像選択部
260 入出力制御部
265 所定部位画像特定部
270 失敗検出部
275 フィードバックデータ生成部
300 表示装置
2 第一の取得部
3 第二の取得部
4 表示制御部
10 検査支援システム
62 時間軸
63 印
64 印
100 内視鏡システム
110 内視鏡
111 挿入部
112 操作部
113 撮像部
120 光源装置
130 プロセッサ装置
140 表示装置
200 情報処理装置
201 情報処理装置
202 情報処理装置
203 情報処理装置
210 出力画像取得部
220 病変検出部
230 操作ログ取得部
240 検出ログ取得部
250 画像選択部
260 入出力制御部
265 所定部位画像特定部
270 失敗検出部
275 フィードバックデータ生成部
300 表示装置
Claims (11)
- 内視鏡を用いた検査の最中に前記内視鏡が撮影した一連の画像のうち、ユーザが保存を指示した病変画像の撮影時点を取得する第一の取得部と、
前記検査の最中に前記内視鏡が撮影した前記一連の画像に対する検出処理により検出された病変画像の撮影時点を取得する第二の取得部と、
前記第一の取得部が取得した撮影時点である第一の撮影時点と、前記第二の取得部が取得した撮影時点である第二の撮影時点とを、時間軸にプロットした表示を、表示装置に行う表示制御部と
を有する情報処理装置。 - 前記第一の取得部は、さらに、ユーザが保存を指示した病変画像である第一の病変画像を取得し、
前記第二の取得部は、さらに、前記検出処理により検出された病変画像である第二の病変画像を取得し、
前記表示制御部は、前記第一の撮影時点と対応付けて前記第一の病変画像を表示し、前記第二の撮影時点と対応付けて前記第二の病変画像を表示する
請求項1に記載の情報処理装置。 - 同一の病変部位が検出された複数の前記第二の病変画像を特定し、当該複数の前記第二の病変画像の中から代表画像を選択する画像選択部をさらに有し、
前記表示制御部は、同一の病変部位が検出された複数の前記第二の病変画像のうち、前記代表画像として選択された前記第二の病変画像を表示する
請求項2に記載の情報処理装置。 - ユーザから入力された前記第一の病変画像又は前記第二の病変画像を選択する指示と、選択された病変画像に対する、当該ユーザから入力された検出失敗情報とに基づいて、当該病変画像と当該検出失敗情報とを対応付けたフィードバックデータを生成するフィードバックデータ生成部
をさらに有し、
前記検出失敗情報は、病変の誤検出又は病変の検出漏れのいずれかを検出の失敗の種類として示す情報である
請求項2または3に記載の情報処理装置。 - 前記一連の画像のうち、生体内の管腔の所定の部位が撮影された画像を特定する所定部位画像特定部をさらに有し、
前記表示制御部は、前記所定の部位が撮影された画像の撮影時点以降の前記第二の撮影時点を前記時間軸にプロットする
請求項1乃至4のいずれか1項に記載の情報処理装置。 - 前記内視鏡が撮影した画像を出力する画像出力装置が出力した前記一連の画像を取得する出力画像取得部をさらに有し、
前記画像出力装置は、前記内視鏡を用いた検査の最中にユーザが病変画像の保存を指示すると、指示時点から一定の時間が経過するまでの間、所定の特徴を有する画像を出力する装置であり、
前記第一の取得部は、前記出力画像取得部が取得した画像における前記特徴の有無に基づいて、保存の指示の発生時点を判定することにより、ユーザが保存を指示した病変画像の撮影時点及び当該病変画像を取得する
請求項2に記載の情報処理装置。 - 前記表示制御部は、ユーザから入力された指示に基づいて、前記時間軸のスケールを拡大又は縮小して表示する
請求項1乃至6のいずれか一項に記載の情報処理装置。 - 前記第一の取得部は、さらに、ユーザが保存を指示した病変画像である第一の病変画像を取得し、
前記第二の取得部は、さらに、前記検出処理により検出された病変画像である第二の病変画像を取得し、
前記情報処理装置は、前記第一の病変画像と前記第二の病変画像とを比較することにより、前記ユーザ又は前記検出処理における病変部位の検出の失敗を検出する失敗検出部をさらに有する
請求項1乃至7のいずれか一項に記載の情報処理装置。 - 前記第一の撮影時点と前記第二の撮影時点とを比較することにより、前記ユーザ又は前記検出処理における病変部位の検出の失敗を検出する失敗検出部をさらに有する
請求項1乃至7のいずれか一項に記載の情報処理装置。 - 内視鏡を用いた検査の最中に前記内視鏡が撮影した一連の画像のうち、ユーザが保存を指示した病変画像の撮影時点を取得し、
前記検査の最中に前記内視鏡が撮影した前記一連の画像に対する検出処理により検出された病変画像の撮影時点を取得し、
ユーザが保存を指示した病変画像の撮影時点である第一の撮影時点と、前記検出処理により検出された病変画像の撮影時点である第二の撮影時点とを、時間軸にプロットした表示を、表示装置に行う
表示方法。 - 内視鏡を用いた検査の最中に前記内視鏡が撮影した一連の画像のうち、ユーザが保存を指示した病変画像の撮影時点を取得する第一の取得ステップと、
前記検査の最中に前記内視鏡が撮影した前記一連の画像に対する検出処理により検出された病変画像の撮影時点を取得する第二の取得ステップと、
前記第一の取得ステップで取得された撮影時点である第一の撮影時点と、前記第二の取得ステップで取得された撮影時点である第二の撮影時点とを、時間軸にプロットした表示を、表示装置に行う表示制御ステップと
をコンピュータに実行させるプログラムが格納された非一時的なコンピュータ可読媒体。
Priority Applications (7)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2022512893A JP7260060B2 (ja) | 2020-03-30 | 2020-03-30 | 情報処理装置、表示方法、及びプログラム |
| EP20928911.5A EP4129150A4 (en) | 2020-03-30 | 2020-03-30 | INFORMATION PROCESSING DEVICE, DISPLAY METHOD AND NON-VOLATILE COMPUTER READABLE MEDIA WITH A PROGRAM STORED ON IT |
| US17/637,141 US12080059B2 (en) | 2020-03-30 | 2020-03-30 | Information processing device, display method, and nontransitory computer-readable medium for storing program |
| PCT/JP2020/014537 WO2021199152A1 (ja) | 2020-03-30 | 2020-03-30 | 情報処理装置、表示方法、及びプログラムが格納された非一時的なコンピュータ可読媒体 |
| US18/544,539 US12417626B2 (en) | 2020-03-30 | 2023-12-19 | Information processing device, display method, and non-transitory computer-readable medium for supporting medical decision making |
| US18/544,528 US20240119726A1 (en) | 2020-03-30 | 2023-12-19 | Information processing device, display method, and non-transitory computer-readable medium for storing program |
| US18/544,548 US12488584B2 (en) | 2020-03-30 | 2023-12-19 | Information processing device, display method, and non-transitory computer-readable medium for storing program |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/JP2020/014537 WO2021199152A1 (ja) | 2020-03-30 | 2020-03-30 | 情報処理装置、表示方法、及びプログラムが格納された非一時的なコンピュータ可読媒体 |
Related Child Applications (4)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| US17/637,141 A-371-Of-International US12080059B2 (en) | 2020-03-30 | 2020-03-30 | Information processing device, display method, and nontransitory computer-readable medium for storing program |
| US18/544,528 Continuation US20240119726A1 (en) | 2020-03-30 | 2023-12-19 | Information processing device, display method, and non-transitory computer-readable medium for storing program |
| US18/544,539 Continuation US12417626B2 (en) | 2020-03-30 | 2023-12-19 | Information processing device, display method, and non-transitory computer-readable medium for supporting medical decision making |
| US18/544,548 Continuation US12488584B2 (en) | 2020-03-30 | 2023-12-19 | Information processing device, display method, and non-transitory computer-readable medium for storing program |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2021199152A1 true WO2021199152A1 (ja) | 2021-10-07 |
Family
ID=77928008
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2020/014537 Ceased WO2021199152A1 (ja) | 2020-03-30 | 2020-03-30 | 情報処理装置、表示方法、及びプログラムが格納された非一時的なコンピュータ可読媒体 |
Country Status (4)
| Country | Link |
|---|---|
| US (4) | US12080059B2 (ja) |
| EP (1) | EP4129150A4 (ja) |
| JP (1) | JP7260060B2 (ja) |
| WO (1) | WO2021199152A1 (ja) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2023089717A1 (ja) * | 2021-11-18 | 2023-05-25 | 日本電気株式会社 | 情報処理装置、情報処理方法、及び、記録媒体 |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000276587A (ja) * | 1999-01-22 | 2000-10-06 | Fuji Photo Film Co Ltd | 異常陰影検出処理方法およびシステム |
| JP2004180932A (ja) * | 2002-12-03 | 2004-07-02 | Toshiba Corp | コンピュータ支援診断装置 |
| JP2006061469A (ja) | 2004-08-27 | 2006-03-09 | Olympus Corp | 画像表示装置および画像表示プログラム |
| JP2007307396A (ja) * | 2003-04-25 | 2007-11-29 | Olympus Corp | 画像表示装置、画像表示方法および画像表示プログラム |
| WO2018198327A1 (ja) * | 2017-04-28 | 2018-11-01 | オリンパス株式会社 | 内視鏡診断支援システム、内視鏡診断支援プログラム及び内視鏡診断支援方法 |
| WO2019088008A1 (ja) * | 2017-10-31 | 2019-05-09 | 富士フイルム株式会社 | 画像処理装置、画像処理方法、プログラム、及び内視鏡システム |
Family Cites Families (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN101288582A (zh) | 2003-04-25 | 2008-10-22 | 奥林巴斯株式会社 | 图像显示装置和图像显示方法 |
| US20090054755A1 (en) * | 2006-03-02 | 2009-02-26 | Takao Shiibashi | Medical imaging system |
| US20120316421A1 (en) | 2009-07-07 | 2012-12-13 | The Johns Hopkins University | System and method for automated disease assessment in capsule endoscopy |
| JP6116899B2 (ja) * | 2012-01-16 | 2017-04-19 | 東芝メディカルシステムズ株式会社 | 医用画像診断装置及び制御プログラム |
| DE102013016204A1 (de) * | 2013-09-28 | 2015-04-02 | Fresenius Medical Care Deutschland Gmbh | Sensorik zur Detektion von Phasen und/oder Phasenübergängen bei Peritonealdialysebehandlungen |
| JP6196922B2 (ja) * | 2014-03-17 | 2017-09-13 | オリンパス株式会社 | 画像処理装置、画像処理方法、及び画像処理プログラム |
| WO2018159363A1 (ja) | 2017-03-01 | 2018-09-07 | 富士フイルム株式会社 | 内視鏡システム及びその作動方法 |
| EP3594958A4 (en) * | 2017-03-07 | 2020-03-04 | Sony Olympus Medical Solutions Inc. | DEVICE FOR MANAGING MEDICAL DATA, METHOD FOR MANAGING MEDICAL DATA AND SYSTEM FOR MANAGING MEDICAL DATA |
| EP3636134A4 (en) | 2017-05-25 | 2021-03-10 | Nec Corporation | INFORMATION PROCESSING DEVICE, ORDERING PROCESS AND PROGRAM |
| KR20190046530A (ko) * | 2017-10-26 | 2019-05-07 | 아주대학교산학협력단 | 캡슐내시경의 위치 추적 방법 및 장치 |
-
2020
- 2020-03-30 US US17/637,141 patent/US12080059B2/en active Active
- 2020-03-30 WO PCT/JP2020/014537 patent/WO2021199152A1/ja not_active Ceased
- 2020-03-30 JP JP2022512893A patent/JP7260060B2/ja active Active
- 2020-03-30 EP EP20928911.5A patent/EP4129150A4/en active Pending
-
2023
- 2023-12-19 US US18/544,548 patent/US12488584B2/en active Active
- 2023-12-19 US US18/544,528 patent/US20240119726A1/en active Pending
- 2023-12-19 US US18/544,539 patent/US12417626B2/en active Active
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000276587A (ja) * | 1999-01-22 | 2000-10-06 | Fuji Photo Film Co Ltd | 異常陰影検出処理方法およびシステム |
| JP2004180932A (ja) * | 2002-12-03 | 2004-07-02 | Toshiba Corp | コンピュータ支援診断装置 |
| JP2007307396A (ja) * | 2003-04-25 | 2007-11-29 | Olympus Corp | 画像表示装置、画像表示方法および画像表示プログラム |
| JP2006061469A (ja) | 2004-08-27 | 2006-03-09 | Olympus Corp | 画像表示装置および画像表示プログラム |
| WO2018198327A1 (ja) * | 2017-04-28 | 2018-11-01 | オリンパス株式会社 | 内視鏡診断支援システム、内視鏡診断支援プログラム及び内視鏡診断支援方法 |
| WO2019088008A1 (ja) * | 2017-10-31 | 2019-05-09 | 富士フイルム株式会社 | 画像処理装置、画像処理方法、プログラム、及び内視鏡システム |
Non-Patent Citations (1)
| Title |
|---|
| See also references of EP4129150A4 |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2023089717A1 (ja) * | 2021-11-18 | 2023-05-25 | 日本電気株式会社 | 情報処理装置、情報処理方法、及び、記録媒体 |
| JPWO2023089717A1 (ja) * | 2021-11-18 | 2023-05-25 | ||
| EP4434434A4 (en) * | 2021-11-18 | 2025-01-15 | NEC Corporation | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND RECORDING MEDIUM |
Also Published As
| Publication number | Publication date |
|---|---|
| US20240119728A1 (en) | 2024-04-11 |
| US12488584B2 (en) | 2025-12-02 |
| EP4129150A4 (en) | 2023-05-24 |
| US20220343644A1 (en) | 2022-10-27 |
| US20240119727A1 (en) | 2024-04-11 |
| US12080059B2 (en) | 2024-09-03 |
| EP4129150A1 (en) | 2023-02-08 |
| US20240119726A1 (en) | 2024-04-11 |
| US12417626B2 (en) | 2025-09-16 |
| JPWO2021199152A1 (ja) | 2021-10-07 |
| JP7260060B2 (ja) | 2023-04-18 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6967602B2 (ja) | 検査支援装置、内視鏡装置、内視鏡装置の作動方法、及び検査支援プログラム | |
| KR102531400B1 (ko) | 인공 지능 기반 대장 내시경 영상 진단 보조 시스템 및 방법 | |
| WO2018008593A1 (ja) | 画像診断学習装置、画像診断装置、方法およびプログラムを格納する記憶媒体 | |
| US12137879B2 (en) | Image processing apparatus, image processing method, and endoscope apparatus | |
| KR102714219B1 (ko) | 위장 질환 및 위암 검출률 향상을 위한 인공 지능 기반 위 내시경 영상 진단 보조 시스템 및 방법 | |
| JPWO2017002184A1 (ja) | 画像処理装置、内視鏡システム、画像処理方法、及び画像処理プログラム | |
| US20200090548A1 (en) | Image processing apparatus, image processing method, and computer-readable recording medium | |
| JP7248098B2 (ja) | 検査装置、検査方法及び記憶媒体 | |
| EP3945459A1 (en) | Devices, systems, and methods for labeling objects of interest during a medical procedure | |
| US12488584B2 (en) | Information processing device, display method, and non-transitory computer-readable medium for storing program | |
| KR102536369B1 (ko) | 인공 지능 기반 위 내시경 영상 진단 보조 시스템 및 방법 | |
| US20250281022A1 (en) | Endoscopy support device, endoscopy support method, and recording medium | |
| US20250000329A1 (en) | Information processing device, information processing method, and recording medium | |
| WO2022080141A1 (ja) | 内視鏡撮影装置、方法およびプログラム | |
| JP2023104637A (ja) | 医用画像処理装置、超音波診断装置、及びプログラム | |
| JP7448923B2 (ja) | 情報処理装置、情報処理装置の作動方法、及びプログラム | |
| CN116916808A (zh) | 医用图像处理装置、医用图像处理方法及程序 | |
| US20250166297A1 (en) | Image processing apparatus, image processing method, and storage medium | |
| KR102829233B1 (ko) | 이미지 수득의 최적 조건 자동 유도 특징을 갖는 의료영상의 광학적 병리진단 시스템 | |
| US12244971B2 (en) | Information processing device, information processing method and computer-readable recording medium | |
| US20250078260A1 (en) | Image determination device, image determination method, and recording medium | |
| JP7742894B2 (ja) | 医療支援システム、医療支援システムの作動方法、記憶媒体および医療用制御装置 | |
| US20240335093A1 (en) | Medical support device, endoscope system, medical support method, and program | |
| US20240095919A1 (en) | Image processing device, endoscope system, image processing method, and information storage medium | |
| KR20240159306A (ko) | 딥러닝 모델을 활용한 내시경 영상 분석 서비스 제공 방법 및 장치 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 20928911 Country of ref document: EP Kind code of ref document: A1 |
|
| ENP | Entry into the national phase |
Ref document number: 2022512893 Country of ref document: JP Kind code of ref document: A |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| ENP | Entry into the national phase |
Ref document number: 2020928911 Country of ref document: EP Effective date: 20221031 |