[go: up one dir, main page]

WO2025141691A1 - Object detection device, object detection method, object detection program, and endoscope system - Google Patents

Object detection device, object detection method, object detection program, and endoscope system Download PDF

Info

Publication number
WO2025141691A1
WO2025141691A1 PCT/JP2023/046634 JP2023046634W WO2025141691A1 WO 2025141691 A1 WO2025141691 A1 WO 2025141691A1 JP 2023046634 W JP2023046634 W JP 2023046634W WO 2025141691 A1 WO2025141691 A1 WO 2025141691A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
specific object
endoscopic
unit
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
PCT/JP2023/046634
Other languages
French (fr)
Japanese (ja)
Inventor
政輝 田頭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Medical Systems Corp
Original Assignee
Olympus Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Medical Systems Corp filed Critical Olympus Medical Systems Corp
Priority to PCT/JP2023/046634 priority Critical patent/WO2025141691A1/en
Publication of WO2025141691A1 publication Critical patent/WO2025141691A1/en
Pending legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • This invention relates to an object detection device, an object detection method, an object detection program, and an endoscope system that detect an image area of a specific object from an image acquired by an endoscope.
  • endoscope systems consisting of an endoscope that captures images of the inside of a subject and acquires image data, a processor that performs various image processing operations on the image data acquired by the endoscope, a display device that displays the image data processed by the processor as a visible image, and a storage device that records or stores the image data, have been widely used in, for example, the medical and industrial fields.
  • this type of endoscope system is widely used to perform various types of examinations to observe the inside of living organs, etc.
  • an examination using a medical endoscope system (hereinafter referred to as an endoscopic examination), for example, while the insertion part of the endoscope inserted inside the organ is being pulled out, images are captured by an imaging device provided at the tip of the insertion part.
  • the endoscopic images acquired by the imaging device are displayed in real time, sequentially as moving images, using a display device.
  • the moving image data can also be stored in a storage device.
  • the doctor performs so-called screening, searching for lesions such as polyps or tumors occurring on the inner walls of organs as specific objects (hereafter referred to as specific objects) while observing the real-time endoscopic image displayed on the display device (or, after the examination, reconstructing the endoscopic image based on recorded or stored endoscopic image data).
  • Japanese Patent Publication No. 2004-207842 discloses an image processing device in which a target image for identifying the object to be saved is registered in advance, and a series of image data being captured is analyzed in sequence based on the registered target image data. When an image containing a registered target is detected from the series of captured images, that captured image is extracted as the object to be saved and saved (recorded or stored).
  • CAD computer-aided diagnosis
  • CAD computer-aided diagnosis
  • the marking display is generally cancelled if the specific object disappears from the image being displayed.
  • CAD computer-aided diagnosis
  • the universal cable 23 is a connection cord for connecting the endoscope 20 to the light source device 40 and the processor 10.
  • the universal cable 23 is made of a tubular member extending from the side of the operation unit body 22a of the operation unit 22.
  • a scope connector 23a is provided at the tip of the universal cable 23. This scope connector 23a is connected to the front panel of the light source device 40.
  • the storage device 50 is a storage device that saves (records or stores) image data for storage that is generated for storage by various processes performed by the processor 10 based on the image information generated by the imaging unit 26.
  • the storage device 50 is integrally arranged inside the housing of the processor 10, but this is not limited to the configuration.
  • the storage device 50 may be configured as an external storage device that is configured using a housing separate from the processor 10.
  • the temporary storage unit 51 is provided inside the storage device 50, but this is not a limited configuration.
  • the temporary storage unit 51 can also be provided integrally inside the storage control unit 13 (see FIG. 2), which will be described later.
  • processor 10 and the light source device 40 are not limited to being configured separately, as in the example configuration shown in FIG. 1.
  • the processor 10 and the light source device 40 may be configured integrally using a single housing.
  • the configuration of the lighting unit 25 is not limited to the above-mentioned configuration (a form in which the lighting light from the light source device 40 is transmitted to the tip portion 21a via an optical fiber cable or the like).
  • a configuration of the lighting unit 25 other than this configuration for example, a light-emitting element such as an LED (Light Emitting Diode) as a lighting light source can be provided inside the tip portion 21a, and the power supply to the lighting light source (LED) and its light emission control can be controlled by a predetermined control circuit included in the processor 10.
  • the endoscope system 1 configured as described above basically has a configuration similar to that of a conventional endoscope system of the same type. Therefore, illustrations and detailed descriptions of other detailed configurations are omitted.
  • the object detection device of this embodiment is configured to be included in the processor 10.
  • the internal configuration of the processor in an endoscope system including an object detection device of one embodiment of the present invention will be described in detail below with reference to FIG. 2.
  • the processor 10 is configured with an image processing unit 11, a display control unit 12, a memory control unit 13, a specific object image detection unit 14, an operation determination unit 15, a focus control unit 16, an illumination control unit 17, a memory device 50 including a temporary memory unit 51, and the like.
  • the image processing unit 11 is a structural unit or circuit unit that receives image information output from the imaging unit 26 and performs various information processing based on the image information.
  • the image processing performed here includes, for example, normal image information processing, display image data processing, storage image data processing, various types of image processing, etc.
  • the storage image data processing is a process for generating image data for recording (first image data, second image data, etc.).
  • the display control unit 12 is a structural unit or circuit unit that controls the display device 30 so that an appropriate display format is displayed according to the display image data output from the image processing unit 11.
  • the display control unit 12 also controls the display of various information other than image information (text information, icon information, etc.).
  • the various information other than image information includes examination date and time information, subject (patient) information, medical record information, etc., as well as various alarm information (notification information) that is displayed as appropriate during an endoscopic examination, for example.
  • the display control unit 12 performs display control to continuously display the endoscopic image in the first display area. In addition, when the disappearance of a specific object is detected from the endoscopic image, the display control unit 12 performs display control to display a reference image based on the second image data in a specified area (second display area) of the display device 30.
  • the disappearance here refers to cases where the specific object is displayed on the screen but is overlooked by the operator without noticing, where it is lost by unconsciously moving or operating the device, or where the object itself moves and becomes lost. In these cases, it is best to search for the object as soon as it disappears. This is because the area to be inspected is wide, and if it is overlooked once, it will be time-consuming to reinspect the same position. This disappearance can be detected and an alarm can be issued. This can be done by applying various methods to alert the operator, such as sound or vibration.
  • the display control unit 12 performs display control to display a notification in a predetermined area (e.g., the alarm display area 104 (see FIG. 4)) on the display screen of the display device 30 to the effect that the same specific object contained in the reference image has been detected again.
  • a predetermined area e.g., the alarm display area 104 (see FIG. 4)
  • the memory control unit 13 is a structural unit or circuit unit that controls the memory device 50 (including the temporary memory unit 51) so that the image data to be stored is saved (recorded or stored) in an appropriate storage format according to the image data to be stored output from the image processing unit 11.
  • “Deep learning” is a multi-layered structure of the “machine learning” process using neural networks.
  • a typical example is the "forward propagation neural network” which sends information from front to back and makes a judgment.
  • it has three layers: an input layer consisting of N1 neurons, a middle layer consisting of N2 neurons given by parameters, and an output layer consisting of N3 neurons corresponding to the number of classes to be discriminated.
  • the neurons in the input layer and middle layer, and the middle layer and output layer are each connected by a connection weight, and a bias value is added to the middle layer and output layer, making it easy to form logic gates.
  • Three layers are sufficient for simple discrimination, but if there are many middle layers, it is also possible to learn how to combine multiple features in the machine learning process. In recent years, 9 to 152 layers have become practical in terms of the time it takes to learn, the accuracy of judgment, and the energy consumption.
  • processor 10 includes hardware.
  • the processor 10 is configured with well-known components including, for example, a central processing unit (CPU), random access memory (RAM), read only memory (ROM), non-volatile memory, non-volatile storage, and non-transitory computer readable medium, as well as peripheral devices thereof.
  • CPU central processing unit
  • RAM random access memory
  • ROM read only memory
  • non-volatile memory non-volatile storage
  • non-transitory computer readable medium as well as peripheral devices thereof.
  • the processor 10 may also be configured with a semiconductor chip such as an FPGA (Field Programmable Gate Array). Furthermore, the processor 10 may also be configured with an electronic circuit.
  • a semiconductor chip such as an FPGA (Field Programmable Gate Array).
  • the processor 10 may also be configured with an electronic circuit.
  • step S3 if it is confirmed that the endoscope system 1 is in a screening state, the process proceeds to the next step S2. If it is confirmed that the endoscope system 1 is not in a screening state, the process proceeds to step S11. Although screening is described here as a representative operation for searching for a specific object, it is not necessary that the control from S2 onwards is performed only in the screening state, and similar processing may be performed in other states.
  • step S11 If the instruction to end the test is confirmed in step S11, the process ends (END). If the instruction to end the test is not confirmed, the process returns to step S1 described above.
  • step S3 If a specific object is detected, the process proceeds to step S3. If a specific object is not detected, the process proceeds to step S11. The process from step S11 onwards is as described above.
  • Reference numeral 106 in FIG. 5 denotes a frame display corresponding to the image area including the detected specific object 101b. In this way, by displaying the frame 106 in the first display area 101, it is clearly indicated to the user (doctor, etc.) of the endoscope system 1 that the specific object 101b has been detected in the first image 101a. In this way, at the time of detection of the specific object 101b, for example, a display such as that shown in FIG. 5 is displayed.
  • each of the detected images of the specific objects is stored as second image data in a separate file.
  • feature information for each of the multiple specific objects is acquired.
  • each piece of acquired feature information is stored in association with the corresponding second image data.
  • the second image data is temporarily stored for each frame. In this case, it is not necessary to accumulate and store all the second image data. For example, only the most recent second image data, or a predetermined amount of second image data for the past few seconds including the most recent image data, may be stored in the temporary storage area.
  • step S4 the processor 10 checks whether the specific object detected in the processing of step S2 described above has disappeared (lost sight) from the endoscopic image being displayed. If it is confirmed that the detected specific object has disappeared from the endoscopic image, the process proceeds to the next step S5. If it is not confirmed that the detected specific object has disappeared from the endoscopic image, the process proceeds to step S12.
  • step S12 the processor 10 refers to an internal clock (not shown) and waits for a predetermined time to elapse, and after the predetermined time has elapsed, proceeds to the processing of step S10.
  • step S5 the processor 10 displays a second image based on the latest second image data temporarily stored in the processing of step S3 described above as a reference image in the second display area 102 on the display screen of the display device 30.
  • FIG. 6 shows an example of the display on the display screen of the display device 30 at the point in time (step S5) when the second image (reference image) is displayed in the second display area after the detected specific object has disappeared (step S4) during endoscopic examination.
  • the specific object 101b displayed in FIG. 5 has disappeared from the first image 101a (endoscopic image) displayed in the first display area 101.
  • the display of the frame 106 also disappears at the same time as the specific object 101b disappears (step S4).
  • the second image 102a is displayed in the second display area 102 (step S5).
  • the second image 102a displayed in the second display area 102 is a still image in a reduced form of the first image 101a (see FIG. 5) immediately before the specific object 101b disappeared.
  • This second image 102a is a second image based on the latest second image data temporarily stored (temporarily recorded) in the processing of step S3 described above.
  • the display will be as shown in FIG. 6.
  • step S6 of FIG. 3 the processor 10 checks whether the same specific object has been detected again within a predetermined time (e.g., about 5 seconds).
  • a predetermined time e.g., about 5 seconds.
  • the same specific object is assumed to be the specific object that was once detected from the endoscopic image in the processing of step S2 described above, and that disappeared (lost sight, overlooked) from the endoscopic image in the processing of step S4 described above.
  • this need can be met if the image area that contains the specific object contained in the reference image based on the specific object imaging result image data is temporarily recorded (temporarily stored) as a candidate for focusing.
  • step S6 If it is determined in step S6 that the same specific object has been detected again within a predetermined time, the process proceeds to step S7. If the same specific object has not been detected again, the process proceeds to step S10, and the subsequent inspections are continued.
  • step S7 the processor 10 checks whether the same specific object detected again in the processing of step S6 described above has been continuously displayed for a predetermined time. If it is confirmed that the same specific object has been continuously displayed for a predetermined time, the processor proceeds to the processing of the next step S8. If the same specific object has not been continuously displayed for the predetermined time, the processor returns to the processing of step S4 described above.
  • Figure 7 shows an example of the display on the display screen of the display device 30 at the time when the same specific object is detected again during an endoscopic examination.
  • the same specific object 101b is simultaneously displayed within the first image 101a displayed in the first display area 101 in Figure 7.
  • the frame 106 is also displayed at the same time as the specific object 101b is redetected.
  • the display of the second image 102a in the second display area 102 is maintained.
  • a predetermined notification display is made in a predetermined area of the display screen of the display device 30. For example, in the example shown in FIG. 7, a predetermined notification display, "! Redetected!, appears in the alarm display area 104. This may be assisted by audio.
  • This notification display notifies the user that the specific object 101b contained in the area surrounded by the frame 106 in the first display area 101 is the specific object that has been detected again this time, and that this specific object is the same specific object that was detected before it disappeared.
  • the notification display be a flashing or colored display, for example, so that the notification information is clearly indicated to the user (doctor, etc.) of the endoscope system 1.
  • the display will be, for example, as shown in FIG. 7.
  • step S8 of FIG. 3 the processor 10 controls the display control unit 12 to stop displaying the reference image being displayed in the second display area.
  • the processor 10 controls the focus control unit 16 to execute automatic focus adjustment control (autofocus control; AF control) with a specific object as a specific target.
  • the automatic focus adjustment control in this case may have, for example, an object tracking function. Then, the process proceeds to step S9.
  • the user of the endoscope system 1 may perform an operation to observe the specific object in more detail. Specifically, for example, the user may perform an operation to bring the front surface of the tip 21a of the endoscope 20 (the objective lens of the imaging unit 26) closer to the specific object to be observed.
  • the timing for stopping the display of the second image is, for example, the time when it is confirmed that the same specific object that has been redetected has been continuously displayed for a predetermined period of time, as explained in the processing of step S7 above, but is not limited to this.
  • the time when a predetermined operation of the operation unit 22 is confirmed based on the output of the operation determination unit 15 after the same specific object has been redetected may be the timing for stopping the display of the second image.
  • a still image in a reduced form of the first image (the image temporarily stored as the second image in step S3) immediately before the disappearance of the specific object is displayed in the second display area of the display device 30.
  • the second image is a short moving image, it becomes easier to determine the direction of the search operation after disappearance. This makes it easier to detect the same specific object again.
  • step S6 in FIG. 3 After the lost specific object is redetected (step S6 in FIG. 3), the continuous display of the same specific object for a predetermined period of time is confirmed (step S7 in FIG. 3), and automatic focus adjustment control is executed (step S8 in FIG. 3).
  • the operational control after the redetection of the lost specific object is not limited to the focus control described above.
  • the following control may be performed instead of the focus control described above.
  • the lighting control unit 17 may control the driving of the lighting unit 25 and the light source device 40 to irradiate a region including a specific object with a predetermined special light.
  • an image-enhanced observation image of a predetermined form is displayed in the first display region of the display device 30.
  • the image-enhanced observation image may be, for example, a narrowband observation image (NBI) or a red light observation image (RDI), etc.
  • control may be considered in which the image processing unit 11 executes a specified image adjustment process or a specified image enhancement process.
  • image adjustment processes include brightness adjustment processes and white balance adjustment processes.
  • image enhancement processes include contour enhancement processes and structural color enhancement processes.
  • the control timing of the illumination control unit 17 or the processing start timing of the image processing unit 11 may be, as described above, when a specific object disappears during an endoscopic examination, and then the same specific object is detected again and continues to be displayed, or, for example, when it is determined that a detailed observation operation is being performed on the specific object.
  • a detailed observation operation of a specific object may be, for example, an operation of moving the tip 21a (imaging unit 26) of the endoscope 20 closer to the redetected specific object. Specifically, for example, when an operation of moving the tip 21a from its current position toward the position where the tip 21a was located at the time the second image data was acquired is detected, it is determined that an operation of moving the imaging unit 26 closer to the specific object is being performed.
  • FIG. 11 is a flowchart showing the operation of a modified version of this embodiment, which shows a part of the processing sequence in FIG. 3.
  • steps S1 to S6 are the same as those in FIG. 10 and are therefore not shown. Additionally, the processes in steps S7 and S8 in FIG. 11 are the same as those in steps S7 and S8 in FIG. 10.
  • step S7 the processor 10 confirms that the same specific object that has been redetected has been continuously displayed for a predetermined period of time.
  • step S8 the processor 10 stops displaying the reference image in the second display area and executes focus control for automatic focus adjustment.
  • step S8a the processor 10 determines whether or not an operation has been performed in which the imaging unit 26 approaches the specific object within a predetermined distance (e.g., about 3 millimeters) based on the output of the operation determination section 15. If an operation in which the imaging unit 26 approaches the specific object within the predetermined distance is determined, the process proceeds to step S8b. If an operation in which the imaging unit 26 approaches the specific object within the predetermined distance is not determined, the process proceeds to step S9.
  • a predetermined distance e.g., about 3 millimeters
  • step S8b the processor 10 controls the focus control unit 16 to set the focus control appropriate for the specified magnified observation mode. Then, the process proceeds to step S9.
  • the other processing steps are substantially the same as those in FIG. 10.
  • the present invention is not limited to the above-described embodiment, and various modifications and applications can be made without departing from the spirit of the invention.
  • an endoscope has been described as an example this time, but the invention can be applied to any device that sequentially obtains images and makes a judgment (such as an image inspection device).
  • the above-described embodiment includes inventions at various stages, and various inventions can be extracted by appropriate combinations of the multiple components disclosed. For example, even if some components are deleted from all the components shown in the above embodiment, if the problem that the invention is intended to solve can be solved and the effects of the invention can be obtained, the configuration from which the components are deleted can be extracted as the invention. Furthermore, components from different embodiments may be appropriately combined. This invention is not restricted by its specific implementation except as limited by the attached claims.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Optics & Photonics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Endoscopes (AREA)

Abstract

In order to provide an object detection device (10) that detects a specific object image from an image acquired by an endoscope 20 wherein, even if a detected specific object is lost from view, the same specific object can be easily detected, the present invention is provided with: a specific object image detection unit 14 that detects an image area including a specific object from an endoscope image based on first image data acquired by the endoscope 20; a storage control unit 13 that temporarily stores second image data including the detected specific object in a temporary storage unit 51; and a display control unit 12 that displays a reference image based on the second image data on a display device 30 when the disappearance of the specific object from the endoscope image is detected.

Description

対象物検出装置,対象物検出方法,対象物検出プログラム,内視鏡システムObject detection device, object detection method, object detection program, and endoscope system

 この発明は、内視鏡によって取得される画像から特定の対象物の画像領域を検出する対象物検出装置,対象物検出方法,対象物検出プログラム,内視鏡システムに関する発明である。 This invention relates to an object detection device, an object detection method, an object detection program, and an endoscope system that detect an image area of a specific object from an image acquired by an endoscope.

 従来、被検体の内部を撮像して画像データを取得する内視鏡と、当該内視鏡により取得された画像データについての各種の画像処理等を施すプロセッサと、当該プロセッサにより処理された画像データを視認可能な画像等として表示する表示装置及び画像データを記録又は記憶する記憶装置等からなる内視鏡システムは、例えば、医療分野や工業分野等において広く利用されている。 Conventionally, endoscope systems consisting of an endoscope that captures images of the inside of a subject and acquires image data, a processor that performs various image processing operations on the image data acquired by the endoscope, a display device that displays the image data processed by the processor as a visible image, and a storage device that records or stores the image data, have been widely used in, for example, the medical and industrial fields.

 また、医療分野にあっては、この種の内視鏡システムを用いて生体臓器等の内部を観察対象とする各種の検査が広くおこなわれている。医療用内視鏡システムを用いた検査(以下、内視鏡検査という)では、例えば、臓器内部に挿入した内視鏡の挿入部を引き抜く操作をおこないながら、挿入部の先端部に設けられる撮像装置によって撮像がおこなわれる。このとき、撮像装置によって取得される内視鏡画像は、リアルタイムで、順次、表示装置を用いて動画像として表示される。同時に、当該動画像データは記憶装置に記憶することもできる。 In the medical field, this type of endoscope system is widely used to perform various types of examinations to observe the inside of living organs, etc. In an examination using a medical endoscope system (hereinafter referred to as an endoscopic examination), for example, while the insertion part of the endoscope inserted inside the organ is being pulled out, images are captured by an imaging device provided at the tip of the insertion part. At this time, the endoscopic images acquired by the imaging device are displayed in real time, sequentially as moving images, using a display device. At the same time, the moving image data can also be stored in a storage device.

 このような内視鏡検査中において、医師は、表示装置に表示されるリアルタイムの内視鏡画像(或いは、検査後においては記録又は記憶済み内視鏡画像データに基く再生内視鏡画像)を観察しながら、臓器内壁等に生じているポリープ或いは腫瘍等の病変部を特定の対象物(以下、特定対象物という)として探索するいわゆるスクリーニングをおこなう。 During such an endoscopic examination, the doctor performs so-called screening, searching for lesions such as polyps or tumors occurring on the inner walls of organs as specific objects (hereafter referred to as specific objects) while observing the real-time endoscopic image displayed on the display device (or, after the examination, reconstructing the endoscopic image based on recorded or stored endoscopic image data).

 通常の場合、病変部等の特定対象物は非常に小さく、また色味等が周辺の臓器内壁等に類似している等の理由から、内視鏡画像から特定対象物の画像領域を確実に見分けて検出することは熟練を要する。また、これに加えて、内視鏡検査においては、内視鏡の挿入部の先端部(撮像装置の観察窓)を所望の対象物に向けて撮像する操作等、内視鏡操作自体が熟練を要するものである。  Normally, specific objects such as lesions are very small and have a similar color to the inner walls of surrounding organs, so it takes skill to accurately distinguish and detect the image area of the specific object from the endoscopic image. In addition, in endoscopic examinations, the operation of the endoscope itself, such as pointing the tip of the endoscope's insertion part (the observation window of the imaging device) at the desired object to capture an image, requires skill.

 そこで、例えば、日本国特許公開2004-207842号公報等においては、保存対象を特定するためのターゲット画像を予め登録しておき、撮像中の一連の画像データについて、登録済みターゲット画像データに基く解析を順次おこない、一連の撮像画像の中から登録ターゲットを含む撮像画像が検出された場合には、当該撮像画像を保存対象として抽出し保存(記録又は記憶)するという画像処理装置が開示されている。 For example, Japanese Patent Publication No. 2004-207842 discloses an image processing device in which a target image for identifying the object to be saved is registered in advance, and a series of image data being captured is analyzed in sequence based on the registered target image data. When an image containing a registered target is detected from the series of captured images, that captured image is extracted as the object to be saved and saved (recorded or stored).

 一方、近年、内視鏡等によって取得された医療用画像データについて、コンピュータ等を用いて情報処理をおこなって、得られた解析結果や処理済み画像に基いて、医師による診断を支援する画像診断システムいわゆるコンピュータ支援診断(CAD;Computer-Aided Diagnosis)のための画像処理技術が実用化されつつある。 On the other hand, in recent years, image processing technology for image diagnostic systems, known as computer-aided diagnosis (CAD), is being put into practical use. These systems use computers to process medical image data obtained by endoscopes and other instruments, and assist doctors in making diagnoses based on the analysis results and processed images obtained.

 この種の従来のコンピュータ支援診断(CAD)にて提示される画像処理技術においては、例えば、内視鏡画像の表示画面内にて、特定対象物が検出された場合には、当該特定対象物を含む画像領域に対して枠表示等のマーキングを施して、特定対象物が検出されたことを表示する対象物検出装置が種々実用化されつつある。 In the image processing technology presented in this type of conventional computer-aided diagnosis (CAD), for example, when a specific object is detected on the display screen of an endoscopic image, various object detection devices are being put into practical use that display the fact that a specific object has been detected by marking the image area that contains the specific object with a frame or other marking.

 一般に、生体臓器内部を観察対象とする内視鏡検査の実施中には、例えば、患者の拍動や呼吸、或いは体位変化、または臓器の蠕動運動、若しくは臓器内の出血や食物残渣等、各種の外乱の影響を受けて、病変部(特定対象物)を含む臓器内の状態は常に変化している。 Generally, during endoscopic examinations in which the inside of a living organ is observed, the condition inside the organ, including the lesion (specific object), is constantly changing due to various disturbances, such as the patient's heartbeat and breathing, changes in body position, peristalsis of the organ, bleeding within the organ, food residue, etc.

 したがって、例えば、内視鏡検査中に臓器内部のスクリーニングをおこなっているとき、医師は、特定対象物を検出したとしても、蠕動運動等の影響による臓器内部の状態変化に起因して、当該特定対象物を見失ってしまうことはよくある。 Therefore, for example, when screening the inside of an organ during an endoscopic examination, even if a doctor detects a specific object, it is common for the doctor to lose sight of the specific object due to changes in the state of the inside of the organ caused by peristalsis, etc.

 しかしながら、内視鏡検査において、医師は、特定対象物を検出するのみではなく、当該特定対象物についての十分な観察をおこなうことをも主な目的としている。したがって、一旦検出した特定対象物を見失った場合であっても、すぐに、同一の特定対象物を再度検出したいという要望が常にある。 However, in endoscopic examinations, the doctor's main objective is not only to detect a specific object, but also to make a thorough observation of that specific object. Therefore, even if a specific object that has been detected is lost, there is always a desire to immediately detect the same specific object again.

 ところが、上記日本国特許公開2004-207842号公報等によって開示されている技術を用いて、内視鏡画像から特定対象物の検出をおこなったとしても、登録ターゲットを含む撮像画像が検出された場合に当該撮像画像を保存するのみである。したがって、当該公報等に開示された技術においては、例えば、特定対象物を検出後に見失った場合に、当該特定対象物を再度検出することについての考慮はなされていない。 However, even if the technology disclosed in the above-mentioned Japanese Patent Publication No. 2004-207842 is used to detect a specific object from an endoscopic image, if an image containing a registered target is detected, the captured image is only saved. Therefore, the technology disclosed in the publication etc. does not take into consideration, for example, re-detecting a specific object if it is lost after detection.

 また、従来のコンピュータ支援診断(CAD)技術を用いた対象物検出装置においては、表示中の画像内から特定対象物が消失してしまうと、マーキング表示もキャンセルされてしまう構成となっているのが一般である。通常の場合、一旦検出された特定対象物を見失ってしまう状況としては、例えば、内視鏡の先端部(観察窓)と当該特定対象物とが離れてしまう状況、或いは内視鏡の先端部(観察窓)と当該特定対象物との間に夾雑物が侵入してしまう状況等、臓器内部の状態変化が考えられる。この場合、同一の特定対象物を再度検出することは非常に困難なことであった。 Furthermore, in conventional object detection devices using computer-aided diagnosis (CAD) technology, the marking display is generally cancelled if the specific object disappears from the image being displayed. Normally, a specific object that has been detected can be lost due to a change in the state inside the organ, such as when the specific object becomes separated from the tip of the endoscope (observation window) or when foreign matter gets between the tip of the endoscope (observation window) and the specific object. In such cases, it is very difficult to detect the same specific object again.

 したがって、従来の対象物検出装置においては、内視鏡画像内で一旦検出された特定対象物を見失ったりすると、同一の特定対象物を再度検出するのに時間を要してしまい、その結果として、内視鏡検査時間が長時間化したり、忘れてしまったり、見落としてしまったりしてしまうという問題が生じてしまう。このようなことから、従来の内視鏡検査においては、医師、医療従事者、検査者等及び被検者(患者等)の負担が多大であるという問題点があった。  Therefore, in conventional object detection devices, if a specific object that has been detected in an endoscopic image is lost, it takes time to detect the same specific object again, resulting in problems such as the endoscopic examination time being extended or the object being forgotten or overlooked. For these reasons, conventional endoscopic examinations have had the problem of placing a heavy burden on doctors, medical professionals, examiners, etc., and subjects (patients, etc.).

 本発明の目的とするところは、内視鏡等の医療機器、検査機器(画像検査装置等)によって取得される画像から特定対象物の画像領域を検出する対象物検出装置において、検出された特定対象物を見失ったとしても、同一の特定対象物の再度の検出を容易におこなうことができる対象物検出装置,対象物検出方法,対象物検出プログラム,内視鏡システムを提供することである。 The object of the present invention is to provide an object detection device, an object detection method, an object detection program, and an endoscope system that can easily detect the same specific object again even if the detected specific object is lost in an object detection device that detects the image area of a specific object from an image acquired by medical equipment such as an endoscope or inspection equipment (such as an image inspection device).

 上記目的を達成するために、本発明の一態様の対象物検出装置は、内視鏡によって取得される第1画像データに基く内視鏡画像から特定の対象物を含む画像領域を検出する特定対象物画像検出部と、検出された前記特定対象物を含む第2画像データを仮記憶部に仮記憶する記憶制御部と、前記内視鏡画像から前記特定対象物の消失が検出された場合には、前記第2画像データに基く参考画像を表示装置に表示する表示制御部と、を具備する。 In order to achieve the above object, an object detection device according to one embodiment of the present invention includes a specific object image detection unit that detects an image area including a specific object from an endoscopic image based on first image data acquired by an endoscope, a storage control unit that temporarily stores second image data including the detected specific object in a temporary storage unit, and a display control unit that displays a reference image based on the second image data on a display device when disappearance of the specific object is detected from the endoscopic image.

 本発明の一態様の対象物検出方法は、内視鏡によって連続的に取得される内視鏡画像を時系列に連続して表示するスクリーニングステップと、前記内視鏡画像から特定対象物を検出する検出ステップと、検出された前記特定対象物を含む画像領域に対応する画像データを仮記憶する仮記憶ステップと、前記内視鏡画像から前記特定対象物の消失が検出された場合に、前記特定対象物を含む画像領域を参考画像として表示する参考画像表示ステップと、前記参考画像に対応する前記特定対象物であって、前記内視鏡画像から消失した前記特定対象物と同一の特定対象物が、前記内視鏡画像内に再度検出された場合には、前記参考画像の表示を終了させ、前記特定対象物に対する自動焦点調節制御を実行するフォーカス制御ステップと、を具備する。 The object detection method of one aspect of the present invention includes a screening step of continuously displaying endoscopic images acquired continuously by an endoscope in a chronological order, a detection step of detecting a specific object from the endoscopic image, a temporary storage step of temporarily storing image data corresponding to an image area including the detected specific object, a reference image display step of displaying the image area including the specific object as a reference image when the disappearance of the specific object from the endoscopic image is detected, and a focus control step of terminating the display of the reference image and performing automatic focus adjustment control on the specific object when the specific object corresponding to the reference image and identical to the specific object that disappeared from the endoscopic image is detected again in the endoscopic image.

 本発明の一態様の対象物検出プログラムは、コンピュータに、内視鏡画像を連続して表示する処理と、前記内視鏡画像から特定対象物を検出する処理と、検出された前記特定対象物を含む画像領域に対応する画像データを仮記憶する処理と、前記内視鏡画像から前記特定対象物の消失が検出された場合に、前記特定対象物を含む画像領域を参考画像として表示する処理と、前記参考画像に対応する前記特定対象物であって、前記内視鏡画像から消失した前記特定対象物と同一の特定対象物が、前記内視鏡画像内に再度検出された場合には、前記参考画像の表示を終了させ、前記特定対象物に対する自動焦点調節をおこなう処理と、を実行させる。 The object detection program of one embodiment of the present invention causes a computer to execute the following processes: continuously displaying endoscopic images; detecting a specific object from the endoscopic images; temporarily storing image data corresponding to an image area including the detected specific object; displaying the image area including the specific object as a reference image when the disappearance of the specific object from the endoscopic image is detected; and terminating the display of the reference image and performing automatic focus adjustment on the specific object when the specific object corresponding to the reference image and identical to the specific object that disappeared from the endoscopic image is detected again in the endoscopic image.

 本発明の一態様の内視鏡システムは、対象物の光学像を結像させる撮像光学系と当該撮像光学系によって結像された光学像を光電変換する撮像素子とを有する撮像ユニットを含む内視鏡と、プロセッサと、を備える内視鏡システムであって、前記プロセッサは、前記撮像ユニットによって取得される第1画像データに基く内視鏡画像から特定対象物を含む画像領域を検出する特定対象物画像検出部と、検出された前記特定対象物を含む第2画像データを仮記憶部に仮記憶する記憶制御部と、前記内視鏡画像から前記特定対象物の消失が検出された場合には、前記第2画像データに基く参考画像を、表示装置の表示画面内のうち前記内視鏡画像が表示される第1表示領域とは異なる第2表示領域に表示する表示制御部と、前記撮像光学系を駆動制御するフォーカス制御部と、を有し、前記対象物画像検出部が、前記内視鏡画像内から消失した前記特定対象物と同一の前記特定対象物が、前記内視鏡画像内に再度検出され、かつ当該同一の前記特定対象物が当該内視鏡画像内に継続表示されていることを検出した場合には、前記フォーカス制御部は、前記撮像光学系を駆動制御して、前記特定対象物に対する自動焦点調節制御を実行する。 One embodiment of the endoscopic system of the present invention is an endoscopic system comprising an endoscope including an imaging unit having an imaging optical system that forms an optical image of an object and an imaging element that photoelectrically converts the optical image formed by the imaging optical system, and a processor, wherein the processor comprises a specific object image detection unit that detects an image area including a specific object from an endoscopic image based on first image data acquired by the imaging unit, a storage control unit that temporarily stores second image data including the detected specific object in a temporary storage unit, a display control unit that, when disappearance of the specific object is detected from the endoscopic image, displays a reference image based on the second image data in a second display area within the display screen of the display device that is different from the first display area in which the endoscopic image is displayed, and a focus control unit that drives and controls the imaging optical system, and when the object image detection unit detects that the specific object identical to the specific object that disappeared from the endoscopic image is detected again in the endoscopic image and that the same specific object continues to be displayed in the endoscopic image, the focus control unit drives and controls the imaging optical system to perform automatic focus adjustment control for the specific object.

 本発明の一態様の対象物検出方法は、画像検査装置によって取得される画像データに基いて特定の対象物を含む画像領域を検出し、検出された前記特定対象物を含む特定対象物撮像結果画像データを仮記憶部に仮記憶し、前記画像データに基く画像から前記特定対象物の消失が検出された場合には、上記取得された画像データに基く画像を表示する表示部に対して前記特定対象物撮像結果画像データに基く参考画像を併せて表示する。 An object detection method according to one embodiment of the present invention detects an image area including a specific object based on image data acquired by an image inspection device, temporarily stores image data of the specific object image including the detected specific object in a temporary storage unit, and, if the disappearance of the specific object is detected from an image based on the image data, displays a reference image based on the specific object image data on a display unit that displays an image based on the acquired image data.

 本発明によれば、内視鏡等の医療機器、検査機器(画像検査装置等)によって取得される画像から特定対象物の画像領域を検出する対象物検出装置において、検出された特定対象物を見失ったとしても、同一の特定対象物の再度の検出を容易におこなうことができる対象物検出装置,対象物検出方法,対象物検出プログラム,内視鏡システムを提供することができる。 The present invention provides an object detection device, object detection method, object detection program, and endoscope system that can easily detect the same specific object again even if the detected specific object is lost in an object detection device that detects the image area of a specific object from an image acquired by a medical device such as an endoscope or an inspection device (such as an image inspection device).

本発明の一実施形態の対象物検出装置を含む内視鏡システムの全体構成を概略的に示す構成図、FIG. 1 is a block diagram showing an overall configuration of an endoscope system including an object detection device according to an embodiment of the present invention; 本発明の一実施形態の対象物検出装置を含む内視鏡システムの内部構成の概略を示すブロック構成図、FIG. 1 is a block diagram showing an outline of an internal configuration of an endoscope system including an object detection device according to an embodiment of the present invention; 本発明の一実施形態の対象物検出装置を含む内視鏡システムの作用を説明するフローチャート、1 is a flowchart illustrating an operation of an endoscope system including an object detection device according to an embodiment of the present invention; 図1の内視鏡システムにおける表示装置の表示画面の表示例、2 is a display example of a display screen of a display device in the endoscope system of FIG. 1 ; 図1の内視鏡システムを用いた内視鏡検査中に特定対象物が検出された時点の表示装置の表示画面の表示例、2 is a display example of a display screen of a display device at a time when a specific object is detected during an endoscopic examination using the endoscopic system of FIG. 1; 図1の内視鏡システムを用いた内視鏡検査中に検出済み特定対象物が消失し、第2画像(参考画像)が表示された時点の表示装置の表示画面の表示例、1. An example of a display on the display screen of the display device at a time when a detected specific object disappears during an endoscopic examination using the endoscopic system of FIG. 1 and a second image (reference image) is displayed. 図1の内視鏡システムを用いた内視鏡検査中に同一の特定対象物が再度検出された時点の表示装置の表示画面の表示例、2 is a display example of a display screen of a display device at a time when the same specific object is detected again during an endoscopic examination using the endoscopic system of FIG. 1; 図7の状態において撮像ユニットを特定対象物に近付けた際の表示装置の表示画面の表示例、8 is a display example of the display screen of the display device when the imaging unit is brought close to a specific object in the state of FIG. 7; 図8の状態からさらに撮像ユニットを特定対象物に近付けた際の表示装置の表示画面の表示例、9 is a display example of the display screen of the display device when the imaging unit is brought closer to the specific object from the state of FIG. 8 . 学習装置において学習の結果取得される推論モデルの説明図、FIG. 2 is an explanatory diagram of an inference model obtained as a result of learning in the learning device; 本発明の一実施形態の対象物検出装置を含む内視鏡システムの作用についての変形例を示すフローチャート、である。10 is a flowchart showing a modified example of the operation of an endoscope system including an object detection device according to an embodiment of the present invention.

 以下、例えば、内視鏡システムを例にした図示の実施の形態によって本発明を説明する。以下の説明に用いる各図面は模式的に示すものである。したがって、これら各図面においては、各構成要素を図面上で認識できる程度の大きさで示している。そのために、図面上における各部材の寸法関係や縮尺等を構成要素毎に異ならせて示している場合がある。本発明は、各図面に記載された各構成要素の各数量,各形状,各大きさの比率,各相対的な位置関係等に関しては、図示の形態のみに限定されるものではない。 The present invention will be described below with reference to the illustrated embodiment, taking an endoscope system as an example. The drawings used in the following description are schematic. Therefore, in these drawings, each component is shown at a size that allows it to be recognized on the drawing. For this reason, the dimensional relationships and scale of each member on the drawing may be shown differently for each component. The present invention is not limited to the illustrated form with regard to the quantities, shapes, size ratios, relative positional relationships, etc. of each component shown in each drawing.

 まず、本発明の一実施形態の対象物検出装置についての詳細な構成を説明する前に、本実施形態の対象物検出装置を含む内視鏡システム全体の概略構成を、図1を用いて以下に説明する。図1は、本発明の一実施形態の対象物検出装置を含む内視鏡システムの全体構成を概略的に示す構成図である。 First, before describing the detailed configuration of an object detection device according to one embodiment of the present invention, the schematic configuration of an entire endoscope system including the object detection device according to this embodiment will be described below with reference to FIG. 1. FIG. 1 is a schematic diagram showing the overall configuration of an endoscope system including an object detection device according to one embodiment of the present invention.

 図1に示すように、内視鏡システム1は、プロセッサ10と、内視鏡20と、表示装置30と、光源装置40と、記憶装置50等を主に備えて構成されている。この内視鏡システム1は、生体等の被検体(患者等)の上部消化管(食道,胃,十二指腸等)或いは下部消化管(大腸等)等の臓器内部を観察対象としておこなわれる内視鏡検査に使用される内視鏡システムの一般的な構成を例示している。 As shown in FIG. 1, the endoscope system 1 is mainly configured with a processor 10, an endoscope 20, a display device 30, a light source device 40, a storage device 50, etc. This endoscope system 1 illustrates the general configuration of an endoscope system used in endoscopic examinations in which the inside of organs such as the upper digestive tract (esophagus, stomach, duodenum, etc.) or the lower digestive tract (large intestine, etc.) of a subject (patient, etc.) such as a living body are observed.

 内視鏡20は、挿入部21と、操作部22と、ユニバーサルケーブル23等を有して構成されている画像検査装置である。 The endoscope 20 is an image inspection device that is composed of an insertion section 21, an operating section 22, a universal cable 23, etc.

 挿入部21は、生体等の被検体内に挿入される構成部材である。挿入部21は、先端側から順に先端部21aと、湾曲部21bと、可撓管部21cとが連続して接続されることにより形成されている。挿入部21は、全体として略細長管形状に形成されている。挿入部21は、不図示の内視鏡用処置具を挿通させるための管路である処置具挿通チャンネル21dを内部に有する。この処置具挿通チャンネル21dは、挿入部21の先端から基端までの間を挿通して設けられている。そして、挿入部21の基端側には操作部22が接続されている。 The insertion section 21 is a component that is inserted into a subject such as a living organism. The insertion section 21 is formed by continuously connecting, in order from the tip side, a tip section 21a, a curved section 21b, and a flexible tube section 21c. The insertion section 21 is formed in a generally elongated tube shape. The insertion section 21 has an internal treatment tool insertion channel 21d, which is a duct for inserting an endoscopic treatment tool (not shown). This treatment tool insertion channel 21d is provided by passing through the insertion section 21 from its tip to its base end. The operation section 22 is connected to the base end side of the insertion section 21.

 先端部21aは、挿入部21の最先端部に設けられる構成ユニットである。先端部21aの内部には、照明ユニット25や撮像ユニット26等の各種構成部材(図1には不図示;図2参照)が設けられている。 The tip portion 21a is a structural unit provided at the very tip of the insertion portion 21. Inside the tip portion 21a, various structural members such as an illumination unit 25 and an imaging unit 26 (not shown in FIG. 1; see FIG. 2) are provided.

 ここで、照明ユニット25は、後述する光源装置40から導かれた光束を先端部21aの先端面から前方へと出射して、被検体内の病変部等を含む観察対象領域を照明する光学素子(照明レンズ;不図示)等を含む構成ユニットである。 Here, the illumination unit 25 is a structural unit that includes an optical element (illumination lens; not shown) that emits a light beam guided from the light source device 40 (described later) forward from the tip surface of the tip portion 21a to illuminate the observation area, including the lesion area, within the subject.

 また、撮像ユニット26は、被検体内部の観察の対象とする特定対象物(腫瘍等の病変部等)の光学像を結像させる光学レンズ(撮像光学系26a;図2参照)と、当該光学像に基いて画像情報(静止画像データ及び動画像データ等)を生成する光電変換素子(撮像素子26b;図2参照)等からなる電子デバイスユニットである。 The imaging unit 26 is an electronic device unit that includes an optical lens (imaging optical system 26a; see FIG. 2) that forms an optical image of a specific object (such as a lesion, such as a tumor) to be observed inside the subject, and a photoelectric conversion element (imaging element 26b; see FIG. 2) that generates image information (such as still image data and moving image data) based on the optical image.

 湾曲部21bは、後述する湾曲操作部材22bの操作に連動して作用する湾曲操作機構(不図示)によって能動的に湾曲自在に構成される管状部位である。可撓管部21cは、操作部22の先端から延出し、湾曲部21bの基端に接続される管状部材である。 The bending portion 21b is a tubular portion that can be actively bent by a bending operation mechanism (not shown) that acts in conjunction with the operation of the bending operation member 22b described below. The flexible tube portion 21c is a tubular member that extends from the tip of the operation portion 22 and is connected to the base end of the bending portion 21b.

 操作部22は、挿入部21の基端に接続されている。操作部22は、操作部本体22aと、湾曲操作部材22bと、複数の操作部材22cと、処置具挿入口22d等を有して構成されている。 The operating section 22 is connected to the base end of the insertion section 21. The operating section 22 is configured with an operating section main body 22a, a bending operating member 22b, multiple operating members 22c, a treatment tool insertion port 22d, etc.

 操作部本体22aは、全体として略箱型形状からなり、当該内視鏡20の使用者(医師等)が手指にて把持する把持部を構成している。操作部本体22aからは、上述したように挿入部21が延設されている。 The operating unit body 22a has a generally box-like shape overall and constitutes a gripping portion that is held with the fingers of a user (such as a doctor) of the endoscope 20. As described above, the insertion portion 21 extends from the operating unit body 22a.

 湾曲操作部材22b及び複数の操作部材22cは、内視鏡20の各種の操作を行うための操作部材である。これら湾曲操作部材22b及び複数の操作部材22cは、操作部本体22aの外面上の所定の位置にそれぞれ設けられている。 The bending operation member 22b and the multiple operation members 22c are operation members for performing various operations of the endoscope 20. The bending operation member 22b and the multiple operation members 22c are each provided at a predetermined position on the outer surface of the operation unit main body 22a.

 処置具挿入口22dは、操作部本体22aの先端寄りの所定の位置に設けられている。処置具挿入口22dは、挿入部21の処置具挿通チャンネル21dの基端側開口である。処置具挿通チャンネル21dは、先端側で先端部21aの先端チャンネル開口(不図示)に接続されている。 The treatment tool insertion port 22d is provided at a predetermined position near the tip of the operating unit body 22a. The treatment tool insertion port 22d is the proximal opening of the treatment tool insertion channel 21d of the insertion section 21. The treatment tool insertion channel 21d is connected to the tip channel opening (not shown) of the tip section 21a on the tip side.

 このような構成により、処置具挿入口22dから挿入された内視鏡用処置具(不図示)は、処置具挿通チャンネル21dを挿通した後、先端部21aの先端チャンネル開口から外方に突出させることができるように構成されている。 With this configuration, an endoscopic treatment tool (not shown) inserted through the treatment tool insertion port 22d is configured to pass through the treatment tool insertion channel 21d and then protrude outward from the tip channel opening of the tip portion 21a.

 ユニバーサルケーブル23は、内視鏡20を光源装置40及びプロセッサ10へ接続するための接続コードである。そのために、ユニバーサルケーブル23は、操作部22の操作部本体22aの側方から延出する管状部材からなる。ユニバーサルケーブル23の先端にはスコープコネクタ23aが設けられている。このスコープコネクタ23aは、光源装置40の前面パネルに接続されている。 The universal cable 23 is a connection cord for connecting the endoscope 20 to the light source device 40 and the processor 10. For this purpose, the universal cable 23 is made of a tubular member extending from the side of the operation unit body 22a of the operation unit 22. A scope connector 23a is provided at the tip of the universal cable 23. This scope connector 23a is connected to the front panel of the light source device 40.

 スコープコネクタ23aからは、電気ケーブル23bが延出されている。この電気ケーブル23bの先端にはコネクタ23cが設けられている。このコネクタ23cは、プロセッサ10の前面パネルに接続されている。ユニバーサルケーブル23内には、各種の信号伝送ケーブルや光ファイバーケーブル等(不図示)が挿通されている。 An electrical cable 23b extends from the scope connector 23a. A connector 23c is provided at the end of this electrical cable 23b. This connector 23c is connected to the front panel of the processor 10. Various signal transmission cables, optical fiber cables, etc. (not shown) are inserted into the universal cable 23.

 光源装置40は、内視鏡20の挿入部21の先端部21aの内部に設けられる照明ユニット25(図2参照)に対して照明光を供給する装置である。光源装置40から出射される照明光は、スコープコネクタ23aからユニバーサルケーブル23,操作部22,挿入部21を挿通して配置されている光ファイバーケーブル等(不図示)を通じて、先端部21aの照明ユニット25へと伝達される。そして、当該照明光は、先端部21aの照明ユニット25に含まれる照明レンズ等(不図示)を透過して、先端部21aの前方の観察対象領域に向けて照射される。 The light source device 40 is a device that supplies illumination light to the illumination unit 25 (see FIG. 2) provided inside the tip 21a of the insertion section 21 of the endoscope 20. The illumination light emitted from the light source device 40 is transmitted to the illumination unit 25 of the tip 21a through the scope connector 23a, the universal cable 23, the operation section 22, and an optical fiber cable (not shown) that is arranged passing through the insertion section 21. The illumination light then passes through an illumination lens (not shown) included in the illumination unit 25 of the tip 21a, and is irradiated toward the observation target area in front of the tip 21a.

 プロセッサ10は、内視鏡システム1の全体を制御する制御回路や信号処理回路等を含む制御装置であり信号処理装置であり、または回路ユニットである。また、プロセッサ10は、本実施形態の対象物検出装置としての機能を含んで構成されている(詳細後述;図2参照)。 The processor 10 is a control device, a signal processing device, or a circuit unit that includes a control circuit and a signal processing circuit that control the entire endoscope system 1. The processor 10 is also configured to include the function of the object detection device of this embodiment (described in detail below; see FIG. 2).

 プロセッサ10に含まれる制御回路は、例えば、内視鏡20の操作部22の操作部材22cの操作指示信号を受けて、撮像ユニット26や光源装置40又は照明ユニット25等を駆動制御するための各種の制御信号を出力する。また、プロセッサ10に含まれる信号処理回路は、例えば、撮像ユニット26からの撮像信号を受けて、所定の画像信号処理等を行う。 The control circuit included in the processor 10 receives, for example, an operation instruction signal from the operating member 22c of the operation section 22 of the endoscope 20, and outputs various control signals for driving and controlling the imaging unit 26, the light source device 40, the lighting unit 25, etc. Also, the signal processing circuit included in the processor 10 receives, for example, an imaging signal from the imaging unit 26, and performs predetermined image signal processing, etc.

 そのために、プロセッサ10と撮像ユニット26との間は、信号伝送ケーブル(不図示)によって電気的に接続されている。当該信号伝送ケーブルは、コネクタ23cから電気ケーブル23b,スコープコネクタ23a,ユニバーサルケーブル23,操作部22,挿入部21を経て先端部21aの撮像ユニットまでの間を挿通して配置されている。 To this end, the processor 10 and the imaging unit 26 are electrically connected by a signal transmission cable (not shown). The signal transmission cable is inserted through the connector 23c, the electrical cable 23b, the scope connector 23a, the universal cable 23, the operation section 22, and the insertion section 21 to the imaging unit at the tip 21a.

 このような構成により、プロセッサ10から出力される制御信号や、撮像ユニット26から出力される撮像信号等は、当該信号伝送ケーブルを通じて撮像ユニット26とプロセッサ10との間で伝達される。なお、信号伝送ケーブルの一形態としては、例えば複数のケーブルを束ねて、外皮シールド,外皮チューブ等で覆った形態の複合ケーブル等が適用される。 With this configuration, the control signal output from the processor 10 and the imaging signal output from the imaging unit 26 are transmitted between the imaging unit 26 and the processor 10 through the signal transmission cable. One form of signal transmission cable is a composite cable in which multiple cables are bundled together and covered with an outer shield, outer tube, etc.

 表示装置30は、プロセッサ10から出力された画像信号等を受けて、所定の形態の内視鏡画像や各種の情報表示等を行う表示装置である。そのために、表示装置30とプロセッサ10との間は、ビデオケーブル24を用いて電気的に接続されている。なお、表示装置30の形態としては、例えば一般的な液晶パネル等を用いて構成される表示デバイスが適用される。 The display device 30 is a display device that receives image signals output from the processor 10 and displays endoscopic images in a predetermined format and various types of information. To this end, the display device 30 and the processor 10 are electrically connected using a video cable 24. The display device 30 may be in the form of a display device configured using, for example, a general liquid crystal panel.

 記憶装置50は、撮像ユニット26によって生成された画像情報に基いて、プロセッサ10において各種の処理がなされて記憶用に生成された記憶用画像データを保存(記録又は記憶)する記憶デバイスである。 The storage device 50 is a storage device that saves (records or stores) image data for storage that is generated for storage by various processes performed by the processor 10 based on the image information generated by the imaging unit 26.

 記憶装置50は、図1に示すように、プロセッサ10と一体に構成されている。記憶装置50の内部には、図2に示すように、当該記憶装置50における主記憶部(不図示)とは別に、仮記憶部51が設けられている。この仮記憶部51は、例えば半導体メモリ等によって構成され、画像処理部11から出力される所定の画像データ等を一時的に記憶する一時メモリ領域として機能する構成部である。 As shown in FIG. 1, the storage device 50 is configured as one unit with the processor 10. As shown in FIG. 2, inside the storage device 50, a temporary storage unit 51 is provided in addition to the main storage unit (not shown) of the storage device 50. This temporary storage unit 51 is configured, for example, from a semiconductor memory, and is a component that functions as a temporary memory area that temporarily stores predetermined image data output from the image processing unit 11, etc.

 なお、図1に例示する構成例では、記憶装置50は、プロセッサ10の筐体内部に一体に配設されている構成を例示しているが、この形態に限られることはない。例えば、記憶装置50は、プロセッサ10とは別体の筐体を用いて構成される外部記憶装置として構成されていてもよい。 In the configuration example shown in FIG. 1, the storage device 50 is integrally arranged inside the housing of the processor 10, but this is not limited to the configuration. For example, the storage device 50 may be configured as an external storage device that is configured using a housing separate from the processor 10.

 また、図2に示す例では、仮記憶部51は、記憶装置50の内部に設けた構成例を示しているが、この形態に限られない。仮記憶部51は、例えば、後述する記憶制御部13(図2参照)の内部に一体に設けて構成することもできる。 In the example shown in FIG. 2, the temporary storage unit 51 is provided inside the storage device 50, but this is not a limited configuration. The temporary storage unit 51 can also be provided integrally inside the storage control unit 13 (see FIG. 2), which will be described later.

 さらに、プロセッサ10と光源装置40とは、図1に例示する構成例のように、別体構成とする構成に限定されない。例えば、プロセッサ10と光源装置40とが一つの筐体を用いて一体的に構成されていてもよい。 Furthermore, the processor 10 and the light source device 40 are not limited to being configured separately, as in the example configuration shown in FIG. 1. For example, the processor 10 and the light source device 40 may be configured integrally using a single housing.

 照明ユニット25の構成例としては、上述の構成例(光源装置40からの照明光を光ファイバーケーブル等を通して先端部21aへと伝達する形態)に限られることはない。この構成以外の照明ユニット25の構成形態としては、例えば、照明光源としてのLED(Light Emitting Diode;発光ダイオード)等の発光素子を先端部21aの内部に設け、当該照明光源(LED)への給電及びその発光制御をプロセッサ10に含まれる所定の制御回路によって制御するといった構成とすることもできる。 The configuration of the lighting unit 25 is not limited to the above-mentioned configuration (a form in which the lighting light from the light source device 40 is transmitted to the tip portion 21a via an optical fiber cable or the like). As a configuration of the lighting unit 25 other than this configuration, for example, a light-emitting element such as an LED (Light Emitting Diode) as a lighting light source can be provided inside the tip portion 21a, and the power supply to the lighting light source (LED) and its light emission control can be controlled by a predetermined control circuit included in the processor 10.

 以上のように構成される内視鏡システム1は、基本的には従来の同種の内視鏡システムと略同様の構成を有する。したがって、その他詳細な構成については、図示及び詳細説明を省略する。 The endoscope system 1 configured as described above basically has a configuration similar to that of a conventional endoscope system of the same type. Therefore, illustrations and detailed descriptions of other detailed configurations are omitted.

 このような構成からなる内視鏡システム1において、本実施形態の対象物検出装置は、プロセッサ10に含めて構成されているものとしている。そこで、次に、本発明の一実施形態の対象物検出装置を含む内視鏡システムにおいて、特にプロセッサの内部構成について、図2を用いて以下に詳述する。 In an endoscope system 1 configured as described above, the object detection device of this embodiment is configured to be included in the processor 10. Next, the internal configuration of the processor in an endoscope system including an object detection device of one embodiment of the present invention will be described in detail below with reference to FIG. 2.

 プロセッサ10は、画像処理部11と、表示制御部12と、記憶制御部13と、特定対象物画像検出部14と、操作判定部15と、フォーカス制御部16と、照明制御部17と、仮記憶部51を含む記憶装置50等を具備して構成されている。 The processor 10 is configured with an image processing unit 11, a display control unit 12, a memory control unit 13, a specific object image detection unit 14, an operation determination unit 15, a focus control unit 16, an illumination control unit 17, a memory device 50 including a temporary memory unit 51, and the like.

 画像処理部11は、撮像ユニット26から出力される画像情報が入力されて、当該画像情報に基く各種の情報処理を施す構成ユニット又は回路ユニットである。ここでおこなわれる画像処理は、例えば、通常画像情報処理,表示用画像データ処理,記憶用画像データ処理,各種の画像処理等である。 The image processing unit 11 is a structural unit or circuit unit that receives image information output from the imaging unit 26 and performs various information processing based on the image information. The image processing performed here includes, for example, normal image information processing, display image data processing, storage image data processing, various types of image processing, etc.

 通常画像処理は、撮像素子26bから出力されるアナログ画像信号を受けてデジタル画像信号に変換するAD変換処理等を含み、画像情報について通常おこなわれる基本的な画像情報処理である。通常画像処理は、従来一般的な処理が適用されるものとし、その詳細説明は省略する。 Normal image processing includes A/D conversion processing, which receives the analog image signal output from the image sensor 26b and converts it into a digital image signal, and is a basic image information processing that is usually performed on image information. Normal image processing is the same as conventional processing, and a detailed description of this will be omitted.

 表示用画像データ処理は、通常の表示用の画像データを生成する処理である。表示用の画像データは、例えば、表示装置30の表示画面内における第1表示領域に表示する第1画像(主たる内視鏡画像)を表す第1画像データを生成する処理や、同表示画面内において第1表示領域とは異なる第2表示領域に表示する第2画像(参考画像)を表す第2画像データ(参考画像データ)を生成する処理等である。 Display image data processing is processing for generating image data for normal display. For example, image data for display is processing for generating first image data representing a first image (main endoscopic image) to be displayed in a first display area on the display screen of the display device 30, or processing for generating second image data (reference image data) representing a second image (reference image) to be displayed in a second display area different from the first display area on the same display screen.

 なお、図4は、本実施形態の内視鏡システムにおける表示装置の表示画面の表示例である。図4において、符号100は表示画面枠を示している。同図4の符号101は第1表示領域である。同図4の符号102は第2表示領域である。同図4の符号103は画像以外の情報表示領域である。また、同図4の符号104は所定のアラーム表示領域(詳細後述)である。図4の表示例では、第1表示領域101にのみ画像表示(符号101a;第1画像)がなされている場合を例示している。 In addition, FIG. 4 is a display example of the display screen of the display device in the endoscope system of this embodiment. In FIG. 4, reference numeral 100 indicates a display screen frame. Reference numeral 101 in FIG. 4 is a first display area. Reference numeral 102 in FIG. 4 is a second display area. Reference numeral 103 in FIG. 4 is an area for displaying information other than images. Reference numeral 104 in FIG. 4 is a predetermined alarm display area (described in detail later). The display example in FIG. 4 illustrates a case in which an image (reference numeral 101a; first image) is displayed only in the first display area 101.

 記憶用画像データ処理は、記録用の画像データ(第1画像データ,第2画像データ等)を生成する処理等である。 The storage image data processing is a process for generating image data for recording (first image data, second image data, etc.).

 各種の画像処理は、通常の表示用画像データに対して適宜付加して施される画像処理である。各種の画像処理の具体例としては、例えば、輝度調整処理,ホワイトバランス調整処理等の通常の画像調整処理や、輪郭強調処理,構造色彩強調処理(TXI;Texture and Color Enhancement Imaging)等の画像強調処理等がある。 The various types of image processing are image processing that are appropriately added to normal display image data. Specific examples of the various types of image processing include normal image adjustment processing such as brightness adjustment processing and white balance adjustment processing, and image enhancement processing such as contour enhancement processing and structural color enhancement processing (TXI; Texture and Color Enhancement Imaging).

 表示制御部12は、画像処理部11から出力される表示用画像データに応じて適切な表示形態による表示がなされるように表示装置30を制御する構成ユニット又は回路ユニットである。表示制御部12は、表示用画像データの表示制御(表示位置,表示領域,表示サイズ等の各種設定)のほかに、画像情報以外の各種情報(文字情報,アイコン情報等)の表示制御をおこなう。ここで、画像情報以外の各種情報には、検査日時情報や被検体(患者)情報やカルテ情報等のほか、例えば内視鏡検査中に適宜表示される各種のアラーム情報(告知情報)等がある。 The display control unit 12 is a structural unit or circuit unit that controls the display device 30 so that an appropriate display format is displayed according to the display image data output from the image processing unit 11. In addition to display control of the display image data (various settings such as display position, display area, display size, etc.), the display control unit 12 also controls the display of various information other than image information (text information, icon information, etc.). Here, the various information other than image information includes examination date and time information, subject (patient) information, medical record information, etc., as well as various alarm information (notification information) that is displayed as appropriate during an endoscopic examination, for example.

 詳しくは、表示制御部12は、内視鏡画像を第1表示領域に連続的に表示する表示制御をおこなう。また、表示制御部12は、内視鏡画像から特定対象物の消失が検出された場合には、第2画像データに基く参考画像を表示装置30の所定の領域(第2表示領域)に表示する表示制御をおこなう。 In more detail, the display control unit 12 performs display control to continuously display the endoscopic image in the first display area. In addition, when the disappearance of a specific object is detected from the endoscopic image, the display control unit 12 performs display control to display a reference image based on the second image data in a specified area (second display area) of the display device 30.

 ここでの消失は、上記特定対象物が画面内に表示されながら、操作者が気づかず見逃した場合や、無意識に装置を動かしたり操作してしまったりして見失う場合や、対象物そのものが動いてしまう見失いの場合を想定してる。この場合、その消失があった時点で、すぐに対象物を探した方が良い。なぜなら、検査する部位は範囲が広く、一度、見逃すと、同じ位置を再検査するのに手間がかかるからである。この消失を判定してアラームを出してもよい。これは音声や振動など、操作者に気付きを与える様々な方法を応用すればよい。 The disappearance here refers to cases where the specific object is displayed on the screen but is overlooked by the operator without noticing, where it is lost by unconsciously moving or operating the device, or where the object itself moves and becomes lost. In these cases, it is best to search for the object as soon as it disappears. This is because the area to be inspected is wide, and if it is overlooked once, it will be time-consuming to reinspect the same position. This disappearance can be detected and an alarm can be issued. This can be done by applying various methods to alert the operator, such as sound or vibration.

 さらに、表示制御部12は、参考画像に含まれる特定対象物であって、内視鏡画像から消失した特定対象物と同一の特定対象物が、特定対象物画像検出部14によって、内視鏡画像内に再度検出された場合に、当該参考画像に含まれる同一の特定対象物が再検出された旨を表示装置30の表示画面の所定の領域(例えばアラーム表示領域104(図4参照)等)に告知表示する表示制御をおこなう。 Furthermore, when a specific object contained in the reference image that is identical to a specific object that disappeared from the endoscopic image is detected again in the endoscopic image by the specific object image detection unit 14, the display control unit 12 performs display control to display a notification in a predetermined area (e.g., the alarm display area 104 (see FIG. 4)) on the display screen of the display device 30 to the effect that the same specific object contained in the reference image has been detected again.

 記憶制御部13は、画像処理部11から出力される記憶用画像データに応じて適切な記憶形態による保存(記録又は記憶)がなされるように記憶装置50(仮記憶部51を含む)を制御する構成ユニット又は回路ユニットである。 The memory control unit 13 is a structural unit or circuit unit that controls the memory device 50 (including the temporary memory unit 51) so that the image data to be stored is saved (recorded or stored) in an appropriate storage format according to the image data to be stored output from the image processing unit 11.

 記憶制御部13は、内視鏡20によって取得される内視鏡画像を表す第1画像データを記憶装置50の記憶領域に恒久的に記憶する記憶制御をおこなう。また、記憶制御部13は、後述する特定対象物画像検出部14によって検出された特定対象物を含む第2画像データ(参考画像データ)を仮記憶部51に仮記憶する記憶制御をおこなう。 The memory control unit 13 performs memory control to permanently store first image data representing an endoscopic image acquired by the endoscope 20 in a memory area of the storage device 50. The memory control unit 13 also performs memory control to temporarily store second image data (reference image data) including a specific object detected by the specific object image detection unit 14 (described later) in the temporary memory unit 51.

 さらに、記憶制御部13は、第2画像データに関連する各種情報(例えば、内視鏡画像内における特定対象物の位置を示す情報,特定対象物の固有の特徴情報(位置,形状,サイズ,色等)等)を対応する第2画像データに関連付けて記憶する記憶制御もおこなう。 Furthermore, the storage control unit 13 also performs storage control to store various information related to the second image data (for example, information indicating the position of a specific object in an endoscopic image, unique characteristic information of a specific object (position, shape, size, color, etc.)) in association with the corresponding second image data.

 このように、特定対象物の特徴情報を第2画像データに関連付けて記憶することによって、例えば内視鏡画像における1フレーム内に複数の特定対象物が存在している場合であっても、複数の特定対象物のそれぞれを識別して記憶することができる。 In this way, by storing the characteristic information of the specific object in association with the second image data, even if multiple specific objects are present within one frame of an endoscopic image, for example, each of the multiple specific objects can be identified and stored.

 特定対象物画像検出部14は、内視鏡20によって取得される第1画像データに基く内視鏡画像から特定の対象物を含む画像領域を検出する構成ユニット又は回路ユニットである。 The specific object image detection unit 14 is a structural unit or circuit unit that detects an image area including a specific object from an endoscopic image based on the first image data acquired by the endoscope 20.

 詳しくは、特定対象物画像検出部14は、画像処理部11から出力される第1画像データに基いて連続的に表示されるフレーム毎の内視鏡画像内に、特定対象物(腫瘍等の病変部等)を検出する。 In more detail, the specific object image detection unit 14 detects a specific object (such as a lesion, such as a tumor) in each frame of the endoscopic image that is displayed continuously based on the first image data output from the image processing unit 11.

 特定対象物画像検出部14による特定対象物の検出は、例えば、予め用意された複数の特定対象物画像(症例画像等)に基いて類似画像認識をおこなったり、或いは深層学習,機械学習を用いたデータ解析をおこなって所望の特定対象物を検出する。 The specific object detection unit 14 detects specific objects, for example, by performing similar image recognition based on multiple specific object images (such as case images) prepared in advance, or by performing data analysis using deep learning or machine learning to detect the desired specific object.

 例えば、近年、内視鏡によって取得された内視鏡画像に対する機械学習によって、所望の推論結果(例えば腫瘍等の特定対象物の検出等)を得るAI(Artificial Intelligence;人工知能)を用いた対象物検出技術が開発されている。 For example, in recent years, object detection technology using AI (Artificial Intelligence) has been developed that uses machine learning on endoscopic images acquired by an endoscope to obtain desired inference results (such as detection of specific objects such as tumors).

 機械学習は、既知の入力情報について、その特徴、時系列情報、空間情報等を学習し、学習結果に基づいて推論を行うことで、未知の事柄についての推論結果を得るものである。即ち、機械学習では、先ず特定の入力情報から、判定可能な出力結果を推論可能にするための学習済みモデル(或いは推論モデルともいう)を得る。 Machine learning involves learning the characteristics, time series information, spatial information, etc. of known input information, and then making inferences based on the learning results to obtain inference results about unknown matters. In other words, machine learning first obtains a trained model (also called an inference model) that makes it possible to infer a determinable output result from specific input information.

 この場合において、学習済みモデルの生成に際しては、高い信頼性による推論結果を得るために、入力と出力との関係が既知である大量の情報が学習用データとして用いられる。例えば、深層学習においては、大量の学習用データを用いて既知の入力に対して期待される出力が得られるようにネットワークのデザイン設計が行われる。このようなプロセスで得られた学習済みモデルは、学習を行ったネットワークから独立して利用可能である。 In this case, when generating a trained model, a large amount of information with a known relationship between input and output is used as training data in order to obtain highly reliable inference results. For example, in deep learning, a network is designed so that an expected output is obtained for a known input using a large amount of training data. The trained model obtained through this process can be used independently of the network that was used for training.

 そこで、プロセッサ10において、この種の推論モデルを持たせることにより、例えば特定対象物画像検出部14における特定対象物の検出、或いは操作判定部15における内視鏡操作の判定を正確にかつ迅速におこなうことができるようになる。 By providing the processor 10 with this type of inference model, it becomes possible to, for example, accurately and quickly detect specific objects in the specific object image detection unit 14, or to accurately and quickly determine endoscope operation in the operation determination unit 15.

 ここで、推論モデルは概略次のようにして構築される。例えば、推論モデルを構築するための所定のネットワーク(不図示)に、入力及び出力に対応する大量の画像データが教師データとして与えられる。ここで、教師データとしては、内視鏡画像において、特定対象物が撮像された画像(症例画像等)の画像データが入力される。この場合において、特定対象物の画像領域を枠等によって囲むようなアノテーションを設定してもよい。 The inference model is constructed roughly as follows. For example, a large amount of image data corresponding to the input and output is provided as training data to a specific network (not shown) for constructing the inference model. Here, image data of an image (such as a case image) in which a specific object is captured in an endoscopic image is input as the training data. In this case, an annotation may be set to surround the image area of the specific object with a frame or the like.

 大量の教師データによる学習を行うことで、所定のネットワーク(不図示)は、入力に対応する出力が得られるように、ネットワークデザインが決定される。例えば、図10は、所定の学習装置において学習の結果取得される推論モデルの説明図である。 By learning from a large amount of training data, a specific network (not shown) is designed to obtain an output corresponding to an input. For example, FIG. 10 is an explanatory diagram of an inference model obtained as a result of learning in a specific learning device.

 図10に示すように、特定対象物(腫瘍等)を含む内視鏡画像群(第1教師データ群201)が入力されると、画像内に撮像されている物体(例えば臓器等の管腔或いは内壁部等)と特定対象物との相対的な位置関係情報や、特定対象物の画像領域を囲む枠表示を付加する等の付加情報が信頼度情報と共に得られる。これにより、内視鏡画像から特定対象物を検出する第1推論モデル200が構築される。 As shown in FIG. 10, when a group of endoscopic images (first teacher data group 201) including a specific object (such as a tumor) is input, information on the relative positional relationship between the object captured in the image (such as the lumen or inner wall of an organ, etc.) and the specific object, and additional information such as adding a frame display surrounding the image area of the specific object, are obtained along with reliability information. This allows the construction of a first inference model 200 that detects the specific object from the endoscopic image.

 こうして構築された第1推論モデル200に対し、内視鏡検査中の内視鏡画像データ(第1画像データ;動画像データ)202が入力されると、第1推論モデル200は、当該内視鏡画像データ202のうち特定対象物が撮像されたフレームにおいて特定対象物を含む画像領域を検出し、当該特定対象物の画像領域に枠表示を付加した画像データ(推論結果画像203)を出力する。この画像203を第2画像データとして仮記憶し、必要に応じて表示装置30の第2表示領域に表示することで、内視鏡使用者の内視鏡検査の参考に帰することができる。 When endoscopic image data (first image data; moving image data) 202 during an endoscopic examination is input to the first inference model 200 constructed in this manner, the first inference model 200 detects an image area including a specific object in a frame in which the specific object is captured from the endoscopic image data 202, and outputs image data in which a frame display is added to the image area of the specific object (inference result image 203). This image 203 is temporarily stored as second image data, and can be displayed in the second display area of the display device 30 as necessary, providing a reference for the endoscope user during the endoscopic examination.

 また、図10に示すように、内視鏡検査中の探索操作画像群(第2教師データ群204;短尺動画像)が入力されると、内視鏡検査中において特定対象物の探索操作に関する情報が信頼度情報と共に得られる。これにより、内視鏡検査時の特定対象物探索操作を判定する第2推論モデル210が構築される。 Furthermore, as shown in FIG. 10, when a group of search operation images during an endoscopic examination (second teacher data group 204; short moving images) are input, information regarding the search operation of a specific object during the endoscopic examination is obtained together with reliability information. This allows the construction of a second inference model 210 that determines the search operation of a specific object during an endoscopic examination.

 こうして構築された第2推論モデル210に対し、内視鏡検査中の内視鏡画像データ(第2画像データ;動画像データ)202が入力されると、第2推論モデル210は、当該内視鏡画像データ202から探索操作を含む動画像(推論結果動画像205)を検索し出力する。この動画像205を第2画像データとして仮記憶し、必要に応じて表示装置30の第2表示領域に表示することで、内視鏡使用者の内視鏡検査の参考に帰することができる。 When endoscopic image data (second image data; moving image data) 202 during an endoscopic examination is input to the second inference model 210 constructed in this manner, the second inference model 210 searches for and outputs a moving image (inference result moving image 205) including a search operation from the endoscopic image data 202. This moving image 205 is temporarily stored as second image data and can be displayed in the second display area of the display device 30 as necessary, providing a reference for the endoscope user during the endoscopic examination.

 なお、「深層学習(ディープ・ラーニング)」は、ニューラル・ネットワークを用いた「機械学習」の過程を多層構造化したものである。情報を前から後ろに送って判定を行う「順伝搬型ニューラル・ネットワーク」が代表的なものである。これは、最も単純なものでは、N1個のニューロンで構成される入力層、パラメータで与えられるN2個のニューロンで構成される中間層、判別するクラスの数に対応するN3個のニューロンで構成される出力層の3層があればよい。そして、入力層と中間層、中間層と出力層の各ニューロンはそれぞれが結合加重で結ばれ、中間層と出力層はバイアス値が加えられることで、論理ゲートの形成が容易である。簡単な判別なら3層でもよいが、中間層を多数にすれば、機械学習の過程において複数の特徴量の組み合わせ方を学習することも可能となる。近年では、9層~152層のものが、学習にかかる時間や判定精度、消費エネルギーの関係から実用的になっている。 "Deep learning" is a multi-layered structure of the "machine learning" process using neural networks. A typical example is the "forward propagation neural network" which sends information from front to back and makes a judgment. In its simplest form, it has three layers: an input layer consisting of N1 neurons, a middle layer consisting of N2 neurons given by parameters, and an output layer consisting of N3 neurons corresponding to the number of classes to be discriminated. The neurons in the input layer and middle layer, and the middle layer and output layer are each connected by a connection weight, and a bias value is added to the middle layer and output layer, making it easy to form logic gates. Three layers are sufficient for simple discrimination, but if there are many middle layers, it is also possible to learn how to combine multiple features in the machine learning process. In recent years, 9 to 152 layers have become practical in terms of the time it takes to learn, the accuracy of judgment, and the energy consumption.

 機械学習に採用するネットワークとしては、公知の種々のネットワークを採用してもよい。例えば、CNN(Convolution Neural Network)を利用したR-CNN(Regions with CNN features)やFCN(Fully Convolutional Networks)等を用いてもよい。これは、画像の特徴量を圧縮する「畳み込み」と呼ばれる処理を伴い、最小限処理で動き、パターン認識に強い。また、より複雑な情報を扱え、順番や順序によって意味合いが変わる情報分析に対応して、情報を双方向に流れる「再帰型ニューラル・ネットワーク」(全結合リカレントニューラルネット)を利用してもよい。 Various well-known networks may be used as the network for machine learning. For example, R-CNN (Regions with CNN features) or FCN (Fully Convolutional Networks) that use CNN (Convolution Neural Network) may be used. This involves a process called "convolution" that compresses the features of an image, and operates with minimal processing and is strong in pattern recognition. In addition, a "recurrent neural network" (fully connected recurrent neural network) that can handle more complex information and allows information analysis in which the meaning changes depending on the order or sequence, and in which information flows in both directions, may be used.

 これらの技術の実現のためには、CPUやFPGAといったこれまでの汎用的な演算処理回路等を使ってもよいが、ニューラル・ネットワークの処理の多くが行列の掛け算であることから、行列計算に特化したGPU(Graphic Processing Unit)やTensor Processing Unit(TPU)と呼ばれるものが利用される場合もある。近年ではこうした人工知能(AI)専用ハードウエアの「ニューラル・ネットワーク・プロセッシング・ユニット(NPU)」がCPU等その他の回路とともに集積して組み込み可能に設計され、処理回路の一部になっている場合もある。 To realize these technologies, conventional general-purpose calculation processing circuits such as CPUs and FPGAs can be used, but since much of the processing in neural networks involves matrix multiplication, GPUs (Graphic Processing Units) or Tensor Processing Units (TPUs), which are specialized for matrix calculations, may also be used. In recent years, such artificial intelligence (AI) dedicated hardware "neural network processing units (NPUs)" have been designed to be integrated and embedded with CPUs and other circuits, and may form part of the processing circuit.

 また、深層学習に限らず、公知の各種機械学習の手法を採用して推論モデルを取得してもよい。例えば、サポートベクトルマシン、サポートベクトル回帰という手法もある。ここでの学習は、識別器の重み、フィルター係数、オフセットを算出するもので、他には、ロジスティック回帰処理を利用する手法もある。機械に何かを判定させる場合、人間が機械に判定の仕方を教える必要があり、今回の実施例では、画像の判定を、機械学習により導出する手法を採用したが、そのほか、特定の判断を人間が経験則・ヒューリスティクスによって獲得したルールを適応するルールベースの手法を応用して用いてもよい。 Furthermore, in addition to deep learning, various well-known machine learning methods may be employed to obtain an inference model. For example, there are methods such as support vector machines and support vector regression. The learning here involves calculating the weights, filter coefficients, and offsets of the classifier, and other methods use logistic regression processing. When making a machine make a judgment, a human must teach the machine how to make the judgment. In this embodiment, a method is used to derive a judgment on an image using machine learning, but it is also possible to apply a rule-based method that applies rules acquired by humans through experience and heuristics to make a specific judgment.

 さらにまた、特定対象物画像検出部14は、例えば内視鏡画像における1フレーム内に複数の特定対象物が検出された場合において、それぞれの特定対象物についての特徴情報をそれぞれ検出する。こうして検出された個々の特徴情報は、記憶制御部13において、それぞれ対応する特定対象物の第2画像データに関連付けて記憶される。 Furthermore, when multiple specific objects are detected within one frame of an endoscopic image, for example, the specific object image detection unit 14 detects feature information for each specific object. Each piece of feature information thus detected is stored in the memory control unit 13 in association with the second image data of the corresponding specific object.

 操作判定部15は、内視鏡20における操作部22の操作状況を判定する構成ユニット又は回路ユニットである。操作判定部15は、例えば、画像処理部11から出力される第1画像データに基いて操作部22の操作状況を判定する。この場合においては、上述したように、第2推論モデル210を用いた操作判定をおこなってもよい。また、操作判定部15は、操作部22に設けられる各種の操作部材22cからの操作指示信号を受信し、受信した指示信号に基いて操作部22の操作状況を判定するようにしてもよい。 The operation determination unit 15 is a structural unit or circuit unit that determines the operation status of the operation unit 22 in the endoscope 20. The operation determination unit 15 determines the operation status of the operation unit 22, for example, based on the first image data output from the image processing unit 11. In this case, as described above, the operation determination may be performed using the second inference model 210. The operation determination unit 15 may also receive operation instruction signals from various operating members 22c provided in the operation unit 22, and determine the operation status of the operation unit 22 based on the received instruction signals.

 フォーカス制御部16は、撮像ユニット26の撮像光学系26aを駆動制御する構成ユニット又は回路ユニットである。フォーカス制御部16は、特定対象物画像検出部14の検出結果や、操作判定部15の判定結果に基いて撮像光学系26aの駆動制御をおこない、例えば所定の自動焦点調節動作等を実行する。特定対象物が見つかった場合などに、それに対してフォーカス制御をしてもよい。その対象物の特徴を記録したメモリの内容に従って、フォーカス制御をしてもよい。 The focus control unit 16 is a structural unit or circuit unit that drives and controls the imaging optical system 26a of the imaging unit 26. The focus control unit 16 controls the driving of the imaging optical system 26a based on the detection result of the specific object image detection unit 14 and the judgment result of the operation judgment unit 15, and executes, for example, a predetermined automatic focus adjustment operation. When a specific object is found, for example, focus control may be performed on it. Focus control may also be performed according to the contents of a memory that records the characteristics of the object.

 照明制御部17は、光源装置40や照明ユニット25を駆動制御する構成ユニット又は回路ユニットである。照明制御部17は、操作部22に設けられる各種の操作部材22cからの操作指示信号、或いは特定対象物画像検出部14の検出結果や操作判定部15の判定結果に基く指示信号に応じて、光源装置40或いは照明ユニット25を制御して、光源種類(白色光,特殊光等)の切り換え制御をおこなう。 The lighting control unit 17 is a structural unit or circuit unit that drives and controls the light source device 40 and the lighting unit 25. The lighting control unit 17 controls the light source device 40 or the lighting unit 25 in response to operation instruction signals from various operating members 22c provided in the operation unit 22, or instruction signals based on the detection results of the specific object image detection unit 14 or the judgment results of the operation judgment unit 15, and controls the switching of the light source type (white light, special light, etc.).

 ここで、光源種類としては、例えば、通常観察をおこなう際に被検体に対して照射する白色光のほか、狭帯域光観察(NBI;Narrow Band Imaging)或いは赤色光観察(RDI;Red Dichromatic Imaging)等の画像強調観察をおこなう際に被検体に対して照射する所定の特殊光等がある。 Here, light source types include, for example, white light that is irradiated onto the specimen during normal observation, as well as specific special light that is irradiated onto the specimen during image-enhancing observation such as narrow band imaging (NBI) or red dichromatic imaging (RDI).

 なお、プロセッサ10の全部又は一部はハードウエアを含む。ここで、プロセッサ10は、例えば、中央処理装置(CPU;Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)や、不揮発性メモリ(Non-volatile memory)、不揮発性記憶装置(Non-volatile storage)等のほか、非一過性の記録媒体(non-transitory computer readable medium)等を備える周知の構成及びその周辺機器等によって構成されている。 It should be noted that all or part of the processor 10 includes hardware. Here, the processor 10 is configured with well-known components including, for example, a central processing unit (CPU), random access memory (RAM), read only memory (ROM), non-volatile memory, non-volatile storage, and non-transitory computer readable medium, as well as peripheral devices thereof.

 ROMや不揮発性メモリ、不揮発性記憶装置等には、CPUが実行するソフトウエアプログラムやデータテーブル等の固定データ等が予め記憶されている。そして、CPUがROM等に格納されたソフトウエアプログラムを読み出してRAMに展開して実行し、また、当該ソフトウエアプログラムが各種データ等を適宜参照等することによって、上記プロセッサ10の機能が実現される。 The software programs executed by the CPU and fixed data such as data tables are stored in advance in ROM, non-volatile memory, non-volatile storage devices, etc. Then, the CPU reads out the software programs stored in ROM, etc., expands them into RAM, and executes them, and the software programs refer to various data, etc. as appropriate, thereby realizing the functions of the processor 10.

 また、プロセッサ10は、FPGA(Field Programmable Gate Array)等の半導体チップ等により構成されていてもよい。さらに、プロセッサ10は、電子回路によって構成されていてもよい。 The processor 10 may also be configured with a semiconductor chip such as an FPGA (Field Programmable Gate Array). Furthermore, the processor 10 may also be configured with an electronic circuit.

 さらにまた、ソフトウエアプログラムは、コンピュータプログラム製品として、フレキシブルディスク、CD-ROM、DVD-ROM等の可搬型板媒体や、カード型メモリ、HDD(Hard Disk Drive)装置,SSD(Solid State Drive)装置等の非一過性の記憶媒体(non-transitory computer readable medium)等に、全体あるいは一部が記録され、あるいは記憶されている形態としてもよい。 Furthermore, the software program may be in a form in which the whole or part is recorded or stored as a computer program product on a portable disk medium such as a floppy disk, CD-ROM, or DVD-ROM, or on a non-transitory computer readable medium such as a card-type memory, HDD (Hard Disk Drive) device, or SSD (Solid State Drive) device.

 このように構成される本実施形態の対象物検出装置を含む内視鏡システム1の作用を、以下に説明する。図3は、本発明の一実施形態の対象物検出装置を含む内視鏡システムの作用を説明するフローチャートである。図3に示すフローチャートは、内視鏡システム1を用いて内視鏡検査をおこなう際の作用を説明する図である。 The operation of the endoscope system 1 including the object detection device of this embodiment configured as described above will be described below. FIG. 3 is a flowchart explaining the operation of an endoscope system including an object detection device of one embodiment of the present invention. The flowchart shown in FIG. 3 is a diagram explaining the operation when an endoscopic examination is performed using the endoscope system 1.

 まず、内視鏡システム1が起動して、内視鏡検査をおこない得る状態にあるものとする。このとき、図3のステップS1において、プロセッサ10は、当該内視鏡システム1における内視鏡20が、検査対象とする臓器等の内部に挿入された状態にあって、内視鏡検査のためのスクリーニングを開始し得る状態、或いはスクリーニングを既におこなっている状態(いずれかの状態を、スクリーニング状態というものとする)にあるか否かの確認をおこなう。 First, it is assumed that the endoscope system 1 has been started up and is in a state in which an endoscopic examination can be performed. At this time, in step S1 of FIG. 3, the processor 10 checks whether the endoscope 20 in the endoscope system 1 is inserted inside an organ or the like to be examined and is in a state in which screening for an endoscopic examination can be started, or in which screening is already being performed (either state will be referred to as the screening state).

 ここで、内視鏡システム1がスクリーニング状態にあるか否かの確認は、例えば、内視鏡システム1が予め決められた所定の手順で起動された後、内視鏡検査をおこなうための所定の設定がおこなわれていること等を確認すること、或いは内視鏡システム1の起動後の操作履歴等を確認することで、当該内視鏡システム1の状態を判定できる。また、内視鏡20によって取得されている内視鏡画像の画像データそのものや、画像データの変化を確認することによっても当該内視鏡システム1の状態を判定できる。 Here, whether or not the endoscope system 1 is in a screening state can be confirmed by, for example, checking that the endoscope system 1 has been started up in a predetermined procedure and that certain settings have been made for performing an endoscopic examination, or by checking the operation history of the endoscope system 1 after it has been started up. The state of the endoscope system 1 can also be determined by checking the image data of the endoscopic image acquired by the endoscope 20 itself or changes in the image data.

 なお、図4は、内視鏡検査中においてスクリーニングがおこなわれている際の表示装置30の表示画面の表示例を示している。図4に示す表示例では、第1画像101a(内視鏡画像)が第1表示領域101に表示されていることを示している。 Note that FIG. 4 shows an example of the display screen of the display device 30 when screening is being performed during an endoscopic examination. The display example shown in FIG. 4 shows that the first image 101a (endoscopic image) is displayed in the first display area 101.

 図3のステップS1の処理にて、内視鏡システム1がスクリーニング状態にあることが確認された場合には、次のステップS2の処理に進む。スクリーニング状態にないことが確認された場合は、ステップS11の処理に進む。
 なお、ここではスクリーニングが特定対象物を探す操作として代表的に記載しているが、必ずしも、スクリーニング状態でのみ、S2以降の制御を行う必要はなく、他の状態で同様の処理を行ってもよい。
3, if it is confirmed that the endoscope system 1 is in a screening state, the process proceeds to the next step S2. If it is confirmed that the endoscope system 1 is not in a screening state, the process proceeds to step S11.
Although screening is described here as a representative operation for searching for a specific object, it is not necessary that the control from S2 onwards is performed only in the screening state, and similar processing may be performed in other states.

 ステップS11において、プロセッサ10は、内視鏡検査を終了する旨の指示を確認する。ここで、内視鏡検査を終了する旨の指示としては、例えば内視鏡システム1のプロセッサ10等或いは内視鏡20の操作部22に設けられる操作部材22cのうちの所定の操作部材が操作されることにより発生する所定の検査終了指示信号等である。また、内視鏡検査を終了する旨の指示は、例えば、内視鏡20によって取得される内視鏡画像の画像データを確認することによっても内視鏡検査の終了を判定できる。 In step S11, the processor 10 confirms an instruction to end the endoscopic examination. Here, the instruction to end the endoscopic examination is, for example, a predetermined examination end instruction signal generated by operating a predetermined operating member among the processor 10 of the endoscopic system 1 or the operating members 22c provided on the operating unit 22 of the endoscope 20. In addition, the instruction to end the endoscopic examination can also be determined by, for example, confirming image data of the endoscopic image acquired by the endoscope 20.

 ステップS11の処理にて、検査終了指示が確認された場合には、一連の処理を終了する(エンド)。また、検査終了指示が確認されない場合には、上述のステップS1の処理に戻る。 If the instruction to end the test is confirmed in step S11, the process ends (END). If the instruction to end the test is not confirmed, the process returns to step S1 described above.

 スクリーニング状態であることが確認されてステップS2の処理に進むと、このステップS2において、プロセッサ10は、実行中のスクリーニングの結果、特定対象物を検出したか否かの確認をおこなう。詳しくは、内視鏡20によって取得される第1画像データに基く内視鏡画像から特定の対象物を含む画像領域が検出されたか否かの確認をおこなう。 When it is confirmed that the screening state is in progress and the process proceeds to step S2, in this step S2, the processor 10 checks whether or not a specific object has been detected as a result of the screening being performed. In more detail, it checks whether or not an image area including a specific object has been detected from an endoscopic image based on the first image data acquired by the endoscope 20.

 ここで、特定対象物が検出された場合には、次のステップS3の処理に進む。また、特定対象物が検出されない場合は、ステップS11の処理に進む。ステップS11以降の処理は、上述した通りである。 If a specific object is detected, the process proceeds to step S3. If a specific object is not detected, the process proceeds to step S11. The process from step S11 onwards is as described above.

 図5は、内視鏡検査中に特定対象物が検出された時点の表示装置30の表示画面の表示例を示している。この時点においては、第1表示領域101に第1画像101a(内視鏡画像)が表示されている。この第1表示領域101に表示されている第1画像101a内には、同時に特定対象物101bが表示されている。この符号101bで示される特定対象物が、上述のステップS2の処理にて検出された特定対象物である。 FIG. 5 shows an example of the display on the display screen of the display device 30 at the time when a specific object is detected during an endoscopic examination. At this time, a first image 101a (endoscopic image) is displayed in the first display area 101. Simultaneously, a specific object 101b is displayed within the first image 101a displayed in the first display area 101. This specific object indicated by the reference symbol 101b is the specific object detected in the processing of step S2 described above.

 図5の符号106は、検出された特定対象物101bを含む画像領域に対応する枠表示である。このように、第1表示領域101の中に枠106を表示することによって、第1画像101a内において特定対象物101bが検出されていることを、当該内視鏡システム1の使用者(医師等)に対して明示している。このように、特定対象物101bの検出時点においては、例えば、図5に示すような表示となる。 Reference numeral 106 in FIG. 5 denotes a frame display corresponding to the image area including the detected specific object 101b. In this way, by displaying the frame 106 in the first display area 101, it is clearly indicated to the user (doctor, etc.) of the endoscope system 1 that the specific object 101b has been detected in the first image 101a. In this way, at the time of detection of the specific object 101b, for example, a display such as that shown in FIG. 5 is displayed.

 図3のステップS3において、プロセッサ10は、記憶制御部13を制御して、上述のステップS2の処理にて検出された特定対象物画像を含む第2画像データを、仮記憶部51に仮記憶する。 In step S3 of FIG. 3, the processor 10 controls the memory control unit 13 to temporarily store the second image data, including the specific object image detected in the processing of step S2 described above, in the temporary memory unit 51.

 ここで、例えば、特定の対象物を含む画像領域が複数検出された場合には、検出された複数の特定対象物画像毎に、それぞれ別ファイルの第2画像データとして記憶する。同時に、複数の特定対象物についてのそれぞれの特徴情報を取得する。そして、取得された各特徴情報は、それぞれ対応する第2画像データに関連付けて記憶する。 Here, for example, if multiple image areas containing specific objects are detected, each of the detected images of the specific objects is stored as second image data in a separate file. At the same time, feature information for each of the multiple specific objects is acquired. Then, each piece of acquired feature information is stored in association with the corresponding second image data.

 また、ここで、例えば、内視鏡画像において、連続して同一の特定対象物の検出がなされている場合には、フレーム毎に、その都度、第2画像データの仮記憶がおこなわれる。この場合、全ての第2画像データを蓄積して保存しておく必要はない。例えば、最新の第2画像データのみ、若しくは最新の画像データを含む過去数秒間程度の所定時間分の第2画像データを仮記憶領域に保存すればよい。 Furthermore, here, for example, if the same specific object is detected consecutively in an endoscopic image, the second image data is temporarily stored for each frame. In this case, it is not necessary to accumulate and store all the second image data. For example, only the most recent second image data, or a predetermined amount of second image data for the past few seconds including the most recent image data, may be stored in the temporary storage area.

 続いて、ステップS4において、プロセッサ10は、上述のステップS2の処理にて検出された特定対象物が、表示中の内視鏡画像内から消失した(見失った)か否かの確認をおこなう。ここで、検出済みの特定対象物が内視鏡画像内から消失されたことが確認された場合には、次のステップS5の処理に進む。また、検出済みの特定対象物の内視鏡画像内からの消失が確認されない場合は、ステップS12の処理に進む。 Next, in step S4, the processor 10 checks whether the specific object detected in the processing of step S2 described above has disappeared (lost sight) from the endoscopic image being displayed. If it is confirmed that the detected specific object has disappeared from the endoscopic image, the process proceeds to the next step S5. If it is not confirmed that the detected specific object has disappeared from the endoscopic image, the process proceeds to step S12.

 ステップS12において、プロセッサ10は、不図示の内部時計等を参照し、所定の時間が経過するのを待ち、所定時間経過後、ステップS10の処理に進む。 In step S12, the processor 10 refers to an internal clock (not shown) and waits for a predetermined time to elapse, and after the predetermined time has elapsed, proceeds to the processing of step S10.

 この時点の状況は、検出済みの特定対象物は継続して内視鏡画像内に表示され続けている状態である(上述のステップS4の処理の確認結果)。したがって、このとき、内視鏡システム1の使用者(医師等)は、表示中の内視鏡画像の特定対象物について、十分な観察をおこなうことができる状態である。そこで、この場合には、当該ステップS12の処理にて、所定の時間継続して特定対象物が表示されていることを確認したら、ステップS10の処理に進み、以降の検査を続行する。 The situation at this point is that the detected specific object continues to be displayed in the endoscopic image (the confirmation result of the processing in step S4 described above). Therefore, at this time, the user of the endoscopic system 1 (doctor, etc.) is able to fully observe the specific object in the endoscopic image being displayed. In this case, once it is confirmed in the processing in step S12 that the specific object has been displayed continuously for a predetermined period of time, the process proceeds to the processing in step S10 and the subsequent examination continues.

 一方、検出済みの特定対象物の消失が確認されて、ステップS5の処理に進むと、このステップS5において、プロセッサ10は、上述のステップS3の処理にて仮記憶された最新の第2画像データに基く第2画像を参考画像として、表示装置30の表示画面における第2表示領域102に表示する。 On the other hand, if the disappearance of a detected specific object is confirmed and processing proceeds to step S5, in this step S5, the processor 10 displays a second image based on the latest second image data temporarily stored in the processing of step S3 described above as a reference image in the second display area 102 on the display screen of the display device 30.

 図6は、内視鏡検査中に、検出済みの特定対象物が消失した(ステップS4)後、第2画像(参考画像)が第2表示領域に表示された時点(ステップS5)の表示装置30の表示画面の表示例を示している。 FIG. 6 shows an example of the display on the display screen of the display device 30 at the point in time (step S5) when the second image (reference image) is displayed in the second display area after the detected specific object has disappeared (step S4) during endoscopic examination.

 ここで、まず、図6において第1表示領域101に表示されている第1画像101a(内視鏡画像)からは、図5で表示されていた特定対象物101bが消失している。このとき、特定対象物101bの消失と同時に、枠106の表示も消える(ステップS4)。 First, in FIG. 6, the specific object 101b displayed in FIG. 5 has disappeared from the first image 101a (endoscopic image) displayed in the first display area 101. At this time, the display of the frame 106 also disappears at the same time as the specific object 101b disappears (step S4).

 特定対象物101bの消失と同時に、第2表示領域102内に第2画像102aが表示される(ステップS5)。このとき第2表示領域102に表示される第2画像102aは、特定対象物101bが消失する直前の第1画像101a(図5参照)を縮小した形態の静止画像である。この第2画像102aは、上述のステップS3の処理にて仮記憶(仮記録)された最新の第2画像データに基く第2画像である。この時点(特定対象物101bの消失(S3)後、参考画像表示(S4)時点)においては、例えば、図6に示すような表示となる。 At the same time as the specific object 101b disappears, the second image 102a is displayed in the second display area 102 (step S5). At this time, the second image 102a displayed in the second display area 102 is a still image in a reduced form of the first image 101a (see FIG. 5) immediately before the specific object 101b disappeared. This second image 102a is a second image based on the latest second image data temporarily stored (temporarily recorded) in the processing of step S3 described above. At this point in time (after the specific object 101b disappears (S3) and at the point in time when the reference image is displayed (S4)), for example, the display will be as shown in FIG. 6.

 次に、図3のステップS6において、プロセッサ10は、同一の特定対象物が所定の時間(例えば5秒間程度)以内に再度検出されたか否かの確認をおこなう。ここで、同一の特定対象物とは、上述のステップS2の処理にて内視鏡画像内から一旦検出された特定対象物であって、かつ上述ステップS4の処理にて内視鏡画像内から消失した(見失った、見逃した)ものと同一の特定対象物を想定している。 Next, in step S6 of FIG. 3, the processor 10 checks whether the same specific object has been detected again within a predetermined time (e.g., about 5 seconds). Here, the same specific object is assumed to be the specific object that was once detected from the endoscopic image in the processing of step S2 described above, and that disappeared (lost sight, overlooked) from the endoscopic image in the processing of step S4 described above.

 この見逃した(消失した)対象物は、再度、発見した時には、優先的に観察できるようにした方が良い場合がある。なぜなら、正しくピントが合ってないと、また、見逃す可能性があるからであり、また、再発見したということは探していたものであり、重要な対象物と考えられるからである。つまり、特定対象物撮像結果画像データに基く参考画像に含まれる特定の対象物を含む画像領域は、ピント合わせの候補として仮記録(仮記憶)しておけば、このニーズを満たすことが出来る。 In some cases, it may be better to prioritize observation of this overlooked (lost) object when it is found again. This is because if the focus is not correct, there is a possibility that it will be overlooked again, and because rediscovering it means that it is what was being looked for and is considered to be an important object. In other words, this need can be met if the image area that contains the specific object contained in the reference image based on the specific object imaging result image data is temporarily recorded (temporarily stored) as a candidate for focusing.

 ステップS6の処理にて、同一の特定対象物が所定の時間以内に再度検出されたことが確認された場合には、ステップS7の処理に進む。また、同一の特定対象物の再検出がなされなかった場合は、ステップS10の処理に進み、以降の検査を続行する。 If it is determined in step S6 that the same specific object has been detected again within a predetermined time, the process proceeds to step S7. If the same specific object has not been detected again, the process proceeds to step S10, and the subsequent inspections are continued.

 ステップS7において、プロセッサ10は、上述のステップS6の処理にて再度検出された同一の特定対象物が所定時間、継続表示されているか否かの確認をおこなう。ここで、当該同一の特定対象物が所定時間、継続表示されていることが確認された場合には、次のステップS8の処理に進む。また、当該同一の特定対象物の所定時間の継続表示がなされていない場合は、上述のステップS4の処理に戻る。 In step S7, the processor 10 checks whether the same specific object detected again in the processing of step S6 described above has been continuously displayed for a predetermined time. If it is confirmed that the same specific object has been continuously displayed for a predetermined time, the processor proceeds to the processing of the next step S8. If the same specific object has not been continuously displayed for the predetermined time, the processor returns to the processing of step S4 described above.

 なお、この場合において、同一の特定対象物の所定時間の継続表示がなされていない場合とは、例えば、再度消失した場合、或いは瞬間的に消失と再検出が繰り返される等、表示画面上において当該特定対象物を安定して観察することができない状態にある場合等を想定している。このような場合、特定対象物の充分な観察をおこなうことができないので、再度消失したものと考えて、ステップS4の処理に戻って、同様の処理を繰り返すようにしている。 In this case, when the same specific object is not continuously displayed for a predetermined period of time, it is assumed that the specific object cannot be stably observed on the display screen because, for example, it has disappeared again, or it has disappeared and been redetected momentarily repeatedly. In such a case, since the specific object cannot be observed adequately, it is assumed that it has disappeared again, and the process returns to step S4 to repeat the same process.

 図7は、内視鏡検査中に、同一の特定対象物が再度検出された時点の表示装置30の表示画面の表示例を示している。ここで、図7において第1表示領域101に表示されている第1画像101a内には、同時に、同一の特定対象物101bが表示されている。このとき、特定対象物101bの再検出と同時に、枠106の表示も表示される。また、このとき、第2表示領域102内の第2画像102aの表示は維持されている。 Figure 7 shows an example of the display on the display screen of the display device 30 at the time when the same specific object is detected again during an endoscopic examination. Here, the same specific object 101b is simultaneously displayed within the first image 101a displayed in the first display area 101 in Figure 7. At this time, the frame 106 is also displayed at the same time as the specific object 101b is redetected. Also, at this time, the display of the second image 102a in the second display area 102 is maintained.

 このときの第1画像101aの表示と、第2画像102aの表示とは、ズレが生じている。このことは、上述のステップS4の処理にて特定対象物の消失後、内視鏡システム1の使用者(医師等)は、図5の状態から、内視鏡20の操作を行って再検出のための操作をおこなった結果、第1画像のアングル等が変化したことを意味する。したがって、この場合、再検出された同一の特定対象物101bの第1表示領域101中における位置と、第2画像102a中における特定対象物101bの位置とでは、異なる位置となっていることがわかる。このように、再検出された特定対象物101bの画面上の表示位置が異なっていても、第2画像データに関連付けて記憶された特徴情報に基いて、再検出された特定対象物101bが同一の特定対象物であると判定できる。 At this time, there is a misalignment between the display of the first image 101a and the display of the second image 102a. This means that after the specific object disappears in the processing of step S4 described above, the user (doctor, etc.) of the endoscope system 1 operates the endoscope 20 from the state shown in FIG. 5 to perform an operation for redetection, and as a result, the angle of the first image, etc. changes. Therefore, in this case, it can be seen that the position of the redetected identical specific object 101b in the first display area 101 is different from the position of the specific object 101b in the second image 102a. In this way, even if the display position of the redetected specific object 101b on the screen is different, it can be determined that the redetected specific object 101b is the same specific object based on the feature information stored in association with the second image data.

 こうして、再検出された特定対象物101bが同一の特定対象物であると判定された場合には、表示装置30の表示画面の所定の領域に所定の告知表示がなされる。例えば、図7に示す例では、アラーム表示領域104に、所定の告知表示としての「!再検出!」との表示が出現している。これを音声で補助してもよい。 In this way, if it is determined that the redetected specific object 101b is the same specific object, a predetermined notification display is made in a predetermined area of the display screen of the display device 30. For example, in the example shown in FIG. 7, a predetermined notification display, "! Redetected!", appears in the alarm display area 104. This may be assisted by audio.

 この告知表示は、第1表示領域101内で枠106で囲われる領域に含まれる特定対象物101bが、今回再検出された特定対象物であって、この特定対象物は、消失前に検出済みの特定対象物と同一の特定対象物である旨を告知する表示である。 This notification display notifies the user that the specific object 101b contained in the area surrounded by the frame 106 in the first display area 101 is the specific object that has been detected again this time, and that this specific object is the same specific object that was detected before it disappeared.

 なお、告知表示としては、例えば点滅表示や彩色表示等を用いて、当該内視鏡システム1の使用者(医師等)に対して確実に告知事項を明示できるようにする工夫が付加されているのが望ましい。この時点(特定対象物101bの再検出時点)においては、例えば、図7に示すような表示となる。 It is preferable that the notification display be a flashing or colored display, for example, so that the notification information is clearly indicated to the user (doctor, etc.) of the endoscope system 1. At this point (the point at which the specific object 101b is redetected), the display will be, for example, as shown in FIG. 7.

 続いて、図3のステップS8において、プロセッサ10は、表示制御部12を制御して、第2表示領域に表示中の参考画像の表示を停止させる。同時に、プロセッサ10は、フォーカス制御部16を制御して、特定対象物を特定ターゲットとする自動焦点調節制御(オートフォーカス制御;AF制御)を実行する。この場合の自動焦点調節制御においては、例えば、対象物追尾機能を有していてもよい。その後、ステップS9の処理に進む。 Next, in step S8 of FIG. 3, the processor 10 controls the display control unit 12 to stop displaying the reference image being displayed in the second display area. At the same time, the processor 10 controls the focus control unit 16 to execute automatic focus adjustment control (autofocus control; AF control) with a specific object as a specific target. The automatic focus adjustment control in this case may have, for example, an object tracking function. Then, the process proceeds to step S9.

 このように、自動焦点調節制御を実行することによって、再検出された同一の特定対象物について、確実にかつ常に合焦状態で、内視鏡画像の視野内に捉え続けることが容易となる。 In this way, by performing automatic focus adjustment control, it becomes easier to ensure that the same specific object that is detected again is always captured within the field of view of the endoscopic image in a focused state.

 内視鏡システム1の使用者(医師等)は、このような状況下において、例えば当該特定対象物をさらに詳細に観察するための操作等を行うことがある。具体的には、例えば、内視鏡20の先端部21aの前面(撮像ユニット26の対物レンズ)を観察対象とする特定対象物に近付ける操作等である。 In such a situation, the user of the endoscope system 1 (such as a doctor) may perform an operation to observe the specific object in more detail. Specifically, for example, the user may perform an operation to bring the front surface of the tip 21a of the endoscope 20 (the objective lens of the imaging unit 26) closer to the specific object to be observed.

 撮像ユニット26を特定対象物101bに近付けるほど、第1表示領域101の内視鏡画像内における特定対象物101bは、例えば図8に示すように、大きく表示される。なお、この場合にも、特定対象物101bを含む領域には、特定対象物101bの大きさに合わせて、当該特定対象物101bを囲むように拡大された枠106が表示されるようにしている。 The closer the imaging unit 26 is to the specific object 101b, the larger the specific object 101b is displayed in the endoscopic image in the first display area 101, as shown in FIG. 8, for example. Even in this case, the area including the specific object 101b is displayed with a frame 106 enlarged to surround the specific object 101b according to the size of the specific object 101b.

 また、図8に示す時点においては、上述のステップS8の処理に示すように、第2表示領域102の第2画像の表示は停止している。ここで、第2画像の表示を停止するタイミングとしては、例えば上述のステップS7の処理にて説明したように、再検出された同一の特定対象物が所定時間、継続表示されていることを確認した時点としているが、これに限られない。例えば、同一の特定対象物が再検出された後、操作判定部15の出力に基き、操作部22の所定の操作が確認された時点を、第2画像の表示停止タイミングとしてもよい。 Also, at the time shown in FIG. 8, the display of the second image in the second display area 102 has stopped, as shown in the processing of step S8 described above. Here, the timing for stopping the display of the second image is, for example, the time when it is confirmed that the same specific object that has been redetected has been continuously displayed for a predetermined period of time, as explained in the processing of step S7 above, but is not limited to this. For example, the time when a predetermined operation of the operation unit 22 is confirmed based on the output of the operation determination unit 15 after the same specific object has been redetected may be the timing for stopping the display of the second image.

 この場合の操作部22の所定の操作としては、例えば、撮像ユニット26を観察対象とする特定対象物101bに近付ける操作等が想定される。当該操作は、例えば操作部22に設けられる操作部材等の指示信号や、内視鏡20に設けられるセンサ類からの指示信号を受けて判定することができる。若しくは、内視鏡20によって取得される内視鏡画像の経時変化に基いて判定することもできる。即ち、内視鏡画像中において、観察対象としている特定対象物101bの大きさが時間経過にしたがって徐々に大きく表示されている場合に、撮像ユニット26が特定対象物101bに近付いていると判定できる。 In this case, the specified operation of the operation section 22 may be, for example, an operation of moving the imaging unit 26 closer to the specific object 101b to be observed. The operation may be determined, for example, by receiving an instruction signal from an operating member provided on the operation section 22 or an instruction signal from sensors provided on the endoscope 20. Alternatively, it may be determined based on the change over time in the endoscopic image acquired by the endoscope 20. That is, when the size of the specific object 101b to be observed is displayed gradually increasing over time in the endoscopic image, it may be determined that the imaging unit 26 is approaching the specific object 101b.

 一般に、内視鏡においては、撮像ユニットと観察対象物との間の距離が若干離れた状態(数センチメートル程度)でおこなわれるスクリーニング時等の通常観察時には、撮像光学系の被写界深度内で充分な観察をおこなうことができる(いわゆるパンフォーカス)。しかしながら、撮像ユニットが観察対象物に近付くと被写界深度が浅くなってしまうことから、詳細なフォーカス制御をおこなうようにするのがのぞましい。 In general, in endoscopes, during normal observation such as screening, where the imaging unit and the object being observed are somewhat distant from each other (approximately a few centimeters), sufficient observation can be performed within the depth of field of the imaging optical system (so-called pan focus). However, as the imaging unit approaches the object being observed, the depth of field becomes shallow, making it desirable to perform detailed focus control.

 そこで、本実施形態の内視鏡システム1においては、上述したように、特定対象物の再検出後には、当該特定対象物を特定ターゲットとする自動焦点調節制御をおこなうようにしているので、撮像ユニット26を特定対象物101bに近付ける操作が行われても、常に正確な合焦状態の鮮明な画像を取得することができるようになっている。 As described above, in the endoscope system 1 of this embodiment, after a specific object is redetected, automatic focus adjustment control is performed to target the specific object as a specific target, so that a clear image in an accurate focus state can always be obtained even if an operation is performed to bring the imaging unit 26 closer to the specific object 101b.

 したがって、図8の状態から、さらに撮像ユニット26を特定対象物101bに近付ける操作をして、図9に示す状態へと表示が変化したときにも、フォーカス制御は継続しておこなわれているので、当該特定対象物101bは、拡大された状態で表示され、かつ常に正確な合焦状態の鮮明な画像を取得することができるようになっている。 Therefore, even when the imaging unit 26 is moved closer to the specific object 101b from the state shown in FIG. 8 and the display changes to the state shown in FIG. 9, focus control continues, so the specific object 101b is displayed in an enlarged state, and a clear image in a precise focus state can always be obtained.

 図9に示す表示例では、拡大表示されている特定対象物101bの表面のようす、例えば毛細血管等までも観察(表示)し得る状態となっている表示例が示されている。図9は、このような状態における内視鏡画像の表示例である。 The display example shown in FIG. 9 shows an example of a display in which the surface of the enlarged specific object 101b, such as capillaries, can be observed (displayed). FIG. 9 is an example of an endoscopic image displayed in such a state.

 図3に戻って、ステップS9において、プロセッサ10は、観察対象としている特定対象物についての個別的な詳細観察(検査)が終了したか否かの確認をおこなう。この確認は、例えば、操作判定部15の出力に基き、操作部22の所定の操作の確認がなされた時点を、観察(検査)終了タイミングとすればよい。 Returning to FIG. 3, in step S9, the processor 10 checks whether or not the individual detailed observation (inspection) of the specific object being observed has been completed. This check can be performed, for example, based on the output of the operation determination unit 15, and the time when a predetermined operation of the operation unit 22 is confirmed can be taken as the observation (inspection) end timing.

 この場合において、操作部22の所定の操作としては、例えば、撮像ユニット26を観察対象とする特定対象物101bから離間させる操作等が考えられる。当該操作の判定は、上述の近付ける操作の判定と略同様である。 In this case, the predetermined operation of the operation section 22 may be, for example, an operation of moving the imaging unit 26 away from the specific object 101b to be observed. The determination of this operation is substantially the same as the determination of the above-mentioned approaching operation.

 ステップS9の処理にて、観察対象の特定対象物についての詳細観察(検査)が終了したことが確認された場合は、次のステップS10の処理に進む。また、当該特定対象物の詳細観察(検査)の終了が確認されない場合(詳細観察が継続している場合)は、当該詳細観察(検査)終了が確認されるまで、当該確認を繰り返す。 If it is confirmed in step S9 that detailed observation (inspection) of the specific object being observed has been completed, the process proceeds to the next step S10. If it is not confirmed that detailed observation (inspection) of the specific object has been completed (if detailed observation is continuing), the confirmation is repeated until it is confirmed that detailed observation (inspection) has been completed.

 こうして、個別的な特定対象物の詳細観察(検査)の終了が確認されると、次に、ステップS10において、プロセッサ10は、フォーカス制御部16を制御して、現在設定中の自動焦点調節制御のフォーカス制御設定を通常の制御設定に切り換える。その後、ステップS1の処理に戻り、次の新たな特定対象物を探索し、観察(検査)するための処理を繰り返す。 When the end of detailed observation (inspection) of the individual specific object is thus confirmed, then in step S10, the processor 10 controls the focus control unit 16 to switch the focus control setting of the currently set automatic focus adjustment control to the normal control setting. Thereafter, the process returns to step S1, and the process of searching for the next new specific object and observing (inspecting) it is repeated.

 以上のように、本願によれば、取得される画像データに基いて特定の対象物を含む画像領域を検出する特定対象物画像検出部を有する内視鏡等の画像検査装置において、検出された特定対象物撮像結果画像データを仮記憶部に仮記憶して、特定対象物の消失が検出された場合には、上記取得された画像データを表示する表示部に対して前記特定対象物撮像結果画像データに基く参考画像を併せて表示する表示制御部を行い、見逃した場合でもすぐに再チェックが出来るようにした。ここで、参考画像を併せて表示する形態としては、同一ディスプレイの異なる領域に分けて表示してもよいし、両方の表示の一部が重なってもよいし、異なるディスプレイに分けて表示してもよい。 As described above, according to the present application, in an image inspection device such as an endoscope having a specific object image detection unit that detects an image area including a specific object based on acquired image data, the detected specific object imaging result image data is temporarily stored in a temporary storage unit, and when the disappearance of a specific object is detected, a display control unit is operated to display a reference image based on the specific object imaging result image data on the display unit that displays the acquired image data, so that even if the specific object is overlooked, it can be immediately rechecked. Here, the form in which the reference image is displayed together may be displayed in different areas of the same display, or both displays may partially overlap, or the reference image may be displayed separately on different displays.

 以上説明したように上記一実施形態によれば、内視鏡画像から腫瘍等の特定の対象物の画像領域を検出して、当該特定対象物の詳細観察をおこなう内視鏡検査において、検出された特定対象物を含む第2画像データを仮記憶しておく。内視鏡画像から特定対象物が消失した場合は、第2画像データに基く参考画像を、表示装置30の第2表示領域に参考画像として表示する。そして、同一の特定対象物が内視鏡画像内に再度検出された場合は、当該同一の特定対象物に対する自動焦点調節制御を実行する。 As described above, according to the embodiment, in an endoscopic examination in which an image area of a specific object such as a tumor is detected from an endoscopic image and detailed observation of the specific object is performed, second image data including the detected specific object is temporarily stored. If the specific object disappears from the endoscopic image, a reference image based on the second image data is displayed as a reference image in the second display area of the display device 30. Then, if the same specific object is detected again in the endoscopic image, automatic focus adjustment control is performed on the same specific object.

 このような構成により、本発明の一実施形態の対象物検出装置を含む内視鏡システム1によれば、内視鏡検査中に観察対象とする特定対象物を見失ったとしても、消失前の特定対象物の参考画像に基づいて、再度の検出を容易におこなうことができる。 With this configuration, the endoscope system 1 including the object detection device of one embodiment of the present invention can easily detect a specific object to be observed again based on a reference image of the specific object before it disappeared, even if the specific object is lost during an endoscopic examination.

 また、同一の特定対象物が再検出された場合には、当該特定対象物に対して自動焦点調節制御が実行されるので、常に正確な合焦状態の鮮明な画像によって特定対象物の観察をおこなうことができる。 In addition, if the same specific object is detected again, automatic focus adjustment control is performed on that specific object, so that the specific object can always be observed with a clear image that is accurately focused.

 また、特定対象物の消失後に、同一の特定対象物が再検出された場合には、特定対象物が再検出された旨の告知表示を行うようにしたので、使用者は、同一の特定対象物が再検出されたことに容易に気が付くことができる。 In addition, if a specific object is redetected after it has disappeared, a notification is displayed to the effect that the specific object has been redetected, allowing the user to easily notice that the same specific object has been detected again.

 特定対象物画像検出部14は特定対象物に関する特徴情報を取得し、記憶制御部13は特定対象物に関する特徴情報を第2画像データに関連付けて仮記憶するようにした。この構成により、例えば、特定の対象物を含む画像領域が1つのフレーム内に複数検出された場合であっても、検出された複数の特定対象物画像のそれぞれを、区別して記憶しておくことができ、それぞれ別に参照することができる。したがって、より精密な検査をおこなうことができる。 The specific object image detection unit 14 acquires feature information about the specific object, and the storage control unit 13 temporarily stores the feature information about the specific object in association with the second image data. With this configuration, even if multiple image areas containing specific objects are detected within one frame, each of the multiple detected specific object images can be stored separately and can be referenced separately. This allows for more precise inspection.

 ところで、上述の一実施形態においては、参考画像の表示処理(図3のステップS5)において、特定対象物の消失直前の第1画像(ステップS3にて第2画像として仮記憶済み画像)を縮小した形態の静止画像を、表示装置30の第2表示領域に表示する形態を例示している。 In the above embodiment, in the reference image display process (step S5 in FIG. 3), a still image in a reduced form of the first image (the image temporarily stored as the second image in step S3) immediately before the disappearance of the specific object is displayed in the second display area of the display device 30.

 参考画像の形態は、この例示に限られることはない。第2画像は、例えば消失した特定対象物を再度探索するための探索支援動画像表示(ナビゲーション表示)の形態とすることが考えられる。 The form of the reference image is not limited to this example. The second image may be in the form of a search-assistance video image display (navigation display) for re-searching for a specific object that has disappeared.

 この場合、第2表示領域に表示される第2画像は、特定対象物の検出時点から消失時点までの間又は消失後数秒間の、或いは消失時点から一定時間遡った所定時間分(例えば数秒)の間の短尺の動画像とすることが考えられる。このような短尺動画像データを仮記憶しておき、これを、第2表示領域において繰り返し表示するような形態である。 In this case, the second image displayed in the second display area may be a short moving image of the period from when the specific object is detected to when it disappears, or for a few seconds after it disappears, or for a predetermined period of time (e.g., a few seconds) going back a certain amount of time from when it disappeared. Such short moving image data is temporarily stored, and is repeatedly displayed in the second display area.

 このようにすることで、特定対象物が消失するまでの経緯を再生することができる。これにより、例えば、特定対象物が蠕動運動によって臓器内部のひだ等に隠された、或いは出血や食物残渣等に覆われてしまった等、当該特定対象物の消失した原因を明らかとすることができる可能性がある。したがって、当該第2画像(参考画像)を短尺動画像とすれば、消失後の探索操作の方針を、より決めやすくなる。よって、同一の特定対象物の再度の検出が容易になる。 In this way, it is possible to reconstruct the events leading up to the disappearance of a specific object. This may make it possible to clarify the cause of the disappearance of the specific object, such as the specific object being hidden by folds inside an organ due to peristalsis, or being covered by bleeding or food residue. Therefore, if the second image (reference image) is a short moving image, it becomes easier to determine the direction of the search operation after disappearance. This makes it easier to detect the same specific object again.

 さらに、この再生表示の場合において、例えば、第2画像データに基く短尺動画像を第2表示領域に再生するときに、逆方向再生をおこなうようにしてもよい。こうすることで、さらに、消失経緯を明らかにすることが容易になる。よって、同一の特定対象物の再検出が、さらに容易になる可能性がある。 Furthermore, in the case of this playback display, for example, when a short moving image based on the second image data is played in the second display area, reverse playback may be performed. This makes it even easier to clarify the circumstances of the disappearance. This may make it even easier to redetect the same specific object.

 一方、上述の一実施形態においては、消失した特定対象物の再検出(図3のステップS6)後、同一特定対象物の所定時間継続表示の確認がなされ(図3のステップS7)、自動焦点調節制御を実行する例示としている(図3のステップS8)。 On the other hand, in the embodiment described above, after the lost specific object is redetected (step S6 in FIG. 3), the continuous display of the same specific object for a predetermined period of time is confirmed (step S7 in FIG. 3), and automatic focus adjustment control is executed (step S8 in FIG. 3).

 消失した特定対象物の再検出後の動作制御は、上述のフォーカス制御に限られることはない。図3のステップS8の処理においては、上述のフォーカス制御に代えて、以下のような制御をおこなうようにしてもよい。 The operational control after the redetection of the lost specific object is not limited to the focus control described above. In the process of step S8 in FIG. 3, the following control may be performed instead of the focus control described above.

 まず第1に、例えば、照明制御部17により、照明ユニット25及び光源装置40を駆動制御し、特定対象物を含む領域に対して所定の特殊光を照射する制御が考えられる。これにより、表示装置30の第1表示領域には、所定の形態の画像強調観察画像が表示される。ここで、画像強調観察画像は、例えば狭帯域光観察画像(NBI)、或いは赤色光観察画像(RDI)等が考えられる。 Firstly, for example, the lighting control unit 17 may control the driving of the lighting unit 25 and the light source device 40 to irradiate a region including a specific object with a predetermined special light. As a result, an image-enhanced observation image of a predetermined form is displayed in the first display region of the display device 30. Here, the image-enhanced observation image may be, for example, a narrowband observation image (NBI) or a red light observation image (RDI), etc.

 このような構成とすれば、特定対象物について、画像強調観察画像によって、より明確に特定対象物を表示することができ、見失い難くなる。また同時に、画像強調観察画像によって、より詳細な観察をおこなうことができる。 With this configuration, the image-enhanced observation image can display specific objects more clearly, making them less likely to be lost. At the same time, the image-enhanced observation image can be used to perform more detailed observations.

 次に第2に、例えば、画像処理部11によって、所定の画像調整処理或いは所定の画像強調処理を実行する制御が考えられる。これにより、表示装置30の第1表示領域には、所定の画像処理等の結果が反映された画像が表示される。ここで、画像調整処理としては、例えば輝度調整処理,ホワイトバランス調整処理等である。また、画像強調処理は、例えば輪郭強調処理,構造色彩強調処理等である。 Secondly, for example, control may be considered in which the image processing unit 11 executes a specified image adjustment process or a specified image enhancement process. As a result, an image reflecting the results of the specified image processing or the like is displayed in the first display area of the display device 30. Here, examples of image adjustment processes include brightness adjustment processes and white balance adjustment processes. Examples of image enhancement processes include contour enhancement processes and structural color enhancement processes.

 なお、照明制御部17の制御タイミング、或いは画像処理部11の処理開始タイミングは、上述したように、内視鏡検査中において特定対象物の消失後に同一の特定対象物が再度検出されかつ当該同一の特定対象物が継続表示されているとき等のほかにも、例えば、特定対象物に対する詳細観察操作がおこなわれていることが判定されたタイミングとしてもよい。 The control timing of the illumination control unit 17 or the processing start timing of the image processing unit 11 may be, as described above, when a specific object disappears during an endoscopic examination, and then the same specific object is detected again and continues to be displayed, or, for example, when it is determined that a detailed observation operation is being performed on the specific object.

 ここで、特定対象物に対する詳細観察操作とは、例えば、再検出された特定対象物に対して内視鏡20の先端部21a(撮像ユニット26)を特定対象物に近付ける操作等が考えられる。具体的には、例えば、先端部21aを現在の位置から、第2画像データが取得された時点に同先端部21aが存在していた位置に向けて移動させる操作等が検出されたときには、撮像ユニット26を特定対象物に近付ける操作をおこなっているものと判定する。 Here, a detailed observation operation of a specific object may be, for example, an operation of moving the tip 21a (imaging unit 26) of the endoscope 20 closer to the redetected specific object. Specifically, for example, when an operation of moving the tip 21a from its current position toward the position where the tip 21a was located at the time the second image data was acquired is detected, it is determined that an operation of moving the imaging unit 26 closer to the specific object is being performed.

 ところで、上述のように、再検出された特定対象物に対して内視鏡20の先端部21aの撮像ユニット26を特定対象物に近付ける操作等が検出されると、特定対象物に対する詳細観察操作を実行しようとしているものと判定される。このとき、上述の一実施形態においては、フォーカス制御が実行されて特定対象物に対する自動焦点調節制御がおこなわれる(図3のステップS8)。 As described above, when an operation such as moving the imaging unit 26 of the tip 21a of the endoscope 20 closer to the redetected specific object is detected, it is determined that an attempt is being made to perform a detailed observation operation on the specific object. At this time, in the embodiment described above, focus control is executed and automatic focus adjustment control is performed on the specific object (step S8 in FIG. 3).

 この場合において、撮像ユニット26が特定対象物に対して所定の距離以内に近付いたことが判定された場合には、さらに、フォーカス制御を拡大観察モードに切り換える構成としてもよい。この場合の処理シーケンスの一部を図11に示す。図11は、図3の処理シーケンスの一部を改変して示す本実施形態の変形例の作用を示すフローチャートである。 In this case, if it is determined that the imaging unit 26 has approached within a predetermined distance of the specific object, the focus control may be further switched to the magnified observation mode. Part of the processing sequence in this case is shown in FIG. 11. FIG. 11 is a flowchart showing the operation of a modified version of this embodiment, which shows a part of the processing sequence in FIG. 3.

 まず、図11において、ステップS1~ステップS6の処理は、図10と同様であるものとし図示を省略している。また、図11のステップS7,S8の処理についても、図10のステップS7,S8の処理と同じ処理ステップである。 First, in FIG. 11, the processes in steps S1 to S6 are the same as those in FIG. 10 and are therefore not shown. Additionally, the processes in steps S7 and S8 in FIG. 11 are the same as those in steps S7 and S8 in FIG. 10.

 即ち、ステップS7において、プロセッサ10は、再検出された同一の特定対象物が所定時間継続表示されていることを確認する。次に、ステップS8にて、参考画像の第2表示領域への表示停止と、自動焦点調節のフォーカス制御を実行する。 That is, in step S7, the processor 10 confirms that the same specific object that has been redetected has been continuously displayed for a predetermined period of time. Next, in step S8, the processor 10 stops displaying the reference image in the second display area and executes focus control for automatic focus adjustment.

 続いて、次のステップS8aにおいて、プロセッサ10は、操作判定部15の出力に基き、特定対象物に対して撮像ユニット26が所定の距離(例えば3ミリメートル程度)以内に近付く操作が成されているか否かの判定をおこなう。ここで、特定対象物に対して撮像ユニット26が所定の距離以内に近付く操作が判定された場合は、ステップS8bの処理に進む。また、特定対象物に対して撮像ユニット26が所定の距離以内に近付く操作が判定されない場合は、ステップS9の処理に進む。 Then, in the next step S8a, the processor 10 determines whether or not an operation has been performed in which the imaging unit 26 approaches the specific object within a predetermined distance (e.g., about 3 millimeters) based on the output of the operation determination section 15. If an operation in which the imaging unit 26 approaches the specific object within the predetermined distance is determined, the process proceeds to step S8b. If an operation in which the imaging unit 26 approaches the specific object within the predetermined distance is not determined, the process proceeds to step S9.

 そして、ステップS8bにおいて、プロセッサ10は、フォーカス制御部16を制御して所定の拡大観察モードに適したフォーカス制御設定をおこなう。その後、ステップS9の処理に進む。その他の処理ステップは、図10と略同様である。 Then, in step S8b, the processor 10 controls the focus control unit 16 to set the focus control appropriate for the specified magnified observation mode. Then, the process proceeds to step S9. The other processing steps are substantially the same as those in FIG. 10.

 このような構成によれば、さらなる拡大観察をおこなう場合にも、常に正確な合焦状態の鮮明な画像を取得することができるので、特定対象物の詳細観察をより良好な画像によっておこなうことができる。 With this configuration, even when further magnified observation is performed, a clear image with accurate focus can always be obtained, allowing for better images of specific objects to be observed in detail.

 本発明は上述した実施形態に限定されるものではなく、発明の主旨を逸脱しない範囲内において種々の変形や応用を実施することができることは勿論である。例えば、今回は内視鏡を例に説明したが、順次画像を得て判定する機器(画像検査装置等)であれば応用が可能である。さらに、上記実施形態には、種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組み合わせによって、種々の発明が抽出され得る。例えば、上記一実施形態に示される全構成要件から幾つかの構成要件が削除されても、発明が解決しようとする課題が解決でき、発明の効果が得られる場合には、この構成要件が削除された構成が発明として抽出され得る。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。この発明は、添付のクレームによって限定される以外にはそれの特定の実施態様によって制約されない。 The present invention is not limited to the above-described embodiment, and various modifications and applications can be made without departing from the spirit of the invention. For example, an endoscope has been described as an example this time, but the invention can be applied to any device that sequentially obtains images and makes a judgment (such as an image inspection device). Furthermore, the above-described embodiment includes inventions at various stages, and various inventions can be extracted by appropriate combinations of the multiple components disclosed. For example, even if some components are deleted from all the components shown in the above embodiment, if the problem that the invention is intended to solve can be solved and the effects of the invention can be obtained, the configuration from which the components are deleted can be extracted as the invention. Furthermore, components from different embodiments may be appropriately combined. This invention is not restricted by its specific implementation except as limited by the attached claims.

Claims (20)

 内視鏡によって取得される第1画像データに基く内視鏡画像から特定の対象物を含む画像領域を検出する特定対象物画像検出部と、
 検出された前記特定対象物を含む第2画像データを仮記憶部に仮記憶する記憶制御部と、
 前記内視鏡画像から前記特定対象物の消失が検出された場合には、前記第2画像データに基く参考画像を表示装置に表示する表示制御部と、
 を具備することを特徴とする対象物検出装置。
a specific object image detection unit that detects an image area including a specific object from an endoscopic image based on first image data acquired by an endoscope;
a storage control unit that temporarily stores second image data including the detected specific object in a temporary storage unit;
a display control unit that displays a reference image based on the second image data on a display device when disappearance of the specific object is detected from the endoscopic image;
An object detection device comprising:
 前記表示制御部は、前記表示装置の表示画面内において、前記内視鏡画像が表示される第1表示領域とは異なる第2表示領域に前記参考画像を表示する
ことを特徴とする請求項1に記載の対象物検出装置。
The object detection device according to claim 1, characterized in that the display control unit displays the reference image in a second display area on the display screen of the display device, the second display area being different from a first display area in which the endoscopic image is displayed.
 前記参考画像に含まれる前記特定対象物であって、前記内視鏡画像から消失した特定対象物と同一の前記特定対象物が、前記特定対象物画像検出部によって、前記内視鏡画像内に再度検出された場合には、
 前記表示制御部は、前記参考画像に含まれる同一の前記特定対象物が再検出された旨を前記表示装置に告知表示する
ことを特徴とする請求項2に記載の対象物検出装置。
When the specific object included in the reference image is the same as the specific object that disappeared from the endoscopic image, and the specific object is detected again in the endoscopic image by the specific object image detection unit,
The object detection device according to claim 2 , wherein the display control unit displays, on the display device, a notification that the same specific object included in the reference image has been detected again.
 前記記憶制御部は、前記特定対象物の前記内視鏡画像からの消失時点から一定時間前までの間の前記特定対象物を含む画像領域の動画像データを前記第2画像データとして前記仮記憶部に仮記憶し、
 前記表示制御部は、前記第2画像データに基く動画像データを前記第2表示領域に再生表示する
ことを特徴とする請求項2に記載の対象物検出装置。
the storage control unit temporarily stores, in the temporary storage unit, moving image data of an image area including the specific object from a time point when the specific object disappeared from the endoscopic image until a certain time before the time point, as the second image data;
3. The object detection device according to claim 2, wherein the display control unit reproduces and displays moving image data based on the second image data in the second display area.
 前記内視鏡に含まれる撮像ユニットの撮像光学系を駆動制御するフォーカス制御部を、さらに備え、
 前記内視鏡画像内から消失した特定対象物であって、前記参考画像に含まれる前記特定対象物と同一の前記特定対象物を、前記特定対象物画像検出部が、前記内視鏡画像内に再度検出し、かつ当該同一の前記特定対象物が当該内視鏡画像内に継続表示されていることを検出した場合には、
 前記フォーカス制御部は、前記撮像光学系を駆動制御し、前記特定対象物に対する自動焦点調節制御を実行する
ことを特徴とする請求項2に記載の対象物検出装置。
a focus control unit that drives and controls an imaging optical system of an imaging unit included in the endoscope,
When the specific object image detection unit detects again in the endoscopic image a specific object that has disappeared from the endoscopic image and is identical to the specific object included in the reference image, and detects that the same specific object is still being displayed in the endoscopic image,
3. The object detection device according to claim 2, wherein the focus control unit drives and controls the imaging optical system, and executes automatic focus adjustment control for the specific object.
 前記内視鏡に含まれる照明ユニット及び光源装置を駆動制御する照明制御部を、さらに備え、
 前記内視鏡画像内から消失した特定対象物であって、前記参考画像に含まれる前記特定対象物と同一の前記特定対象物を、前記特定対象物画像検出部が、前記内視鏡画像内に再度検出し、かつ当該同一の前記特定対象物が当該内視鏡画像内に継続表示されていることを検出した場合には、
 前記照明制御部は、前記照明ユニット及び前記光源装置を駆動制御し、前記特定対象物を含む領域に対して特殊光を照射し、
 前記表示制御部は、前記第1表示領域に画像強調観察画像を表示する
ことを特徴とする請求項2に記載の対象物検出装置。
The endoscope further includes an illumination control unit that drives and controls an illumination unit and a light source device included in the endoscope,
When the specific object image detection unit detects again in the endoscopic image a specific object that has disappeared from the endoscopic image and is identical to the specific object included in the reference image, and detects that the same specific object is still being displayed in the endoscopic image,
The lighting control unit drives and controls the lighting unit and the light source device to irradiate a special light onto an area including the specific object,
The object detection device according to claim 2 , wherein the display control unit displays an image-enhanced observation image in the first display area.
 前記画像強調観察画像は、狭帯域光観察画像(NBI)或いは赤色光観察画像(RDI)である
ことを特徴とする請求項6に記載の対象物検出装置。
7. The object detection apparatus according to claim 6, wherein the image-enhanced observation image is a narrow band observation image (NBI) or a red light observation image (RDI).
 前記内視鏡画像を表す前記第1画像データに対して画像情報処理を施す画像処理部と、
 前記内視鏡の操作部の操作状況を判定する操作判定部と、
 を、さらに備え、
 前記内視鏡画像内から消失した特定対象物であって、前記参考画像に含まれる前記特定対象物と同一の前記特定対象物を、前記特定対象物画像検出部が、前記内視鏡画像内に再度検出し、かつ当該同一の前記特定対象物が当該内視鏡画像内に継続表示されていることを検出した場合、または、
 前記操作判定部が、前記特定対象物に対する観察操作がおこなわれていることを判定した場合、
のいずれかの場合には、
 前記画像処理部は、画像調整処理又は画像強調処理を実行し、
 前記表示制御部は、前記表示装置の前記第1表示領域に前記画像処理部による画像処理の結果出力される画像を表示する
ことを特徴とする請求項2に記載の対象物検出装置。
an image processing unit that performs image information processing on the first image data representing the endoscopic image;
an operation determination unit that determines an operation status of an operation unit of the endoscope;
Furthermore,
When the specific object image detection unit detects again in the endoscopic image a specific object that has disappeared from the endoscopic image and is identical to the specific object included in the reference image, and detects that the same specific object is still being displayed in the endoscopic image, or
When the operation determination unit determines that an observation operation is being performed on the specific object,
In either case,
The image processing unit executes an image adjustment process or an image enhancement process,
The object detection device according to claim 2 , wherein the display control unit displays an image output as a result of image processing by the image processing unit in the first display area of the display device.
 前記画像処理部により実行される画像調整処理は、輝度調整処理,ホワイトバランス調整処理であり、
 前記画像処理部により実行される画像強調処理は、輪郭強調処理,構造色彩強調処理である
ことを特徴とする請求項8に記載の対象物検出装置。
The image adjustment processing executed by the image processing unit is a brightness adjustment processing and a white balance adjustment processing,
9. The object detection device according to claim 8, wherein the image enhancement processing executed by said image processing unit is edge enhancement processing and structural color enhancement processing.
 前記操作判定部は、前記内視鏡画像内の前記特定対象物を含む画像領域の経時変化に基いて、前記特定対象物の詳細観察操作を判定する
ことを特徴とする請求項8に記載の対象物検出装置。
The object detection device according to claim 8 , wherein the operation determination unit determines a detailed observation operation of the specific object based on a change over time in an image area including the specific object in the endoscopic image.
 前記特定対象物画像検出部は、さらに、前記特定対象物に関する特徴情報を取得し、
 前記記憶制御部は、前記特定対象物に関する前記特徴情報を、前記第2画像データに関連付けて仮記憶する
ことを特徴とする請求項1に記載の対象物検出装置。
The specific object image detection unit further acquires feature information regarding the specific object,
The object detection device according to claim 1 , wherein the storage control unit temporarily stores the feature information on the specific object in association with the second image data.
 前記内視鏡に含まれる撮像ユニットの撮像光学系を駆動制御するフォーカス制御部と、
 前記内視鏡の操作部の操作状況を判定する操作判定部と、
をさらに備え、
 前記内視鏡画像内に同一の前記特定対象物を、前記特定対象物画像検出部が再度検出し、かつ
 前記第2画像データが取得された時点に前記内視鏡の先端部が存在していた位置へ向けて、前記先端部を移動させる操作を、前記操作判定部が検出した場合は、
 前記フォーカス制御部は、前記撮像光学系を駆動制御し、前記特定対象物に対する自動焦点調節制御を実行する
ことを特徴とする請求項2に記載の対象物検出装置。
a focus control unit that drives and controls an imaging optical system of an imaging unit included in the endoscope;
an operation determination unit that determines an operation status of an operation unit of the endoscope;
Further equipped with
When the specific object image detection unit detects the same specific object in the endoscopic image again, and the operation determination unit detects an operation of moving the tip end of the endoscope toward the position where the tip end of the endoscope was located at the time when the second image data was acquired,
3. The object detection device according to claim 2, wherein the focus control unit drives and controls the imaging optical system, and executes automatic focus adjustment control for the specific object.
 前記特定対象物画像検出部は、
大量の特定対象物画像データを教師データとして構築され、前記特定対象物を含む画像領域を囲う枠表示によりアノテーション設定されて構築された第1の推論モデルを有する
ことを特徴とする請求項2に記載の対象物検出装置。
The specific object image detection unit
The object detection device described in claim 2, characterized in that it has a first inference model constructed by using a large amount of specific object image data as training data and annotating the image area containing the specific object by displaying a frame.
 前記操作判定部は、
内視鏡を用いておこなう内視鏡検査中に順次取得される複数の内視鏡画像を時系列に並べて構成される大量の動画像データを教師データとして構築され、前記内視鏡検査中に検出された前記特定対象物を消失したときにおこなわれる前記特定対象物の探索操作がアノテーション設定されて構築される第2の推論モデルを有することを特徴とする請求項8に記載の対象物検出装置。
The operation determination unit is
The object detection device described in claim 8, characterized in that it has a second inference model constructed using as training data a large amount of video image data consisting of a chronological arrangement of multiple endoscopic images acquired sequentially during an endoscopic examination using an endoscope, and in which a search operation for the specific object performed when the specific object detected during the endoscopic examination disappears is annotated.
 内視鏡によって連続的に取得される内視鏡画像を時系列に連続して表示するスクリーニングステップと、
 前記内視鏡画像から特定対象物を検出する検出ステップと、
 検出された前記特定対象物を含む画像領域に対応する画像データを仮記憶する仮記憶ステップと、
 前記内視鏡画像から前記特定対象物の消失が検出された場合に、前記特定対象物を含む画像領域を参考画像として表示する参考画像表示ステップと、
 前記参考画像に対応する前記特定対象物であって、前記内視鏡画像から消失した前記特定対象物と同一の特定対象物が、前記内視鏡画像内に再度検出された場合には、前記参考画像の表示を終了させ、前記特定対象物に対する自動焦点調節制御を実行するフォーカス制御ステップと、
 を具備することを特徴とする対象物検出方法。
a screening step of continuously displaying endoscopic images acquired by an endoscope in a time series;
a detection step of detecting a specific object from the endoscopic image;
a temporary storage step of temporarily storing image data corresponding to an image area including the detected specific object;
a reference image display step of displaying an image area including the specific object as a reference image when disappearance of the specific object is detected from the endoscopic image;
a focus control step of terminating display of the reference image and executing automatic focus adjustment control for the specific object when the specific object corresponding to the reference image and identical to the specific object that has disappeared from the endoscopic image is detected again in the endoscopic image;
An object detection method comprising:
 コンピュータに、
 内視鏡画像を連続して表示する処理と、
 前記内視鏡画像から特定対象物を検出する処理と、
 検出された前記特定対象物を含む画像領域に対応する画像データを仮記憶する処理と、
 前記内視鏡画像から前記特定対象物の消失が検出された場合に、前記特定対象物を含む画像領域を参考画像として表示する処理と、
 前記参考画像に対応する前記特定対象物であって、前記内視鏡画像から消失した前記特定対象物と同一の特定対象物が、前記内視鏡画像内に再度検出された場合には、前記参考画像の表示を終了させ、前記特定対象物に対する自動焦点調節をおこなう処理と、
 を実行させることを特徴とする対象物検出プログラム。
On the computer,
A process for continuously displaying endoscopic images;
A process of detecting a specific object from the endoscopic image;
A process of temporarily storing image data corresponding to an image area including the detected specific object;
a process of displaying an image region including the specific object as a reference image when disappearance of the specific object is detected from the endoscopic image;
a process of ending display of the reference image and performing automatic focus adjustment on the specific object when the specific object corresponding to the reference image and identical to the specific object that disappeared from the endoscopic image is detected again in the endoscopic image;
An object detection program comprising:
 対象物の光学像を結像させる撮像光学系と当該撮像光学系によって結像された光学像を光電変換する撮像素子とを有する撮像ユニットを含む内視鏡と、プロセッサと、を備える内視鏡システムであって、
 前記プロセッサは、
前記撮像ユニットによって取得される第1画像データに基く内視鏡画像から特定対象物を含む画像領域を検出する特定対象物画像検出部と、
検出された前記特定対象物を含む第2画像データを仮記憶部に仮記憶する記憶制御部と、
前記内視鏡画像から前記特定対象物の消失が検出された場合には、前記第2画像データに基く参考画像を、表示装置の表示画面内のうち前記内視鏡画像が表示される第1表示領域とは異なる第2表示領域に表示する表示制御部と、
前記撮像光学系を駆動制御するフォーカス制御部と、
を有し、
 前記対象物画像検出部が、前記内視鏡画像内から消失した前記特定対象物と同一の前記特定対象物が、前記内視鏡画像内に再度検出され、かつ当該同一の前記特定対象物が当該内視鏡画像内に継続表示されていることを検出した場合には、
 前記フォーカス制御部は、前記撮像光学系を駆動制御して、前記特定対象物に対する自動焦点調節制御を実行する
 ことを特徴とする内視鏡システム。
An endoscope system including an endoscope including an imaging unit having an imaging optical system that forms an optical image of an object and an imaging element that photoelectrically converts the optical image formed by the imaging optical system, and a processor,
The processor,
a specific object image detection unit that detects an image area including a specific object from an endoscopic image based on first image data acquired by the imaging unit;
a storage control unit that temporarily stores second image data including the detected specific object in a temporary storage unit;
a display control unit that, when disappearance of the specific object is detected from the endoscopic image, displays a reference image based on the second image data in a second display area, which is different from a first display area in which the endoscopic image is displayed, within a display screen of a display device;
a focus control unit that drives and controls the imaging optical system;
having
When the object image detection unit detects that the specific object that is the same as the specific object that disappeared from the endoscopic image is detected again in the endoscopic image, and the same specific object is continuously displayed in the endoscopic image,
The focus control unit controls the imaging optical system to perform automatic focus adjustment control for the specific object.
 画像検査装置によって取得される画像データに基いて特定の対象物を含む画像領域を検出し、
 検出された前記特定対象物を含む特定対象物撮像結果画像データを仮記憶部に仮記憶し、
 前記画像データに基く画像から前記特定対象物の消失が検出された場合には、上記取得された画像データに基く画像を表示する表示部に対して前記特定対象物撮像結果画像データに基く参考画像を併せて表示することを特徴とする対象物検出方法。
Detecting an image area including a specific object based on image data acquired by an image inspection device;
Temporarily storing specific object imaging result image data including the detected specific object in a temporary storage unit;
An object detection method characterized in that, when disappearance of the specific object is detected from an image based on the image data, a reference image based on the specific object imaging result image data is also displayed on a display unit that displays an image based on the acquired image data.
 さらに、前記特定対象物の前記内視鏡画像からの消失時点から一定時間前までの間の前記特定対象物を含む画像領域の動画像データを消失過程動画像として仮記憶する
 ことを特徴とする請求項18に記載の対象物検出方法。
The object detection method according to claim 18, further comprising temporarily storing, as a disappearance process moving image, moving image data of an image area including the specific object from the time when the specific object disappeared from the endoscopic image until a certain time before that.
 さらに、前記特定対象物撮像結果画像データに基く参考画像に含まれる特定の対象物を含む画像領域をピント合わせの候補として仮記録する
 ことを特徴とする請求項18に記載の対象物検出方法。
The object detection method according to claim 18, further comprising provisionally recording an image area including the specific object contained in a reference image based on the specific object imaging result image data as a candidate for focusing.
PCT/JP2023/046634 2023-12-26 2023-12-26 Object detection device, object detection method, object detection program, and endoscope system Pending WO2025141691A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2023/046634 WO2025141691A1 (en) 2023-12-26 2023-12-26 Object detection device, object detection method, object detection program, and endoscope system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2023/046634 WO2025141691A1 (en) 2023-12-26 2023-12-26 Object detection device, object detection method, object detection program, and endoscope system

Publications (1)

Publication Number Publication Date
WO2025141691A1 true WO2025141691A1 (en) 2025-07-03

Family

ID=96217060

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/046634 Pending WO2025141691A1 (en) 2023-12-26 2023-12-26 Object detection device, object detection method, object detection program, and endoscope system

Country Status (1)

Country Link
WO (1) WO2025141691A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017059870A (en) * 2015-09-14 2017-03-23 オリンパス株式会社 IMAGING OPERATION GUIDE DEVICE AND IMAGING DEVICE OPERATION GUIDE METHOD
WO2017216922A1 (en) * 2016-06-16 2017-12-21 オリンパス株式会社 Image processing device and image processing method
JP2019180966A (en) * 2018-04-13 2019-10-24 学校法人昭和大学 Endoscope observation support apparatus, endoscope observation support method, and program
WO2021149141A1 (en) * 2020-01-21 2021-07-29 オリンパス株式会社 Focus control device, endoscope system, and operation method for focus control device
US20220180520A1 (en) * 2020-02-08 2022-06-09 Tencent Technology (Shenzhen) Company Limited Target positioning method, apparatus and system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017059870A (en) * 2015-09-14 2017-03-23 オリンパス株式会社 IMAGING OPERATION GUIDE DEVICE AND IMAGING DEVICE OPERATION GUIDE METHOD
WO2017216922A1 (en) * 2016-06-16 2017-12-21 オリンパス株式会社 Image processing device and image processing method
JP2019180966A (en) * 2018-04-13 2019-10-24 学校法人昭和大学 Endoscope observation support apparatus, endoscope observation support method, and program
WO2021149141A1 (en) * 2020-01-21 2021-07-29 オリンパス株式会社 Focus control device, endoscope system, and operation method for focus control device
US20220180520A1 (en) * 2020-02-08 2022-06-09 Tencent Technology (Shenzhen) Company Limited Target positioning method, apparatus and system

Similar Documents

Publication Publication Date Title
CN113473899B (en) Endoscope device and control method thereof, information storage medium, and processing device
US12137879B2 (en) Image processing apparatus, image processing method, and endoscope apparatus
JP2012525898A (en) Real-time scope tracking and branch labeling without electromagnetic tracking and preoperative roadmap scanning
WO2021075418A1 (en) Image processing method, teacher data generation method, trained model generation method, illness development prediction method, image processing device, image processing program, and recording medium on which program is recorded
JP7146318B1 (en) Computer program, learning model generation method, and surgery support device
JPWO2020165978A1 (en) Image recorder, image recording method and image recording program
JP7189355B2 (en) Computer program, endoscope processor, and information processing method
WO2023095208A1 (en) Endoscope insertion guide device, endoscope insertion guide method, endoscope information acquisition method, guide server device, and image inference model learning method
EP4111938A1 (en) Endoscope system, medical image processing device, and operation method therefor
Boini et al. Scoping review: autonomous endoscopic navigation
WO2025141691A1 (en) Object detection device, object detection method, object detection program, and endoscope system
US20230410304A1 (en) Medical image processing apparatus, medical image processing method, and program
WO2023218523A1 (en) Second endoscopic system, first endoscopic system, and endoscopic inspection method
JP7561382B2 (en) Colonoscopic observation support device, operation method, and program
CN115023171A (en) Medical image data generation device for study, medical image data generation method for study, and program
JP2021065606A (en) Image processing method, teacher data generation method, learned model generation method, disease onset prediction method, image processing device, image processing program, and recording medium that records the program
JP7314394B2 (en) Endoscopy support device, endoscopy support method, and endoscopy support program
WO2023282144A1 (en) Information processing device, information processing method, endoscope system, and report preparation assistance device
WO2025191707A1 (en) Biological observation device, biological observation method, and endoscope system
WO2025158618A1 (en) Focus control device, focus control method, focus control program, and endoscope system
JP7533905B2 (en) Colonoscopic observation support device, operation method, and program
Vajpeyi et al. A colonoscopy training environment with real-time pressure monitoring
JP7264407B2 (en) Colonoscopy observation support device for training, operation method, and program
WO2025203642A1 (en) Focus control device, focus control method, and endoscope system
WO2025069193A1 (en) Endoscope diagnosis assistance device, endoscope diagnosis assistance method, and endoscope diagnosis assistance program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23963047

Country of ref document: EP

Kind code of ref document: A1